JP7074386B1 - ロボットシステム、把持制御方法、把持制御プログラム、及び、記録媒体 - Google Patents
ロボットシステム、把持制御方法、把持制御プログラム、及び、記録媒体 Download PDFInfo
- Publication number
- JP7074386B1 JP7074386B1 JP2021521321A JP2021521321A JP7074386B1 JP 7074386 B1 JP7074386 B1 JP 7074386B1 JP 2021521321 A JP2021521321 A JP 2021521321A JP 2021521321 A JP2021521321 A JP 2021521321A JP 7074386 B1 JP7074386 B1 JP 7074386B1
- Authority
- JP
- Japan
- Prior art keywords
- situation
- gripping
- work
- robot arm
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000003384 imaging method Methods 0.000 claims description 3
- 239000000463 material Substances 0.000 description 9
- 230000000877 morphologic effect Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000005489 elastic deformation Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- RTZKZFJDLAIYFH-UHFFFAOYSA-N Diethyl ether Chemical compound CCOCC RTZKZFJDLAIYFH-UHFFFAOYSA-N 0.000 description 2
- 229920000459 Nitrile rubber Polymers 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 229920001084 poly(chloroprene) Polymers 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 229920006311 Urethane elastomer Polymers 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 150000001336 alkenes Chemical class 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 150000002148 esters Chemical class 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- JRZJOMJEPLMPRA-UHFFFAOYSA-N olefin Natural products CCCCCCCC=C JRZJOMJEPLMPRA-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 229920002803 thermoplastic polyurethane Polymers 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
Description
前記ロボットアームの周辺環境を撮像可能なセンサと、
前記把持作業の開始時の状況Aと終了時の状況B、及び、前記センサからの情報に基づいて、前記開始時の状況Aから前記終了時の状況Bまでの前記ロボットアームの動作経路計画を、前記ロボットアームによるティーチングと人の動作による実演教示を用いることなく自動的に作成し(但し、前記開始時の状況Aを前記把持作業の進行に伴って更新する場合を除く)、該動作経路計画に従って前記ロボットアームを制御する制御手段とを有し、
前記制御手段は、前記動作経路計画の作成に、前記開始時の状況Aと前記終了時の状況Bから抽出された差分データを用い、変化のない重複部分と変化のある異なる部分とを判別する。
ここで、ロボットアームの周辺環境とは、ロボットアームの動作可能な領域(ロボットアームの作業領域(動作環境))を含む環境(空間)であり、例えば、複数のワーク(対象物)を空の状態のコンテナに収容する場合は、把持前のワークが収容されたケースと、このケースからコンテナ(搬送先)までのワークの搬送領域と、コンテナとを含む環境を意味する。なお、この場合、ワークの搬送先であるコンテナ、又は、このコンテナを含む空間が、後述する作業対象となる(以下、同じ)。
前記開始時の状況Aは、前記把持作業の開始直後に前記センサにより撮像された作業対象の画像A1、又は、予め前記把持作業の開始前の作業対象を撮像し前記制御手段に入力された画像A2若しくは写真A3であり、
前記終了時の状況Bは、予め設定した前記把持作業の終了後の作業対象を撮像し前記制御手段に入力された画像B1又は写真B2であることが好ましい。
制御手段により、前記把持作業の開始時の状況Aと終了時の状況B、及び、前記ロボットアームの周辺環境を撮像可能なセンサからの情報に基づいて、前記開始時の状況Aから前記終了時の状況Bまでの前記ロボットアームの動作経路計画を、前記ロボットアームによるティーチングと人の動作による実演教示を用いることなく、前記開始時の状況Aと前記終了時の状況Bから抽出された差分データを用い、変化のない重複部分と変化のある異なる部分とを判別して自動的に作成し(但し、前記開始時の状況Aを前記把持作業の進行に伴って更新する場合を除く)、作成した該動作経路計画に従って、前記ロボットアームを動作させる。
前記開始時の状況Aは、前記把持作業の開始直後に前記センサにより撮像された作業対象の画像A1、又は、予め前記把持作業の開始前の作業対象を撮像し前記制御手段に入力された画像A2若しくは写真A3であり、
前記終了時の状況Bは、予め設定した前記把持作業の終了後の作業対象を撮像し前記制御手段に入力された画像B1又は写真B2であることが好ましい。
前記把持作業の開始時の状況Aと終了時の状況B、及び、前記ロボットアームの周辺環境を撮像可能なセンサからの情報に基づいて、前記開始時の状況Aから前記終了時の状況Bまでの前記ロボットアームの動作経路計画を、前記ロボットアームによるティーチングと人の動作による実演教示を用いることなく、前記開始時の状況Aと前記終了時の状況Bから抽出された差分データを用い、変化のない重複部分と変化のある異なる部分とを判別して自動的に作成する(但し、前記開始時の状況Aを前記把持作業の進行に伴って更新する場合を除く)パスプラン作成手順と、
前記パスプラン作成手順で作成した前記動作経路計画に従って、前記ロボットアームを動作させる把持作業手順とを、
実行させる。
従って、作業指示の内容を従来よりも大幅に低減できる。
図1~図3に示すように、本発明の一実施例に係るロボットシステム10は、アーム手段(多関節アーム)11の先端部に取付けられた把持手段12により、ワーク(対象物の一例)13~21の把持作業(搬送作業)を行うロボットアーム22を有するものであり、ロボットアーム22に対する作業指示の内容を従来よりも大幅に低減可能なものである。
以下、詳しく説明する。
図1に示すロボットアーム22は、6軸の垂直多関節型ロボット(産業用ロボット)であるが、関節数は特に制限されるものではなく、各種把持作業に応じて、例えば、6軸の垂直多関節型協働ロボット、3軸以上のスカラ型ロボット、3軸以上のパラレルリンク型ロボット、7軸以上のロボット、双腕ロボット等でもよい。
なお、形態拘束領域と力拘束領域は、把持本体のワークとの接触面側から背面側(接触面とは反対側)にかけて、順次設けることもできる(即ち、把持本体を厚み方向(ワークの沈み込み方向)から視て、形態拘束領域と力拘束領域を、異なる位置に設けるのではなく、重なるように設けることもできる)。
上記した把持手段12により、ワーク13~21の材質や形状等ごとに、把持する領域、即ち、形態拘束領域と力拘束領域を選択することで、また、把持する力を調整することで、把持手段の交換が不要になる。
センサには、通常のCCDカメラを使用できるが、RGB-Dカメラ(距離センサを搭載し、カラー画像(情報)に加えて奥行き画像(情報)も取得可能なカメラ)を使用することが好ましい。また、他のカメラ、例えば、ハイパースペクトルカメラも使用できる。
このセンサは、ロボットアーム22の周辺環境を撮像できれば、例えば、1台又は2台以上の複数台を使用でき、また、ロボットアーム22に設置、又は、ロボットアーム22を除くその周囲(ロボットシステム)に設置することができ、更には、ロボットアーム22とその周囲の双方に設置することもできる。
コンピュータは、RAM、CPU、ROM、I/O、及び、これらの要素を接続するバスを備えた従来公知のものであるが、これに限定されるものではない。
このコンピュータは少なくとも、以下の機能を備えている。
・ロボットアーム22の把持作業の自動立案機能
・センサから得られる画像の処理機能
・センサから得られるワーク13~21の3D(3次元)位置の認識機能
・ロボットアーム22の把持作業を実現するための自動的な動作プログラミング機能
・ロボットアーム22への動作指令機能
ここで、把持作業の開始時の状況Aには、図3に示す、把持作業の開始前に予め撮像し、コンピュータに入力した空の状態のコンテナ30を含む環境(空間:作業対象の一例)の写真A3を使用できるが、その画像A2を使用することも、また、把持作業の開始直後にセンサにより撮像された空の状態のコンテナ30を含む環境(空間)の画像A1を使用することもできる。
また、把持作業の終了時の状況Bには、図3に示す、予め設定した把持作業の終了後の複数のワーク13~21が配置されたコンテナ30を含む環境(空間)を撮像し、コンピュータに入力した写真B2を使用できるが、その画像B1を使用することもできる。この把持作業の終了時の状況Bは、例えば、作業者等が、予め把持作業の終了後の状況(作業者が目的とする最終状況)を創り出して撮像した画像B1又は写真B2である。
なお、コンピュータに登録(検出や入力)する情報(データ)については、自動登録とユーザ登録があり、自動登録とは、作業者が事前に登録(入力)を行うことなく自動で登録(検出)が行われることを、また、ユーザ登録とは、作業者が事前に登録(入力)を行うことを、それぞれ意味する。この自動登録ができる場合、ユーザ登録をスキップできる(ユーザ登録が不要となる)が、例えば、操作過程において、作業者が確認し登録することもできる。また、作業者が登録しない場合は、操作過程において、コンピュータから、自動登録された内容でよいか否かを問う場合があるため、ユーザ登録を実施しておけば、コンピュータからの確認作業を簡略化できる。
なお、作業者の要望に応じて、自動登録とユーザ登録の選択が可能な場合もあるが、ユーザ登録する情報が多いほど、コンピュータからの確認作業を減らすことができる。
・把持手段の各種パラメータ(例えば、対向するハンド部の間隔とハンド部の太さ等)
このデータは、例えば、把持手段のアーム手段への取付け時に、把持手段に組み込まれた情報(把持手段の仕様)を、コンピュータが信号により自動的に得ることができれば、自動登録が可能であるが、ユーザ登録することもできる。
・ワークの形状や名称
このデータは、自動登録が可能であるが、ユーザ登録することもできる。
・ワークの把持箇所
このデータは、把持手段によるワークの把持の際に、例えば、把持してはいけない部位等を含む情報であり、自動登録が可能であるが、ユーザ登録することもできる。
上記した情報は、ワークの把持作業ごとに更新して使用できるが、更新することなくそのまま使用することもできる。
・把持作業の開始時の状況A
この状況Aに、把持作業の開始直後にセンサにより撮像されたロボットアームの作業対象の画像A1を使用する場合、作業者による入力は不要であるが、この画像A1を使用しない場合は、作業者が把持作業の開始前に予め撮像したロボットアームの作業対象の画像A2又は写真A3を、コンピュータに入力する。
・把持作業の終了時の状況B
この状況Bには、作業者等が、予め把持作業の終了後の状況を創り出し撮像したロボットアームの作業対象の画像B1又は写真B2を使用し、これをコンピュータに入力する。
なお、上記した状況Aと状況Bとは、作業対象を同一方向から撮像した画像や写真を使用することが好ましいが、異なる方向から撮像した画像や写真を使用することもできる。この場合、必要に応じて各種画像処理を行うのがよい。
ロボットアームの周辺環境、例えば、図1に示すワークの配置位置(収納ケースの位置)や、ロボットアームの動きを妨げる障害物の有無等を、作業者がコンピュータに入力することができるが、ロボットアームの周辺環境を前記したセンサで撮像して、コンピュータに自動登録することもできる。
・ロボットアームによるワークの扱い方
例えば、把持作業の終了時の状況Bを創り出すため、複数のワークを把持する順番(搬送の順番)やワークの把持姿勢を、作業者がコンピュータに入力することができるが、例えば、ロボットアームの周辺環境を前記したセンサで撮像し、これをコンピュータに自動登録することもできる。
まず、ステップ1(ST1)で、図3に示す把持作業の開始時の状況Aと終了時の状況Bから、差分データを抽出する。
この図3に示す把持作業の開始時の状況Aは、複数のワーク13~21をそれぞれ配置する空の状態のコンテナ30を含む環境(空間)の写真A3を、把持作業の終了時の状況Bは、複数のワーク13~21をそれぞれ配置したコンテナ30を含む環境(空間)の写真B2を、それぞれ示している。
差分データを抽出するに際しては、写真A3と写真B2を三次元情報に紐づけて処理する必要がある。一般的な手法としては、ロボットに設置(搭載)、又は、ロボットを除くその周囲(環境)に設置された、前記したRGB-Dカメラ(センサ)で計測した三次元データ、又は、作業者によって事前登録された作業領域の三次元データ、に対する、写真A3及び写真B2の撮影視点との位置関係を算出する。具体的には、三次元データと写真A3及び写真B2の双方に共通する特徴点を複数検出し、それらの関係を、例えば、エピポーラ幾何によって算出する。
差分データの抽出により、写真A3と写真B2の変化のない重複部分(例えば、背景等)と変化のある異なる部分(ワーク)とを判別できる。
ここでは、ステップ1で得られた差分データに、セグメンテーション処理を実施し、ブロブ(セグメンテーション処理を行った結果から抽出された3Dデータの塊)を検出する。
次に、検出したブロブからワークの数と位置を検出し、この検出結果と、既に登録されている前記したワークの形状データや名称データとを照合する。
照合を行った結果、検出結果のワークのデータが登録されていない場合、そのブロブに新規番号をつけ、このブロブ(ワーク)をコンピュータに新たに登録する。一方、検出結果のワークのデータが、登録されている前記したワークの形状データや名称データから検出されれば、登録作業を縮約できる。
ここでは、空の状態のコンテナ30(図3の写真A3)に対するワーク13~21の相対姿勢(即ち、図3の写真B2)を、コンピュータに登録する。
ワーク13~21をコンテナ30に配置するに際し、それぞれの把持可能な箇所を、前記した把持手段12の各種パラメータを参照しながら抽出する。
複数のワーク13~21は、状況Aでは、図1に示す収納ケース33~41にそれぞれ収容されている。
ここで、コンピュータに、ロボットアーム22の作業領域の登録がない場合は、ロボットシステム10が作業領域、即ち、図3に示すワーク13~21の置いてある場所とコンテナ30の場所を探索する。具体的には、ロボットアーム22の作業領域を、前記したステップ2に記載のワークの登録情報、ワーク13~21が収容された収納ケース33~41の位置情報、空の状態のコンテナの位置情報等から、前記したロボットアーム22の周辺環境を撮像するセンサを利用して探索する。
次に、ロボットアーム22が実際に作業領域にアクセス可能かどうかを確認する。
ここで、発見したワーク13~21はそれぞれ、各収納ケース33~41に収容された状態であるため、この状態において、把持手段12で把持可能な各ワーク13~21の把持部分を抽出する。
ここでは、作業手順を実行するロボットアーム22(アーム手段11)の各関節の動作を自動で算出する。このパスプランの作成には、例えば、以下の手法を利用できる。
(1)L.E.Kavraki;P.Svestka;J.-C.Latombe;M.H.Overmars, ”Probabilistic roadmaps for path planning in high-dimensional configuration spaces,” Robotics and Automation, IEEE Transactions on, vol.12, no.4, pp.566-580, 1996.
(2)J.J.Kuffner and S.M.LaValle, ”RRT-connect: An efficient approach to single-query path planning,” Robotics and Automation, 2000.Proceedings. ICRA ’00. IEEE International Conference on, San Francisco, vol.2, pp.995-1001, 2000.
そして、上記した各条件に基づいて作成され提案されたパスプランを、作業者が承認し登録する。この登録は、作成したパスプランを再利用するためである。
ここでは、コンピュータの自動処理の結果を作業者に提示(ディスプレイで表示)し、作業者からの実行の承諾を得る。
そして、承諾が得られれば作成したパスプランを実行する。なお、異常等があれば終了し、前記した条件の修正等を行い、再度パスプランの作成を行う。
把持作業が終了した後(即ち、状況Bとなった後)、作業者に把持作業の完了を通知する。
そして、ロボットシステム10は、作業者からの完了承認を待ち、承認が得られれば把持作業を終了する。
以上の方法により、ロボットシステム10によるワーク13~21の把持作業が行われる。
即ち、プログラムを、ネットワーク又は各種記憶媒体を介してロボットシステム10に供給し(インストールし)、そのロボットシステム10のコンピュータ(又はCPUやMPU等)がプログラムを読み出し、把持作業の開始時の状況Aと終了時の状況B、及び、前記したセンサからの情報に基づいて、開始時の状況Aから終了時の状況Bまでのロボットアーム22の動作経路計画(パスプラン)を作成するパスプラン作成手順と、この動作経路計画に従ってロボットアーム22を制御する把持作業手順を実行する(ロボットアーム22とコンピュータを動作させる)。
このプログラムは、コンピュータが読み取り可能な記録媒体(情報記録媒体)に記録される場合やクラウドサービスに記録される場合もある。なお、記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
前記実施例においては、本発明を各種ワークの搬送作業に適用するに際し、空のコンテナ(状況A)に各種ワークを配置(状況B)する作業に適用して説明したが、各種ワークが配置されたコンテナ(状況A)を空の状態(状況B)にする作業に適用することもできる。この場合、各種ワークが配置されたコンテナ(ワークの搬送元)、又は、このコンテナを含む空間が作業対象となる。
なお、本発明は、上記した各種ワークの搬送作業に適用することに限定されるものではなく、ロボットアームの把持手段で把持できれば、例えば、機械の扉(把持する対象物かつ作業対象となる)の開閉作業、具体的には、扉を開状態(状況A)から閉状態(状況B)にする作業や、閉状態(状況A)から開状態(状況B)にする作業にも適用でき、また、装置(作業対象)の組立て作業やその分解作業(この場合、装置を構成する複数の部品が把持する対象物となる)等にも適用できる。
そして、前記実施例においては、制御手段によるロボットアームの動作経路計画の作成に、把持作業の開始時の状況Aと終了時の状況Bから抽出された差分データを用いた場合について説明したが、把持作業の開始時の状況Aと終了時の状況Bの違いを認識できれば、他のデータを用いることもできる。
更に、前記実施例においては、把持作業の開始時と終了時の状況A、Bに、作業対象の画像又は写真を使用した場合について説明したが、この画像又は写真は、基本的には状況A、Bごとに1枚あればよい。しかし、例えば、複数の対象物が重なり合って各対象物の全体像が把握できない場合には、状況A及び/又は状況Bについて、複数の対象物の全体像が分かるように異なる方向から撮像した2枚以上の画像又は写真を使用することもできる。なお、状況A、Bには、画像又は写真の代わりに作業対象の3D CADデータを用いることもできる。
Claims (6)
- アーム手段の先端部に取付けられた把持手段により、対象物の把持作業を行うロボットアームと、
前記ロボットアームの周辺環境を撮像可能なセンサと、
前記把持作業の開始時の状況Aと終了時の状況B、及び、前記センサからの情報に基づいて、前記開始時の状況Aから前記終了時の状況Bまでの前記ロボットアームの動作経路計画を、前記ロボットアームによるティーチングと人の動作による実演教示を用いることなく自動的に作成し(但し、前記開始時の状況Aを前記把持作業の進行に伴って更新する場合を除く)、該動作経路計画に従って前記ロボットアームを制御する制御手段とを有し、
前記制御手段は、前記動作経路計画の作成に、前記開始時の状況Aと前記終了時の状況Bから抽出された差分データを用い、変化のない重複部分と変化のある異なる部分とを判別することを特徴とするロボットシステム。 - 請求項1記載のロボットシステムにおいて、
前記開始時の状況Aは、前記把持作業の開始直後に前記センサにより撮像された作業対象の画像A1、又は、予め前記把持作業の開始前の作業対象を撮像し前記制御手段に入力された画像A2若しくは写真A3であり、
前記終了時の状況Bは、予め設定した前記把持作業の終了後の作業対象を撮像し前記制御手段に入力された画像B1又は写真B2であることを特徴とするロボットシステム。 - アーム手段の先端部に取付けられた把持手段により、対象物の把持作業を行うロボットアームを有するロボットシステムの把持制御方法において、
制御手段により、前記把持作業の開始時の状況Aと終了時の状況B、及び、前記ロボットアームの周辺環境を撮像可能なセンサからの情報に基づいて、前記開始時の状況Aから前記終了時の状況Bまでの前記ロボットアームの動作経路計画を、前記ロボットアームによるティーチングと人の動作による実演教示を用いることなく、前記開始時の状況Aと前記終了時の状況Bから抽出された差分データを用い、変化のない重複部分と変化のある異なる部分とを判別して自動的に作成し(但し、前記開始時の状況Aを前記把持作業の進行に伴って更新する場合を除く)、作成した該動作経路計画に従って、前記ロボットアームを動作させることを特徴とするロボットシステムの把持制御方法。 - 請求項3記載のロボットシステムの把持制御方法において、
前記開始時の状況Aは、前記把持作業の開始直後に前記センサにより撮像された作業対象の画像A1、又は、予め前記把持作業の開始前の作業対象を撮像し前記制御手段に入力された画像A2若しくは写真A3であり、
前記終了時の状況Bは、予め設定した前記把持作業の終了後の作業対象を撮像し前記制御手段に入力された画像B1又は写真B2であることを特徴とするロボットシステムの把持制御方法。 - アーム手段の先端部に取付けられた把持手段により、対象物の把持作業を行うロボットアームを有するロボットシステムの把持制御を行うため、コンピュータに、
前記把持作業の開始時の状況Aと終了時の状況B、及び、前記ロボットアームの周辺環境を撮像可能なセンサからの情報に基づいて、前記開始時の状況Aから前記終了時の状況Bまでの前記ロボットアームの動作経路計画を、前記ロボットアームによるティーチングと人の動作による実演教示を用いることなく、前記開始時の状況Aと前記終了時の状況Bから抽出された差分データを用い、変化のない重複部分と変化のある異なる部分とを判別して自動的に作成する(但し、前記開始時の状況Aを前記把持作業の進行に伴って更新する場合を除く)パスプラン作成手順と、
前記パスプラン作成手順で作成した前記動作経路計画に従って、前記ロボットアームを動作させる把持作業手順とを、
実行させることを特徴とするロボットシステムの把持制御プログラム。 - 請求項5記載のロボットシステムの把持制御プログラムを記録したコンピュータで読み取り可能な記録媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/003046 WO2022162836A1 (ja) | 2021-01-28 | 2021-01-28 | ロボットシステム、把持制御方法、把持制御プログラム、及び、記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7074386B1 true JP7074386B1 (ja) | 2022-05-24 |
JPWO2022162836A1 JPWO2022162836A1 (ja) | 2022-08-04 |
Family
ID=81731741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021521321A Active JP7074386B1 (ja) | 2021-01-28 | 2021-01-28 | ロボットシステム、把持制御方法、把持制御プログラム、及び、記録媒体 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7074386B1 (ja) |
WO (1) | WO2022162836A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014100780A (ja) * | 2012-11-22 | 2014-06-05 | Dainippon Screen Mfg Co Ltd | 把持機構の軌道生成装置、把持機構の軌道生成方法、把持機構の軌道生成プログラム、記録媒体、ロボットプログラム作成装置 |
JP2015112655A (ja) * | 2013-12-10 | 2015-06-22 | セイコーエプソン株式会社 | 制御装置、ロボット、教示データ生成方法及びロボットシステム |
JP2020175467A (ja) * | 2019-04-17 | 2020-10-29 | アズビル株式会社 | 教示装置及び教示方法 |
-
2021
- 2021-01-28 JP JP2021521321A patent/JP7074386B1/ja active Active
- 2021-01-28 WO PCT/JP2021/003046 patent/WO2022162836A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014100780A (ja) * | 2012-11-22 | 2014-06-05 | Dainippon Screen Mfg Co Ltd | 把持機構の軌道生成装置、把持機構の軌道生成方法、把持機構の軌道生成プログラム、記録媒体、ロボットプログラム作成装置 |
JP2015112655A (ja) * | 2013-12-10 | 2015-06-22 | セイコーエプソン株式会社 | 制御装置、ロボット、教示データ生成方法及びロボットシステム |
JP2020175467A (ja) * | 2019-04-17 | 2020-10-29 | アズビル株式会社 | 教示装置及び教示方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022162836A1 (ja) | 2022-08-04 |
WO2022162836A1 (ja) | 2022-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1537959B1 (en) | A method and a system for programming an industrial robot | |
JP5578791B2 (ja) | 溶接線選定方法 | |
JP2013193202A (ja) | 人間援助型タスクデモンストレーションを使用してロボットを訓練するための方法およびシステム | |
JP2022542241A (ja) | ロボット装置からの視覚的出力を補強するシステム及び方法 | |
JP2009107043A (ja) | 把持装置および把持装置制御方法 | |
Pfanne et al. | Fusing joint measurements and visual features for in-hand object pose estimation | |
JP2013049102A (ja) | ロボットの制御装置及びロボットの姿勢決定方法 | |
Zhang et al. | Human-robot shared control for surgical robot based on context-aware sim-to-real adaptation | |
Huang et al. | A vision-guided multi-robot cooperation framework for learning-by-demonstration and task reproduction | |
Hueser et al. | Learning of demonstrated grasping skills by stereoscopic tracking of human head configuration | |
WO2004108365A1 (ja) | 多関節ロボットのティーチングデータ作成方法 | |
JP7074386B1 (ja) | ロボットシステム、把持制御方法、把持制御プログラム、及び、記録媒体 | |
CN112805127A (zh) | 用于创建机器人控制程序的方法和设备 | |
Penco et al. | Mixed Reality Teleoperation Assistance for Direct Control of Humanoids | |
Wang et al. | Robot programming by demonstration with a monocular RGB camera | |
US20220203517A1 (en) | Non-transitory storage medium and method and system of creating control program for robot | |
JP2012228757A (ja) | ロボット教示方法、ロボット教示装置およびプログラム | |
CN115635482A (zh) | 基于视觉的机器人到人物体传递方法、装置、介质及终端 | |
Li et al. | Estimating an articulated tool's kinematics via visuo-tactile based robotic interactive manipulation | |
Pedrosa et al. | A skill-based architecture for pick and place manipulation tasks | |
JP7376318B2 (ja) | アノテーション装置 | |
JP2022060003A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
Lin | Embedding Intelligence into Robotic Systems-Programming, Learning, and Planning | |
Infantino et al. | Visual control of a robotic hand | |
Nelson et al. | Virtual tools: A framework for simplifying sensory-motor control in complex robotic systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210421 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210802 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220125 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220127 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220217 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7074386 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |