JP2023105577A - ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム - Google Patents
ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム Download PDFInfo
- Publication number
- JP2023105577A JP2023105577A JP2022006498A JP2022006498A JP2023105577A JP 2023105577 A JP2023105577 A JP 2023105577A JP 2022006498 A JP2022006498 A JP 2022006498A JP 2022006498 A JP2022006498 A JP 2022006498A JP 2023105577 A JP2023105577 A JP 2023105577A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- operator
- unit
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000033001 locomotion Effects 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000036544 posture Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 210000000689 upper leg Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000000245 forearm Anatomy 0.000 description 2
- 238000003875 gradient-accelerated spectroscopy Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 210000002478 hand joint Anatomy 0.000 description 2
- 244000007853 Sarothamnus scoparius Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/02—Hand grip control means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35482—Eyephone, head-mounted 2-D or 3-D display, also voice and other control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39505—Control of gripping, grasping, contacting force, force distribution
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40391—Human to robot skill transfer
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
Abstract
【課題】遠隔操縦ロボットにおいて,多様な対象物を適切な力で操作することが可能となるロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。【解決手段】ロボット遠隔操作制御装置は、ロボットを操作する操作者の状態の操作者状態情報を取得する第1取得部と、操作者状態情報に基づき操作者がロボットに行わせようとしている動作意図を推定する意図推定部と、物体の幾何情報と力学情報のうち少なくとも1つを取得する第2取得部と、推定された操作者の動作意図に基づいた物体の操作方法を決定する操作方法決定部と、第2取得部が取得した情報と操作方法決定部が決定した情報からロボットの操作方法と操作時の力を決定し、制御指示に反映する制御量決定部と、を備える。【選択図】図3
Description
本発明は、ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラムに関する。
ロボットを操作者が遠隔操作して制御する技術が提案されている(例えば特許文献1参照)。
しかしながら、現実世界の作業では、幾何情報に加えて力学情報が重要である。例えば、対象物の質量やヤング率によって加えるべき力は変化する。対象物が既知の場合は、事前に与えられた力学情報にもとづいて接触力や重力補償に必要な力を発揮できるように制御指示を生成することができる。遠隔操縦ロボットにおいて未知物体を扱う場合は、操作者が対象物の重力補償やヤング率、摩擦を即座に考慮することは難しく、作業の阻害要因となる。このため、従来技術では、遠隔操縦ロボットにおいて,多様な対象物を適切な力で把持したり操作することが困難であった。
本発明は、上記の問題点に鑑みてなされたものであって、遠隔操縦ロボットにおいて,多様な対象物を適切な力で操作することが可能となるロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。
(1)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御装置は、物体を把持可能なロボットを操作者が遠隔操作するロボット遠隔操作制御において、前記ロボットを操作する操作者の状態の操作者状態情報を取得する第1取得部と、前記操作者状態情報に基づき前記操作者が前記ロボットに行わせようとしている動作意図を推定する意図推定部と、前記物体の幾何情報と力学情報のうち少なくとも1つを取得する第2取得部と、前記推定された前記操作者の動作意図に基づいた前記物体の操作方法を決定する操作方法決定部と、前記第2取得部が取得した情報と前記操作方法決定部が決定した情報からロボットの操作方法と操作時の力を決定し、制御指示に反映する制御量決定部と、を備える。
(2)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記第2取得部は、前記物体の形状と質量とヤング率と剛性と摩擦力のうちの少なくとも1つを取得するようにしてもよい。
(3)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記第2取得部は、前記物体を含む画像と前記物体の位置情報とを含む環境情報と、前記ロボットが備える前記ロボットの動作に関わる情報を検出するセンサが検出したセンサ情報とを取得するようにしてもよい。
(4)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記第2取得部は、前記ロボットが備える力センサとトルクセンサを用いた外力推定を行い、学習済みの学習モデルを用いた分類、および前記物体に関する情報を格納するデータベースを参照、のうちの少なくとも1つによって、前記物体の幾何情報と力学情報のうち少なくとも1つを取得するようにしてもよい。
(5)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記意図推定部は、前記物体の名称と、前記物体に対する操作内容と、前記物体を操作する際の前記ロボットと前記物体との接触点を推定するようにしてもよい。
(6)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御方法は、物体を把持可能なロボットを操作者が遠隔操作するロボット遠隔操作制御において、第1取得部が、前記ロボットを操作する操作者の状態の操作者状態情報を取得し、意図推定部が、前記操作者状態情報に基づき前記操作者が前記ロボットに行わせようとしている動作意図を推定し、第2取得部が、前記物体の幾何情報と力学情報のうち少なくとも1つを取得し、操作方法決定部が、前記推定された前記操作者の動作意図に基づいた前記物体の操作方法を決定し、制御量決定部が、前記第2取得部が取得した情報と前記操作方法決定部が決定した情報からロボットの操作方法と操作時の力を決定し、制御指示に反映する。
(7)上記目的を達成するため、本発明の一態様は、上記のロボット遠隔操作制御装置として、コンピューターを機能させるためのプログラムである。
(1)~(7)によれば、遠隔操縦ロボットにおいて,多様な対象物を適切な力で操作することが可能となる。(1)~(7)によれば、作業効率の改善と作業の種類が増加することが期待される。
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。
[概要]
まず、ロボット遠隔操作制御システムで行う作業と処理の概要を説明する。
図1は、本実施形態に係るロボット遠隔操作制御システムの概要と作業の概要を説明するための図である。図1のように、操作者Usは、例えば、HMD(ヘッドマウントディスプレイ)501とコントローラー502(502L、502R)等を装着している。作業空間には、環境センサ300(300a、300b)が設置されている。なお、環境センサ300は、ロボット1に取り付けられていてもよい。また、ロボット1は、ハンド5(5L、5R)を備える。環境センサ300は、例えばRBGカメラと深度センサを備えている。操作者Usは、HMD501に表示された画像を見ながらコントローラー502を装着している手や指を動かすことで、ロボット1を遠隔操作する。図1の例では、操作者Usは、ロボット1を遠隔操作して、テーブルTb上にあるペットボトルobjを把持させる。なお、遠隔操作において、操作者Usは、ロボット1の動作を直接視認できないが、ロボット1側の映像をHMD501で間接的に視認できる状態である。
まず、ロボット遠隔操作制御システムで行う作業と処理の概要を説明する。
図1は、本実施形態に係るロボット遠隔操作制御システムの概要と作業の概要を説明するための図である。図1のように、操作者Usは、例えば、HMD(ヘッドマウントディスプレイ)501とコントローラー502(502L、502R)等を装着している。作業空間には、環境センサ300(300a、300b)が設置されている。なお、環境センサ300は、ロボット1に取り付けられていてもよい。また、ロボット1は、ハンド5(5L、5R)を備える。環境センサ300は、例えばRBGカメラと深度センサを備えている。操作者Usは、HMD501に表示された画像を見ながらコントローラー502を装着している手や指を動かすことで、ロボット1を遠隔操作する。図1の例では、操作者Usは、ロボット1を遠隔操作して、テーブルTb上にあるペットボトルobjを把持させる。なお、遠隔操作において、操作者Usは、ロボット1の動作を直接視認できないが、ロボット1側の映像をHMD501で間接的に視認できる状態である。
本実施形態では、環境センサ300から取得された幾何情報と、ロボット1の例えばセンサが検出した力学情報のうちの少なくとも1つを用いて操作対象の物体に関する物理情報を取得または推定する。また、本実施形態では、例えば、操作者Usが装着しているHMD501とコントローラー、および環境センサ300、ロボット1が備えるセンサ等から得られる情報に基づいて、操作者の意図を推定する。そして、本実施形態では、推定された対象物の物理情報と、操作者の意図に基づいて、操作方法、操作時の力等を生成する。
[ロボットの構成例]
次に、ロボット1の構成例を説明する。
図2は、ロボットの構成例を示す図である。図2のように、ロボット1は、例えば、アーム4、ハンド(把持部)5、脚部6、足部7、上腕部8、前腕部9、肩部10、大腿部11、下腿部12、頭部13、およびボディ14を備える。また、制御部25が、例えばボディ14内に設けられている。
例えば肩関節と、肘関節と、手関節とに、アーム用のアクチュエータ21を備える。また、手部と指部とに、ハンド関節用のアクチュエータ22を備える。なお、ロボット1は、アクチュエータ21、22にエンコーダとトルクセンサを備えている。また、例えば、ハンド5の手の内と側指部は、力センサを備えている。
なお、図2に示した構成は一例であり、これに限らない、例えば、ロボット1の例として二足歩行ロボットを示したが、ロボット1は、少なくともアーム、ハンドを備えていればよい。
次に、ロボット1の構成例を説明する。
図2は、ロボットの構成例を示す図である。図2のように、ロボット1は、例えば、アーム4、ハンド(把持部)5、脚部6、足部7、上腕部8、前腕部9、肩部10、大腿部11、下腿部12、頭部13、およびボディ14を備える。また、制御部25が、例えばボディ14内に設けられている。
例えば肩関節と、肘関節と、手関節とに、アーム用のアクチュエータ21を備える。また、手部と指部とに、ハンド関節用のアクチュエータ22を備える。なお、ロボット1は、アクチュエータ21、22にエンコーダとトルクセンサを備えている。また、例えば、ハンド5の手の内と側指部は、力センサを備えている。
なお、図2に示した構成は一例であり、これに限らない、例えば、ロボット1の例として二足歩行ロボットを示したが、ロボット1は、少なくともアーム、ハンドを備えていればよい。
[ロボット遠隔操作制御システムの構成例]
次に、ロボット遠隔操作制御システム100の構成例を説明する。
図3は、本実施形態に係るロボット遠隔操作制御装置を備えるロボット遠隔操作制御システムの構成例を示す図である。図3のように、ロボット遠隔操作制御システム100は、例えば、ロボット1、ロボット遠隔操作制御装置200、環境センサ300、操作者センサ400、HMD501、およびコントローラー502を備える。
次に、ロボット遠隔操作制御システム100の構成例を説明する。
図3は、本実施形態に係るロボット遠隔操作制御装置を備えるロボット遠隔操作制御システムの構成例を示す図である。図3のように、ロボット遠隔操作制御システム100は、例えば、ロボット1、ロボット遠隔操作制御装置200、環境センサ300、操作者センサ400、HMD501、およびコントローラー502を備える。
ロボット1は、例えば、アクチュエータ21、アクチュエータ22、制御部25、記憶部31、通信部32、収音部33、撮影装置34、駆動部35、センサ36を備える。
センサ36は、例えば、力センサ361、トルクセンサ362、エンコーダ363を備える。
センサ36は、例えば、力センサ361、トルクセンサ362、エンコーダ363を備える。
ロボット遠隔操作制御装置200は、例えば、第1取得部201、第2取得部202、物体情報推定部203(第2取得部)、物体情報DB204、意図推定部205、操作方法決定部206、および制御量決定部207を備える。
操作者センサ400は、例えば、視線検出部401、およびセンサ402を備える。なお、視線検出部401とセンサ402は、例えばHMD501が備える。また、センサ402は、例えばコントローラー502が備える。
なお、ロボット遠隔操作制御装置200と環境センサ300とは、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置200と操作者センサ400とは、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置200とロボット1とは、例えば、無線または有線のネットワークを介して接続されている。なお、ロボット遠隔操作制御装置200と環境センサ300とは、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置200と操作者センサ400とは、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置200と環境センサ300は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とロボット1とは、ネットワークを介さずに直接接続されてもよい。
[ロボット遠隔操作制御システムの機能例]
次に、ロボット遠隔操作制御システム100の機能例を、図3を参照しつつ説明する。
次に、ロボット遠隔操作制御システム100の機能例を、図3を参照しつつ説明する。
HMD501は、例えば、画像表示部、視線検出部401、センサ402、通信部、制御部、記憶部等を備える。ロボット遠隔操作制御装置200から受信したロボット1の状態画像を表示する。HMD501は、操作者の視線の動きや、操作者の頭の動き等を検出し、検出した操作者状態情報をロボット遠隔操作制御装置200に送信する。
視線検出部401は、操作者の視線を検出し、検出した視線情報(操作者センサ値)を含む操作者状態情報をロボット遠隔操作制御装置200に出力する。
HMD501がセンサ402を備える場合、センサ402は、例えば、加速度センサ、ジャイロスコープ等であり、操作者の頭部の動きや傾きを検出し、検出した頭部動作情報(操作者センサ値)を含む操作者状態情報をロボット遠隔操作制御装置200に出力する。
コントローラー502は、例えば、センサ402、制御部、通信部、およびフィードバック手段等を備える。コントローラー502は、例えば、触覚データグローブであり、操作者の手に装着される。コントローラー502は、センサ402によって方位や各指の動きや手の動きを検出し、検出した操作者状態情報をロボット遠隔操作制御装置200に送信する。
センサ402は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。なお、複数のセンサを備えるセンサ402を備える場合は、例えば2つのセンサによって各指の動きをトラッキングする。センサ402は、方位や各指の動きや手の動き等の操作者の腕部の姿勢や位置に関する情報である操作者腕部情報(操作者センサ値、操作者状態情報)を検出し、検出した操作者腕部情報を含む操作者状態情報をロボット遠隔操作制御装置200に出力する。なお、操作者腕部情報には、手先位置・姿勢情報、各指の角度情報、肘の位置・姿勢情報、各部の動きをトラッキングした情報等のヒトの腕部全般におよぶ情報が含まれる。
環境センサ300は、例えばロボット1の作業を撮影、検出できる位置に設置されている。なお、環境センサ300は、ロボット1が備えていてもよく、ロボット1に取り付けられていてもよい。または、環境センサ300は、複数であってもよく、図1のように作業環境に設置され、かつロボット1にも取り付けられていてもよい。環境センサ300は、例えば、RGBカメラ、深度センサである。なお、環境センサ300は、モーションキャプチャ装置であってもよく、モーションキャプチャによって物体の位置情報を検出するようにしてもよい。なお、環境センサ300は、距離センサであってもよい。環境センサ300は、撮影された画像と、深度センサによって検出されたセンサ値とを環境情報としてロボット遠隔操作制御装置200に送信する。なお、環境センサ300は、撮影された画像とセンサ値を用いて、物体の位置情報を検出して、検出した結果を環境情報としてロボット遠隔操作制御装置200に送信するようにしてもよい。なお、環境センサ300が送信するデータは、例えば位置情報を有する点群であってもよい。
(ロボットの機能例)
ロボット1は、遠隔操作されていない場合、制御部25の制御に応じて行動が制御される。ロボット1は、遠隔操作されている場合、ロボット遠隔操作制御装置200が生成した把持計画情報に応じて行動が制御される。
ロボット1は、遠隔操作されていない場合、制御部25の制御に応じて行動が制御される。ロボット1は、遠隔操作されている場合、ロボット遠隔操作制御装置200が生成した把持計画情報に応じて行動が制御される。
制御部25は、ロボット遠隔操作制御装置200が出力する制御指示に基づいて駆動部35を制御する。制御部25は、収音部33が収音した音響信号に対して音声認識処理(発話区間検出、音源分離、音源定位、雑音抑圧、音源同定等)を行う。制御部25は、音声認識した結果にロボット1に対する動作指示が含まれている場合、音声による動作指示に基づいてロボット1の動作を制御するようにしてもよい。制御部25は、記憶部31が記憶する情報に基づいて、環境センサ300が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行う。制御部25は、物体情報DB204を参照して、画像処理によって物体に関する情報を撮影された画像から抽出する。物体情報には、例えば、物体の名称、物体の形状、物体の重さ、物体のヤング率。物体の表面の摩擦力等の情報が含まれている。制御部25は、ロボット1の動作状態情報に基づいてロボット状態画像を作成し、作成したロボット状態画像を、ロボット遠隔操作制御装置200を介してHMD501へ送信する。制御部25は、フィードバック情報を生成して、生成したフィードバック情報を、ロボット遠隔操作制御装置200を介してコントローラー502に送信する。
記憶部31は、例えば、制御部25が制御に用いるプログラム、閾値等を記憶する。
収音部33は、例えば複数のマイクロホンを備えるマイクロホンアレイである。収音部33は、収音した音響信号を制御部25に出力する。収音部33は、音声認識処理機能を備えていてもよい。この場合、収音部33は、音声認識結果を制御部25に出力する。
撮影装置34は、例えば、ロボット1の頭部13またはボディ14に取り付けられている。なお、撮影装置34は、環境センサ300であってもよい。撮影装置34は、撮影した画像を制御部25に出力する。
駆動部35は、制御部25の制御に応じてロボット1の各部(腕、指、足、頭、胴、腰等)を駆動する。駆動部35は、例えば、アクチュエータ、ギア、人工筋等を備える。
センサ36は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等であってもよい。なお、センサ36は、ロボット1の各関節、頭部、手部、指部等に取り付けられている。センサ36は、検出した検出結果を、制御部25と、ロボット遠隔操作制御装置200に出力する。
(ロボット遠隔操作制御装置の機能例)
ロボット遠隔操作制御装置200は、ロボット1を操作する操作者の状態の操作者状態情報を取得し、取得した操作者状態情報に基づき、操作者がロボット1に行わせようとしている動作意図を推定する。ロボット遠隔操作制御装置200は、物体の幾何情報と力学情報のうち少なくとも1つを取得し、推定された操作者の動作意図に基づいた物体の操作方法を決定する。ロボット遠隔操作制御装置200は、取得された物体の幾何情報と力学情報のうち少なくとも1つ情報と、操作方法決定部が決定した情報からロボット1の操作方法と操作時の力を決定し、制御指示に反映する。
ロボット遠隔操作制御装置200は、ロボット1を操作する操作者の状態の操作者状態情報を取得し、取得した操作者状態情報に基づき、操作者がロボット1に行わせようとしている動作意図を推定する。ロボット遠隔操作制御装置200は、物体の幾何情報と力学情報のうち少なくとも1つを取得し、推定された操作者の動作意図に基づいた物体の操作方法を決定する。ロボット遠隔操作制御装置200は、取得された物体の幾何情報と力学情報のうち少なくとも1つ情報と、操作方法決定部が決定した情報からロボット1の操作方法と操作時の力を決定し、制御指示に反映する。
第1取得部201は、操作者センサ400から、操作者の視線情報、手首の動きと位置、手のひらの動きと位置、指の動きと位置等の情報を取得する。第1取得部201は、取得した情報を意図推定部205に出力する。
第2取得部202は、ロボット1のセンサ36から、力。トルク、アームやハンドの位置情報等を取得する。第2取得部202は、環境センサ300から環境情報を取得する。第2取得部202は、取得した情報を物体情報推定部203と意図推定部205に出力する。
物体情報推定部203は、第2取得部202が取得した情報を用いて、物体情報DB204が格納する情報を参照して、操作対象の物体の幾何情報および力学情報のうち少なくとも1つを推定する。例えば、ロボット1が物体を把持または触れる前、すなわち操作前の場合、物体情報推定部203は、環境センサ300から取得した環境情報を用いて、物体情報DB204が格納する情報を参照して、物体の名称、形状、重さ、ヤング率、摩擦等を推定する。この場合、物体情報推定部203は、環境情報に基づいて物体の名称、形状、重さが推定され、さらにそれらに関連付けられているヤング率、摩擦を物体情報DB204から取得する。また、ロボット1が例えば作業を開始した場合、物体情報推定部203は、ロボット1のセンサ402が検出した検出値も用いて、物体の名称、形状、重さ、ヤング率、摩擦等を推定する。
物体情報DB204は、データベースであり、物体に関する情報(物体名、形状、重さ、ヤング率、摩擦等)を格納する。また、物体情報DB204は、テンプレート、学習済みモデルを記憶するようにしてもよい。
意図推定部205は、第1取得部201が取得した情報と、第2取得部202が取得した情報を用いて、作業者の意図を推定する。なお、意図推定部205は、HMD501、コントローラー502から取得された情報のうち、視線情報、操作者腕部情報、および頭部動作情報のうちの少なくとも1つを用いて操作者の動作意図を推定する。なお、意図推定部205は、環境センサ値も用いて意図推定するようにしてもよい。なお、意図推定方法については後述する。
操作方法決定部206は、推定された操作者の動作意図に基づいた物体の操作方法を決定する。例えば、操作方法決定部206は、操作方法を、例えば自部または物体情報DB204が記憶するテンプレートを参照して決定する。なお、操作方法決定部206は、操作方法を、例えば自部または物体情報DB204が記憶する学習済みのモデルに入力して選択するようにしてもよい。また、操作方法決定部206は、選択された動作の分類と物体形状、推定される物体の摩擦や重量などの物理パラメータ、ロボット1の出力可能なトルクなどの制約条件から、例えば物体を落とさず安定的に把持可能なロボット1の手指の物体に対する接触点を求める。そして、操作方法決定部206は、例えば、これらから計算される関節角度を目標値として補正動作とするようにしてもよい。また、操作方法決定部206は、目標値に従って動作した場合に、例えば、目標値・パラメータ推定値とロボット1のセンサ36から観測される値との誤差をなくすように手指の関節角度やトルクなどをリアルタイムに制御する。これにより、本実施形態によれば、落とさずに安定的・持続的に把持可能となる。
制御量決定部207は、第2取得部202が取得した情報と前記操作方法決定部が決定した情報からロボットの操作方法と操作時の力を決定し、制御指示に反映する。制御量決定部207は、反映した制御指示をロボット1へ送信する。
(意図推定方法)
ここで、意図推定方法例を説明する。
意図推定部205は、例えば、グラスプタクソノミー(GRASP Taxonomy)手法(例えば参考文献1参照)によって、操作者の動作意図を推定する。
本実施形態では、例えばグラスプタクソノミー手法によって操作者あるいはロボット1の姿勢すなわち把持姿勢を分類することで操作者状態を分類して、操作者の動作意図を推定する。意図推定部205は、例えば、意図推定部205が記憶する学習済みのモデルに操作者状態情報を入力して、操作者の動作意図を推定する。本実施形態では、把持姿勢の分類によって意図推定を行うことで、精度良く操作者の動作意図を推定することができる。なお、把持姿勢の分類には、他の手法を用いてもよい。
ここで、意図推定方法例を説明する。
意図推定部205は、例えば、グラスプタクソノミー(GRASP Taxonomy)手法(例えば参考文献1参照)によって、操作者の動作意図を推定する。
本実施形態では、例えばグラスプタクソノミー手法によって操作者あるいはロボット1の姿勢すなわち把持姿勢を分類することで操作者状態を分類して、操作者の動作意図を推定する。意図推定部205は、例えば、意図推定部205が記憶する学習済みのモデルに操作者状態情報を入力して、操作者の動作意図を推定する。本実施形態では、把持姿勢の分類によって意図推定を行うことで、精度良く操作者の動作意図を推定することができる。なお、把持姿勢の分類には、他の手法を用いてもよい。
参考文献1;Thomas Feix, Javier Romero,他,“The GRASP Taxonomy of Human Grasp Types” IEEE Transactions on Human-Machine Systems ( Volume: 46, Issue: 1, Feb. 2016),IEEE,p66-77
また、意図推定部205は、視線と腕部の動きを用いて統合的に推定するようにしてもよい。この場合、意図推定部205は、視線情報と、手の動き情報とテーブル上の物体の位置情報とを学習済みのモデルに入力して、操作者の動作意図を推定するようにしてもよい。
意図推定部205は、例えば、操作者状態情報に基づいて。まず把持させた物体を推定する。意図推定部205は、例えば、視線情報に基づいて把持させた物体を推定する。次に、意図推定部205は、推定した把持させたい物体に基づいて、操作者の手の姿勢を推定する。
または、意図推定部205は、例えば、操作者状態情報に基づいて、まず操作者の手の姿勢を推定する。次に、意図推定部205は、推定した操作者の手の姿勢から、把持したい物体を推定する。例えば、テーブル上に3つの物体が置かれている場合、意図推定部205は、手の姿勢に基づいて、3つのうちのどの物体が把持候補であるかを推定する。
また、意図推定部205は、操作者状態情報と、ロボット1の状態情報とに基づいて、操作者が意図する手先の将来軌道を、事前に推定するようにしてもよい。
なお、意図推定部205は、センサ400が検出した検出結果、環境センサ300が撮影した画像を画像処理した結果等も用いて、操作したい物体と、物体の位置を推定するようにしてもよい。
(物体情報DBが格納する情報例)
ここで、物体情報DB204が格納する情報例を説明する。
図4は、本実施形態に係る物体情報が格納する情報例を示す図である。図4のように、物体情報DB204は、例えば、物体名に画像、形状、大きさ、重さ、ヤング率、摩擦力、および剛性を関連付けて格納する。なお、物体によっては、箇所毎にヤング率や摩擦力が異なるものもある。このような場合は、箇所毎にヤング率や摩擦力等を関連付けて格納する。
なお、図4に示した例は一例であり、これに限らない。物体情報DB204は、形状、重さを格納していなくてもよい。この場合、例えば、物体情報推定部203は、物体情報推定部203が記憶する学習済みの学習モデルを用いて、物体の形状や重さを推定するようにしてもよい。この場合、学習は、学習モデルに、環境センサ300が取得した環境情報と教師データを入力して学習される。
ここで、物体情報DB204が格納する情報例を説明する。
図4は、本実施形態に係る物体情報が格納する情報例を示す図である。図4のように、物体情報DB204は、例えば、物体名に画像、形状、大きさ、重さ、ヤング率、摩擦力、および剛性を関連付けて格納する。なお、物体によっては、箇所毎にヤング率や摩擦力が異なるものもある。このような場合は、箇所毎にヤング率や摩擦力等を関連付けて格納する。
なお、図4に示した例は一例であり、これに限らない。物体情報DB204は、形状、重さを格納していなくてもよい。この場合、例えば、物体情報推定部203は、物体情報推定部203が記憶する学習済みの学習モデルを用いて、物体の形状や重さを推定するようにしてもよい。この場合、学習は、学習モデルに、環境センサ300が取得した環境情報と教師データを入力して学習される。
(ハンドの構成例)
ここで、ハンド5の構成例を説明する。
図5は、本実施形態に係るハンドの構成例を示す図である。また、図5は、ロボット1のハンド5が指部50(51~55)で対象物体Objを把持する例を示す図でもある。
ハンド5は、少なくとも2本以上の指部50を備える。また、各指部の腹には、例えばセンサ402が取り付けられている。センサ402は、例えば物体と接触した際に力と摩擦力を検出する。
ここで、ハンド5の構成例を説明する。
図5は、本実施形態に係るハンドの構成例を示す図である。また、図5は、ロボット1のハンド5が指部50(51~55)で対象物体Objを把持する例を示す図でもある。
ハンド5は、少なくとも2本以上の指部50を備える。また、各指部の腹には、例えばセンサ402が取り付けられている。センサ402は、例えば物体と接触した際に力と摩擦力を検出する。
(作業内容)
ここで、ロボット1が遠隔操作で行う作業例を、図6と図7を用いて説明する。図6は、ロボットが物体を把持した状態例を示す図である。図7は、作業対象例を示す図である。
ここで、ロボット1が遠隔操作で行う作業例を、図6と図7を用いて説明する。図6は、ロボットが物体を把持した状態例を示す図である。図7は、作業対象例を示す図である。
ロボット1が行う作業は、例えば、物体を把持する、物体を手に載せる、物体(ボタン等)を押す、(ペットボトルや瓶等の)蓋を開ける等である。このような作業において、例えば撮影された画像から得られた情報として、物体の名称、形状、位置だけでは、作業をうまく行えない場合もありえる。図7の四角g10内のように、物体がペットボトルの場合、空のペットボトルg11の場合もあり、中身が入っているペットボトルg12の場合もある。この場合は、例えば重さとヤング率が異なる。また、図7の四角g20内のように、物体が球状の場合、卵g21の場合もあり、ゴルフボールg22の場合もある。この場合は、例えばヤング率と剛性が異なる。また、物体が箒g30の場合は、把持する場所が柄g31と、穂先g32とでは、例えばヤング率と剛性と摩擦力が異なる。また、物体が接続ケーブルg40の場合は、把持する場所がコネクタg41と、ケーブルg42とでは、例えばヤング率が異なる。このように、作業によっては、幾何情報と力学情報とを用いた方が、作業を行いやすい場合がある。
例えば図6のように物体を把持させる場合は、物体がペットボトルであると認識し、仮にペットボトルの名称に、形状、中身の入った場合の重さが関連付けられているパラメータを用いて制御する。この場合は、中身の入ったペットボトルの把持を行わせることができても、空のペットボトルをその設定で制御してしまうと、ペットボトルをつぶしてしまうなど、作業をうまく行えない。また、物体が球状g20のような場合は、卵とゴルフボールとが混在していると、形状が似ているが、ゴルフボールのパラメータで把持すると卵をつぶしてしまうこともありえる。
このため、本実施形態では、対象物の幾何情報と力学情報を取得して、多様な対象物に対して適切な接触力目標を生成するようにした。
(処理手順例)
次に、ロボット遠隔操作制御システム100の処理手順例を説明する。
図8は、本実施形態に係るロボット遠隔操作制御システム100の処理手順例を示すシーケンス図である。
次に、ロボット遠隔操作制御システム100の処理手順例を説明する。
図8は、本実施形態に係るロボット遠隔操作制御システム100の処理手順例を示すシーケンス図である。
(ステップS11)ロボット遠隔制御装置200の第2取得部202は、環境センサ300から環境情報を取得する。
(ステップS12)ロボット遠隔制御装置200の第1取得部201は、操作者センサ400から操作者状態情報を取得する。
(ステップS13)ロボット遠隔制御装置200の第2取得部202は、ロボット1のセンサ36からセンサ情報を取得する。
(ステップS14)ロボット遠隔制御装置200の物体情報推定部203は、第2取得部202が取得した情報を用いて、物体情報DB204が格納する情報を参照して、操作対象の物体の幾何情報および力学情報のうち少なくとも1つを推定して取得する。
(ステップS15)ロボット遠隔制御装置200の意図推定部205は、第1取得部201が取得した情報と第2取得部202が取得した情報を用いて、作業者の意図を推定する。
(ステップS16)ロボット遠隔制御装置200の制御量決定部207は、第2取得部が取得した情報と前記操作方法決定部が決定した情報からロボットの操作方法と操作時の力を決定し、制御指示に反映する。
(ステップS17)ロボット遠隔制御装置200の制御量決定部207は、反映した制御指示をロボット1へ送信する。ロボット1は、制御指示に応じてアクチュエータ21、22を駆動する。
なお、図8を用いて説明した処理手順は一例であり、これに限らない。例えば、ステップS11~S13の処理の順番は異なっていてもよく、平行して行われるようにしてもよい。
以上のように、本実施形態では、ロボット1および環境に設置されたセンサ(力センサ,トルクセンサ,画像センサ)情報を通じて、対象物の幾何情報と力学情報(形状,質量,ヤング率,摩擦等)を推定するようにした。推定には、力センサ、トルクセンサを用いた外力推定や機械学習による分類、データベースを用いるようにした。
また、本実施形態では、ロボット1、環境と操作者に設置されたセンサ(RGB画像,深度,ジャイロ,視線等)情報から操作者の意図を推定し、対象物とその接触点と、タクソノミーを推定するようにした。
本実施形態では、これらの情報に基づいて、ロボット遠隔操作制御装置200が最適な接触力を推定し、制御指示に反映するようにした。すなわち、本実施形態では、物体の、例えば形状、質量、ヤング率、摩擦係数および物体を例えば横から掴みたいという意図推定結果に基づいて、ロボット遠隔操作制御装置200が適切な接触力目標を生成するようにした。これにより、本実施形態によれば、操作者は、物体に加える力や物体から加わる重力を考慮せずに作業が可能となる。
また、本実施形態では、ロボット1、環境と操作者に設置されたセンサ(RGB画像,深度,ジャイロ,視線等)情報から操作者の意図を推定し、対象物とその接触点と、タクソノミーを推定するようにした。
本実施形態では、これらの情報に基づいて、ロボット遠隔操作制御装置200が最適な接触力を推定し、制御指示に反映するようにした。すなわち、本実施形態では、物体の、例えば形状、質量、ヤング率、摩擦係数および物体を例えば横から掴みたいという意図推定結果に基づいて、ロボット遠隔操作制御装置200が適切な接触力目標を生成するようにした。これにより、本実施形態によれば、操作者は、物体に加える力や物体から加わる重力を考慮せずに作業が可能となる。
これにより、本実施形態によれば、遠隔操縦ロボットにおいて,多様な対象物を適切な力で把持したり,操作することが可能となる。これにより、本実施形態によれば、作業効率の改善と作業の種類が増加することが期待される。
なお、意図推定部205は、操作者状態情報と、ロボット1の状態情報とに基づいて、操作者が意図する手先の将来軌道を、事前に予測するようにしてもよい。
また、上述したロボット1は、例えば、二足歩行ロボットであってもよく、固定型の受付ロボットであってもよく、作業ロボットであってもよい。
また、上述した例では、遠隔操作でロボット1に把持させる例を説明したが、これに限らない。
また、上述した例では、操作者がHMD501を装着する例を説明したが、これに限らない。視線情報の検出や、操作者へのロボット状態画像の提供は、例えば、センサと画像表示装置との組み合わせ等であってもよい。
なお、本発明におけるロボット遠隔操作制御装置200の機能の全てまたは一部を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによりロボット遠隔操作制御装置200が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューターシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピューターシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
1…ロボット、4…アーム、5…ハンド(把持部)、6…脚部、7…足部、8…上腕部、9…前腕部、10…肩部、11…大腿部、12…下腿部、13…頭部13、14…ボディ、212…アーム用のアクチュエータ、22…ハンド関節用のアクチュエータ、25…制御部、31…記憶部、32…通信部、33…収音部、34…撮影装置、35…駆動部、36…センサ、361…力センサ、362…トルクセンサ、363…エンコーダ、100…ロボット遠隔操作制御システム、200…ロボット遠隔操作制御装置、201…第1取得部、202…第2取得部、203…物体情報推定部(第2取得部)、204…物体情報DB、205…意図推定部、206…操作方法決定部、207…制御量決定部、300…環境センサ、400…操作者センサ、401…視線検出部、402…センサ、501…HMD、502…コントローラー
Claims (7)
- 物体を把持可能なロボットを操作者が遠隔操作するロボット遠隔操作制御において、
前記ロボットを操作する操作者の状態の操作者状態情報を取得する第1取得部と、
前記操作者状態情報に基づき前記操作者が前記ロボットに行わせようとしている動作意図を推定する意図推定部と、
前記物体の幾何情報と力学情報のうち少なくとも1つを取得する第2取得部と、
前記推定された前記操作者の動作意図に基づいた前記物体の操作方法を決定する操作方法決定部と、
前記第2取得部が取得した情報と前記操作方法決定部が決定した情報からロボットの操作方法と操作時の力を決定し、制御指示に反映する制御量決定部と、
を備えるロボット遠隔操作制御装置。 - 前記第2取得部は、前記物体の形状と質量とヤング率と剛性と摩擦力のうちの少なくとも1つを取得する、
請求項1に記載のロボット遠隔操作制御装置。 - 前記第2取得部は、前記物体を含む画像と前記物体の位置情報とを含む環境情報と、前記ロボットが備える前記ロボットの動作に関わる情報を検出するセンサが検出したセンサ情報とを取得する、
請求項1または請求項2に記載のロボット遠隔操作制御装置。 - 前記第2取得部は、前記ロボットが備える力センサとトルクセンサを用いた外力推定を行い、学習済みの学習モデルを用いた分類、および前記物体に関する情報を格納するデータベースを参照、のうちの少なくとも1つによって、前記物体の幾何情報と力学情報のうち少なくとも1つを取得する、
請求項1から請求項3のうちのいずれか1項に記載のロボット遠隔操作制御装置。 - 前記意図推定部は、前記物体の名称と、前記物体に対する操作内容と、前記物体を操作する際の前記ロボットと前記物体との接触点を推定する、
請求項1から請求項4のうちのいずれか1項に記載のロボット遠隔操作制御装置。 - 物体を把持可能なロボットを操作者が遠隔操作するロボット遠隔操作制御において、
第1取得部が、前記ロボットを操作する操作者の状態の操作者状態情報を取得し、
意図推定部が、前記操作者状態情報に基づき前記操作者が前記ロボットに行わせようとしている動作意図を推定し、
第2取得部が、前記物体の幾何情報と力学情報のうち少なくとも1つを取得し、
操作方法決定部が、前記推定された前記操作者の動作意図に基づいた前記物体の操作方法を決定し、
制御量決定部が、前記第2取得部が取得した情報と前記操作方法決定部が決定した情報からロボットの操作方法と操作時の力を決定し、制御指示に反映する、
ロボット遠隔操作制御方法。 - 請求項1から請求項5のうちのいずれか1項に記載のロボット遠隔操作制御装置として、コンピューターを機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022006498A JP2023105577A (ja) | 2022-01-19 | 2022-01-19 | ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム |
US18/079,916 US20230226698A1 (en) | 2022-01-19 | 2022-12-13 | Robot teleoperation control device, robot teleoperation control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022006498A JP2023105577A (ja) | 2022-01-19 | 2022-01-19 | ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023105577A true JP2023105577A (ja) | 2023-07-31 |
Family
ID=87162374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022006498A Pending JP2023105577A (ja) | 2022-01-19 | 2022-01-19 | ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230226698A1 (ja) |
JP (1) | JP2023105577A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117338436B (zh) * | 2023-12-06 | 2024-02-27 | 鸡西鸡矿医院有限公司 | 一种机械手及其控制方法 |
-
2022
- 2022-01-19 JP JP2022006498A patent/JP2023105577A/ja active Pending
- 2022-12-13 US US18/079,916 patent/US20230226698A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230226698A1 (en) | 2023-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6660102B2 (ja) | ロボット教示装置およびその制御方法、ロボットシステム、プログラム | |
US9321176B1 (en) | Systems and methods for planning a robot grasp based upon a demonstrated grasp | |
Bimbo et al. | Teleoperation in cluttered environments using wearable haptic feedback | |
Natale et al. | A sensitive approach to grasping | |
EP4039422A1 (en) | Sensorized robotic gripping device | |
Fang et al. | A robotic hand-arm teleoperation system using human arm/hand with a novel data glove | |
Li et al. | Intuitive control of a robotic arm and hand system with pneumatic haptic feedback | |
JPH11513163A (ja) | バーチャル環境操作装置のモデル化及び制御 | |
Bianchi et al. | Touch-based grasp primitives for soft hands: Applications to human-to-robot handover tasks and beyond | |
US20230226698A1 (en) | Robot teleoperation control device, robot teleoperation control method, and storage medium | |
CN110456902A (zh) | 跟踪用户移动以控制计算机系统中的骨架模型 | |
Falck et al. | DE VITO: A dual-arm, high degree-of-freedom, lightweight, inexpensive, passive upper-limb exoskeleton for robot teleoperation | |
JP6931585B2 (ja) | 作業システム、作業システムの制御方法及びプログラム | |
Kojima et al. | Sensor prediction and grasp stability evaluation for in-hand manipulation | |
US20220314133A1 (en) | Information processing device, information processing method, and information processing program | |
Ramaswamy et al. | A survey of robotic hand-arm systems | |
JP3884249B2 (ja) | 人間型ハンドロボット用教示システム | |
JP2022155623A (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
US20230234231A1 (en) | Teleoperation assist device, teleoperation assist method, and storage medium | |
Mellmann et al. | Dynamic motion control: Adaptive bimanual grasping for a humanoid robot | |
WO2022209924A1 (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
CN111002295A (zh) | 一种二指抓取机器人的示教手套及示教系统 | |
US20220314449A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and non-transitory computer readable medium | |
JP2022157127A (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
JP2022157123A (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム |