JP2022157101A - Robot remote operation control device, robot remote operation control system, robot remote operation control method and program - Google Patents

Robot remote operation control device, robot remote operation control system, robot remote operation control method and program Download PDF

Info

Publication number
JP2022157101A
JP2022157101A JP2021061137A JP2021061137A JP2022157101A JP 2022157101 A JP2022157101 A JP 2022157101A JP 2021061137 A JP2021061137 A JP 2021061137A JP 2021061137 A JP2021061137 A JP 2021061137A JP 2022157101 A JP2022157101 A JP 2022157101A
Authority
JP
Japan
Prior art keywords
operator
robot
motion
freedom
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021061137A
Other languages
Japanese (ja)
Inventor
智大 茶木
Tomohiro Chagi
智樹 渡部
Tomoki Watabe
屹立 董
Yili Dong
了 水谷
Ryo Mizutani
七海 塚本
Nanami TSUKAMOTO
直希 細見
Naoki Hosomi
コンダパッレィアニルドレッディ
Reddy Kondapally Anirudh
マンシッツ ジーモン
Manschitz Simon
ディルク ルイケン
Luiken Dirk
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021061137A priority Critical patent/JP2022157101A/en
Priority to PCT/JP2022/012089 priority patent/WO2022209924A1/en
Priority to EP22780144.6A priority patent/EP4316747A1/en
Priority to CN202280025720.6A priority patent/CN117136120A/en
Publication of JP2022157101A publication Critical patent/JP2022157101A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a robot remote operation control device, a robot remote operation control system, a robot remote operation control method and a program which enable an operator to easily perform work.SOLUTION: A robot remote operation control device, which performs robot remote operation control by which movements of an operator are recognized and the movements of the operator are transmitted to a robot to operate the robot, comprises: an intention estimating part that estimates motion of the operator on the basis of a robot environment sensor value obtained by an environment sensor installed in the robot or in an environment around the robot and an operator sensor value showing the motion of the operator obtained by an operator sensor; and a control command generating part that generates a control command while reducing a degree of freedom of motion of the operator, by generating a control command suitable for degree of freedom of a portion of the motion of the operator, on the basis of the estimated motion of the operator.SELECTED DRAWING: Figure 2

Description

本発明は、ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムに関する。 The present invention relates to a robot remote operation control device, a robot remote operation control system, a robot remote operation control method, and a program.

利用者がロボットの操作を補助することができる制御装置が提案されている。このような制御装置として、例えば、ロボットを操作する第1ユーザーの姿勢を示す第1ユーザー姿勢情報を取得する第1情報取得部と、第1ユーザー姿勢情報に基づいてロボットの姿勢を変化させる前のロボットの姿勢である変化前姿勢を示す変化前姿勢情報を取得する第2情報取得部と、変化前姿勢情報と、変化前姿勢情報が示す変化前姿勢をロボットがしている時点で第1情報取得部が取得した第1ユーザー姿勢情報とに基づいて、第1ユーザーの姿勢と異なる標的姿勢をロボットの姿勢に決定する決定部と、を有する制御装置が提案されている(特許文献1参照)。特許文献1に記載のシステムでは、操作者が装着した装置によって検出した姿勢に対応する姿勢にロボットの姿勢を変化させる。 A control device has been proposed that allows a user to assist the operation of a robot. As such a control device, for example, a first information acquisition unit that acquires first user posture information indicating the posture of a first user who operates the robot, and a a second information acquiring unit for acquiring pre-change posture information indicating a pre-change posture which is the posture of the robot; A control device has been proposed that includes a determination unit that determines a target posture different from the posture of the first user as the posture of the robot based on the first user posture information acquired by the information acquisition unit (see Patent Document 1). ). The system described in Patent Literature 1 changes the posture of the robot to a posture that corresponds to the posture detected by the device worn by the operator.

なお、遠隔操縦ロボットを用いて多様な作業を行うためには、3次元空間上の6自由度手先目標(位置・姿勢)を正確に指示・制御する必要がある。例えば、ロボットにペットボトルの鉛直方向がテーブルに対して垂直ではない状態でペットボトルの蓋を開けさせる場合、遠隔操作を行う操作者は、把持部をペットボトルの鉛直方向の傾きに合わせつつ蓋を回すように指示する。 In addition, in order to perform various tasks using a remote-controlled robot, it is necessary to accurately indicate and control hand targets (positions and postures) with six degrees of freedom in three-dimensional space. For example, when the robot is to open the lid of a plastic bottle in a state in which the vertical direction of the bottle is not perpendicular to the table, the operator performing the remote operation must move the lid while aligning the grip part with the inclination of the bottle in the vertical direction. instruct to turn

特許第6476358号公報Japanese Patent No. 6476358

しかしながら、従来技術では、遠隔操縦ロボットを用いて多様な作業を実現するには、操作者が遠隔地のロボットと物体の状況を正確に把握すると同時に、高度な操作技術が求められるため、実行可能な作業は限定的かつその効率は低下する。
このため、従来技術では、遠隔操作時に、操作者が空間上の6自由度(位置・姿勢)目標値を決定・正確に制御し、作業を行うことが困難であった。
However, in the conventional technology, in order to realize various tasks using a remote-controlled robot, the operator needs to accurately grasp the situation of the remote robot and the object, and at the same time, advanced operation skills are required. work is limited and its efficiency decreases.
For this reason, in the prior art, it was difficult for the operator to determine and accurately control target values for the six degrees of freedom (position and orientation) in space during remote control, and to perform work.

本発明は、上記の問題点に鑑みてなされたものであって、操作者が作業を行うことが容易となるロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and provides a robot remote operation control device, a robot remote operation control system, a robot remote operation control method, and a program that facilitate an operator's work. intended to provide

(1)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御装置は、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定する意図推定部と、推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、前記操作者の動作の自由度を減らして制御指令を生成する制御指令生成部と、を備える。 (1) In order to achieve the above objects, a robot remote operation control device according to an aspect of the present invention recognizes a motion of an operator and transmits the motion of the operator to a robot to operate the robot. , based on the robot environment sensor value obtained by the robot or an environment sensor installed in the surrounding environment of the robot and the operator sensor value obtained by the operator sensor, which is the movement of the operator. an intention estimating unit that estimates an operator's motion; and a control command generator that generates a control command by reducing the degree of freedom of operator's motion.

(2)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記制御指令生成部は、前記操作者が制御すべき自由度や制御可能な範囲を制限し、前記操作者による前記ロボットへの動作指示のうち制限した前記自由度に対して動作補助を行うようにしてもよい。 (2) Further, in the robot remote control device according to the aspect of the present invention, the control command generation unit limits the degree of freedom to be controlled by the operator and the controllable range so that the robot can be controlled by the operator. The motion assistance may be performed with respect to the restricted degree of freedom in the motion instruction to the .

(3)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記制御指令生成部は、前記ロボットが備える把持部と、前記操作者による操作対象の対象物体との距離が所定範囲外の場合、前記操作者の動作のうち、前記操作者の動作の自由度を減らさず、前記ロボットが備える把持部と、前記操作者による操作対象の対象物体との距離が所定範囲内の場合、前記操作者の動作のうち、前記操作者の動作の自由度を減らす、前記ロボット環境センサ値は、撮影された画像情報、および深度情報を有するようにしてもよい。 (3) Further, in the robot remote operation control device according to the aspect of the present invention, the control command generation unit determines that the distance between the gripping unit of the robot and the target object to be operated by the operator is outside a predetermined range. In the case of , if the distance between the gripping unit provided in the robot and the target object to be operated by the operator is within a predetermined range without reducing the degree of freedom of the operator's motion, Among the actions of the operator, the robot environment sensor values that reduce the degree of freedom of the actions of the operator may include captured image information and depth information.

(4)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記意図推定部は、前記ロボット環境センサ値と、前記操作者センサ値とを学習済みの意図推定モデルに入力して前記操作者の動作を推定するようにしてもよい。 (4) Further, in the robot remote operation control device according to the aspect of the present invention, the intention estimation unit inputs the robot environment sensor value and the operator sensor value into a learned intention estimation model to The motion of the operator may be estimated.

(5)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記操作者センサ値は、前記操作者の視線情報、および前記操作者の腕部の姿勢や位置に関する情報である操作者腕部情報のうちの少なくとも1つであるようにしてもよい。 (5) Further, in the robot remote operation control device according to the aspect of the present invention, the operator sensor values are operator's sight line information and information on the posture and position of the operator's arms. It may be at least one of arm information.

(6)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記ロボット環境センサ値は、撮影された画像情報、および深度情報を有するようにしてもよい。 (6) Further, in the robot remote operation control device according to the aspect of the present invention, the robot environment sensor values may include photographed image information and depth information.

(7)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御システムは、物体を把持する把持部と、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、上記(1)から(6)のうちのいずれか1つに記載の前記ロボット遠隔操作制御装置と、前記ロボットあるいは前記ロボットの周辺環境に設置され、ロボット環境センサ値を検出する環境センサと、前記操作者の動きを操作者センサ値として検出する操作者センサと、を備える。 (7) In order to achieve the above objects, a robot remote control system according to an aspect of the present invention includes a gripping unit that grips an object, recognizes movements of an operator, and transmits the movements of the operator to a robot. In the robot remote operation for operating the robot, the robot remote operation control device according to any one of the above (1) to (6) and the robot environment installed in the robot or in the surrounding environment of the robot. An environment sensor that detects a sensor value, and an operator sensor that detects the movement of the operator as an operator sensor value.

(8)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御方法は、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、意図推定部が、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定し、制御指令生成部が、推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、前記操作者の動作の自由度を減らして制御指令を生成する。 (8) In order to achieve the above objects, a robot remote control method according to an aspect of the present invention is a robot remote control method for recognizing a motion of an operator and transmitting the motion of the operator to a robot to operate the robot. in which the intention estimating unit obtains a robot environment sensor value obtained by the robot or an environment sensor installed in the robot's surrounding environment, and an operator sensor value obtained by an operator sensor, which is the movement of the operator; , and a control command generation unit, based on the estimated motion of the operator, generates a control command appropriate for a part of the degrees of freedom of the motion of the operator By generating , the degree of freedom of the operator's motion is reduced to generate a control command.

(9)上記目的を達成するため、本発明の一態様に係るプログラムは、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、コンピュータに、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定させ、推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成させることで、前記操作者の動作の自由度を減らして制御指令を生成させる。 (9) In order to achieve the above object, a program according to an aspect of the present invention provides a program for remote control of a robot that recognizes a motion of an operator and transmits the motion of the operator to a robot to operate the robot. , a robot environment sensor value obtained by the robot or an environment sensor installed in the surrounding environment of the robot, and an operator sensor value obtained by an operator sensor, which is the movement of the operator. By estimating the motion of the operator and generating an appropriate control command for a part of the degrees of freedom of the motion of the operator based on the estimated motion of the operator, Reduce degrees of freedom to generate control commands.

(1)~(9)によれば、状況に応じて6自由度の一部の制御目標値生成を代替することで、操作者が制御すべき自由度を限定するようにしたので、操作者が作業を行うことが容易となる。 According to (1) to (9), by substituting control target value generation for some of the six degrees of freedom depending on the situation, the operator limits the degrees of freedom to be controlled. makes it easier to do the work.

実施形態に係るロボット遠隔操作制御システムの概要と作業の概要を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the outline|summary of the robot remote operation control system which concerns on embodiment, and the outline|summary of work. 実施形態に係るロボット遠隔操作制御システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a robot remote control system according to an embodiment; FIG. HMD、コントローラーを操作者が身につけている状態例を示す図である。FIG. 4 is a diagram showing an example of a state in which an operator wears an HMD and a controller; 実施形態に係る意図推定、制御指令生成処理の概要を示す図である。FIG. 4 is a diagram showing an outline of intention estimation and control command generation processing according to the embodiment; 操作者の意図がペットボトルの蓋を開けようとしている場合を示す図である。FIG. 10 is a diagram showing a case where the operator's intention is to open the cap of the PET bottle; 操作者の意図が箱を掴もうとしている場合を示す図である。It is a figure which shows the case where an operator's intention is to grab a box. 実施形態に係る記憶部が記憶する情報例を示す図である。It is a figure which shows the example of the information which the memory|storage part which concerns on embodiment memorize|stores. ロボット遠隔操作制御装置の補助による把持位置の手先目標の修正例を示す図である。FIG. 10 is a diagram showing an example of correction of a hand target of a gripping position with the assistance of a robot remote control device; 実施形態に係るロボットとロボット遠隔操作制御装置の処理手順例のフローチャートである。4 is a flow chart of an example of a processing procedure of the robot and the robot remote control device according to the embodiment;

以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in the drawings used for the following description, the scale of each member is appropriately changed so that each member has a recognizable size.

[概要]
まず、ロボット遠隔操作制御システムで行う作業と処理の概要を説明する。
図1は、本実施形態に係るロボット遠隔操作制御システム1の概要と作業の概要を示す図である。図1のように、操作者Usは、例えばHMD(ヘッドマウントディスプレイ)5とコントローラー6を装着している。作業環境には、環境センサ7(7a、7b)が設置されている。なお、環境センサ7cが、ロボット2に取り付けられていてもよい。環境センサ7(7a、7b)は、後述するように例えばRGBカメラと深度センサを備えている。操作者Usは、HMD5に表示された画像を見ながらコントローラー6を装着している手や指を動かすことで、ロボット2を遠隔操作する。図1の例では、操作者Usは、ロボット2を遠隔操作して、テーブルTb上にあるペットボトルobjを把持させ、例えばペットボトルのキャップを開けさせる。なお、遠隔操作において、操作者Usは、ロボット2の動作を直接視認できないが、ロボット2側の映像をHMD5で間接的に視認できる状態である。本実施形態では、操作者が装着しているコントローラー6が取得した情報と、環境センサ7が取得した情報に基づいて、操作者の意図(対象物体に関する情報、作業内容)を推定し、推定した結果に基づいて、操作者が制御すべき自由度を限定して操作をサポートする。
[Overview]
First, an outline of work and processing performed by the robot remote control system will be described.
FIG. 1 is a diagram showing an outline of a robot remote control system 1 and an outline of work according to this embodiment. As shown in FIG. 1, the operator Us is wearing an HMD (head mounted display) 5 and a controller 6, for example. Environmental sensors 7 (7a, 7b) are installed in the work environment. In addition, the environment sensor 7c may be attached to the robot 2 . The environment sensors 7 (7a, 7b) include, for example, an RGB camera and a depth sensor as described later. The operator Us remotely operates the robot 2 by moving the hand or fingers wearing the controller 6 while watching the image displayed on the HMD 5 . In the example of FIG. 1, the operator Us remotely operates the robot 2 to grip the PET bottle obj on the table Tb and, for example, open the cap of the PET bottle. In the remote operation, the operator Us cannot directly view the motion of the robot 2, but can indirectly view the image of the robot 2 through the HMD 5. FIG. In this embodiment, based on the information acquired by the controller 6 worn by the operator and the information acquired by the environment sensor 7, the operator's intention (information about the target object, work content) is estimated and estimated. Based on the results, the degree of freedom to be controlled by the operator is limited to support the operation.

[ロボット遠隔操作制御システムの構成例]
次に、ロボット遠隔操作制御システム1の構成例を説明する。
図2は、本実施形態に係るロボット遠隔操作制御システム1の構成例を示すブロック図である。図2のように、ロボット遠隔操作制御システム1は、ロボット2、ロボット遠隔操作制御装置3、HMD5、コントローラー6、および環境センサ7を備える。
[Configuration example of robot remote control system]
Next, a configuration example of the robot remote control system 1 will be described.
FIG. 2 is a block diagram showing a configuration example of the robot remote control system 1 according to this embodiment. As shown in FIG. 2 , the robot remote control system 1 includes a robot 2 , a robot remote control device 3 , an HMD 5 , a controller 6 and an environment sensor 7 .

ロボット2は、例えば、制御部21、駆動部22、収音部23、記憶部25、電源26、およびセンサ27を備える。
ロボット遠隔操作制御装置3は、例えば、情報取得部31、意図推定部33、制御指令生成部34、ロボット状態画像作成部35、送信部36、および記憶部37を備える。
The robot 2 includes, for example, a control unit 21, a drive unit 22, a sound pickup unit 23, a storage unit 25, a power supply 26, and a sensor 27.
The robot remote control device 3 includes, for example, an information acquisition unit 31, an intention estimation unit 33, a control command generation unit 34, a robot state image creation unit 35, a transmission unit 36, and a storage unit 37.

HMD5は、例えば、画像表示部51、視線検出部52(操作者センサ)、制御部54、および通信部55を備える。なお、HMD5は、例えば操作者の頭部の傾き等を検出するセンサを備えていてもよい。 HMD5 is provided with the image display part 51, the line-of-sight detection part 52 (operator sensor), the control part 54, and the communication part 55, for example. In addition, HMD5 may be equipped with the sensor which detects the inclination of an operator's head, etc., for example.

コントローラー6は、例えば、センサ61(操作者センサ)、制御部62、通信部63、およびフィードバック手段64を備える。 The controller 6 includes, for example, a sensor 61 (operator sensor), a control section 62, a communication section 63, and feedback means 64.

環境センサ7は、例えば、撮影装置71、センサ72、および通信部73を備える。 The environment sensor 7 includes, for example, an imaging device 71, a sensor 72, and a communication section 73.

なお、ロボット遠隔操作制御装置3とHMD5は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とコントローラー6は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3と環境センサ7は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とロボット2は、例えば、無線または有線のネットワークを介して接続されている。なお、ロボット遠隔操作制御装置3とHMD5は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とコントローラー6は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3と環境センサ7は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とロボット2は、ネットワークを介さずに直接接続されてもよい。 The robot remote control device 3 and the HMD 5 are connected via a wireless or wired network, for example. The robot remote control device 3 and the controller 6 are connected via a wireless or wired network, for example. The robot remote control device 3 and the environment sensor 7 are connected via a wireless or wired network, for example. The robot remote control device 3 and the robot 2 are connected via a wireless or wired network, for example. Note that the robot remote control device 3 and the HMD 5 may be directly connected without going through a network. The robot remote control device 3 and the controller 6 may be directly connected without going through a network. The robot remote control device 3 and the environment sensor 7 may be directly connected without going through a network. The robot remote control device 3 and the robot 2 may be directly connected without going through a network.

[ロボット遠隔操作制御システムの機能例]
次に、ロボット遠隔操作制御システムの機能例を、図1を参照しつつ説明する。
HMD5は、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。HMD5は、操作者の視線の動き等を検出し、検出した視線情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。
[Function example of robot remote control system]
Next, an example of functions of the robot remote control system will be described with reference to FIG.
The HMD 5 displays the robot state image received from the robot remote control device 3 . The HMD 5 detects the movement of the operator's line of sight, etc., and transmits the detected line-of-sight information (operator sensor value) to the robot remote control device 3 .

画像表示部51は、制御部54の制御に応じて、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。 The image display unit 51 displays the state image of the robot received from the robot remote control device 3 under the control of the control unit 54 .

視線検出部52は、操作者の視線を検出し、検出した視線情報を制御部54に出力する。 The line-of-sight detection unit 52 detects the line-of-sight of the operator and outputs the detected line-of-sight information to the control unit 54 .

制御部54は、視線検出部52が検出した視線情報に基づく視線情報を、通信部55を介してロボット遠隔操作制御装置3に送信する。制御部54は、ロボット遠隔操作制御装置3が送信したロボットの状態画像を、画像表示部51に表示させる。 The control unit 54 transmits line-of-sight information based on the line-of-sight information detected by the line-of-sight detection unit 52 to the robot remote control device 3 via the communication unit 55 . The control unit 54 causes the image display unit 51 to display the state image of the robot transmitted by the robot remote control device 3 .

通信部55は、ロボット遠隔操作制御装置3が送信したロボットの状態画像を受信し、受信したロボットの状態画像を制御部54に出力する。通信部55は、制御部54の制御に応じて、操作者状態情報をロボット遠隔操作制御装置3に送信する。 The communication unit 55 receives the robot state image transmitted by the robot remote control device 3 and outputs the received robot state image to the control unit 54 . The communication unit 55 transmits the operator state information to the robot remote control device 3 under the control of the control unit 54 .

コントローラー6は、例えば、触覚データグローブであり、操作者の手に装着される。コントローラー6は、センサ61によって方位や各指の動きや手の動き等の操作者の腕部の姿勢や位置に関する情報である操作者腕部情報を検出し、検出した操作者腕部情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。なお、操作者腕部情報(操作者センサ値)には、手先位置・姿勢情報、各指の角度情報、肘の位置・姿勢情報、各部の動きをトラッキングした情報等のヒトの腕部全般におよぶ情報が含まれる。 The controller 6 is, for example, a tactile data glove worn on the operator's hand. The controller 6 detects operator arm information, which is information about the posture and position of the operator's arm, such as orientation, movement of each finger, and movement of the hand, using the sensor 61, and stores the detected operator arm information (operation sensor value) to the robot remote control device 3. The operator arm information (operator sensor values) includes the position and posture information of the hand, the angle information of each finger, the position and posture information of the elbow, and the information tracking the movement of each part. It contains a wide range of information.

センサ61は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。なお、センサ61は、複数のセンサを備えるセンサ61は、例えば2つのセンサによって各指の動きをトラッキングする。センサ61は、操作者腕部情報を検出し、検出した操作者腕部情報を制御部62に出力する。 The sensor 61 is, for example, an acceleration sensor, a gyroscope sensor, a magnetic force sensor, or the like. Note that the sensor 61, which includes a plurality of sensors, tracks the movement of each finger using, for example, two sensors. The sensor 61 detects operator arm information and outputs the detected operator arm information to the controller 62 .

制御部62は、センサ61が検出した検出結果も基づく操作者腕部情報を、通信部63を介してロボット遠隔操作制御装置3に送信する。制御部62は、フィードバック情報に基づいて、フィードバック手段64を制御する。 The control unit 62 transmits operator arm information based on the detection result detected by the sensor 61 to the robot remote control device 3 via the communication unit 63 . The controller 62 controls the feedback means 64 based on the feedback information.

通信部63は、制御部62の制御に応じて、操作者腕部情報をロボット遠隔操作制御装置3に送信する。通信部63は、ロボット遠隔操作制御装置3が送信したフィードバック情報を取得し、取得したフィードバック情報を制御部62に出力する。 The communication unit 63 transmits operator arm information to the robot remote control device 3 under the control of the control unit 62 . The communication unit 63 acquires the feedback information transmitted by the robot remote control device 3 and outputs the acquired feedback information to the control unit 62 .

フィードバック手段64は、制御部62の制御に応じて、操作者にフィードバック情報をフィードバックする。フィードバック手段64は、フィードバック情報に応じて、例えば、ロボット2の把持部222に取り付けられている振動を与える手段(不図示)や空気圧を与える手段(不図示)や手の動きを拘束する手段(不図示)や温度を感じさせる手段(不図示)や堅さや柔らかさを感じさせる手段(不図示)等によって操作者に感覚をフィードバックする。 The feedback means 64 feeds back feedback information to the operator under the control of the control section 62 . According to the feedback information, the feedback means 64 includes, for example, means for applying vibration (not shown), means for applying air pressure (not shown), and means for restraining hand movement (not shown) attached to the grip part 222 of the robot 2. (not shown), means for feeling temperature (not shown), means for feeling hardness or softness (not shown), or the like is used to feed back sensations to the operator.

環境センサ7は、例えばロボット2の作業を撮影、検出できる位置に設置されている。なお、環境センサ7は、ロボット2が備えていてもよく、ロボット2に取り付けられていてもよい。または、環境センサ7は、複数であってもよく、図1のように作業環境に設置され、かつロボット2にも取り付けられていてもよい。環境センサ7は、撮影された画像、検出された検出結果(環境センサ値)をロボット遠隔操作制御装置3に送信する。 The environment sensor 7 is installed, for example, at a position where the work of the robot 2 can be photographed and detected. The environment sensor 7 may be provided in the robot 2 or may be attached to the robot 2 . Alternatively, a plurality of environment sensors 7 may be provided, and may be installed in the work environment and attached to the robot 2 as shown in FIG. The environment sensor 7 transmits the photographed image and the detected detection result (environment sensor value) to the robot remote control device 3 .

撮影装置71は、例えばRGBカメラである。撮影装置71は、撮影した画像を、通信部73を介してロボット遠隔操作制御装置3に送信する。なお、環境センサ7において、撮影装置71とセンサ72の位置関係が既知である。 The imaging device 71 is, for example, an RGB camera. The photographing device 71 transmits the photographed image to the robot remote control device 3 via the communication unit 73 . In addition, in the environment sensor 7, the positional relationship between the imaging device 71 and the sensor 72 is known.

センサ72は、例えば深度センサである。センサ72は、検出したセンサ値を、通信部73を介してロボット遠隔操作制御装置3に送信する。なお、撮影装置71とセンサ72は、距離センサであってもよい。 Sensor 72 is, for example, a depth sensor. The sensor 72 transmits the detected sensor value to the robot remote control device 3 via the communication unit 73 . Note that the imaging device 71 and the sensor 72 may be distance sensors.

通信部73は、撮影された画像と、センサ72によって検出されたセンサ値とを環境センサ情報としてロボット遠隔操作制御装置3に送信する。なお、環境センサ7は、撮影された画像とセンサ値を用いて、物体の位置情報を検出して、検出した結果を環境センサ情報としてロボット遠隔操作制御装置3に送信するようにしてもよい。なお、環境センサ7が送信するデータは、例えば位置情報を有する点群であってもよい。 The communication unit 73 transmits the captured image and the sensor values detected by the sensor 72 to the robot remote control device 3 as environmental sensor information. The environment sensor 7 may detect the position information of the object using the photographed image and the sensor value, and transmit the detection result to the robot remote control device 3 as the environment sensor information. The data transmitted by the environment sensor 7 may be, for example, a point cloud having position information.

ロボット2は、遠隔操作されていない場合、制御部21の制御に応じて行動が制御される。ロボット2は、遠隔操作されている場合、ロボット遠隔操作制御装置3が生成した把持計画情報に応じて行動が制御される。 The behavior of the robot 2 is controlled according to the control of the control unit 21 when it is not remotely operated. When the robot 2 is remotely operated, the behavior of the robot 2 is controlled according to the grasping plan information generated by the robot remote control device 3 .

制御部21は、ロボット遠隔操作制御装置3が出力する制御指令に基づいて駆動部22を制御する。制御部21は、記憶部25が記憶する情報に基づいて、環境センサ7が撮影した画像と検出した検出結果を用いて、撮影された画像における対象物体の三次元位置と大きさ形状等を周知の手法で取得する。なお、制御部21は、収音部23が収音した音響信号に対して音声認識処理(発話区間検出、音源分離、音源定位、雑音抑圧、音源同定等)を行うようにしてもよい。制御部21は、音声認識した結果にロボットに対する動作指示が含まれている場合、音声による動作指示に基づいてロボット2の動作を制御するようにしてもよい。制御部21は、フィードバック情報を生成して、生成したフィードバック情報を、ロボット遠隔操作制御装置3を介してコントローラー6に送信する。 The control unit 21 controls the driving unit 22 based on control commands output from the robot remote control device 3 . Based on the information stored in the storage unit 25, the control unit 21 uses the image captured by the environment sensor 7 and the detection result to notify the three-dimensional position, size, shape, etc. of the target object in the captured image. obtained by the method of Note that the control unit 21 may perform speech recognition processing (speech segment detection, sound source separation, sound source localization, noise suppression, sound source identification, etc.) on the acoustic signal collected by the sound collection unit 23 . If the result of voice recognition includes an action instruction for the robot, the control unit 21 may control the action of the robot 2 based on the action instruction by voice. The control unit 21 generates feedback information and transmits the generated feedback information to the controller 6 via the robot remote control device 3 .

駆動部22は、制御部21の制御に応じてロボット2の各部(腕、指、足、頭、胴、腰等)を駆動する。駆動部22は、例えば、アクチュエータ、ギア、人工筋等を備える。 The driving section 22 drives each section (arms, fingers, legs, head, torso, waist, etc.) of the robot 2 under the control of the control section 21 . The drive unit 22 includes, for example, actuators, gears, artificial muscles, and the like.

収音部23は、例えば複数のマイクロホンを備えるマイクロホンアレイである。収音部23は、収音した音響信号を制御部21に出力する。収音部23は、音声認識処理機能を備えていてもよい。この場合、収音部23は、音声認識結果を制御部21に出力する。 The sound pickup unit 23 is, for example, a microphone array including a plurality of microphones. The sound pickup unit 23 outputs the collected sound signal to the control unit 21 . The sound pickup unit 23 may have a speech recognition processing function. In this case, the sound pickup unit 23 outputs the speech recognition result to the control unit 21 .

記憶部25は、例えば、制御部21が制御に用いるプログラム、閾値等を記憶し、音声認識結果、画像処理結果、制御指令等を一時的に記憶する。なお、記憶部25は、記憶部37が兼ねていてもよい。または、記憶部37が記憶部25を兼ねていてもよい。 The storage unit 25 stores, for example, programs and threshold values used for control by the control unit 21, and temporarily stores voice recognition results, image processing results, control commands, and the like. Note that the storage unit 37 may also serve as the storage unit 25 . Alternatively, the storage unit 37 may also serve as the storage unit 25 .

電源26は、ロボット2の各部に電力を供給する。電源26は、例えば充電式のバッテリや充電回路を備えていてもよい。 A power supply 26 supplies power to each part of the robot 2 . Power source 26 may comprise, for example, a rechargeable battery or charging circuit.

センサ27は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ、各関節エンコーダ等である。なお、センサ27は、ロボット2の各関節、頭部等に取り付けられている。センサ27は、検出した検出結果を、制御部21、意図推定部33、制御指令生成部34、ロボット状態画像作成部35に出力する。 The sensor 27 is, for example, an acceleration sensor, a gyroscope sensor, a magnetic force sensor, each joint encoder, or the like. The sensor 27 is attached to each joint, head, etc. of the robot 2 . The sensor 27 outputs the detected result to the control unit 21 , the intention estimation unit 33 , the control command generation unit 34 , and the robot state image generation unit 35 .

ロボット遠隔操作制御装置3は、操作者センサ(HMD5の視線検出部52、コントローラー6のセンサ61)が検出した操作者検出値と、環境センサ7が検出した環境センサ値とに基づいて操作者の動作意図を推定し、ロボット2の制御指令を生成する。 The robot remote control device 3 detects the operator based on the operator detection value detected by the operator sensors (the line-of-sight detection unit 52 of the HMD 5 and the sensor 61 of the controller 6) and the environment sensor value detected by the environment sensor 7. A motion intention is estimated and a control command for the robot 2 is generated.

情報取得部31は、HMD5から視線情報を取得し、とコントローラー6から操作者腕部情報を取得し、取得した視線情報と操作者腕部情報を意図推定部33、ロボット状態画像作成部35に出力する。情報取得部31は、環境センサ7から環境センサ情報を取得し、取得した環境センサ情報を意図推定部33、ロボット状態画像作成部35に出力する。情報取得部31は、センサ27が検出した検出結果を取得し、取得した検出結果を意図推定部33、ロボット状態画像作成部35に出力する。 The information acquisition unit 31 acquires line-of-sight information from the HMD 5, acquires operator arm information from the controller 6, and sends the acquired line-of-sight information and operator arm information to the intention estimation unit 33 and the robot state image creation unit 35. Output. The information acquisition unit 31 acquires environment sensor information from the environment sensor 7 and outputs the acquired environment sensor information to the intention estimation unit 33 and the robot state image creation unit 35 . The information acquisition unit 31 acquires the detection result detected by the sensor 27 and outputs the acquired detection result to the intention estimation unit 33 and the robot state image creation unit 35 .

意図推定部33は、情報取得部31が取得した環境センサ情報に基づいて、対象物体に関する情報(ロボット環境センサ値)(対象物体の名称、対象物体の位置、対象物体の鉛直方向の傾き等)を推定する。なお、意図推定部33は、例えば、記憶部37が記憶する情報に基づいて、環境センサ7の撮影装置71が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行って対象物体の名称を推定する。意図推定部33は、画像処理された結果と深度センサの検出結果に基づいて、対象物体の位置や鉛直方向の傾き角度等を推定する。なお、意図推定部33は、例えばHMD5が検出した操作者の視線情報も用いて、対象物体を推定する。意図推定部33は、情報取得部31が取得した視線情報と操作者腕部情報と、対象物体に関する情報に基づいて、操作者の動作意図を推定する。なお、操作者の意図と、推定方法については後述する。 Based on the environment sensor information acquired by the information acquisition unit 31, the intention estimation unit 33 obtains information about the target object (robot environment sensor values) (name of the target object, position of the target object, inclination of the target object in the vertical direction, etc.). to estimate Note that the intention estimating unit 33 performs image processing (edge detection, binarization processing, feature amount extraction, Image enhancement processing, image extraction, pattern matching processing, etc.) are performed to estimate the name of the target object. The intention estimation unit 33 estimates the position of the target object, the tilt angle in the vertical direction, and the like based on the result of the image processing and the detection result of the depth sensor. In addition, the intention estimation unit 33 estimates the target object, for example, also using the operator's line-of-sight information detected by the HMD 5 . The intention estimation unit 33 estimates the motion intention of the operator based on the line-of-sight information and the operator arm information acquired by the information acquisition unit 31 and the information on the target object. The intention of the operator and the estimation method will be described later.

制御指令生成部34は、意図推定部33が推定した結果とセンサ27が検出した検出結果、環境センサ7が撮影した画像と検出結果に基づいて、物体の把持するための制御指令を生成する。制御指令生成部34は、後述するように操作者が制御すべき自由度や制御可能な範囲を制限、すなわち操作者の動作の自由度を減らして制御指令を生成する。制御指令生成部34は、決定した制御指令情報を制御部21に出力する。 The control command generation unit 34 generates a control command for gripping an object based on the result estimated by the intention estimation unit 33, the detection result detected by the sensor 27, and the image captured by the environment sensor 7 and the detection result. As will be described later, the control command generator 34 limits the degree of freedom to be controlled by the operator and the controllable range, that is, reduces the degree of freedom of motion of the operator to generate the control command. The control command generator 34 outputs the determined control command information to the controller 21 .

ロボット状態画像作成部35は、制御指令生成部34が生成した制御指令情報に基づいて、HMD5に表示させるロボット状態画像を作成する。 The robot state image creation unit 35 creates a robot state image to be displayed on the HMD 5 based on the control command information generated by the control command generation unit 34 .

送信部36は、ロボット状態画像作成部35が作成したロボット状態画像を、HMD5に送信する。送信部36は、ロボット2が出力したフィードバック情報を取得し、取得したフィードバック情報をコントローラー6へ送信する。 The transmission unit 36 transmits the robot state image created by the robot state image creation unit 35 to the HMD 5 . The transmission unit 36 acquires feedback information output by the robot 2 and transmits the acquired feedback information to the controller 6 .

記憶部37は、環境センサ7の撮影装置71とセンサ72の位置関係を記憶している。記憶部37は、作業内容毎に補助する対象、すなわち操作者が制御すべき自由度や制御可能な範囲を制限する情報を記憶する。記憶部37は、画像処理のパターンマッチング処理で比較されるモデル画像を記憶する。記憶部37は、ロボット遠隔操作制御装置3の制御に用いられるプログラムを記憶する。なお、プログラムはクラウドやネットワーク上にあってもよい。 The storage unit 37 stores the positional relationship between the imaging device 71 and the sensor 72 of the environment sensor 7 . The storage unit 37 stores information that restricts the degree of freedom to be controlled by the operator, that is, the controllable range, for each task to be assisted. The storage unit 37 stores model images to be compared in pattern matching processing of image processing. The storage unit 37 stores programs used for controlling the robot remote control device 3 . Note that the program may be on the cloud or network.

[HMD5、コントローラー6を操作者が身につけている状態例]
次に、HMD5、コントローラー6を操作者が身につけている状態例を説明する。
図3は、HMD5、コントローラー6を操作者が身につけている状態例を示す図である。図3の例では、操作者Usは、左手にコントローラー6aを装着し、右手にコントローラー6bを装着し、頭部にHMD5を装着している。なお、図3に示したHMD5、コントローラー6は一例であり、装着方法や形状等は、これに限らない。
[Example of state in which the operator wears HMD 5 and controller 6]
Next, a state example in which the operator wears the HMD 5 and the controller 6 will be described.
FIG. 3 is a diagram showing an example of a state in which an operator wears the HMD 5 and the controller 6. As shown in FIG. In the example of FIG. 3, the operator Us wears the controller 6a on his left hand, the controller 6b on his right hand, and the HMD 5 on his head. Note that the HMD 5 and the controller 6 shown in FIG. 3 are examples, and the mounting method, shape, and the like are not limited to these.

[意図推定、制御指令生成例]
次に、意図推定、制御指令生成処理の概要を説明する。
図4は、本実施形態に係る意図推定、制御指令生成処理の概要を示す図である。
図4のように、ロボット遠隔操作制御装置3は、HMD5から視線情報と、コントローラー6から操作者腕部情報と、環境センサ7から環境センサ情報と、センサ27が検出した検出結果を取得する。
[Example of intention estimation and control command generation]
Next, an outline of intention estimation and control command generation processing will be described.
FIG. 4 is a diagram showing an overview of intention estimation and control command generation processing according to the present embodiment.
As shown in FIG. 4 , the robot remote control device 3 acquires line-of-sight information from the HMD 5 , operator arm information from the controller 6 , environment sensor information from the environment sensor 7 , and detection results detected by the sensor 27 .

ロボット2から得られる情報は、ロボット2の各関節に設けられているモータエンコーダの検出値等の情報である。
環境センサ7から得られる情報は、RGBカメラが撮影した画像と、深度センサが検出した検出値等である。
The information obtained from the robot 2 is information such as detection values of motor encoders provided at each joint of the robot 2 .
The information obtained from the environment sensor 7 includes images captured by the RGB camera, detection values detected by the depth sensor, and the like.

意図推定部33は、取得した情報と、記憶部37が記憶する情報に基づいて、操作者の動作意図を推定する。操作者の意図は、例えば、操作対象物体、操作内容等である。操作内容は、例えばペットボトルの蓋を開ける等である。 The intention estimation unit 33 estimates the operator's action intention based on the acquired information and the information stored in the storage unit 37 . The intention of the operator is, for example, the object to be operated, the content of the operation, and the like. The content of the operation is, for example, opening the lid of a plastic bottle.

制御指令生成部34は、意図推定部33が推定した結果、取得した情報に基づいて、対象物体や作業内容に応じて,操作者が制御すべき自由度や制御可能な範囲を制限する。そして、制御指令生成部34は、意図推定部33が推定した結果に基づいて制御指令を生成する。 Based on the information obtained as a result of the estimation by the intention estimation unit 33, the control command generation unit 34 limits the degree of freedom to be controlled by the operator and the controllable range according to the target object and work content. Then, the control command generator 34 generates a control command based on the result estimated by the intention estimator 33 .

[操作者が制御すべき自由度や制御可能な範囲の制限例の説明]
次に、操作者が制御すべき自由度や制御可能な範囲の制限例について、図5、図6を用いて説明する。なお、図5、図6におけるxyz軸は、ロボット世界におけるxyz軸である。本実施形態のロボット遠隔操作制御装置3は、以下の自由度の制限や、手先目標の補正を、ロボット世界におけるxyzを基準として行う。
[Description of examples of restrictions on the degree of freedom to be controlled by the operator and the controllable range]
Next, examples of restrictions on the degree of freedom to be controlled by the operator and the controllable range will be described with reference to FIGS. 5 and 6. FIG. Note that the xyz axes in FIGS. 5 and 6 are the xyz axes in the robot world. The robot remote control device 3 of the present embodiment performs the following restrictions on degrees of freedom and correction of hand targets based on xyz in the robot world.

(第1の操作内容例)
図5は、操作者の意図がペットボトルの蓋を開けようとしている場合を示す図である。
意図推定部33は、操作者の手先のトラッキング結果、操作者の視線情報、環境センサ7が撮影した画像と検出結果に基づいて、対象物体Obj1を推定する。この結果、意図推定部33は、取得した情報に基づいて、操作対象Obj1が“ペットボトル”であると推定する。また、意図推定部33は、環境センサ7が撮影した画像と検出結果に基づいて、例えば、ペットボトルの鉛直方向の検出と、ペットボトルの鉛直方向の例えばz軸方向に対する傾きを検出する。
(First operation content example)
FIG. 5 is a diagram showing a case where the operator's intention is to open the cap of the PET bottle.
The intention estimation unit 33 estimates the target object Obj1 based on the tracking result of the operator's hand, the operator's line of sight information, the image captured by the environment sensor 7, and the detection result. As a result, the intention estimation unit 33 estimates that the operation object Obj1 is the "PET bottle" based on the acquired information. Further, the intention estimation unit 33 detects, for example, the vertical direction of the PET bottle and the tilt of the PET bottle in the vertical direction, for example, the z-axis direction, based on the image captured by the environment sensor 7 and the detection result.

次に、意図推定部33は、操作者の手先のトラッキング結果、操作者の視線情報、環境センサ7が撮影した画像と検出結果に基づいて、操作内容を推定する。この結果、意図推定部33は、取得した情報に基づいて、操作内容が“ペットボトルの蓋を開ける”動作であると推定する。 Next, the intention estimation unit 33 estimates the content of the operation based on the tracking result of the operator's hand, the operator's line of sight information, the image captured by the environment sensor 7, and the detection result. As a result, based on the acquired information, the intention estimation unit 33 estimates that the operation content is an action of “opening the cap of the PET bottle”.

図5のような場合、従来の手法では、操作者は、ロボット2の把持部221に対して、ペットボトルの鉛直方向になるように遠隔操作しつつ、蓋を明けるように遠隔操作する必要があった。このように、従来の手法では、操作者自身に高度な操作技術が求められるという問題点があった。 In the case shown in FIG. 5, in the conventional method, the operator needs to remotely operate the gripper 221 of the robot 2 so that it is in the vertical direction of the PET bottle and also to remotely operate it to open the lid. there were. As described above, the conventional method has a problem that the operator himself/herself is required to have a high level of operation skill.

これに対して、本実施形態では、ロボット遠隔操作制御装置3が、状況に応じて6自由度の一部の制御目標値生成を代替することで、操作者が制御すべき自由度を限定する。図5の例では、ロボット遠隔操作制御装置3が、ロボット2の把持部221を鉛直方向上に留まるように、把持部221を制御して補助する。こよれにより、操作者は、ペットボトルの傾きを気にせずに、キャップの回転の指示に専念して指示を行うことができる。 On the other hand, in this embodiment, the robot remote control device 3 replaces the control target value generation for some of the six degrees of freedom according to the situation, thereby limiting the degrees of freedom to be controlled by the operator. . In the example of FIG. 5, the robot remote control device 3 controls and assists the gripper 221 of the robot 2 so that the gripper 221 stays in the vertical direction. As a result, the operator can concentrate on instructing the rotation of the cap without worrying about the inclination of the PET bottle.

(第2の操作内容例)
図6は、操作者の意図が箱を掴もうとしている場合を示す図である。
意図推定部33は、取得した情報に基づいて、操作対象Obj2が“箱”であると推定する。
次に、意図推定部33は、取得した情報に基づいて、操作内容が“箱を掴む”動作であると推定する。
(Second operation content example)
FIG. 6 is a diagram showing a case where the operator's intention is to grab the box.
The intention estimation unit 33 estimates that the operation target Obj2 is a "box" based on the acquired information.
Next, based on the acquired information, the intention estimation unit 33 estimates that the operation content is the action of “grabbing a box”.

図6のような場合、ロボット遠隔操作制御装置3は、例えば、操作対象Obj2のxy平面上の位置と、xyz軸回りの回転を、把持部221を制御して補助する。これにより、操作者は、z軸の位置の並進運動の指示に専念して指示を行うことができる。 In the case shown in FIG. 6, the robot remote control device 3, for example, assists the position of the operation target Obj2 on the xy plane and the rotation around the xyz axis by controlling the gripper 221. FIG. This allows the operator to concentrate on instructing the translational movement of the z-axis position.

なお、図5、図6に示した対象物体や作業内容や補助する内容(自由度)等は一例であり、対象物体や作業内容や補助する内容は、これに限らない。補助する内容は、対象物体や作業内容に応じた物であればよい。 Note that the target object, work content, assistance content (degree of freedom), and the like shown in FIGS. 5 and 6 are examples, and the target object, work content, and assistance content are not limited to these. The content of the assistance may be anything that corresponds to the target object or the content of the work.

ここで、作業の補助に用いられる記憶部37が記憶する情報例を説明する。
図7は、本実施形態に係る記憶部37が記憶する情報例を示す図である。図7のように、記憶部37は、対象物体と、作業内容と、操作者に対して制限する自由度(ロボット2が補強する自由度)と、操作者に対して操作可能とする自由度を関連付けて記憶する。なお、図7に示した例は一例であり、他の情報も関連付けて記憶してもよい。
Here, an example of information stored in the storage unit 37 used for assisting work will be described.
FIG. 7 is a diagram showing an example of information stored in the storage unit 37 according to this embodiment. As shown in FIG. 7, the storage unit 37 stores the target object, the work content, the degree of freedom restricted to the operator (the degree of freedom reinforced by the robot 2), and the degree of freedom operable by the operator. are stored in association with each other. Note that the example shown in FIG. 7 is just an example, and other information may also be associated and stored.

また、操作者が操作する環境とロボット動作環境では座標系が異なるため、例えば、ロボット2の起動時に操作者の操作環境とロボット動作環境のキャリブレーションを行うようにしてもよい。 Further, since the coordinate system differs between the environment operated by the operator and the operating environment of the robot, for example, the operating environment of the operator and the operating environment of the robot may be calibrated when the robot 2 is activated.

また、把持の際、ロボット遠隔操作制御装置3は、ロボット2の把持力と、物体と把持部との摩擦力等に基づいて、把持時の把持位置の誤差を考慮して、把持位置を決定するようにしてもよい。 When gripping, the robot remote control device 3 determines the gripping position based on the gripping force of the robot 2, the frictional force between the object and the gripping part, etc., and considering the error of the gripping position at the time of gripping. You may make it

[把持位置の手先目標の修正]
次に、ロボット遠隔操作制御装置3の補助による把持位置の手先目標の修正例を説明する。
図8は、ロボット遠隔操作制御装置3の補助による把持位置の手先目標の修正例を示す図である。図8の例では、把持しようとしている対象物体g21の形状が略直方体である。ロボット遠隔操作制御装置3は、操作者の入力g11に対して把持しやすいように自由度を制限して補助する際、把持しやすい位置(補正後の位置g12)に手先目標を変更する。手先目標の変更は、例えば図5のように対象物体の鉛直方向がz軸方向に対して傾いている場合、操作者の入力のz軸方向の角度をペットボトルの鉛直方向に合わせるように補正して、把持部221に対する制御指令を生成する。より具体的には、まず、制御指令生成部34は、対象物毎に補助するパターンを推定する。推定方法は、例えば、記憶部37が記憶するデータベースとのマッチングや機械学習によって行う。制御指令生成部34は、補助パターン推定後、対象物が持つ座標系とロボットの手先座標系の間でベクトル演算(外積・内積)を行うことで、方向の修正を行う。また、制御指令生成部34は、例えば、ベクトル演算による方向の修正も含めて、センサ情報から修正指令値を直接生成するようなend to endな機械学習手法によって修正と指令値の生成を行うようにしてもよい。これにより、本実施形態によれば、ロボット遠隔操作制御装置3が対象物体と作業内容を推定し、さらに把持しやすい位置に手先目標を補正するので、操作者が指示しやすくなる。
[Modification of hand target of grasping position]
Next, an example of correction of the hand target of the gripping position with the assistance of the robot remote control device 3 will be described.
FIG. 8 is a diagram showing an example of correction of the hand target of the gripping position with the assistance of the robot remote control device 3. In FIG. In the example of FIG. 8, the shape of the target object g21 to be grasped is a substantially rectangular parallelepiped. When the robot remote control device 3 assists the operator's input g11 by restricting the degree of freedom so that it is easy to grasp, the robot remote control device 3 changes the hand target to a position that is easy to grasp (position g12 after correction). When the vertical direction of the target object is tilted with respect to the z-axis direction, for example, as shown in FIG. 5, the change of the hand target is corrected so that the angle of the operator's input in the z-axis direction is aligned with the vertical direction of the PET bottle. to generate a control command for the grip part 221 . More specifically, first, the control command generator 34 estimates a pattern for assisting each object. The estimation method is performed, for example, by matching with a database stored in the storage unit 37 or by machine learning. After estimating the auxiliary pattern, the control command generator 34 corrects the direction by performing vector calculation (cross product/inner product) between the coordinate system of the object and the hand coordinate system of the robot. In addition, the control command generation unit 34, for example, corrects the direction by vector calculation, and generates the command value by an end-to-end machine learning method that directly generates the correction command value from the sensor information. can be As a result, according to the present embodiment, the robot remote control device 3 estimates the target object and the work content, and corrects the hand target to a position that is easier to grip, so that the operator can easily give instructions.

なお、意図推定部33または記憶部37は、例えば、視線情報、操作者腕部情報、環境センサ情報、ロボット2のセンサが検出した検出結果を入力し、対象物体と操作内容を教師データとして学習させた意図推定モデルを備えるようにしてもよい。意図推定モデルは、クラウド上に設けられていてもよい。意図推定部33は、取得した情報を意図推定モデルに入力して、操作者の意図を推定するようにしてもよい。または、意図推定部33は、取得した情報を意図推定モデルに入力して、対象物体および作業内容のうちの少なくとも1つを推定するようにしてもよい。 The intention estimating unit 33 or the storage unit 37 inputs, for example, line-of-sight information, operator arm information, environmental sensor information, and detection results detected by the sensors of the robot 2, and learns the target object and operation details as teacher data. The intention estimation model may be provided. The intention estimation model may be provided on the cloud. The intention estimation unit 33 may input the acquired information into the intention estimation model to estimate the operator's intention. Alternatively, the intention estimation unit 33 may input the acquired information into the intention estimation model to estimate at least one of the target object and the work content.

または、意図推定部33は、取得した情報を用いて、確率推論によって操作者の意図を推定するようにしてもよい。または、意図推定部33は、取得した情報を用いて、確率推論によって、対象物体および作業内容のうちの少なくとも1つを推定するようにしてもよい。 Alternatively, the intention estimation unit 33 may estimate the intention of the operator by probabilistic inference using the acquired information. Alternatively, the intention estimation unit 33 may estimate at least one of the target object and the work content by probabilistic inference using the acquired information.

[ロボット2とロボット遠隔操作制御装置3の処理手順例]
次に、ロボット2とロボット遠隔操作制御装置3の処理手順例を説明する。
図9は、本実施形態に係るロボット2とロボット遠隔操作制御装置3の処理手順例のフローチャートである。
[Example of processing procedure of robot 2 and robot remote control device 3]
Next, a processing procedure example of the robot 2 and the robot remote control device 3 will be described.
FIG. 9 is a flow chart of an example of a processing procedure of the robot 2 and the robot remote control device 3 according to this embodiment.

(ステップS1)情報取得部31は、HMD5から視線情報を取得し、コントローラー6から操作者腕部情報を取得する。 (Step S<b>1 ) The information acquisition unit 31 acquires line-of-sight information from the HMD 5 and operator arm information from the controller 6 .

(ステップS2)情報取得部31は、環境センサ7から環境センサ情報を取得する。 (Step S<b>2 ) The information acquisition unit 31 acquires environment sensor information from the environment sensor 7 .

(ステップS3)意図推定部33は、取得した視線情報と、操作者腕部情報と、環境センサ情報と、に基づいて、把持対象物体、作業内容を含む操作者の意図を推定する。 (Step S3) The intention estimation unit 33 estimates the operator's intention including the object to be grasped and the work content based on the acquired line-of-sight information, operator arm information, and environment sensor information.

(ステップS4)制御指令生成部34は、推定された操作者の意図と、記憶部37が記憶する情報とに基づいて、ロボット遠隔操作制御装置3が補助する自由度、すなわち操作者の動作指示の自由度に対する制限を決定する。なお、制御指令生成部34は、操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、操作者の動作の自由度を減らして制御指令を生成する。 (Step S4) Based on the estimated intention of the operator and the information stored in the storage unit 37, the control command generation unit 34 generates the degree of freedom assisted by the robot remote control device 3, that is, the operator's operation instruction. determines the limits on the degrees of freedom of Note that the control command generation unit 34 generates a control command suitable for a portion of the degree of freedom of the operator's motion, thereby reducing the degree of freedom of the operator's motion and generating the control command.

(ステップS5)制御指令生成部34は、取得した操作者腕部情報に含まれる腕部の動き情報と、ステップS4で決定した制限する自由度に基づいて、把持する目標の手先位置を補正する。 (Step S5) The control command generator 34 corrects the target hand position to be gripped based on the arm movement information included in the obtained operator arm information and the degree of freedom to be restricted determined in step S4. .

(ステップS6)ロボット状態画像作成部35は、情報取得部31が取得した操作者腕部情報と、意図推定部33が推定した結果と、制御指令生成部34が補正した把持位置とに基づいて、HMD5に表示させるロボット状態画像を作成する。 (Step S6) Based on the operator arm information acquired by the information acquisition unit 31, the result estimated by the intention estimation unit 33, and the gripping position corrected by the control command generation unit 34, the robot state image creation unit 35 , create a robot state image to be displayed on the HMD 5 .

(ステップS7)制御指令生成部34は、補正した把持する目標の手先位置に基づいて、制御指令を生成する。 (Step S7) The control command generator 34 generates a control command based on the corrected target hand position to be gripped.

(ステップS8)制御部21は、制御指令生成部34が生成した制御指令に基づいて、駆動部22を制御してロボット2の把持部等を駆動する。制御部21は、処理後、ステップS1の処理に戻す。 (Step S8) Based on the control command generated by the control command generating unit 34, the control unit 21 controls the driving unit 22 to drive the grasping unit of the robot 2 and the like. After the processing, the control unit 21 returns to the processing of step S1.

なお、図9に示した処理手順は一例であり、ロボット遠隔操作制御装置3は、上述した処理を並列に処理してもよい。 The processing procedure shown in FIG. 9 is an example, and the robot remote control device 3 may process the above-described processing in parallel.

また、HMD5の画像表示部51に表示される画像は、例えば図8のような画像である。なお、ロボット状態画像には、操作者の入力g11の画像が含まれていなくてもよい。なお、ロボット状態画像作成部35は、例えば、HMD5上に文字で補助パターンを提示もしくは矩形や矢印等を表示することで、自由度を制限、ロボットで補助した内容を操作者に提示するようにしてもよい。これにより、操作者は、HMD5に表示されるロボット状態画像を見ながら作業指示を行う際、例えばペットボトルの蓋を開ける際、ペットボトルの鉛直方向に把持部を合わせることを気にせずに、蓋を開ける作業指示に専念できる。 Also, the image displayed on the image display unit 51 of the HMD 5 is an image such as that shown in FIG. 8, for example. Note that the robot state image may not include the image of the operator's input g11. In addition, the robot state image creating unit 35, for example, presents an assist pattern with characters or displays a rectangle, an arrow, or the like on the HMD 5 to limit the degree of freedom and present the details of assistance by the robot to the operator. may As a result, when the operator gives a work instruction while looking at the robot state image displayed on the HMD 5, for example, when opening the lid of a PET bottle, the operator can operate the robot without worrying about aligning the gripping part in the vertical direction of the PET bottle. You can concentrate on the work instructions for opening the lid.

以上のように、本実施形態では、ロボット2、環境、操作者に設置されたセンサ情報を通じて、作業内容や対象物体をロボット遠隔操作制御装置3が判断し、状況に応じて6自由度の一部の制御目標値生成を代替することで、操作者が制御すべき自由度を限定するようにした。すなわち、本実施形態では、一部の自由度について適切な制御指令を自動生成することで、操作者が制御すべき自由度を減らす。 As described above, in this embodiment, the robot remote control device 3 determines the work content and the target object through sensor information installed in the robot 2, the environment, and the operator. By substituting the control target value generation of the part, the degree of freedom to be controlled by the operator is limited. That is, in the present embodiment, the degree of freedom to be controlled by the operator is reduced by automatically generating appropriate control commands for some of the degrees of freedom.

これにより、本実施形態によれば、遠隔操縦ロボットにおいて、操作者の負担軽減と作業の多様化、高効率化を同時に実現できる。 As a result, according to the present embodiment, it is possible to reduce the burden on the operator, diversify the work, and improve the efficiency of the remote control robot at the same time.

なお、上述した自由度の制限例は一例であり、これに限らない。自由度の制限は、操作者がその自由度を完全に制御できないことを意味するわけではなく、操作可能な領域が制限されることも含む。
例えば、ロボット遠隔操作制御装置3は、対象物体からの距離が所定の範囲外の場合に自由度の制限を行わず、対象物体から所定の範囲内の場合に自由度の制限を行うようにしてもよい。所定の範囲内は、一例として並進x軸の±1mの範囲である。
In addition, the example of restriction|limiting of the degree of freedom mentioned above is an example, and it is not restricted to this. A limited degree of freedom does not mean that the operator cannot completely control the degree of freedom, but also includes a limited operable area.
For example, the robot remote control device 3 does not limit the degree of freedom when the distance from the target object is outside the predetermined range, but limits the degree of freedom when the distance from the target object is within the predetermined range. good too. The predetermined range is, for example, a range of ±1 m of the translational x-axis.

なお、上述した例では、遠隔操作によって対象物体を把持させる例等を説明したが、これに限らない。ロボット遠隔操作制御装置3は、他の作業内容であっても、作業内容に応じて自由度の制限を行うようにする。
また、作業内容が複数の場合、ロボット遠隔操作制御装置3は、作業内容が変化する毎に自由度の制限の変更を行うようにしてもよい。例えば、テーブル上に複数の物体が置かれ、その中から1つのペットボトルを把持させた後、そのペットボトルの蓋を開けさせる場合、把持させる段階の第1の自由度の制限、蓋を開けさせる場合の第2の自由度の制限をロボット遠隔操作制御装置3は設定する。
In addition, in the above-described example, an example of grasping the target object by remote control has been described, but the present invention is not limited to this. The robot remote control device 3 limits the degree of freedom according to the work content, even if the work content is different.
Moreover, when there are a plurality of work contents, the robot remote control device 3 may change the restriction of the degree of freedom each time the work contents change. For example, when a plurality of objects are placed on a table, and one PET bottle is grasped from among them and then the lid of the PET bottle is opened, the first degree of freedom restriction in the gripping step is to open the lid. The robot remote control device 3 sets a limit of the second degree of freedom when allowing the robot to move.

また、両方の把持部を用いて行う作業内容の場合、ロボット遠隔操作制御装置3は、自由度の制限や、手先目標の補正を把持部毎に行う。 In addition, in the case of a work content that uses both grips, the robot remote control device 3 limits the degree of freedom and corrects the hand target for each grip.

また、上述したロボット2は、例えば、二足歩行ロボットであってもよく、固定型の受付ロボットであってもよく、作業ロボットであってもよい。 Further, the above-described robot 2 may be, for example, a bipedal walking robot, a stationary reception robot, or a working robot.

また、上述した例では、遠隔操作でロボット2に把持させる例を説明したが、これに限らない。 Also, in the above-described example, an example in which the robot 2 is caused to grip by remote control has been described, but the present invention is not limited to this.

また、上述した例では、操作者がHMD5を装着する例を説明したが、これに限らない。視線情報の検出や、操作者へのロボット状態画像の提供は、例えば、センサと画像表示装置との組み合わせ等であってもよい。 Also, in the above example, an example in which the operator wears the HMD 5 has been described, but the present invention is not limited to this. Detection of line-of-sight information and provision of the robot state image to the operator may be performed by, for example, a combination of a sensor and an image display device.

なお、本発明におけるロボット2の機能の全てまたは一部、ロボット遠隔操作制御装置3の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりロボット2が行う処理の全てまたは一部、ロボット遠隔操作制御装置3が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ローカルネットワーク上で構築されたシステムやクラウド上で構築されたシステム等も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 In addition, a program for realizing all or part of the functions of the robot 2 and all or part of the functions of the robot remote control device 3 in the present invention is recorded on a computer-readable recording medium. All or part of the processing performed by the robot 2 and all or part of the processing performed by the robot remote control device 3 may be performed by loading the recorded program into the computer system and executing the program. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices. In addition, the "computer system" shall include a system built on a local network, a system built on the cloud, and the like. The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. In addition, "computer-readable recording medium" means a volatile memory (RAM) inside a computer system that acts as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. , includes those that hold the program for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.

1…ロボット遠隔操作制御システム、2…ロボット、3…ロボット遠隔操作制御装置、5…HMD、6…コントローラー、7…環境センサ、21…制御部、22…駆動部、23…収音部、25…記憶部、26…電源、27…センサ、221…把持部、31…情報取得部、33…意図推定部、34…制御指令生成部、35…ロボット状態画像作成部、36…送信部、37…記憶部、51…画像表示部、52…視線検出部、54…制御部、55…通信部、61…センサ、62…制御部、63…通信部、64…フィードバック手段、71…撮影装置、72…センサ、73…通信部 DESCRIPTION OF SYMBOLS 1... Robot remote control system, 2... Robot, 3... Robot remote control device, 5... HMD, 6... Controller, 7... Environmental sensor, 21... Control part, 22... Drive part, 23... Sound pickup part, 25 Memory unit 26 Power supply 27 Sensor 221 Grasping unit 31 Information acquiring unit 33 Intention estimating unit 34 Control command generating unit 35 Robot state image creating unit 36 Transmitting unit 37 ... storage section 51 ... image display section 52 ... line-of-sight detection section 54 ... control section 55 ... communication section 61 ... sensor 62 ... control section 63 ... communication section 64 ... feedback means 71 ... photographing device 72...Sensor, 73...Communication unit

Claims (9)

操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定する意図推定部と、
推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、前記操作者の動作の自由度を減らして制御指令を生成する制御指令生成部と、
を備えるロボット遠隔操作制御装置。
In a robot remote operation that recognizes the movement of an operator and transmits the movement of the operator to a robot to operate the robot,
Based on a robot environment sensor value obtained by the robot or an environment sensor installed in the surrounding environment of the robot, and an operator sensor value obtained by an operator sensor, which is the movement of the operator, the operator an intention estimation unit that estimates the motion of
By generating an appropriate control command for a part of the degrees of freedom of the operator's motion based on the estimated motion of the operator, the degree of freedom of the motion of the operator is reduced and the control command is generated. a control command generator that generates
A robot remote control device comprising:
前記制御指令生成部は、前記操作者が制御すべき自由度や制御可能な範囲を制限し、前記操作者による前記ロボットへの動作指示のうち制限した前記自由度に対して動作補助を行う、
請求項1に記載のロボット遠隔操作制御装置。
The control command generation unit limits the degree of freedom to be controlled by the operator and the controllable range, and assists the movement with respect to the limited degree of freedom in the operation instruction to the robot by the operator.
The robot remote control device according to claim 1.
前記制御指令生成部は、
前記ロボットが備える把持部と、前記操作者による操作対象の対象物体との距離が所定範囲外の場合、前記操作者の動作のうち、前記操作者の動作の自由度を減らさず、
前記ロボットが備える把持部と、前記操作者による操作対象の対象物体との距離が所定範囲内の場合、前記操作者の動作のうち、前記操作者の動作の自由度を減らす、
前記ロボット環境センサ値は、撮影された画像情報、および深度情報を有する、
請求項1または請求項2に記載のロボット遠隔操作制御装置。
The control command generator is
When the distance between the grip portion provided in the robot and the target object to be operated by the operator is outside a predetermined range, without reducing the degree of freedom of the operator's motion among the operator's motions,
When the distance between the grip portion provided in the robot and the target object to be operated by the operator is within a predetermined range, reducing the degree of freedom of the operator's motion among the operator's motions.
the robot environment sensor values have captured image information and depth information;
The robot remote control device according to claim 1 or 2.
前記意図推定部は、
前記ロボット環境センサ値と、前記操作者センサ値とを学習済みの意図推定モデルに入力して前記操作者の動作を推定する、
請求項1から請求項3のうちのいずれか1項に記載のロボット遠隔操作制御装置。
The intention estimation unit
inputting the robot environment sensor value and the operator sensor value into a learned intention estimation model to estimate the operator's motion;
The robot remote control device according to any one of claims 1 to 3.
前記操作者センサ値は、前記操作者の視線情報、および前記操作者の腕部の姿勢や位置に関する情報である操作者腕部情報をのうちの少なくとも1つである、
請求項1から請求項4のうちのいずれか1項に記載のロボット遠隔操作制御装置。
The operator sensor value is at least one of the operator's line of sight information and the operator's arm information, which is information about the posture and position of the operator's arm,
The robot remote control device according to any one of claims 1 to 4.
前記ロボット環境センサ値は、撮影された画像情報、および深度情報を有する、
請求項1から請求項5のうちのいずれか1項に記載のロボット遠隔操作制御装置。
the robot environment sensor values have captured image information and depth information;
The robot remote control device according to any one of claims 1 to 5.
操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
請求項1から請求項6のうちのいずれか1つに記載の前記ロボット遠隔操作制御装置と、
物体を把持する把持部と、
前記ロボットあるいは前記ロボットの周辺環境に設置され、ロボット環境センサ値を検出する環境センサと、
前記操作者の動きを操作者センサ値として検出する操作者センサと、
を備えるロボット遠隔操作制御システム。
In a robot remote operation that recognizes the movement of an operator and transmits the movement of the operator to a robot to operate the robot,
The robot remote control device according to any one of claims 1 to 6;
a gripping part that grips an object;
an environment sensor installed in the robot or in the surrounding environment of the robot and detecting a robot environment sensor value;
an operator sensor that detects the movement of the operator as an operator sensor value;
A robot remote control system.
操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
意図推定部が、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定し、
制御指令生成部が、推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、前記操作者の動作の自由度を減らして制御指令を生成する、
ロボット遠隔操作制御方法。
In a robot remote operation that recognizes the movement of an operator and transmits the movement of the operator to a robot to operate the robot,
The intention estimating unit obtains a robot environment sensor value obtained by the robot or an environment sensor installed in the surrounding environment of the robot, and an operator sensor value obtained by an operator sensor, which is the movement of the operator. estimating the motion of the operator based on
A control command generation unit generates a control command appropriate for a degree of freedom of a part of the operator's motion based on the estimated operator's motion, thereby reducing the operator's freedom of motion. generate control commands with reduced degrees,
Robot remote control method.
操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
コンピュータに、
前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定させ、
推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成させることで、前記操作者の動作の自由度を減らして制御指令を生成させる、
プログラム。
In a robot remote operation that recognizes the movement of an operator and transmits the movement of the operator to a robot to operate the robot,
to the computer,
Based on a robot environment sensor value obtained by the robot or an environment sensor installed in the surrounding environment of the robot, and an operator sensor value obtained by an operator sensor, which is the movement of the operator, the operator to estimate the motion of
By generating an appropriate control command for a part of the degrees of freedom of the operator's motion based on the estimated motion of the operator, the degree of freedom of the motion of the operator is reduced and the control command is generated. to generate
program.
JP2021061137A 2021-03-31 2021-03-31 Robot remote operation control device, robot remote operation control system, robot remote operation control method and program Pending JP2022157101A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021061137A JP2022157101A (en) 2021-03-31 2021-03-31 Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
PCT/JP2022/012089 WO2022209924A1 (en) 2021-03-31 2022-03-16 Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program
EP22780144.6A EP4316747A1 (en) 2021-03-31 2022-03-16 Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program
CN202280025720.6A CN117136120A (en) 2021-03-31 2022-03-16 Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021061137A JP2022157101A (en) 2021-03-31 2021-03-31 Robot remote operation control device, robot remote operation control system, robot remote operation control method and program

Publications (1)

Publication Number Publication Date
JP2022157101A true JP2022157101A (en) 2022-10-14

Family

ID=83558486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021061137A Pending JP2022157101A (en) 2021-03-31 2021-03-31 Robot remote operation control device, robot remote operation control system, robot remote operation control method and program

Country Status (2)

Country Link
JP (1) JP2022157101A (en)
CN (1) CN117136120A (en)

Also Published As

Publication number Publication date
CN117136120A (en) 2023-11-28

Similar Documents

Publication Publication Date Title
US11279030B2 (en) Systems, devices, articles, and methods for using trained robots
US9908241B2 (en) Robot device, method of controlling the same, computer program, and robot system
JP6956081B2 (en) Robot system and how to backdrive the robot system
Bimbo et al. Teleoperation in cluttered environments using wearable haptic feedback
US9020643B2 (en) Robot apparatus, control method thereof, and computer program
WO2020221311A1 (en) Wearable device-based mobile robot control system and control method
Natale et al. A sensitive approach to grasping
US8924020B2 (en) Apparatus for controlling robot and control method thereof
WO2008001793A1 (en) Robot device and robot device control method
JP2013111726A (en) Robot apparatus, method of controlling the same, and computer program
JP7044047B2 (en) robot
JP7117237B2 (en) ROBOT CONTROL DEVICE, ROBOT SYSTEM AND ROBOT CONTROL METHOD
Falck et al. DE VITO: A dual-arm, high degree-of-freedom, lightweight, inexpensive, passive upper-limb exoskeleton for robot teleoperation
Chen et al. Human-aided robotic grasping
Matsumoto et al. The essential components of human-friendly robot systems
US20230226698A1 (en) Robot teleoperation control device, robot teleoperation control method, and storage medium
JP2022157101A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
CN114473998B (en) Intelligent service robot system capable of automatically opening door
WO2022209924A1 (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program
JP2022155623A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
JP2003062775A (en) Teaching system for human hand type robot
US20230234231A1 (en) Teleoperation assist device, teleoperation assist method, and storage medium
JP2022157123A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
JP2022157119A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
US20220314449A1 (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128