JP2022157123A - Robot remote operation control device, robot remote operation control system, robot remote operation control method and program - Google Patents
Robot remote operation control device, robot remote operation control system, robot remote operation control method and program Download PDFInfo
- Publication number
- JP2022157123A JP2022157123A JP2021061170A JP2021061170A JP2022157123A JP 2022157123 A JP2022157123 A JP 2022157123A JP 2021061170 A JP2021061170 A JP 2021061170A JP 2021061170 A JP2021061170 A JP 2021061170A JP 2022157123 A JP2022157123 A JP 2022157123A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- operator
- unit
- sensor
- remote control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000033001 locomotion Effects 0.000 claims abstract description 66
- 239000000284 extract Substances 0.000 claims description 6
- 230000000087 stabilizing effect Effects 0.000 claims description 3
- 230000009471 action Effects 0.000 abstract description 22
- 238000001514 detection method Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 12
- 230000006399 behavior Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムに関する。 The present invention relates to a robot remote operation control device, a robot remote operation control system, a robot remote operation control method, and a program.
利用者がロボットの操作を補助することができる制御装置が提案されている。このような制御装置として、例えば、ロボットを操作する第1ユーザーの姿勢を示す第1ユーザー姿勢情報を取得する第1情報取得部と、第1ユーザー姿勢情報に基づいてロボットの姿勢を変化させる前のロボットの姿勢である変化前姿勢を示す変化前姿勢情報を取得する第2情報取得部と、変化前姿勢情報と、変化前姿勢情報が示す変化前姿勢をロボットがしている時点で第1情報取得部が取得した第1ユーザー姿勢情報とに基づいて、第1ユーザーの姿勢と異なる標的姿勢をロボットの姿勢に決定する決定部と、を有する制御装置が提案されている(特許文献1参照)。特許文献1に記載のシステムでは、操作者が装着した装置によって検出した姿勢に対応する姿勢にロボットの姿勢を変化させる。
A control device has been proposed that allows a user to assist the operation of a robot. As such a control device, for example, a first information acquisition unit that acquires first user posture information indicating the posture of a first user who operates the robot, and a a second information acquiring unit for acquiring pre-change posture information indicating a pre-change posture which is the posture of the robot; A control device has been proposed that includes a determination unit that determines a target posture different from the posture of the first user as the posture of the robot based on the first user posture information acquired by the information acquisition unit (see Patent Document 1). ). The system described in
このようなシステムでは、操作者が遠隔操作で物体の操作を行う際、操作者の体に装着したセンサ(視線、頭の回転、手の位置や角度などを取得するセンサ)から操作者がどのような行動を行ってロボットに遠隔指示している作業内容を推定する必要がある。 In such a system, when an operator manipulates an object by remote control, it is possible to determine what the operator does from sensors attached to the operator's body (sensors that acquire line of sight, head rotation, hand position and angle, etc.). It is necessary to estimate the work content of remote instructions to the robot by performing such actions.
しかしながら、従来技術では、操作者が遠隔操作で物体の操作を行う際、操作者の体に装着したセンサ(例えば、視線、頭の回転、手の位置や角度などを取得するセンサ)から得られる時刻毎のセンサ値情報から、操作者がどのような行動をしているのか直接推定できなかった。 However, in the prior art, when an operator manipulates an object by remote control, the sensor attached to the operator's body (for example, a sensor that acquires the line of sight, head rotation, hand position and angle, etc.) It was not possible to directly estimate what the operator was doing from the sensor value information for each time.
本発明は、上記の問題点に鑑みてなされたものであって、操作者の体に装着したセンサから得られる情報から操作者がどのような行動をしているのか推定することができるロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and provides a robot remote controller that can estimate what actions the operator is taking from information obtained from sensors attached to the operator's body. An object of the present invention is to provide an operation control device, a robot remote operation control system, a robot remote operation control method, and a program.
(1)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御装置は、操作者の動きを認識し、ロボットに操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、検出された前記操作者の動きを示す情報である操作者センサ値を取得する情報取得部と、前記操作者センサ値から学習済みのモデルを用いて、前記ロボットに対する動作指示である前記操作者の動作を推定する意図推定部と、を備える。 (1) In order to achieve the above objects, a robot remote operation control device according to an aspect of the present invention recognizes the movement of an operator and transmits the operator's movement to a robot to operate the robot. an information acquisition unit that acquires an operator sensor value that is information indicating the detected movement of the operator; and the operator that is an operation instruction to the robot using a model learned from the operator sensor value. and an intention estimating unit that estimates the motion of the
(2)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記情報取得部は、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られた環境センサ値を取得し、前記意図推定部は、前記環境センサ値と前記操作者センサ値から学習済みのモデルを用いて、前記操作者が前記ロボットを操作して前記ロボットに把持させた把持物体をアライメントしようとしているのか否かを推定して、前記推定した結果に基づいて前記ロボットを駆動する制御指令値を生成するようにしてもよい。 (2) In the robot remote control device according to the aspect of the present invention, the information acquisition unit acquires an environment sensor value obtained by an environment sensor installed in the robot or in the surrounding environment of the robot, The intention estimating unit uses a model that has been learned from the environment sensor values and the operator sensor values to determine whether the operator is trying to align the gripped object gripped by the robot by operating the robot. It is also possible to estimate whether or not, and to generate a control command value for driving the robot based on the estimated result.
(3)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記情報取得部は、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られた環境センサ値を取得し、意図推定部は、前記環境センサ値と前記操作者センサ値を用いて、前記操作者が前記把持物体に対して、どのような姿勢でアライメントしようとしているかの尤度を計算して、アライメントのサポートを行うようにしてもよい。 (3) In the robot remote operation control device according to the aspect of the present invention, the information acquisition unit acquires an environment sensor value obtained by an environment sensor installed in the robot or in the surrounding environment of the robot, The intention estimating unit uses the environment sensor value and the operator sensor value to calculate the likelihood that the operator is going to align the gripped object in what kind of posture, thereby supporting alignment. may be performed.
(4)また、本発明の一態様に係るロボット遠隔操作制御装置において、意図推定部は、前記操作者センサ値から推定を行って値を安定化させるような処理後に前記操作者が前記把持物体に対して、前記尤度を計算するようにしてもよい。 (4) Further, in the robot remote operation control device according to the aspect of the present invention, the intention estimating unit estimates from the operator sensor values, and after the processing for stabilizing the values, the operator is expected to hold the gripped object. , the likelihood may be calculated.
(5)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記情報取得部は、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られた環境センサ値を取得し、前記意図推定部は、前記環境センサ値も学習済みのモデルに入力して、前記ロボットに対する動作指示である前記操作者の動作を推定するようにしてもよい。 (5) Further, in the robot remote operation control device according to the aspect of the present invention, the information acquisition unit acquires an environment sensor value obtained by an environment sensor installed in the robot or in the surrounding environment of the robot, The intention estimating unit may input the environment sensor value into the learned model to estimate the operator's motion, which is the motion instruction to the robot.
(6)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記意図推定部は、前記操作者センサ値から特徴量を注出し、抽出した特徴量に基づいて前記ロボットに対する動作指示である前記操作者の動作を分類することで推定する、ようにしてもよい。 (6) Further, in the robot remote operation control device according to the aspect of the present invention, the intention estimating unit extracts a feature amount from the operator sensor value, and issues an operation instruction to the robot based on the extracted feature amount. It may be estimated by classifying the motion of a given operator.
(7)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御システムは、(1)から(6)のうちのいずれか1つに記載の前記遠隔操作時の操作者動作推定装置と、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、物体を把持する把持部と、前記ロボットあるいは前記ロボットの周辺環境に設置され、ロボット環境センサ値を検出する環境センサと、前記操作者の動きを操作者センサ値として検出する操作者センサと、前記操作者の視界にあるロボット環境の画像を表示する画像表示装置と、を備える。 (7) In order to achieve the above objects, a robot remote operation control system according to an aspect of the present invention includes the operator motion estimation during remote operation according to any one of (1) to (6). A device, a robot remote control for recognizing a movement of an operator and transmitting the movement of the operator to a robot to operate the robot, a gripping part for gripping an object, and a gripping part installed in the robot or in the surrounding environment of the robot. , an environment sensor for detecting a robot environment sensor value, an operator sensor for detecting the movement of the operator as the operator sensor value, and an image display device for displaying an image of the robot environment in the field of view of the operator. Prepare.
(8)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御方法は、操作者の動きを認識し、ロボットに操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、情報取得部が、検出された前記操作者の動きを示す情報である操作者センサ値を取得し、意図推定部が、前記操作者センサ値から学習済みのモデルを用いて、前記ロボットに対する動作指示である前記操作者の動作を推定する。 (8) In order to achieve the above objects, a robot remote control method according to an aspect of the present invention is a robot remote control method for recognizing a motion of an operator and transmitting the motion of the operator to a robot to operate the robot. an information acquisition unit that acquires an operator sensor value that is information indicating the detected movement of the operator; The operator's motion, which is an instruction, is estimated.
(9)上記目的を達成するため、本発明の一態様に係るプログラムは、操作者の動きを認識し、ロボットに操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、コンピュータに、前記操作者の動きを検知する操作者センサ値を取得させ、前記操作者センサ値から学習済みのモデルを用いて、前記ロボットに対する動作指示である前記操作者の動作を推定させる。 (9) In order to achieve the above object, a program according to an aspect of the present invention provides, in remote control of a robot for recognizing a motion of an operator and transmitting the motion of the operator to a robot to operate the robot, a computer, An operator sensor value for detecting the movement of the operator is acquired, and a learned model is used from the operator sensor value to estimate the operator's movement, which is a movement instruction to the robot.
(1)~(9)によれば、操作者の体に装着したセンサから得られる情報から操作者がどのような行動をしているのか推定することができる。
(2)によれば、操作者のアライメント意図を検出して先回りしてアライメントをサポートすることで、アライメントに掛かる時間を削減できる。
(3)~(4)によれば、操作者が把持物体をどのような角度でPlaceするか確率的に計算することで、Placeのサポートを実行し、操作者がアライメントに掛かる時間とストレスの削減につながる。
(4)によれば、手ブレの影響を低減することができる。
According to (1) to (9), it is possible to estimate what the operator is doing from the information obtained from the sensor attached to the operator's body.
According to (2), the time required for alignment can be reduced by detecting the alignment intention of the operator and proactively supporting alignment.
According to (3) and (4), by probabilistically calculating at what angle the operator places the gripped object, Place support is executed to reduce the time and stress required for the operator to align. lead to reduction.
According to (4), the influence of camera shake can be reduced.
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in the drawings used for the following description, the scale of each member is appropriately changed so that each member has a recognizable size.
[概要]
まず、遠隔操作時の操作者動作推定システムで行う作業と処理の概要を説明する。
図1は、本実施形態に係るロボット遠隔操作制御システム1の概要と作業の概要を示す図である。図1のように、操作者Usは、例えばHMD(ヘッドマウントディスプレイ)5とコントローラー6を装着している。作業空間には、環境センサ7a、環境センサ7bが設置されている。なお、環境センサ7は、ロボット2に取り付けられていてもよい。また、ロボット2は、把持部222(222a、222b)を備える。環境センサ7(7a、7b)は、後述するように例えばRGBカメラと深度センサを備えている。操作者Usは、HMD5に表示された画像を見ながらコントローラー6を装着している手や指を動かすことで、ロボット2を遠隔操作する。
[Overview]
First, an outline of work and processing performed by the system for estimating the operator's motion during remote operation will be described.
FIG. 1 is a diagram showing an outline of a robot
本実施形態では、例えば機械学習手法を用いて、操作者が装着している複数のセンサが検出した複数のセンサ値から、操作者がどのようなアクションをしているかを推定する。また、本実施形態では、操作者が物体に対してどのようにアライメント(行動)する確率が高いかを計算して、アライメントのサポートを実現する。また、本実施形態では、例えば機械学習手法を用いて、複数のセンサ値と遠隔操作時の操作者動作推定装置システムの状態から、操作者が物体に対してアライメントする前に、アライメントを行おうとしているのか否かを推定する。 In this embodiment, for example, a machine learning technique is used to estimate what kind of action the operator is taking from a plurality of sensor values detected by a plurality of sensors worn by the operator. Further, in this embodiment, alignment support is realized by calculating how the operator is likely to align (behavior) with respect to the object. In addition, in this embodiment, for example, using a machine learning method, from a plurality of sensor values and the state of the operator motion estimation device system during remote operation, before the operator aligns with the object, let's perform alignment. Estimate whether or not
[ロボット遠隔操作制御システムの構成例]
次に、ロボット遠隔操作制御システム1の構成例を説明する。
図2は、本実施形態に係るロボット遠隔操作制御システム1の構成例を示すブロック図である。図2のように、ロボット遠隔操作制御システム1は、ロボット2、ロボット遠隔操作制御装置3、HMD5(画像表示装置)、コントローラー6、および環境センサ7を備える。
[Configuration example of robot remote control system]
Next, a configuration example of the robot
FIG. 2 is a block diagram showing a configuration example of the robot
ロボット2は、例えば、制御部21、駆動部22、収音部23、記憶部25、電源26、およびセンサ27を備える。
ロボット遠隔操作制御装置3は、例えば、情報取得部31、意図推定部33、制御指令生成部34、画像作成部35、送信部36、および記憶部37を備える。
The
The robot remote control device 3 includes, for example, an
意図推定部33は、動作推定部331、アライメントサポート部332、およびアライメント可否予測部333を備える。
動作推定部331は、特徴量抽出部3311、および分類部3312を備える。
The
The
HMD5は、例えば、画像表示部51、視線検出部52(操作者センサ)、センサ53(操作者センサ)、制御部54、および通信部55を備える。なお、HMD5は、例えば操作者の視線の動き等を検出するセンサを備えていてもよい。
HMD5 is provided with the
コントローラー6は、例えば、センサ61(操作者センサ)、制御部62、通信部63、およびフィードバック手段64を備える。
The
環境センサ7は、例えば、撮影装置71、センサ72、物体位置検出部73、および通信部74を備える。
The environment sensor 7 includes, for example, an
なお、ロボット遠隔操作制御装置3とHMD5は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とコントローラー6は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3と環境センサ7は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とロボット2は、例えば、無線または有線のネットワークを介して接続されている。なお、ロボット遠隔操作制御装置3とHMD5は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とコントローラー6は、ネットワークを介さずに直接接続されてもよい。ロボット2と環境センサ7は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とロボット2は、ネットワークを介さずに直接接続されてもよい。
The robot remote control device 3 and the
[ロボット遠隔操作制御システムの機能例]
次に、ロボット遠隔操作制御システムの機能例を、図1を参照しつつ説明する。
HMD5は、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。HMD5は、操作者の視線の動き、操作者の頭部の動き(回転、傾き)等を検出し、検出した操作者センサ値をロボット遠隔操作制御装置3に送信する。
[Function example of robot remote control system]
Next, an example of functions of the robot remote control system will be described with reference to FIG.
The
画像表示部51は、制御部54の制御に応じて、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。
The
視線検出部52は、操作者の視線を検出し、検出した操作者センサ値を制御部54に出力する。なお、視線情報は視線ベクトルである。
The line-of-
センサ53は、操作者の頭部の傾き、頭部の回転を検出し、検出した操作者センサ値を制御部54に出力する。
The
制御部54は、視線検出部52とセンサ53が検出した操作者センサ値を、通信部55を介してロボット遠隔操作制御装置3に送信する。制御部54は、ロボット遠隔操作制御装置3が送信したロボット状態画像を、画像表示部51に表示させる。
The
通信部55は、ロボット遠隔操作制御装置3が送信したロボット状態画像を受信し、受信したロボット状態画像を制御部54に出力する。通信部55は、制御部54の制御に応じて、操作者センサ値をロボット遠隔操作制御装置3に送信する。
The
コントローラー6は、例えば、触覚データグローブであり、操作者の手に装着される。コントローラー6は、センサ61によって方位や各指の動きや手の動きを検出し、検出した手動作情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。
The
センサ61は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。なお、センサ61は、複数のセンサを備えるセンサ61は、例えば2つのセンサによって各指の動きをトラッキングする。センサ61は、各指の動きや手の動きを検出し、検出した手動作情報(操作者センサ値)を制御部62に出力する。
The
制御部62は、センサ61が検出した手動作情報を、通信部63を介してロボット遠隔操作制御装置3に送信する。制御部62は、フィードバック情報に基づいて、フィードバック手段64を制御する。
The
通信部63は、制御部62の制御に応じて、操作者動作情報をロボット遠隔操作制御装置3に送信する。通信部63は、ロボット遠隔操作制御装置3が送信したフィードバック情報を取得し、取得したフィードバック情報を制御部62に出力する。
The
フィードバック手段64は、制御部62の制御に応じて、操作者にフィードバック情報をフィードバックする。フィードバック手段64は、フィードバック情報に応じて、例えば、ロボット2の把持部222に取り付けられている振動を与える手段(不図示)や空気圧を与える手段(不図示)や手の動きを拘束する手段(不図示)や温度を感じさせる手段(不図示)や堅さや柔らかさを感じさせる手段(不図示)等によって操作者に感覚をフィードバックする。
The feedback means 64 feeds back feedback information to the operator under the control of the
環境センサ7は、例えばロボット2の作業を撮影、検出できる位置に設置されている。なお、環境センサ7は、ロボット2が備えていてもよく、ロボット2に取り付けられていてもよい。または、環境センサ7は、2つ以上の複数であってもよい。環境センサ7は、撮影された画像とセンサによって検出された検出結果に基づいて物体の位置情報を検出し、検出した物体位置情報(環境センサ値)をロボット遠隔操作制御装置3に送信する。
The environment sensor 7 is installed, for example, at a position where the work of the
撮影装置71は、例えばRGBカメラである。撮影装置71は、撮影した画像を物体位置検出部73に出力する。なお、環境センサ7において、撮影装置71とセンサ72の位置関係が既知である。
The
センサ72は、例えば深度センサである。センサ72は、検出結果を物体位置検出部73に出力する。なお、撮影装置71とセンサ72は、距離センサであってもよい。
物体位置検出部73は、撮影された画像とセンサによって検出された検出結果に基づいて、撮影された画像における対象物体の三次元位置と大きさ形状等を周知の手法で検出する。物体位置検出部73は、物体位置検出部73が記憶するパターンマッチングのモデル等を参照して、撮影装置71が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行って物体の位置を推定する。なお、物体位置検出部73は、撮影された画像から複数の物体が検出された場合、物体毎に位置を検出する。物体位置検出部73は、検出した物体位置情報(環境センサ値)を、通信部74を介してロボット遠隔操作制御装置3に送信する。
The object
通信部74は、物体位置情報をロボット遠隔操作制御装置3に送信する。なお、環境センサ7が送信するデータは、例えば位置情報を有する点群であってもよい。
The
ロボット2は、遠隔操作されていない場合、制御部21の制御に応じて行動が制御される。ロボット2は、遠隔操作されている場合、ロボット遠隔操作制御装置3が生成した動作指令に応じて行動が制御される。
The behavior of the
制御部21は、ロボット遠隔操作制御装置3が出力する制御指令に基づいて駆動部22を制御する。なお、制御部21は、収音部23が収音した音響信号に対して音声認識処理(発話区間検出、音源分離、音源定位、雑音抑圧、音源同定等)を行うようにしてもよい。制御部21は、フィードバック情報を生成して、生成したフィードバック情報を、ロボット遠隔操作制御装置3を介してコントローラー6に送信する。
The
駆動部22は、制御部21の制御に応じてロボット2の各部(把持部222、腕、指、足、頭、胴、腰等)を駆動する。駆動部22は、例えば、アクチュエータ、ギア、人工筋等を備える。
The driving
収音部23は、例えば複数のマイクロホンを備えるマイクロホンアレイである。収音部23は、収音した音響信号を制御部21に出力する。収音部23は、音声認識処理機能を備えていてもよい。この場合、収音部23は、音声認識結果を制御部21に出力する。
The
記憶部25は、例えば、制御部21が制御に用いるプログラム、閾値等を記憶し、音声認識結果、画像処理結果、制御指令等を一時的に記憶する。なお、記憶部25は、記憶部37が兼ねていてもよい。または、記憶部37が記憶部25を兼ねていてもよい。
The
電源26は、ロボット2の各部に電力を供給する。電源26は、例えば充電式のバッテリや充電回路を備えていてもよい。
A
センサ27は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ、各関節エンコーダ等である。なお、センサ27は、ロボット2の各関節、頭部等に取り付けられている。センサ27は、検出した検出結果を、制御部21、意図推定部33、制御指令生成部34、画像作成部35に出力する。
The
ロボット遠隔操作制御装置3は、HMD5が検出した操作者センサ値と、コントローラー6が検出した操作者センサ値とに基づいて、ロボット2を遠隔操作するために操作者が行っている行動を推定し、ロボット2の制御指令を生成する。
Based on the operator sensor values detected by the
情報取得部31は、HMD5から操作者センサ値を取得し、コントローラー6から操作者センサ値を取得し、環境センサ7から環境センサ値を取得する。情報取得部31は、取得した操作者センサ値と環境センサ値を、意図推定部33に出力する。
The
特徴量抽出部3311は、取得された操作者センサ値と環境センサ値に基づいて、特徴量を抽出する。
A feature
意図推定部33は、取得された環境センサ値に基づいて、作業対象の物体とその位置を推定する。
The
分類部3312は、抽出された特徴量に基づいて、操作者の行動を分類する。なお、分類される行動については後述する。
The
アライメントサポート部332は、操作者が把持物体をアライメント基準物体に対してどのようにアライメントする確率が高いかを計算し、アライメントのサポートを実現する。
The
アライメント可否予測部333は、操作者センサ値から得られる情報を使って、操作者が物体を手に持って、任意の物体にリーチングしている段階で、アライメントしようとしているのか否かを事前に予測する。なお、アライメント可否予測部333は、物体に対してアライメントする前の時点に予測するようにしてもよく、物体のリリースが完了する前であればいつでもよい。
The alignment
制御指令生成部34は、意図推定部33が推定した結果と、センサ27が検出した検出結果、環境センサ7が検出した環境センサ値に基づいて、例えば物体を把持するための制御指令を生成する。制御指令生成部34は、生成した制御指令情報を制御部21に出力する。
The
画像作成部35は、制御指令生成部34が生成した制御指令情報に基づいて、HMD5に表示させるロボット状態画像を作成する。
The
送信部36は、画像作成部35が作成したロボット状態画像を、HMD5に送信する。送信部36は、ロボット2が出力したフィードバック情報を取得し、取得したフィードバック情報をコントローラー6へ送信する。
The
記憶部37は、意図推定部33が使用する所定の値や学習済みのモデルを記憶している。記憶部37は、環境センサ7の撮影装置71とセンサ72の位置関係を記憶している。記憶部37は、ロボット遠隔操作制御装置3の制御に用いられるプログラムを記憶する。なお、プログラムはクラウドやネットワーク上にあってもよい。
The
<第1実施形態>
本実施形態では、操作者が装着している複数のセンサが検出した複数のセンサ値から、操作者がどのようなアクションをしているかを推定する。
<First embodiment>
In this embodiment, what kind of action the operator is taking is estimated from a plurality of sensor values detected by a plurality of sensors worn by the operator.
[分類される行動の種類例]
まず、分類部3312によって分類される行動の種類例を説明する。
図3は、本実施形態に係る分類部3312によって分類される行動の種類例を示す図である。図3のように、分類部3312は、例えば4つのクラス(第1クラス~第4クラス)に分類する。分類される操作者の行動は、例えば、リーチ(Reach)、グラスプ(Grasp)、ムーブ(Move)、リリース(Release)である。なお、リーチ動作とは、目標とする地点に腕を折曲させる動作である。グラスプとは、物体を把持する動作である。ムーブ動作とは、物体を移動させる、運ぶ動作である。リリース動作とは、把持した物体を離す、置く動作である。なお、分類部3312は、他につまむ(pinch)等の動作も分類してもよい。
[Examples of types of behavior classified]
First, examples of behavior types classified by the
FIG. 3 is a diagram showing examples of types of actions classified by the
[分類例]
次に、分類部3312の分類方法例を説明する。
図4は、本実施形態に係る分類部3312の分類方法例を示す図である。図4のように、分類部3312は、少なくともHMD5とコントローラー6から取得された操作者センサ値を、学習済みのモデルに入力して、操作者の行動の分類結果の出力を得る。なお、この場合、特徴量抽出部3311は、操作者センサ値から特徴量を抽出しなくてもよい。なお、学習済みのモデルは、操作者センサ値を入力とし、操作者の行動の分類結果の教師データを用いて、機械学習手法(例えばニューラルネットワーク等)で学習して作成されたモデルである。また、学習済みのモデルは、分類部3312または記憶部37が記憶している。なお、機械学習手法は、ニューラルネットワーク以外(例えば決定木ベースの手法など)であってもよい。
[Classification example]
Next, an example of the classification method of the
FIG. 4 is a diagram showing an example of a classification method of the
なお、図4に示した例では、分類部3312が操作者センサ値を学習済みのモデル3321に入力して操作者の行動の分類結果の出力を得る例を説明したが、これに限らない。例えば、特徴量抽出部3311が操作者センサ値から特徴量を抽出し、分類部3312が抽出された特徴量に基づいて、操作者の行動の分類を行うようにしてもよい。
In the example shown in FIG. 4, the
また、上述した例では、学習と推定の際、操作者センサ値を用いる例を説明したが、これに限らない。学習と推定の際の入力には、環境センサ値も用いるようにしてもよい。 Also, in the above example, an example in which operator sensor values are used in learning and estimation has been described, but the present invention is not limited to this. Environmental sensor values may also be used as inputs for learning and estimation.
[処理手順]
次に、ロボット遠隔操作制御装置3の処理手順を説明する。
図5は、本実施形態に係るロボット遠隔操作制御装置3の処理手順のフローチャートである。
[Processing procedure]
Next, the processing procedure of the robot remote control device 3 will be described.
FIG. 5 is a flow chart of the processing procedure of the robot remote control device 3 according to this embodiment.
(ステップS1)情報取得部31は、HMD5から操作者センサ値(視線ベクトル)を取得し、コントローラー6から操作者センサ値を取得し、環境センサ7から環境センサ値を取得する。
(Step S<b>1 ) The
(ステップS2)特徴量抽出部3311は、操作者センサ値から特徴量を抽出する。
(Step S2) The feature
(ステップS3)分類部3312は、抽出された特徴量に基づいて、操作者の行動の分類を行う。
(Step S3) The
(ステップS4)制御指令生成部34は、推定された操作者の行動に基づいて、制御指令を生成する。
(Step S4) The
(ステップS5)制御部21は、制御指令生成部34が生成した制御指令に基づいて、駆動部22を制御してロボット2の把持部等を駆動する。制御部21は、処理後、ステップS1の処理に戻す。
(Step S5) Based on the control command generated by the control
以上のように、本実施形態では、複数のセンサ値から操作者がどのようなアクションをしているかを、例えば学習済みのモデル等によって分類するようにした。 As described above, in the present embodiment, what kind of action the operator is taking is classified, for example, by a learned model or the like, based on a plurality of sensor values.
これにより、本実施形態によれば、操作者の体に装着したセンサ(HMD5、コントローラー6)から得られる情報から操作者がどのようなアクション(Reach/Grasp/Move/Release)をしているのか推定することができる。この結果、本実施形態によれば、先回りしてアライメントをサポートできる。これにより、本実施形態によれば、アライメントに掛かる時間を削減できる。
なお、アクション推定結果をアライメントに活用することも可能である。ロボット遠隔操作制御装置3は、例えば、アライメントの可否推定で、アライメントすると予測され、且つアクション推定の結果がMoveだった場合、Move中にアライメントをサポートするような制御(ロボットアームの特定の軸の動きを固定する)を実施するようにしてもよい。
Thus, according to the present embodiment, it is possible to determine what action (Reach/Grasp/Move/Release) the operator is performing based on the information obtained from the sensors (
Note that it is also possible to utilize the action estimation result for alignment. For example, when it is predicted that alignment will be performed in the alignment possibility estimation and the result of the action estimation is Move, the robot remote control device 3 performs control to support alignment during the move (e.g., control of a specific axis of the robot arm). fixing the movement) may be implemented.
<第2実施形態>
遠隔操作では、把持物体を任意の物体(以下アライメント基準物体と呼ぶ)の隣に揃えて置く(以下、アライメントと呼ぶ)操作は困難である。さらに、操作者の体に装着したセンサ(視線、頭の回転、手の位置・角度などを取得するセンサ)から得られる情報からは、操作者が把持物体を物体に対してどのようにアライメントするかは直接推定することが困難である。
<Second embodiment>
In remote control, it is difficult to align (hereinafter referred to as alignment) a gripped object next to an arbitrary object (hereinafter referred to as alignment reference object). Furthermore, from the information obtained from sensors attached to the operator's body (sensors that acquire line of sight, head rotation, hand position and angle, etc.), it is possible to determine how the operator aligns the gripped object with respect to the object. is difficult to estimate directly.
このため、本実施形態では、操作者が把持している把持物体をアライメント基準物体に対してどのようにアライメントする尤度(確率)が高いか計算して、アライメントのサポートを実現する。 Therefore, in the present embodiment, alignment support is realized by calculating the likelihood (probability) of aligning the gripped object gripped by the operator with respect to the alignment reference object.
図6は、本実施形態に係る把持物体のアライメントのサポートを説明するための図である。アライメント基準物体KObjは、テーブルTb上に既に置かれている物体である。第1の置き方候補Objaは、把持物体Objの長手方向が、アライメント基準物体KObjと同じ角度(角度0度とする)の例である。第2の置き方候補Objbは、把持物体Objの長手方向が、アライメント基準物体KObjに対して90角度の例である。なお、アライメント基準物体KObjは、仮想的な物体であってもよい。 FIG. 6 is a diagram for explaining support for alignment of a grasped object according to this embodiment. The alignment reference object KObj is an object already placed on the table Tb. The first placement candidate Obja is an example in which the longitudinal direction of the grasped object Obj is at the same angle as the alignment reference object KObj (angle of 0 degrees). The second placement candidate Objb is an example in which the longitudinal direction of the grasped object Obj is 90 degrees with respect to the alignment reference object KObj. Note that the alignment reference object KObj may be a virtual object.
なお、ロボット遠隔操作制御装置3は、これらの置き方候補を予め生成して保持している。また、図6に示した置き方候補は一例であり、これに限らない。
ロボット遠隔操作制御装置3は、このアライメント基準物体KObjに対して、現在把持されている把持物体Objが、どのような状態で置かれるのかの尤度(確率)を計算する。そして、ロボット遠隔操作制御装置3は、計算結果に応じてアライメントをサポートする。
It should be noted that the robot remote control device 3 generates and holds these placement method candidates in advance. Further, the placement candidate shown in FIG. 6 is an example, and the present invention is not limited to this.
The robot remote control device 3 calculates the likelihood (probability) of how the gripped object Obj currently gripped is placed with respect to this alignment reference object KObj. Then, the robot remote control device 3 supports alignment according to the calculation result.
[処理手順]
次に、ロボット遠隔操作制御装置3の処理手順を説明する。
図7は、本実施形態に係るロボット遠隔操作制御装置3の処理手順のフローチャートである。
[Processing procedure]
Next, the processing procedure of the robot remote control device 3 will be described.
FIG. 7 is a flow chart of the processing procedure of the robot remote control device 3 according to this embodiment.
(ステップS101)情報取得部31は、HMD5から操作者センサ値(視線ベクトル)を取得し、コントローラー6から操作者センサ値を取得し、環境センサ7から環境センサ値を取得する。
(Step S<b>101 ) The
(ステップS102)アライメントサポート部332は、取得された環境センサ値に基づいて、アライメント基準物体KObjの位置と置かれ方を検出する。
(Step S102) The
(ステップS103)アライメントサポート部332は、取得された操作者センサ値、環境センサ値と、センサ27が検出した検出結果に基づいて、操作者の遠隔操作によってロボット2が把持している把持物体の状態を検出する。
(Step S<b>103 ) The
(ステップS104)アライメントサポート部332は、把持物体の置き方候補を生成する。
(Step S104) The
(ステップS105)アライメントサポート部332は、全ての置き方候補と、把持物体の状態との相対関係から、置き方候補毎の尤度(確率)を計算する。尤度(確率)lの計算は、例えば任意の置き方候補に対する把持物体の相対角度d(-180°≦d≦180°)に対して、次式(1)で計算する。
(Step S105) The
l=exp(-k・|d|) …(1) l=exp(−k·|d|) (1)
(1)式において、kは角度の異なり(相対角度の大きさ)に対して、尤度(確率)をどれだけ大きく算出するかを調整する定数である。(1)式より、把持物体の置き方候補に対する相対角度が小さいほど尤度(確率)が高くなる。 In equation (1), k is a constant that adjusts how large the likelihood (probability) is to be calculated with respect to the difference in angle (magnitude of relative angle). (1), the likelihood (probability) increases as the relative angle to the orientation candidate of the gripped object decreases.
なお、アライメントサポート部332は、例えば、現在の把持物体から各置き方候補への遷移確率等に基づいて尤度(確率)を計算する。なお、アライメントサポート部332は、操作者の手がブレることを補正するため、取得されたセンサ値から推定を行って値を安定化させるような処理(例えばカルマンフィルタ)後に尤度(確率)の計算を行うようにしてもよい。
Note that the
把持物体の姿勢は、手の姿勢に大きく影響される。把持物体の姿勢に対して例えばカルマンフィルタによる姿勢推定をすることで、実際の観測値よりも安定(手ブレなどの影響が少ない)した姿勢を出力することができる。本実施形態では、その値を制御指令生成に利用するようにしてもよい。 The posture of a grasped object is greatly affected by the posture of the hand. By estimating the posture of the grasped object using, for example, a Kalman filter, it is possible to output a posture that is more stable (less affected by camera shake, etc.) than the actual observed value. In this embodiment, the value may be used to generate the control command.
(ステップS106)制御指令生成部34は、計算された尤度(確率)が最も高い置き方候補の置き方をサポートするように、制御指令を生成する。
(Step S106) The control
(ステップS107)制御部21は、制御指令生成部34が生成した制御指令に基づいて、駆動部22を制御してロボット2の把持部等を駆動する。
(Step S<b>107 ) Based on the control command generated by the control
(ステップS108)制御部21は、操作者の遠隔操作に応じて、把持物体を例えばテーブル上に置いたか否かを判別する。制御部21は、把持物体を例えばテーブル上に置いたと判別した場合(ステップS108;YES)、処理を終了する。制御部21は、把持物体を例えばテーブル上に置いていないと判別した場合(ステップS108;NO)、ステップS101の処理に戻す。
(Step S108) The
以上のように、本実施形態では、操作者が把持物体をアライメント基準物体に対してどのようにアライメントする尤度(確率)が高いかを計算し、アライメントのサポートを実現するようにした。なお、上述した処理手順は一例であり、これに限らない。例えば、ステップS102~ステップS104の処理順番は、この順でなくてもよく、処理順番を入れ替えることも可能である。これらの処理は、例えば、ステップS102の処理後にステップS104の処理を行い、その後ステップS103の処理を行うようにしてもよい。これらの処理は、例えば、ステップS103の処理後にステップS102の処理を行い、その後ステップS104を行うようにしてもよい。 As described above, in the present embodiment, the likelihood (probability) of how the operator aligns the gripped object with respect to the alignment reference object is calculated to realize alignment support. Note that the processing procedure described above is an example, and is not limited to this. For example, the processing order of steps S102 to S104 does not have to be this order, and the processing order can be changed. As for these processes, for example, the process of step S104 may be performed after the process of step S102, and then the process of step S103 may be performed. As for these processes, for example, the process of step S102 may be performed after the process of step S103, and then step S104 may be performed.
これにより、本実施形態によれば、操作者が把持物体をどのような角度で離す(または置く、Place)するか確率的に計算することで、Placeのサポートを実行し、操作者がアライメントに掛かる時間とストレスの削減できる。 Thus, according to the present embodiment, by probabilistically calculating at what angle the operator releases (or places) the gripped object, Place support is executed, and the operator adjusts the alignment. It can save you time and stress.
なお、本実施形態は、上述した第1実施形態に適用することも可能である。 Note that this embodiment can also be applied to the first embodiment described above.
<第3実施形態>
遠隔操作による物体のPick&Placeなど、把持物体を(例えば机上などに存在する)任意の物体に対して近づけているとき(物体を把持してリーチングしているとき)、操作者の体に装着したセンサ(視線、頭の回転、手の位置・角度などを取得するセンサ)から得られる(時刻毎の)情報からは、操作者が把持物体を、任意の物体に対してアライメントをしようとしているのか否かをシステムが直接推定できない。
<Third Embodiment>
A sensor attached to the operator's body when a grasped object is approaching an arbitrary object (existing on a desk, etc.), such as when picking and placing an object by remote control (when grasping and reaching the object). From the information (at each time) obtained from (sensors that acquire line of sight, head rotation, hand position and angle, etc.), it is possible to determine whether the operator is trying to align the gripped object with an arbitrary object. The system cannot directly estimate whether
このため、本実施形態では、複数のセンサ値とロボット遠隔操作制御システムの状態から、操作者が把持させた物体を離す際に、離す処理の開始前に把持された物体に対してアライメントする前に、アライメントを行おうとしているのか否かを推定する。 For this reason, in the present embodiment, when releasing an object gripped by the operator based on a plurality of sensor values and the state of the robot remote operation control system, before starting the releasing process, before alignment is performed with respect to the gripped object. First, it estimates whether or not alignment is to be performed.
[分類例]
次に、分類部3312の分類方法例を説明する。
図8は、本実施形態に係る分類部3312の分類方法例を示す図である。図8のように、分類部3312は、少なくともHMD5とコントローラー6から取得された操作者センサ値を、学習済みのモデル3321Aに入力して、アライメントを行うか否かの分類結果の出力を得る。なお、この場合、意図推定部33の特徴量抽出部3311は、操作者センサ値から特徴量を抽出しなくてもよい。なお、学習済みのモデル3321Aは、操作者センサ値を入力とし、アライメントを行うか否かの教師データを用いて、機械学習手法(例えばニューラルネットワーク等)で学習して生成されたモデルである。また、学習済みのモデル3321Aは、分類部3312または記憶部37が記憶している。なお、機械学習手法は、ニューラルネットワーク以外(例えば決定木ベースの手法など)であってもよい。
[Classification example]
Next, an example of the classification method of the
FIG. 8 is a diagram showing an example of the classification method of the
なお、図8に示した例では、分類部3312が操作者センサ値を学習済みのモデル3321Aに入力してアライメントを行うか否かの分類結果の出力を得る例を説明したが、これに限らない。例えば、特徴量抽出部3311が操作者センサ値から特徴量を抽出し、分類部3312が抽出された特徴量に基づいて、アライメントを行うか否かの分類を行うようにしてもよい。
In the example shown in FIG. 8, the classifying
また、上述した例では、学習と推定の際、操作者センサ値を用いる例を説明したが、これに限らない。学習と推定の際の入力には、環境センサ値も用いるようにしてもよい。 Also, in the above example, an example in which operator sensor values are used in learning and estimation has been described, but the present invention is not limited to this. Environmental sensor values may also be used as inputs for learning and estimation.
[処理手順]
次に、ロボット遠隔操作制御装置3の処理手順を説明する。
図9は、本実施形態に係るロボット遠隔操作制御装置3の処理手順のフローチャートである。
[Processing procedure]
Next, the processing procedure of the robot remote control device 3 will be described.
FIG. 9 is a flow chart of the processing procedure of the robot remote control device 3 according to this embodiment.
(ステップS201)情報取得部31は、HMD5から操作者センサ値(視線ベクトル)を取得し、コントローラー6から操作者センサ値を取得し、環境センサ7から環境センサ値を取得する。
(Step S<b>201 ) The
(ステップS202)アライメント可否予測部333は、取得された操作者センサ値、環境センサ値と、センサ27が検出した検出結果に基づいて、操作者の遠隔操作によってロボット2が把持している把持物体の状態を検出する。
(Step S202) Based on the obtained operator sensor value, the environment sensor value, and the detection result detected by the
(ステップS203)アライメント可否予測部333は、例えば、取得された操作者センサ値を学習済みの学習モデルに入力して、アライメントの事前予測(アライメントをしようとしているか否か)を行う。
(Step S203) The alignment
(ステップS204)制御指令生成部34は、アライメントをしようとしているか否かの予測結果に基づいて、制御指令を生成する。
(Step S204) The
(ステップS205)制御部21は、制御指令生成部34が生成した制御指令に基づいて、駆動部22を制御してロボット2の把持部等を駆動する。
(Step S205) Based on the control command generated by the control
(ステップS206)制御部21は、操作者の遠隔操作に応じて、把持物体を例えばテーブル上に置いたか否かを判別する。制御部21は、把持物体を例えばテーブル上に置いたと判別した場合(ステップS206;YES)、処理を終了する。制御部21は、把持物体を例えばテーブル上に置いていないと判別した場合(ステップS206;NO)、ステップS201の処理に戻す。
(Step S206) The
以上のように、本実施形態では、操作者の体に装着したセンサから得られる情報を使って、操作者が物体を手に持って、任意の物体にリーチングしている段階で、アライメントしようとしているのか否かを事前に予測するようにした。なお、アライメント可否予測部333は、物体に対してアライメントする前の時点に予測するようにしてもよく、物体のリリースが完了する前であればいつでもよい。
As described above, in the present embodiment, information obtained from the sensor attached to the body of the operator is used to perform alignment when the operator is holding an object in his hand and reaching an arbitrary object. I tried to predict in advance whether or not there would be. Note that the alignment
これにより、本実施形態によれば、ロボット遠隔操作制御装置3が操作者のアライメント意図を検出して先回りしてアライメントをサポートすることで、アライメントに掛かる時間を削減できる。 As a result, according to the present embodiment, the robot remote control device 3 detects the operator's alignment intention and proactively supports alignment, thereby reducing the time required for alignment.
なお、本実施形態は、上述した第1実施形態、および第2実施形態のうちの少なくとも1つに適用することも可能である。 It should be noted that this embodiment can also be applied to at least one of the above-described first embodiment and second embodiment.
なお、意図推定部33は、操作者状態情報と、ロボット2の状態情報とに基づいて、操作者が意図する手先の将来軌道を、事前に予測するようにしてもよい。
Note that the
また、操作者が操作する環境とロボット動作環境では座標系が異なるため、ロボット遠隔操作制御装置3は、例えば、ロボット2の起動時に操作者の操作環境とロボット動作環境のキャリブレーションを行うようにしてもよい。
In addition, since the coordinate system differs between the environment operated by the operator and the operating environment of the robot, the robot remote control device 3 calibrates the operating environment of the operator and the operating environment of the robot when the
また、把持の際、ロボット遠隔操作制御装置3は、ロボット2の把持力と、物体と把持部222との摩擦力等に基づいて、把持時の把持位置の誤差を補正して、把持位置を決定するようにしてもよい。
Further, when gripping, the robot remote control device 3 corrects an error in the gripping position at the time of gripping based on the gripping force of the
また、上述したロボット2は、例えば、二足歩行ロボットであってもよく、固定型の受付ロボットであってもよく、作業ロボットであってもよい。
Further, the above-described
また、上述した例では、遠隔操作でロボット2に把持させる例を説明したが、これに限らない。
Also, in the above-described example, an example in which the
また、上述した例では、操作者がHMD5を装着する例を説明したが、これに限らない。視線情報の検出や、操作者へのロボット状態画像の提供は、例えば、センサと画像表示装置との組み合わせ等であってもよい。
Also, in the above example, an example in which the operator wears the
なお、本発明におけるロボット遠隔操作制御装置3の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりロボット遠隔操作制御装置3が行う全ての処理または一部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ローカルネットワーク上で構築されたシステムやクラウド上で構築されたシステム等も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 A program for realizing all or part of the functions of the robot remote control device 3 of the present invention is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read by the computer system. , all or part of the processing performed by the robot remote control device 3 may be performed. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices. In addition, the "computer system" shall include a system built on a local network, a system built on the cloud, and the like. The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. In addition, "computer-readable recording medium" means a volatile memory (RAM) inside a computer system that acts as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. , includes those that hold the program for a certain period of time.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.
1…ロボット遠隔操作制御システム、2…ロボット、3…ロボット遠隔操作制御装置、5…HMD、6…コントローラー、7…環境センサ、21…制御部、22…駆動部、23…収音部、25…記憶部、26…電源、27…センサ、222,222a,222b…把持部、31…情報取得部、33…意図推定部、331…動作推定部、3311…特徴量抽出部、3312…分類部、332…アライメントサポート部、333…アライメント可否予測部、34…制御指令生成部、35…画像作成部、36…送信部、37…記憶部、51…画像表示部、52…視線検出部、53…センサ、54…制御部、55…通信部、61…センサ、62…制御部、63…通信部、64…フィードバック手段、71…撮影装置、72…センサ、73…物体位置検出部、74…通信部
DESCRIPTION OF
Claims (9)
検出された前記操作者の動きを示す情報である操作者センサ値を取得する情報取得部と、
前記操作者センサ値から学習済みのモデルを用いて、前記ロボットに対する動作指示である前記操作者の動作を推定する意図推定部と、
を備えるロボット遠隔操作制御装置。 In a robot remote operation that recognizes the movement of an operator and transmits the movement of the operator to a robot to operate the robot,
an information acquisition unit that acquires an operator sensor value that is information indicating the detected movement of the operator;
an intention estimating unit for estimating a motion of the operator, which is a motion instruction to the robot, using a model that has been learned from the operator sensor values;
A robot remote control device comprising:
前記意図推定部は、前記環境センサ値と前記操作者センサ値から学習済みのモデルを用いて、前記操作者が前記ロボットを操作して前記ロボットに把持させた把持物体をアライメントしようとしているのか否かを推定して、前記推定した結果に基づいて前記ロボットを駆動する制御指令値を生成する、
請求項1に記載のロボット遠隔操作制御装置。 The information acquisition unit acquires an environment sensor value obtained by an environment sensor installed in the robot or in the surrounding environment of the robot,
The intention estimating unit uses a model that has been learned from the environment sensor values and the operator sensor values to determine whether the operator is trying to align the gripped object gripped by the robot by operating the robot. estimating whether or not, and generating a control command value for driving the robot based on the estimated result;
The robot remote control device according to claim 1.
意図推定部は、前記環境センサ値と前記操作者センサ値を用いて、前記操作者が前記把持物体に対して、どのような姿勢でアライメントしようとしているかの尤度を計算して、アライメントのサポートを行う、
請求項2に記載のロボット遠隔操作制御装置。 The information acquisition unit acquires an environment sensor value obtained by an environment sensor installed in the robot or in the surrounding environment of the robot,
The intention estimating unit uses the environment sensor value and the operator sensor value to calculate the likelihood that the operator is going to align the gripped object in what kind of posture, thereby supporting alignment. I do,
The robot remote control device according to claim 2.
請求項3に記載のロボット遠隔操作制御装置。 The intention estimation unit estimates from the operator sensor value and calculates the likelihood with respect to the gripped object by the operator after processing for stabilizing the value.
The robot remote control device according to claim 3.
前記意図推定部は、前記環境センサ値も学習済みのモデルに入力して、前記ロボットに対する動作指示である前記操作者の動作を推定する、
請求項1に記載のロボット遠隔操作制御装置。 The information acquisition unit acquires an environment sensor value obtained by an environment sensor installed in the robot or in the surrounding environment of the robot,
The intention estimating unit also inputs the environment sensor value to the learned model to estimate the operator's motion, which is a motion instruction to the robot.
The robot remote control device according to claim 1.
請求項1または請求項5に記載のロボット遠隔操作制御装置。 The intention estimation unit extracts a feature amount from the operator sensor value, and estimates by classifying the operator's motion, which is an operation instruction to the robot, based on the extracted feature amount.
The robot remote control device according to claim 1 or 5.
操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
物体を把持する把持部と、
前記ロボットあるいは前記ロボットの周辺環境に設置され、環境センサ値を検出する環境センサと、
前記操作者の動きを操作者センサ値として検出する操作者センサと、
前記操作者の視界にあるロボット環境の画像を表示する画像表示装置と、
を備えるロボット遠隔操作制御システム。 The robot remote control device according to any one of claims 1 to 6;
In a robot remote operation that recognizes the movement of an operator and transmits the movement of the operator to a robot to operate the robot,
a gripping portion that grips an object;
an environment sensor installed in the robot or in the surrounding environment of the robot and detecting an environment sensor value;
an operator sensor that detects the movement of the operator as an operator sensor value;
an image display device for displaying an image of the robot environment within the field of view of the operator;
A robot remote control system.
情報取得部が、前記操作者の動きを検知する操作者センサ値を取得し、
意図推定部が、前記操作者センサ値から学習済みのモデルを用いて、前記ロボットに対する動作指示である前記操作者の動作を推定する、
ロボット遠隔操作制御方法。 In a robot remote operation that recognizes the movement of an operator and transmits the movement of the operator to a robot to operate the robot,
an information acquisition unit acquires an operator sensor value for detecting the movement of the operator;
an intention estimating unit estimating a motion of the operator, which is a motion instruction to the robot, using a learned model from the operator sensor values;
Robot remote control method.
コンピュータに、
検出された前記操作者の動きを示す情報である操作者センサ値を取得させ、
前記操作者センサ値から学習済みのモデルを用いて、前記ロボットに対する動作指示である前記操作者の動作を推定させる、
プログラム。 In a robot remote operation that recognizes the movement of an operator and transmits the movement of the operator to a robot to operate the robot,
to the computer,
obtaining an operator sensor value, which is information indicating the detected movement of the operator;
estimating a motion of the operator, which is a motion instruction to the robot, using a learned model from the operator sensor values;
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021061170A JP7565848B2 (en) | 2021-03-31 | 2021-03-31 | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM |
US17/707,930 US20220314449A1 (en) | 2021-03-31 | 2022-03-29 | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021061170A JP7565848B2 (en) | 2021-03-31 | 2021-03-31 | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022157123A true JP2022157123A (en) | 2022-10-14 |
JP7565848B2 JP7565848B2 (en) | 2024-10-11 |
Family
ID=83559156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021061170A Active JP7565848B2 (en) | 2021-03-31 | 2021-03-31 | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7565848B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017196678A (en) | 2016-04-25 | 2017-11-02 | 国立大学法人 千葉大学 | Robot motion control device |
US10464212B2 (en) | 2017-03-28 | 2019-11-05 | Amazon Technologies, Inc. | Method and system for tele-operated inventory management system |
JP7050573B2 (en) | 2017-06-30 | 2022-04-08 | 大成建設株式会社 | Goods placement system and food serving system |
-
2021
- 2021-03-31 JP JP2021061170A patent/JP7565848B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7565848B2 (en) | 2024-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11344374B2 (en) | Detection of unintentional movement of a user interface device | |
CN110662631B (en) | Control device, robot control method, and robot control system | |
US11787037B2 (en) | Behavior estimation apparatus, behavior estimation method, and behavior estimation program | |
JP7117237B2 (en) | ROBOT CONTROL DEVICE, ROBOT SYSTEM AND ROBOT CONTROL METHOD | |
CN111319044B (en) | Article grabbing method and device, readable storage medium and grabbing robot | |
WO2008001793A1 (en) | Robot device and robot device control method | |
US20230226698A1 (en) | Robot teleoperation control device, robot teleoperation control method, and storage medium | |
CN113056315B (en) | Information processing apparatus, information processing method, and program | |
JP2013180380A (en) | Control device, control method, and robot apparatus | |
Chen et al. | A human–robot interface for mobile manipulator | |
JP6067547B2 (en) | Object recognition device, robot, and object recognition method | |
US11986746B2 (en) | Information processing device and information processing method | |
EP4316747A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program | |
JP7565848B2 (en) | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM | |
US20220314449A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and non-transitory computer readable medium | |
JP7565849B2 (en) | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM | |
JP2022164028A (en) | Remote operation control system, remote operation control method, and program | |
JP2022155623A (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program | |
JP2022157119A (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program | |
JP2022157101A (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program | |
JP7535968B2 (en) | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM | |
JP2011235380A (en) | Control device | |
JP7360158B2 (en) | Control system and control program | |
US20230234231A1 (en) | Teleoperation assist device, teleoperation assist method, and storage medium | |
MercilinRaajini et al. | MEM Based Hand Gesture Controlled Wireless Robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240821 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241001 |