JP2022157127A - Robot remote operation control device, robot remote operation control system, robot remote operation control method and program - Google Patents
Robot remote operation control device, robot remote operation control system, robot remote operation control method and program Download PDFInfo
- Publication number
- JP2022157127A JP2022157127A JP2021061180A JP2021061180A JP2022157127A JP 2022157127 A JP2022157127 A JP 2022157127A JP 2021061180 A JP2021061180 A JP 2021061180A JP 2021061180 A JP2021061180 A JP 2021061180A JP 2022157127 A JP2022157127 A JP 2022157127A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- operator
- remote control
- sensor value
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000009826 distribution Methods 0.000 claims abstract description 64
- 230000033001 locomotion Effects 0.000 claims abstract description 55
- 230000007613 environmental effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 18
- 230000005540 biological transmission Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムに関する。 The present invention relates to a robot remote operation control device, a robot remote operation control system, a robot remote operation control method, and a program.
利用者がロボットの操作を補助することができる制御装置が提案されている。このような制御装置として、例えば、ロボットを操作する第1ユーザーの姿勢を示す第1ユーザー姿勢情報を取得する第1情報取得部と、第1ユーザー姿勢情報に基づいてロボットの姿勢を変化させる前のロボットの姿勢である変化前姿勢を示す変化前姿勢情報を取得する第2情報取得部と、変化前姿勢情報と、変化前姿勢情報が示す変化前姿勢をロボットがしている時点で第1情報取得部が取得した第1ユーザー姿勢情報とに基づいて、第1ユーザーの姿勢と異なる標的姿勢をロボットの姿勢に決定する決定部と、を有する制御装置が提案されている(特許文献1参照)。特許文献1に記載のシステムでは、操作者が装着した装置によって検出した姿勢に対応する姿勢にロボットの姿勢を変化させる。
A control device has been proposed that allows a user to assist the operation of a robot. As such a control device, for example, a first information acquisition unit that acquires first user posture information indicating the posture of a first user who operates the robot, and a a second information acquiring unit for acquiring pre-change posture information indicating a pre-change posture which is the posture of the robot; A control device has been proposed that includes a determination unit that determines a target posture different from the posture of the first user as the posture of the robot based on the first user posture information acquired by the information acquisition unit (see Patent Document 1). ). The system described in
遠隔操作で物体のピック&プレース(Pick&Place)などを操作する際に、ロボットは、操作者が操作しようとしている対象物体を認識する必要がある。 When picking and placing an object by remote control, the robot needs to recognize the target object that the operator is trying to operate.
しかしながら、従来技術では、遠隔操作で物体をPick&Placeなど操作する際に、操作者の体に装着したセンサから得られる時刻毎の情報からは、操作者がどの物体をPick,Placeしようとしているのか直接推定できない。なお、センサは、例えば、視線、頭の回転、手の位置・角度などを取得するセンサである。また、従来技術では、視線のみや手の動きのセンサ値のみでの時系列推定では、(複雑環境下などで)推定が不安定になる。 However, in the prior art, when picking and placing an object by remote control, it is possible to directly determine which object the operator intends to pick and place based on the time-based information obtained from the sensor attached to the operator's body. Cannot be estimated. Note that the sensor is a sensor that acquires, for example, the line of sight, the rotation of the head, the position/angle of the hand, and the like. In addition, in the prior art, time-series estimation using only the sensor values of the line of sight or the movement of the hand results in unstable estimation (in a complex environment, etc.).
本発明は、上記の問題点に鑑みてなされたものであって、操作者の操作対象を精度良く推定することができるロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and provides a robot remote operation control device, a robot remote operation control system, a robot remote operation control method, and a robot remote operation control method that can accurately estimate an operator's operation target. The purpose is to provide a program.
(1)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御装置は、操作者の動きを認識し、ロボットに操作者の動きを伝えてロボットを操作するロボット遠隔操作において、前記ロボットまたは前記ロボットの周辺環境に設置された環境センサによって得られた環境センサ値と、前記操作者の動きを検知する操作者センサ値と、を取得する情報取得部と、前記環境センサ値と前記操作者センサ値から、ロボット世界における前記操作者の注視点とロボット世界における前記操作者の手の軌道から算出する確率分布に基づき前記操作者の意図を推定する意図推定部と、を備える。 (1) In order to achieve the above objects, a robot remote operation control device according to an aspect of the present invention recognizes the movement of an operator and transmits the operator's movement to a robot to operate the robot. an information acquisition unit that acquires an environment sensor value obtained by the robot or an environment sensor installed in the surrounding environment of the robot and an operator sensor value that detects the operator's movement; and the environment sensor value an intention estimating unit for estimating the intention of the operator based on a probability distribution calculated from the gazing point of the operator in the robot world and the trajectory of the operator's hand in the robot world from the operator sensor value.
(2)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記確率分布は、前記ロボット世界における前記操作者の注視点と操作候補の物体との間の距離と、前記ロボット世界における前記操作者の手の位置と前記物体との間の距離とに基づく確率分布であるようにしてもよい。 (2) Further, in the robot remote operation control device according to the aspect of the present invention, the probability distribution may be the distance between the operator's gaze point and the operation candidate object in the robot world, and The probability distribution may be based on the position of the operator's hand and the distance between the object.
(3)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記確率分布は、ロボット世界における前記操作者の手の軌道に基づく確率分布であるようにしてもよい。 (3) Further, in the robot remote control device according to the aspect of the present invention, the probability distribution may be a probability distribution based on the trajectory of the operator's hand in the robot world.
(4)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記確率分布は、ロボット世界における前記操作者の注視点と操作候補の物体とが重なった回数に基づく確率分布であるようにしてもよい。 (4) Further, in the robot remote control device according to the aspect of the present invention, the probability distribution is based on the number of times the operator's gaze point overlaps with the operation candidate object in the robot world. can be
(5)また、本発明の一態様に係るロボット遠隔操作装置において、前記意図推定部は、前記確率分布が複数の場合、前記環境センサ値と操作者センサ値に基づいて前記確率分布それぞれに重み付けして加算して総和を算出し、算出した前記確率分布の総和に基づいて前記操作者の意図を推定するようにしてもよい。 (5) Further, in the robot remote control device according to the aspect of the present invention, when there are a plurality of probability distributions, the intention estimating unit weights each of the probability distributions based on the environment sensor value and the operator sensor value. The operator's intention may be estimated based on the calculated sum of the probability distributions.
(6)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記意図推定部は、前記確率分布が複数の場合、複数の前記確率分布を正規化した後に加算して総和を算出し、算出した前記確率分布の総和に基づいて前記操作者の意図を推定するようにしてもよい。 (6) In the robot remote control device according to the aspect of the present invention, when there are a plurality of probability distributions, the intention estimating unit normalizes the plurality of probability distributions and then adds them to calculate a total sum. , the intention of the operator may be estimated based on the sum of the calculated probability distributions.
(7)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御システムは、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、上記(1)から(6)のうちのいずれか1つに記載の前記ロボット遠隔操作制御装置と、物体を把持する把持部と、前記ロボットあるいは前記ロボットの周辺環境に設置され、ロボット環境センサ値を検出する環境センサと、前記操作者の動きを操作者センサ値として検出する操作者センサと、を備える。 (7) In order to achieve the above objects, a robot remote control system according to an aspect of the present invention recognizes a motion of an operator and transmits the motion of the operator to a robot to operate the robot. wherein the robot remote control device according to any one of the above (1) to (6), a gripping unit for gripping an object, and a robot environment installed in the robot or in an environment surrounding the robot; An environment sensor that detects a sensor value, and an operator sensor that detects the movement of the operator as an operator sensor value.
(8)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御方法は、操作者の動きを認識し、ロボットに操作者の動きを伝えてロボットを操作するロボット遠隔操作において、情報取得部が、前記ロボットまたは前記ロボットの周辺環境に設置された環境センサによって得られた環境センサ値と、前記操作者の動きを検知する操作者センサ値と、を取得し、意図推定部が、前記環境センサ値と前記操作者センサ値から、ロボット世界における前記操作者の注視点とロボット世界における前記操作者の手の軌道から算出する確率分布に基づき前記操作者の意図を推定する。 (8) In order to achieve the above objects, a robot remote control method according to an aspect of the present invention is a robot remote control method for recognizing a motion of an operator and transmitting the motion of the operator to a robot to operate the robot, An information acquisition unit acquires an environment sensor value obtained by the robot or an environment sensor installed in the environment surrounding the robot and an operator sensor value for detecting the operator's movement, and an intention estimation unit acquires and, from the environment sensor value and the operator sensor value, the operator's intention is estimated based on a probability distribution calculated from the operator's gazing point in the robot world and the trajectory of the operator's hand in the robot world.
(9)上記目的を達成するため、本発明の一態様に係るプログラムは、操作者の動きを認識し、ロボットに操作者の動きを伝えてロボットを操作するロボット遠隔操作において、コンピュータに、前記ロボットまたは前記ロボットの周辺環境に設置された環境センサによって得られた環境センサ値と、前記操作者の動きを検知する操作者センサ値と、を取得させ、前記環境センサ値と前記操作者センサ値から、ロボット世界における前記操作者の注視点とロボット世界における前記操作者の手の軌道から算出する確率分布に基づき前記操作者の意図を推定させる。 (9) In order to achieve the above object, a program according to an aspect of the present invention provides a program for remote control of a robot that recognizes a motion of an operator and transmits the motion of the operator to a robot to operate the robot. An environment sensor value obtained by a robot or an environment sensor installed in the surrounding environment of the robot and an operator sensor value for detecting the operator's movement are acquired, and the environment sensor value and the operator sensor value are acquired. , the intention of the operator is estimated based on the probability distribution calculated from the point of gaze of the operator in the robot world and the trajectory of the operator's hand in the robot world.
(1)~(9)によれば、視線と手の動きを用いて統合的に推論するので、高性能にPick,Placeなどの操作対象物体を推定できる。 According to (1) to (9), an operation target object such as Pick, Place, etc. can be estimated with high performance, because an inference is made comprehensively using the line of sight and the movement of the hand.
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in the drawings used for the following description, the scale of each member is appropriately changed so that each member has a recognizable size.
[概要]
まず、ロボット遠隔操作制御システムで行う作業と処理の概要を説明する。
図1は、本実施形態に係るロボット遠隔操作制御システム1の概要と作業の概要を示す図である。図1のように、操作者Usは、例えばHMD(ヘッドマウントディスプレイ)5とコントローラー6を装着している。ロボット2には環境センサ7aが取り付けられ、作業環境にも環境センサ7bが設置されている。なお、環境センサ7は、ロボット2に取り付けられていてもよい。また、ロボット2は、把持部222(222a、222b)を備える。環境センサ7(7a、7b)は、後述するように例えばRGBカメラと深度センサを備えている。操作者Usは、HMD5に表示された画像を見ながらコントローラー6を装着している手や指を動かすことで、ロボット2を遠隔操作する。本実施形態では、操作者の視線と手の動きを用いて統合的に推論することで、高性能にPick,Placeなどの操作対象物体objを推定する。
[Overview]
First, an outline of work and processing performed by the robot remote control system will be described.
FIG. 1 is a diagram showing an outline of a robot
[ロボット遠隔操作制御システムの構成例]
次に、ロボット遠隔操作制御システム1の構成例を説明する。
図2は、本実施形態に係るロボット遠隔操作制御システム1の構成例を示すブロック図である。図2のように、ロボット遠隔操作制御システム1は、ロボット2、ロボット遠隔操作制御装置3、HMD5、コントローラー6、および環境センサ7を備える。
[Configuration example of robot remote control system]
Next, a configuration example of the robot
FIG. 2 is a block diagram showing a configuration example of the robot
ロボット2は、例えば、制御部21、駆動部22、収音部23、記憶部25、電源26、およびセンサ27を備える。
ロボット遠隔操作制御装置3は、例えば、情報取得部31、意図推定部33、制御指令生成部34、ロボット状態画像作成部35、送信部36、および記憶部37を備える。
The
The robot
HMD5は、例えば、画像表示部51、視線検出部52(操作者センサ)、制御部54、および通信部55を備える。なお、HMD5は、例えば操作者の視線の動き等を検出するセンサを備えていてもよい。
HMD5 is provided with the
コントローラー6は、例えば、センサ61(操作者センサ)、制御部62、通信部63、およびフィードバック手段64を備える。
The
環境センサ7は、例えば、撮影装置71、センサ72、物体位置検出部73、および通信部74を備える。
The
なお、ロボット遠隔操作制御装置3とHMD5は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とコントローラー6は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3と環境センサ7は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とロボット2は、例えば、無線または有線のネットワークを介して接続されている。なお、ロボット遠隔操作制御装置3とHMD5は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とコントローラー6は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3と環境センサ7は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とロボット2は、ネットワークを介さずに直接接続されてもよい。
The robot
[ロボット遠隔操作制御システムの機能例]
次に、ロボット遠隔操作制御システムの機能例を、図1を参照しつつ説明する。
HMD5は、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。HMD5は、操作者の視線の動き等を検出し、検出した視線情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。
[Function example of robot remote control system]
Next, an example of functions of the robot remote control system will be described with reference to FIG.
The
画像表示部51は、制御部54の制御に応じて、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。
The
視線検出部52は、操作者の視線を検出し、検出した視線情報(操作者センサ値)を制御部54に出力する。
The line-of-
制御部54は、視線検出部52が検出した視線情報(操作者センサ値)を、通信部55を介してロボット遠隔操作制御装置3に送信する。制御部54は、ロボット遠隔操作制御装置3が送信したロボット状態画像を、画像表示部51に表示させる。
The
通信部55は、ロボット遠隔操作制御装置3が送信したロボット状態画像を受信し、受信したロボット状態画像を制御部54に出力する。通信部55は、制御部54の制御に応じて、視線情報をロボット遠隔操作制御装置3に送信する。
The
コントローラー6は、例えば、触覚データグローブであり、操作者の手に装着される。コントローラー6は、センサ61によって方位や各指の動きや手の動きを検出し、検出した手動作情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。
The
センサ61は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。なお、センサ61は、複数のセンサを備えるセンサ61は、例えば2つのセンサによって各指の動きをトラッキングする。センサ61は、各指の動きや手の動きを検出し、検出した手動作情報(操作者センサ値)を制御部62に出力する。
The
制御部62は、センサ61が検出した手動作情報を、通信部63を介してロボット遠隔操作制御装置3に送信する。制御部62は、フィードバック情報に基づいて、フィードバック手段64を制御する。
The
通信部63は、制御部62の制御に応じて、操作者動作情報をロボット遠隔操作制御装置3に送信する。通信部63は、ロボット遠隔操作制御装置3が送信したフィードバック情報を取得し、取得したフィードバック情報を制御部62に出力する。
The
フィードバック手段64は、制御部62の制御に応じて、操作者にフィードバック情報をフィードバックする。フィードバック手段64は、フィードバック情報に応じて、例えば、ロボット2の把持部222に取り付けられている振動を与える手段(不図示)や空気圧を与える手段(不図示)や手の動きを拘束する手段(不図示)や温度を感じさせる手段(不図示)や堅さや柔らかさを感じさせる手段(不図示)等によって操作者に感覚をフィードバックする。
The feedback means 64 feeds back feedback information to the operator under the control of the
環境センサ7は、例えばロボット2の作業を撮影、検出できる位置に設置されている。なお、環境センサ7は、ロボット2が備えていてもよく、ロボット2に取り付けられていてもよい。または、環境センサ7は、複数であってもよく、図1のように作業環境に設置され、かつロボット2にも取り付けられていてもよい。環境センサ7は、撮影された画像とセンサによって検出された検出結果に基づいて物体の位置情報を検出し、検出した物体位置情報(環境センサ値)をロボット遠隔操作制御装置3に送信する。
The
撮影装置71は、例えばRGBカメラである。撮影装置71は、撮影した画像を物体位置検出部73に出力する。なお、環境センサ7において、撮影装置71とセンサ72の位置関係が既知である。
The
センサ72は、例えば深度センサである。センサ72は、検出結果を物体位置検出部73に出力する。なお、撮影装置71とセンサ72は、距離センサであってもよい。
物体位置検出部73は、撮影された画像とセンサによって検出された検出結果に基づいて、撮影された画像における対象物体の三次元位置と大きさ形状等を周知の手法で検出する。物体位置検出部73は、物体位置検出部73が記憶するパターンマッチングのモデル等を参照して、撮影装置71が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行って物体の位置を推定する。なお、物体位置検出部73は、撮影された画像から複数の物体が検出された場合、物体毎に位置を検出する。物体位置検出部73は、検出した物体位置情報(環境センサ値)を、通信部74を介してロボット遠隔操作制御装置3に送信する。
The object
通信部74は、物体位置情報をロボット遠隔操作制御装置3に送信する。なお、環境センサ7が送信するデータは、例えば位置情報を有する点群であってもよい。
The
ロボット2は、遠隔操作されていない場合、制御部21の制御に応じて行動が制御される。ロボット2は、遠隔操作されている場合、ロボット遠隔操作制御装置3が生成した把持計画情報に応じて行動が制御される。
The behavior of the
制御部21は、ロボット遠隔操作制御装置3が出力する制御指令に基づいて駆動部22を制御する。なお、制御部21は、収音部23が収音した音響信号に対して音声認識処理(発話区間検出、音源分離、音源定位、雑音抑圧、音源同定等)を行うようにしてもよい。制御部21は、フィードバック情報を生成して、生成したフィードバック情報を、ロボット遠隔操作制御装置3を介してコントローラー6に送信する。
The
駆動部22は、制御部21の制御に応じてロボット2の各部(把持部222、腕、指、足、頭、胴、腰等)を駆動する。駆動部22は、例えば、アクチュエータ、ギア、人工筋等を備える。
The driving
収音部23は、例えば複数のマイクロホンを備えるマイクロホンアレイである。収音部23は、収音した音響信号を制御部21に出力する。収音部23は、音声認識処理機能を備えていてもよい。この場合、収音部23は、音声認識結果を制御部21に出力する。
The
記憶部25は、例えば、制御部21が制御に用いるプログラム、閾値等を記憶し、音声認識結果、画像処理結果、制御指令等を一時的に記憶する。なお、記憶部25は、記憶部37が兼ねていてもよい。または、記憶部37が記憶部25を兼ねていてもよい。
The
電源26は、ロボット2の各部に電力を供給する。電源26は、例えば充電式のバッテリや充電回路を備えていてもよい。
A
センサ27は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ、各関節エンコーダ等である。なお、センサ27は、ロボット2の各関節、頭部等に取り付けられている。センサ27は、検出した検出結果を、制御部21、意図推定部33、制御指令生成部34、ロボット状態画像作成部35に出力する。
The
ロボット遠隔操作制御装置3は、HMD5が検出した視線情報と、コントローラー6が検出した手動作情報と、環境センサ7が検出した物体位置情報とに基づいて操作者の動作意図を推定し、ロボット2の制御指令を生成する。
The robot
情報取得部31は、HMD5から視線情報(操作者センサ値)を取得し、コントローラー6から手動作情報(操作者センサ値)を取得し、環境センサ7から物体位置情報(環境センサ値)を取得する。情報取得部31は、取得した視線情報と手動作情報と物体位置情報を意図推定部33に出力する。なお、以下の説明では、視線情報(操作者センサ値)と手動作情報(操作者センサ値)と物体位置情報(環境センサ値)をセンサ値とも呼ぶ。
The
意図推定部33は、情報取得部31が取得した視線情報と手動作情報と物体位置情報に基づいて、操作者が意図する対象物体に関する情報(対象物体名、対象物体の位置、対象物体の大きさ等)を推定する。作業空間に物体が複数ある場合、意図推定部33は、物体毎に対象物体である確率を推定する。なお、操作者の意図と、推定方法については後述する。
Based on the line-of-sight information, the hand motion information, and the object position information acquired by the
制御指令生成部34は、意図推定部33が推定した結果と、センサ27が検出した検出結果、環境センサ7が検出した物体位置情報に基づいて、例えば物体を把持するための制御指令を生成する。制御指令生成部34は、生成した制御指令情報を制御部21に出力する。
The control
ロボット状態画像作成部35は、制御指令生成部34が生成した制御指令情報に基づいて、HMD5に表示させるロボット状態画像を作成する。
The robot state
送信部36は、ロボット状態画像作成部35が作成したロボット状態画像を、HMD5に送信する。送信部36は、ロボット2が出力したフィードバック情報を取得し、取得したフィードバック情報をコントローラー6へ送信する。
The
記憶部37は、環境センサ7の撮影装置71とセンサ72の位置関係を記憶している。記憶部37は、作業内容毎に補助する対象、すなわち操作者が制御すべき自由度や制御可能な範囲を制限する情報を記憶する。記憶部37は、ロボット遠隔操作制御装置3の制御に用いられるプログラムを記憶する。なお、プログラムはクラウドやネットワーク上にあってもよい。
The
[HMD5、コントローラー6を操作者が身につけている状態例]
次に、HMD5、コントローラー6を操作者が身につけている状態例を説明する。
図3は、HMD5、コントローラー6を操作者が身につけている状態例を示す図である。図3の例では、操作者Usは、左手にコントローラー6aを装着し、右手にコントローラー6bを装着し、頭部にHMD5を装着している。なお、図3に示したHMD5、コントローラー6は一例であり、装着方法や形状等は、これに限らない。
[Example of state in which the operator wears
Next, a state example in which the operator wears the
FIG. 3 is a diagram showing an example of a state in which an operator wears the
[意図推定処理例]
次に、意図推定処理の概要を説明する。
図4は、本実施形態に係る意図推定処理の概要を示す図である。
図4のように、ロボット遠隔操作制御装置3は、HMD5から視線情報とコントローラー6から手動作情報と、環境センサ7から物体位置情報と、を取得する。
[Example of intention estimation processing]
Next, an outline of the intention estimation process will be described.
FIG. 4 is a diagram showing an outline of intention estimation processing according to the present embodiment.
As shown in FIG. 4 , the robot
意図推定部33は、視線情報に基づいて、ロボット世界における操作者の注視点を推定する。意図推定部33は、手動作情報に基づいて、ロボット世界における操作者の手の位置を計算する。意図推定部33は、注視点と操作候補の物体との間の距離と、手と操作候補の物体との間の距離を算出する。意図推定部33は、算出した注視点と操作候補の物体との間の距離と、手と操作候補の物体との間の距離に基づく操作候補の物体全体に対して確率分布を算出する。
The
意図推定部33は、手動作情報に基づいて、ロボット世界における操作者の手の動き、すなわち手の軌道を検出する。意図推定部33は、手の軌道に基づく操作候補の物体全体に対して確率分布を算出する。
The
意図推定部33は、注視点が操作候補の物体に重なった回数に基づいて、物体全体に対して確率分布を算出する。
The
なお、意図推定部33は、確率分布を、例えば次式(1)によって算出する。
In addition, the
式(1)において、太字はベクトルを表す。g(太字)はとりうる意図物体の集合、gは意図物体を表す確率変数であり、左辺のbt(gt)は現在時刻の意図物体確率分布である。右辺のbt-1は前時刻t-1の意図確率分布であり、P(gt|gt-1)は遷移確率であり、Π(θt|gt)は、尤度を表し、手や視線の観測値θと物体gの関係より求めることができる(参考文献1参照)。なお、意図推定部33は、確率分布を式(1)以外の他の確率分布を求める式によって算出するようにしてもよい。
In equation (1), bold letters represent vectors. g (bold) is a set of possible intended objects, g is a random variable representing the intended objects, and b t (g t ) on the left side is the intended object probability distribution at the current time. b t-1 on the right side is the intention probability distribution at the previous time t-1, P(g t |g t-1 ) is the transition probability, Π(θ t |g t ) represents the likelihood, It can be obtained from the relationship between the observed value θ of the hand and line of sight and the object g (see reference 1). Note that the
意図推定部33は、算出した確率分布に重み付けして加算する。さらに、意図推定部33は、重み付けして加算された確率分布の中で最も確率が大きい物体を意図物体であると推定する。
The
参考文献1;Siddarth Jain, Brenna Argall, “Recursive Bayesian Human Intent Recognition in Shared-Control Robotics”, 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS),p3905-3912, 2018
このように、本実施形態では、意図推定部33は、操作者の視線と手の動きを用いて統合的に操作者の意図を推定する。なお、意図推定部33は、視線情報と、手の動き情報とテーブル上の物体の位置情報とを学習済みのモデルに入力して、操作者の意思を推定するようにしてもよい。
Thus, in the present embodiment, the
[処理手順例]
次に、ロボット遠隔操作制御装置3が行う処理手順例を説明する。
図5は、本実施形態に係るロボット遠隔操作制御装置3が行う処理手順例のフローチャートである。
[Example of processing procedure]
Next, an example of a processing procedure performed by the robot
FIG. 5 is a flow chart of an example of a processing procedure performed by the robot
(ステップS1)情報取得部31は、センサ値(視線情報、手動作情報、物体位置情報)を取得する。
(Step S1) The
(ステップS2)意図推定部33は、操作者が例えば把持しようとしている対象物体である意図物体確率分布を任意の確率分布で初期化する。任意の確率分布とは、例えば、一様分布、カテゴリカル分布等である。
(Step S2) The
(ステップS3)意図推定部33は、取得したセンサ値を用いてロボット世界における操作者の注視点と操作候補の物体との間の距離を算出する。続けて、意図推定部33は、取得したセンサ値を用いてロボット世界における操作者の手の位置と操作候補の物体との間の距離を算出する。続けて、意図推定部33は、ロボット世界における操作者の注視点と操作候補の物体との間の距離と、ロボット世界における操作者の手の位置と操作候補の物体との間の距離とに基づく第1の確率分布を計算する。
(Step S3) The
(ステップS4)意図推定部33は、取得したセンサ値を用いてロボット世界における操作者の手の軌道を算出する。続けて、意図推定部33は、ロボット世界における操作者の手の軌道に基づく第2の確率分布を計算する。
(Step S4) The
(ステップS5)意図推定部33は、ロボット世界における操作者の注視点と操作候補の物体とが重なった回数を検出する。続けて、意図推定部33は、ロボット世界における操作者の注視点と操作候補の物体とが重なった回数に基づく第3の確率分布を計算する。
(Step S5) The
(ステップS6)意図推定部33は、第1の確率分布、第2の確率分布、および第3の確率分布に対して重み付けを行う。
(Step S6) The
(ステップS7)意図推定部33は、重み付けされた第1の確率分布、第2の確率分布、および第3の確率分布の総和を算出する。なお、意図推定部33は、操作候補の物体毎にこの処理を行う。また、意図推定部33は、必要に応じて、各確率分布を正規化した後に総和を算出するようにしてもよい。また、意図推定部33は、必要に応じて、各確率分布に重み付けして総和を算出するようにしてもよい。
(Step S7) The
(ステップS8)意図推定部33は、算出した操作候補の物体の確率分布のうち、最も確率が高い物体を意図物体に決定する。
(Step S8) The
(ステップS9)制御指令生成部34は、意図推定部33が推定した結果と、センサ値に基づいて、意図物体を例えば把持するための制御指令を生成する。
(Step S9) The control
(ステップS10)意図推定部33は、センサ値に基づいて、操作者がロボット2によって物体を例えば把持しているか否かを判別する。意図推定部33は、操作者がロボット2によって物体を例えば把持していると判別した場合、処理を終了する。意図推定部33は、操作者がロボット2によって物体を例えば把持していないと判別した場合、ステップS1の処理に戻す。
(Step S10) The
なお、図6において、意図推定部33は、ステップS3~S5の処理を並列に行ってもよく、時分割で行ってもよく、処理順番が異なっていてもよい。
In FIG. 6, the
[意図推定結果例]
次に、意図推定結果例を説明する。
図6は、本実施形態に係る意図推定結果例を示す図である。図6の例は、テーブルの上に3つの物体obj1~obj3が置かれていて、操作者がロボット2に左手で物体obj3を把持させようとしている状態例である。意図推定部33が算出した物体毎の確率は、左手の把持部222aから最も離れている第1の物体obj1が5%であり、左手の把持部222aから最も近い第3の物体obj3が80%であり、第1の物体obj1と第3の物体obj3との間にある第2の物体obj2が15%であった。
この場合、意図推定部33は、確率が高い第3の物体obj3を意図物体に決定する。
[Intention estimation result example]
Next, an intention estimation result example will be described.
FIG. 6 is a diagram showing an example of intention estimation results according to the present embodiment. The example of FIG. 6 is a state example in which three objects obj1 to obj3 are placed on a table, and the operator is causing the
In this case, the
[重み付けの例]
ここで、意図推定部33が、確率分布に対して行う重み付け方法の一例を説明する。
例えば、意図推定部33は、環境センサ値と操作者センサ値を用いて、ロボット2の把持部222と、各物体との位置とに基づいて、物体全体に対する確率分布に対して重み付けを行うようにしてもよい。重み付けは、例えば、事前に実験をして重要度が高そうな確率分布を検証し、重要度が高い分布に大きな重みを付けるようにしてもよい。または、例えば、手と物体の位置から算出される確率分布よりも、視線から算出される確率分布の方が高精度の場合は、後者に大きな重みをつけるようにしてもよい。
または、意図推定部33が、環境センサ値と操作者センサ値を用いて、操作者の手の形状と、各物体と形状とに基づいて、物体全体に対する確率分布に対して重み付けを行うようにしてもよい。例えば、大きな物体を把持しようとしている場合と、小さな物体を把持しようとしている場合とでは、操作者が物体に手を近づける際の手の広げ方が異なる可能性がある。このような操作者の手の形状に物体を関連付けて、記憶部37に記憶させておいてもよい。
[Example of weighting]
Here, an example of the weighting method that the
For example, the
Alternatively, the
以上のように、本実施形態では、操作者の注視点と操作者の手の軌道から確率分布計算に基づき操作者の意図を推定するようにした。 As described above, in this embodiment, the intention of the operator is estimated based on the probability distribution calculation from the point of gaze of the operator and the trajectory of the operator's hand.
これにより、本実施形態によれば、視線と手の動きを用いて統合的に推論することで、高性能にPick,Placeなどの操作対象物体を推定できる。 As a result, according to the present embodiment, it is possible to estimate an operation target object such as Pick and Place with high performance by comprehensively inferring using the line of sight and the motion of the hand.
なお、上述した例では、物体の位置を、環境センサ7が検出してロボット遠隔操作制御装置に送信する例を説明したが、これに限らない。例えば、意図推定部33が、環境センサ7から取得したセンサ値を用いて、物体の位置情報を検出するようにしてもよい。
In the above example, the
なお、意図推定部33は、操作者状態情報と、ロボット2の状態情報とに基づいて、操作者が意図する手先の将来軌道を、事前に予測するようにしてもよい。
Note that the
また、操作者が操作する環境とロボット動作環境では座標系が異なるため、ロボット遠隔操作制御装置3は、例えば、ロボット2の起動時に操作者の操作環境とロボット動作環境のキャリブレーションを行うようにしてもよい。
In addition, since the coordinate system differs between the environment operated by the operator and the operating environment of the robot, the robot
また、把持の際、ロボット遠隔操作制御装置3は、ロボット2の把持力と、物体と把持部222との摩擦力等に基づいて、把持時の把持位置の誤差を補正して、把持位置を決定するようにしてもよい。
Further, when gripping, the robot
また、上述したロボット2は、例えば、二足歩行ロボットであってもよく、固定型の受付ロボットであってもよく、作業ロボットであってもよい。
Further, the above-described
また、上述した例では、遠隔操作でロボット2に把持させる例を説明したが、これに限らない。
Also, in the above-described example, an example in which the
また、上述した例では、操作者がHMD5を装着する例を説明したが、これに限らない。視線情報の検出や、操作者へのロボット状態画像の提供は、例えば、センサと画像表示装置との組み合わせ等であってもよい。
Also, in the above example, an example in which the operator wears the
なお、本発明におけるロボット2の機能の全てまたは一部、ロボット遠隔操作制御装置3の機能の全てまたは一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりロボット2が行う処理の全てまたは一部、ロボット遠隔操作制御装置3が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ローカルネットワーク上で構築されたシステムやクラウド上で構築されたシステム等も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
A program for realizing all or part of the functions of the
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.
1…ロボット遠隔操作制御システム、2…ロボット、3…ロボット遠隔操作制御装置、5…HMD、6…コントローラー、7…環境センサ、21…制御部、22…駆動部、23…収音部、25…記憶部、26…電源、27…センサ、222,222a,222b…把持部、31…情報取得部、33…意図推定部、34…制御指令生成部、35…ロボット状態画像作成部、36…送信部、37…記憶部、51…画像表示部、52…視線検出部、54…制御部、55…通信部、61…センサ、62…制御部、63…通信部、64…フィードバック手段、71…撮影装置、72…センサ、73…物体位置検出部、74…通信部
DESCRIPTION OF
Claims (9)
前記ロボットまたは前記ロボットの周辺環境に設置された環境センサによって得られた環境センサ値と、前記操作者の動きを検知する操作者センサ値と、を取得する情報取得部と、
前記環境センサ値と前記操作者センサ値から、ロボット世界における前記操作者の注視点とロボット世界における前記操作者の手の軌道から算出する確率分布に基づき前記操作者の意図を推定する意図推定部と、
を備えるロボット遠隔操作制御装置。 In robot remote control, which recognizes the operator's movements and transmits the operator's movements to the robot to operate the robot,
an information acquisition unit that acquires an environment sensor value obtained by the robot or an environment sensor installed in the environment surrounding the robot and an operator sensor value that detects the movement of the operator;
An intention estimation unit for estimating the operator's intention based on the probability distribution calculated from the operator's gaze point in the robot world and the trajectory of the operator's hand in the robot world from the environment sensor value and the operator sensor value. When,
A robot remote control device comprising:
請求項1に記載のロボット遠隔操作制御装置。 The probability distribution is a probability based on the distance between the gaze point of the operator and an operation candidate object in the robot world and the distance between the position of the operator's hand and the object in the robot world. is a distribution,
The robot remote control device according to claim 1.
請求項1または請求項2に記載のロボット遠隔操作制御装置。 The probability distribution is a probability distribution based on the trajectory of the operator's hand in the robot world,
The robot remote control device according to claim 1 or 2.
請求項1から請求項3のうちのいずれか1項に記載のロボット遠隔操作制御装置。 The probability distribution is a probability distribution based on the number of times the operator's gaze point and the operation candidate object in the robot world overlap,
The robot remote control device according to any one of claims 1 to 3.
前記確率分布が複数の場合、前記環境センサ値と操作者センサ値に基づいて前記確率分布それぞれに重み付けして加算して総和を算出し、算出した前記確率分布の総和に基づいて前記操作者の意図を推定する、
請求項1から請求項4のうちのいずれか1項に記載のロボット遠隔操作制御装置。 The intention estimation unit
When there are a plurality of the probability distributions, each of the probability distributions is weighted and added based on the environmental sensor value and the operator sensor value to calculate a sum, and based on the calculated sum of the probability distributions, the operator's infer intent,
The robot remote control device according to any one of claims 1 to 4.
前記確率分布が複数の場合、複数の前記確率分布を正規化した後に加算して総和を算出し、算出した前記確率分布の総和に基づいて前記操作者の意図を推定する、
請求項1から請求項4のうちのいずれか1項に記載のロボット遠隔操作制御装置。 The intention estimation unit
When there are a plurality of the probability distributions, the plurality of probability distributions are normalized and then added to calculate a sum, and the intention of the operator is estimated based on the sum of the calculated probability distributions.
The robot remote control device according to any one of claims 1 to 4.
請求項1から請求項6のうちのいずれか1つに記載の前記ロボット遠隔操作制御装置と、
物体を把持する把持部と、
前記ロボットあるいは前記ロボットの周辺環境に設置され、ロボット環境センサ値を検出する環境センサと、
前記操作者の動きを操作者センサ値として検出する操作者センサと、
を備えるロボット遠隔操作制御システム。 In a robot remote operation that recognizes the movement of an operator and transmits the movement of the operator to a robot to operate the robot,
The robot remote control device according to any one of claims 1 to 6;
a gripping part that grips an object;
an environment sensor installed in the robot or in the surrounding environment of the robot and detecting a robot environment sensor value;
an operator sensor that detects the movement of the operator as an operator sensor value;
A robot remote control system.
情報取得部が、前記ロボットまたは前記ロボットの周辺環境に設置された環境センサによって得られた環境センサ値と、前記操作者の動きを検知する操作者センサ値と、を取得し、
意図推定部が、前記環境センサ値と前記操作者センサ値から、ロボット世界における前記操作者の注視点とロボット世界における前記操作者の手の軌道から算出する確率分布に基づき前記操作者の意図を推定する、
ロボット遠隔操作制御方法。 In robot remote control, which recognizes the operator's movements and transmits the operator's movements to the robot to operate the robot,
an information acquisition unit acquires an environment sensor value obtained by the robot or an environment sensor installed in the environment surrounding the robot and an operator sensor value for detecting movement of the operator;
An intention estimating unit estimates the operator's intention based on a probability distribution calculated from the operator's gaze point in the robot world and the trajectory of the operator's hand in the robot world from the environment sensor value and the operator sensor value. presume,
Robot remote control method.
コンピュータに、
前記ロボットまたは前記ロボットの周辺環境に設置された環境センサによって得られた環境センサ値と、前記操作者の動きを検知する操作者センサ値と、を取得させ、
前記環境センサ値と前記操作者センサ値から、ロボット世界における前記操作者の注視点とロボット世界における前記操作者の手の軌道から算出する確率分布に基づき前記操作者の意図を推定させる、
プログラム。 In robot remote control, which recognizes the operator's movements and transmits the operator's movements to the robot to operate the robot,
to the computer,
Acquiring an environment sensor value obtained by the robot or an environment sensor installed in the environment surrounding the robot and an operator sensor value for detecting the movement of the operator;
estimating the intention of the operator based on a probability distribution calculated from the gaze point of the operator in the robot world and the trajectory of the operator's hand in the robot world from the environment sensor value and the operator sensor value;
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021061180A JP2022157127A (en) | 2021-03-31 | 2021-03-31 | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program |
US17/707,930 US20220314449A1 (en) | 2021-03-31 | 2022-03-29 | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021061180A JP2022157127A (en) | 2021-03-31 | 2021-03-31 | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022157127A true JP2022157127A (en) | 2022-10-14 |
Family
ID=83559106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021061180A Pending JP2022157127A (en) | 2021-03-31 | 2021-03-31 | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022157127A (en) |
-
2021
- 2021-03-31 JP JP2021061180A patent/JP2022157127A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11344374B2 (en) | Detection of unintentional movement of a user interface device | |
Bajo et al. | Kinematics-based detection and localization of contacts along multisegment continuum robots | |
US9613505B2 (en) | Object detection and localized extremity guidance | |
JP2016047591A (en) | Robot teaching device and method, and robot system | |
KR20120115487A (en) | Method and system for hand control of a teleoperated minimally invasive slave surgical instrument | |
Wang et al. | Free-view, 3d gaze-guided, assistive robotic system for activities of daily living | |
US20210031378A1 (en) | Information processor, information processing method, and program | |
CN113632176A (en) | Method and apparatus for low latency body state prediction based on neuromuscular data | |
Ben Abdallah et al. | Kinect-based sliding mode control for Lynxmotion robotic arm | |
WO2019087495A1 (en) | Information processing device, information processing method, and program | |
Chen et al. | A human–robot interface for mobile manipulator | |
US11986746B2 (en) | Information processing device and information processing method | |
JP4677585B2 (en) | Communication robot | |
US20230226698A1 (en) | Robot teleoperation control device, robot teleoperation control method, and storage medium | |
CN113056315B (en) | Information processing apparatus, information processing method, and program | |
JP2022157127A (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program | |
US20220314449A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and non-transitory computer readable medium | |
JP2022157123A (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program | |
Chu et al. | Hands-free assistive manipulator using augmented reality and tongue drive system | |
JP2022155623A (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program | |
JP2022157119A (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program | |
JP2022157110A (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program | |
JP2006281348A (en) | Communication robot | |
US20240149458A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program | |
JP2022157101A (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231128 |