JP2022187852A - Robot system and remote control method - Google Patents
Robot system and remote control method Download PDFInfo
- Publication number
- JP2022187852A JP2022187852A JP2021096059A JP2021096059A JP2022187852A JP 2022187852 A JP2022187852 A JP 2022187852A JP 2021096059 A JP2021096059 A JP 2021096059A JP 2021096059 A JP2021096059 A JP 2021096059A JP 2022187852 A JP2022187852 A JP 2022187852A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- operator
- motion
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ロボットシステム及び遠隔操作方法に関する。 The present invention relates to a robot system and a remote control method.
オペレータが離れた位置のロボットを操作する技術が知られている。例えば、特許文献1には、遠隔地から他のオペレータがいる領域に配置されたロボットを操作するシステムが記載されている。また、遠隔地のオペレータには、ロボットで検出した位置情報を基にアバターを表示することで、複数のオペレータが3次元的な位置の認識を共有して、同じ空間にいるような感覚を得ることができる技術が記載されている。 A technique is known in which an operator operates a robot at a remote position. For example, Patent Literature 1 describes a system for remotely operating a robot placed in an area where other operators are present. In addition, by displaying an avatar to the remote operator based on the location information detected by the robot, multiple operators can share 3D position recognition and feel as if they are in the same space. A possible technique is described.
離れた場所からオペレータがロボットを操作する場合、ロボットが意図しない動作をしてしまう恐れがある。例えば、ロボットを操作するための入力をオペレータの身体動作とした場合、ロボットの操作以外のための身体動作でロボットが動作してしまうと、ロボットの周囲に悪影響を与える恐れがある。 When an operator operates a robot from a remote location, the robot may behave unintendedly. For example, when the input for operating the robot is the operator's body motion, if the robot moves by a body motion other than the operation of the robot, there is a risk that the surroundings of the robot will be adversely affected.
本発明は、遠隔地から操作されるロボットを、適切に動作させる遠隔操作システム及び遠隔操作方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a remote control system and a remote control method for appropriately operating a robot that is remotely controlled.
本発明の一態様に係るロボットシステムは、オペレータがロボットを操作するロボットシステムであって、前記ロボットの周辺を撮影して画像を取得するカメラ部と、前記カメラ部で取得した画像をオペレータに向けて表示する画像表示部と、前記オペレータの視線を検出する視線検出部と、前記オペレータの身体動作を検出する身体動作検出部と、前記カメラ部で取得した画像からオブジェクトを取得するオブジェクト取得部、前記身体動作検出部で検出した前記オペレータの動作を取得する動作取得部、及び、前記ロボットの動作を制御する動作命令を生成する命令生成部を備える演算部と、を備え、前記演算部は、前記画像に含まれるオブジェクトとオペレータの視線が一致しているかを判定し、一致していない場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成せず、一致している場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成する。 A robot system according to one aspect of the present invention is a robot system in which an operator operates a robot, and includes a camera unit that acquires an image by photographing the surroundings of the robot, and an image acquired by the camera unit that is directed to the operator. a line-of-sight detection unit that detects the line of sight of the operator; a body movement detection unit that detects the body movement of the operator; an object acquisition unit that acquires an object from the image acquired by the camera unit; a motion acquisition unit that acquires the operator's motion detected by the body motion detection unit; It is determined whether or not the object included in the image and the line of sight of the operator match, and if they do not match, the motion command is not generated for the robot executing the operation of the motion input, and they match. If so, the motion command is generated for the robot that executes the operation of the motion input.
本発明の一態様に係る遠隔操作方法は、オペレータがロボットを操作する遠隔操作方法であって、前記ロボットの周辺を撮影した画像を取得するステップと、取得した画像からオブジェクトを取得するステップと、前記オペレータの身体動作に基づいた前記オペレータの動作命令を取得するステップと、前記ロボットの周辺を撮影した画像を前記オペレータに表示させた状態で前記オペレータの視線を検出するステップと、前記画像に含まれるオブジェクトとオペレータの視線が一致しているかを判定し、一致していない場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成せず、一致している場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成するステップと、を含む。 A remote control method according to an aspect of the present invention is a remote control method in which an operator operates a robot, comprising: obtaining an image of the surroundings of the robot; obtaining an object from the obtained image; obtaining an operator's motion command based on the operator's body motion; detecting the line of sight of the operator in a state in which an image of the surroundings of the robot is displayed to the operator; It is determined whether the line of sight of the object to be viewed and the line of sight of the operator match. and generating the motion command to the robot that performs the manipulation of the motion input.
本発明によれば、遠隔地から操作されるロボットを、適切に動作させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the robot operated from a remote place can be operated appropriately.
以下、添付図面を参照して、本発明に係る実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではなく、また、実施形態が複数ある場合には、各実施形態を組み合わせて構成するものも含む。また、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 DETAILED DESCRIPTION OF THE INVENTION Embodiments according to the present invention will be described in detail below with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment, and when there are a plurality of embodiments, a combination of each embodiment is also included. Further, in the following embodiments, the same parts are denoted by the same reference numerals, thereby omitting redundant explanations.
[ロボットシステム]
図1を用いて、実施形態に係るロボットシステムについて説明する。図1は、実施形態に係るロボットシステムの構成例を示す図である。図1に示すように、ロボットシステム10は、ロボット(操作対象物)12と遠隔操作装置(操作端末)14とロボット制御装置15とネットワーク16と、を含む。ロボットシステム10は、オペレータにより遠隔操作装置14に入力されたロボット12への操作を、ネットワーク16およびロボット制御装置15を介してロボット12に送信する。ロボット12は、受信した操作に基づいて動作する。ネットワーク16は、例えば、インターネット網である。
[Robot system]
A robot system according to an embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of a robot system according to an embodiment. As shown in FIG. 1 , the
ロボット12は、少なくとも一部が物理的に移動する。ロボット12は、地面を移動する機構を備えていても、ロボットアームのように本体に対して移動する機構を備えていてもよい。ロボット12は、制御部22と、駆動部24と、通信部26と、情報取得部28と、を備える。
The robot 12 is at least partially physically mobile. The robot 12 may be equipped with a mechanism for moving on the ground, or may be equipped with a mechanism for moving relative to the main body like a robot arm. The robot 12 includes a control section 22 , a drive section 24 , a
制御部22は、ロボット12の各部の動作を制御する。制御部22は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の演算装置と、例えば、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、ソリッドステートドライブなどの記憶装置と、を備える。制御部22は、記憶装置に記憶されたプログラム(例えば、本開示に係るプログラム)がRAM等を作業領域として実行されることにより制御機能を実現する。また、制御部22は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部22は、ソフトウェアと、ハードウェアとの組み合わせで実現されてもよい。 The control section 22 controls the operation of each section of the robot 12 . The control unit 22 includes, for example, an arithmetic unit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, a solid state drive, or the like. and a storage device of The control unit 22 implements a control function by executing a program (for example, a program according to the present disclosure) stored in a storage device using a RAM or the like as a work area. Also, the control unit 22 may be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 22 may be realized by a combination of software and hardware.
駆動部24は、ロボット12の可動部分である。駆動部24は、車輪、脚等の本体を移動させる機構や、ロボットアーム等の本体に設置され、本体に対して移動する機構である。駆動部24は、制御部22により制御される。 Drive 24 is the movable part of robot 12 . The driving unit 24 is a mechanism such as a wheel or a leg that moves the main body, or a mechanism that is installed in the main body such as a robot arm and moves relative to the main body. The driving section 24 is controlled by the control section 22 .
通信部26は、無線通信を行う無線通信部である。具体的には、通信部26は、ロボット制御装置15と通信可能に接続されている。すなわち、ロボット12は、通信部26を用いて、ロボット制御装置15と無線通信を行う。また、ロボット制御装置15は、ネットワーク16を介して遠隔操作装置14と通信可能に接続されている。
The
情報取得部28は、ロボット12の周囲の情報を取得する。情報取得部28は、位置センサ、カメラ部(画像センサ)、距離センサ、マイク等を備え、周囲の情報として、現在の位置情報、周囲の三次元形状、周囲の画像、音声等を取得する。位置センサとしては、GPS等の絶対座標の位置を取得するセンサや、周囲の障害物との間の距離を検出するレーザレーダ(例えば、LIDAR:Laser Imaging Detection and Ranging)、赤外線照射部と受光センサとを含む赤外線センサ、およびToF(Time of Flight)センサなどが例示される。カメラ部(画像センサ)としては、CMOSイメージセンサおよびCCDなどが例示される。
The
図2は、実施形態に係る遠隔操作装置14及びロボット制御装置15の構成例を示すブロック図であり、ネットワーク16の図示は省略している。遠隔操作装置14は、オペレータがロボット12に関する情報を取得し、ロボット12に対する操作を身体動作で入力する機器である。遠隔操作装置14は、例えば、パーソナルコンピュータや、オペレータが頭部に装着して使用するHMD(Head Mounted Display)装置と身体動作で入力される操作を検出する装置(カメラ、センサ)とを用いた構成が例示されるが、これに限定されない。遠隔操作装置14は、画像表示部32と、通信部34と、視線検出部36と、身体動作検出部38と、を含む。
FIG. 2 is a block diagram showing a configuration example of the
画像表示部32は、オペレータにロボット12の周辺の画像を出力する。画像表示部32は、ロボット12の情報取得部28のカメラ部で取得した画像を表示する。
The image display unit 32 outputs an image around the robot 12 to the operator. The image display unit 32 displays images acquired by the camera unit of the
通信部34は、遠距離無線通信を行う遠距離無線通信部である。具体的には、通信部34は、ネットワーク16を介して、ロボット制御装置15と通信可能に接続されている。すなわち、遠隔操作装置14は、通信部34を用いて、ロボット制御装置15と遠距離無線通信を行う。
The communication unit 34 is a long-distance wireless communication unit that performs long-distance wireless communication. Specifically, the communication unit 34 is communicably connected to the robot control device 15 via the
視線検出部36は、オペレータの視線を検出する。視線検出部36は、オペレータの瞳孔の位置を検出し、見ている位置、具体的には画像表示部32のどの位置を見ているかを検出する。視線検出部36は、検出した結果をロボット制御装置15に出力する。 The line-of-sight detection unit 36 detects the line of sight of the operator. The line-of-sight detection unit 36 detects the positions of the pupils of the operator, and detects the viewing position, specifically which position of the image display unit 32 the operator is viewing. The line-of-sight detection unit 36 outputs the detection result to the robot control device 15 .
身体動作検出部38は、オペレータの頭や腕、手の動作等のジェスチャー入力を検出する。身体動作検出部38は、オペレータに装着され、オペレータの動きを検出するセンサ(例えば加速度センサ)、オペレータを撮影した画像から前記オペレータの動きを検出するセンサ(例えばカメラ部)等である。身体動作検出部38は、オペレータの身体動作をロボット制御装置15に出力する。 The body motion detector 38 detects gesture inputs such as motions of the operator's head, arms, and hands. The body motion detector 38 is a sensor (for example, an acceleration sensor) that is worn by the operator to detect the operator's motion, a sensor (for example, a camera) that detects the operator's motion from a photographed image of the operator, or the like. The body motion detector 38 outputs the body motion of the operator to the robot controller 15 .
ロボット制御装置15は、ロボット12が配置されている領域に配置され、前記ロボットの動作を制御する。本実施形態では、ロボット制御装置15は、ロボット12とは別体である。ロボット制御装置15は、通信部50、カメラ部52、周囲情報取得部54と、演算部56と、記憶部58と、を含む。
A robot control device 15 is arranged in the area where the robot 12 is arranged and controls the operation of the robot. In this embodiment, the robot controller 15 is separate from the robot 12 . The robot control device 15 includes a
通信部50は、遠距離無線通信を行う遠距離無線通信部である。具体的には、通信部50は、ネットワーク16を介して、遠隔操作装置14と通信可能に接続され、かつ、無線通信でロボット16と通信可能に接続されている。すなわち、ロボット制御装置15は、通信部50を用いて、ロボット12及び遠隔操作装置14と、無線通信を行う。
The
カメラ部52は、ロボット12を含む領域を撮影する。カメラ部52としては、CMOSイメージセンサおよびCCDなどが例示される。周囲情報取得部54は、ロボット12の周囲の状況を取得する。つまり、周囲情報取得部54は、ロボット12の情報取得部28で取得されたロボット12の周囲の情報を、通信部26と通信部50を介して取得する。
The camera unit 52 photographs an area including the robot 12 . Examples of the camera unit 52 include a CMOS image sensor and a CCD. The surrounding
演算部56は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、記憶部58に記憶されたプログラム(例えば、本開示に係るプログラム)がRAM等を作業領域として実行されることにより実現される。また、演算部56は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。演算部56は、ソフトウェアと、ハードウェアとの組み合わせで実現されてもよい。演算部56は、オブジェクト取得部62と、動作入力取得部64と、視線判定部66と、実行判定部68と、命令生成部69と、を含む。各部については、記憶部58の後に説明する。
The computing unit 56 executes a program (for example, a program according to the present disclosure) stored in the storage unit 58 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like, using a RAM or the like as a work area. It is realized by Further, the calculation unit 56 may be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The computing unit 56 may be realized by a combination of software and hardware. The calculation unit 56 includes an object acquisition unit 62 , a motion
記憶部58は、各種の情報を記憶する。記憶部58は、例えば、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、ソリッドステートドライブなどの記憶装置で実現することができる。記憶部58は、制御プログラム70と、実行判定プログラム72と、命令生成プログラム74と、データベース76と、を含む。
The storage unit 58 stores various information. The storage unit 58 can be implemented by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or flash memory, or a storage device such as a hard disk or solid state drive. Storage unit 58 includes
制御プログラム70は、ロボット12の遠隔操作処理の全体を統括する。制御プログラム70は、オブジェクト取得部62と、動作入力取得部64と、視線判定部66と、実行判定部68と、命令生成部69と、の各部の動作を実現するプログラムである。制御プログラム70は、実行判定プログラム72と、命令生成プログラム74の処理の制御も実行する。実行判定プログラム72は、実行判定部68の処理を実現するプログラムである。実行判定プログラム72は、ロボット12の周囲情報と、視線の情報とに基づいて、動作命令を実行してもよいかを判定する。命令生成プログラム74は、命令生成部69の処理を実現するプログラムである。命令生成プログラム74は、動作命令に基づいてロボット12に出力する命令(動作信号)を生成する。
The
データベース76は、画像からオブジェクトを抽出する基準のデータ、視線判定の基準のデータ、実行判定の基準のデータ、命令生成の基準のデータが含まれる。なお、データベース76は、各部の処理に必要なデータを含んでもよい。
The
次に、演算部56の各部を説明する。オブジェクト取得部62は、通信部50を介して、ロボット12の情報取得部28で取得した画像に基づいて、ロボット12の周囲にあるオブジェクトを抽出する。オブジェクトは、ロボット12の動作に影響がある物体である。例えば、ロボット12が物品を移動させる機構である場合、移動対象の物品がオブジェクトとなる。また、ロボット12が移動する場合、障害物、例えば避ける必要がある物がオブジェクトとなる。オブジェクト取得部62は、カメラ部52で取得した画像に基づいてオブジェクトを抽出してもよい。
Next, each part of the calculation part 56 will be described. The object acquisition unit 62 extracts objects around the robot 12 based on the image acquired by the
動作入力取得部64は、身体動作検出部38で検出したオペレータの動作に基づいて、オペレータの動作に基づくロボット12への動作入力を取得する。オペレータの動作と、ロボット12への動作入力との関係は、予めデータベース76に記憶されている。動作入力取得部64は、データベース76のデータと、検出したオペレータの動作に基づいて、ロボット12への動作入力を取得する。
The motion
視線判定部66は、視線検出部36で検出した視線の位置と、オブジェクト取得部62で取得したオブジェクトとの位置に基づいて、オペレータがどのオブジェクトを見ているかを判定する。 The line-of-sight determination unit 66 determines which object the operator is looking at based on the position of the line of sight detected by the line-of-sight detection unit 36 and the position of the object acquired by the object acquisition unit 62 .
実行判定部68は、視線判定部66で検出した視線とオブジェクトとの関係と、動作入力取得部64で取得した動作入力に基づいて、動作を実行するか否かを判定する。具体的には、実行判定部68は、オペレータが見ているオブジェクトが動作入力の対象であるか否かを判定する。実行判定部68は、動作入力の対象のオブジェクトを見ている場合、動作入力に基づいた動作を実行すると判定する。一方、実行判定部68は、動作入力の対象のオブジェクトを見ていない場合、動作入力に基づいた動作を実行しないと判定する。
The execution determination unit 68 determines whether or not to execute the action based on the relationship between the line of sight and the object detected by the line-of-sight determination unit 66 and the action input acquired by the action
命令生成部69は、実行判定部68で動作入力に基づいた動作を実行すると判定された場合、動作入力取得部64で取得した動作入力に基づいた動作命令を生成し、ロボット12に出力する。一方、命令生成部69は、実行判定部68で動作入力に基づいた動作を実行しないと判定された場合、動作入力取得部64で取得した動作入力に基づいた動作命令を生成しない。代わりに、動作を停止する命令や、動作入力とは異なる動作をする命令を生成する。命令生成部69は、通信部50を介して生成した動作命令をロボット12へ送信する。
When the execution determination unit 68 determines to execute the motion based on the motion input, the
ロボット12は、通信部26を介して受信した動作命令を制御部22に入力し、駆動部24は動作命令に従って動作する。これにより、オペレータはロボット12を適切に動作させることができる。
The robot 12 inputs the operation command received via the
次に、図3を用いて、ロボットシステム10のロボット制御装置15の動作について説明する。図3は、実施形態に係るロボットシステムのロボット制御装置の処理の一例を示すフローチャートである。ロボット制御装置15は、図3に示す処理を繰り返し実行することで、ロボット12の動作を制御する。
Next, the operation of the robot controller 15 of the
ロボット制御装置15は、周囲情報取得部54でロボット12の周囲の情報を取得する(ステップS12)。ロボット制御装置15は、ロボット12が取得した画像を取得する。ロボット制御装置15は、周囲の画像に加え、ロボット12の情報取得部28で取得したデータを取得してもよい。また、ロボット制御装置15は、周囲の情報としてカメラ部52で取得したロボット12を含む画像を取得してもよい。
The robot control device 15 acquires information about the surroundings of the robot 12 using the surroundings information obtaining unit 54 (step S12). The robot control device 15 acquires the image acquired by the robot 12 . The robot control device 15 may acquire the data acquired by the
次に、ロボット制御装置15は、オブジェクト取得部62でオブジェクトを抽出する(ステップS14)。オブジェクト取得部62は、取得した画像を解析し、ロボット12の周囲にあるオブジェクトを抽出する。抽出するオブジェクトは1つに限定されず複数でもよい。また、ロボット12の周囲にオブジェクトがない場合、オブジェクトが抽出されない場合もある。 Next, the robot control device 15 extracts the object by the object obtaining section 62 (step S14). The object acquisition unit 62 analyzes the acquired image and extracts objects around the robot 12 . The number of objects to be extracted is not limited to one, and plural objects may be extracted. Also, if there are no objects around the robot 12, the objects may not be extracted.
次に、ロボット制御装置15は、動作入力取得部64で動作命令を取得する(ステップS16)。動作入力取得部64は、身体動作検出部38で取得したオペレータの動きとデータベース76の情報に基づいて、オペレータの動作に対応する入力動作、つまりロボット12への操作内容を特定する。動作入力取得部64は、特定した操作内容を動作命令として取得する。
Next, the robot control device 15 acquires a motion command by the motion input acquisition section 64 (step S16). The motion
次に、ロボット制御装置15は、視線検出部36からオペレータの視線の情報を取得する(ステップS18)。オペレータの視線の情報は、画像表示部32のどの位置をみているかの情報である。なお、ロボット制御装置15は、オブジェクトの抽出と動作命令、およびその動作命令と同じタイミングにおけるオペレータの視線を取得できればよい。よって、ステップS12からステップS18の処理は順番が異なってもよいし、並列して処理してもよい。 Next, the robot control device 15 acquires information on the line of sight of the operator from the line of sight detector 36 (step S18). Information on the line of sight of the operator is information on which position of the image display unit 32 the operator is looking at. It should be noted that the robot control device 15 only needs to be able to extract an object, obtain an action command, and acquire the line of sight of the operator at the same timing as the action command. Therefore, the processing from step S12 to step S18 may be performed in a different order, or may be performed in parallel.
次に、ロボット制御装置15は、視線判定部66及び実行判定部68でオペレータの視線が操作対象のオフジェクトであるか、つまりオペレータが操作対象のオブジェクトを見ているか否かを判定する(ステップS20)。ロボット制御装置15は、視線判定部66に基づいて、オペレータがどのオブジェクトを見ているかを判定し、実行判定部68で特定したオブジェクトと動作命令に基づいて、動作命令の対象が見ているオブジェクトであるか否かを判定する。 Next, the robot control device 15 uses the line-of-sight determination unit 66 and the execution determination unit 68 to determine whether the operator's line of sight is the object to be operated, that is, whether the operator is looking at the object to be operated (step S20). The robot control device 15 determines which object the operator is looking at based on the line-of-sight determination unit 66, and determines the object viewed by the target of the operation command based on the object and the operation command specified by the execution determination unit 68. It is determined whether or not.
ロボット制御装置15は、視線が操作対象のオブジェクトにある、つまり、操作対象のオブジェクトをオペレータが見ている(ステップS20でYes)と判定した場合、動作入力に基づく動作命令を生成する(ステップS22)。具体的には、命令生成部69で動作入力に基づく動作命令を生成し、ロボット12に出力する。
When determining that the line of sight is on the object to be operated, that is, the operator is looking at the object to be operated (Yes in step S20), the robot control device 15 generates a motion command based on the motion input (step S22). ). Specifically, the
ロボット制御装置15は、視線が操作対象のオブジェクトにない、つまり、操作対象のオブジェクトをオペレータが見ていない(ステップS20でNo)と判定した場合、動作入力に基づく動作命令を生成しない(ステップS24)。具体的には、命令生成部69で動作入力に基づく動作命令を生成しない。代わりに、動作を停止する命令や、動作入力とは異なる動作を行う命令を生成し、ロボット12に出力する。
If it is determined that the line of sight is not on the object to be operated, that is, the operator is not looking at the object to be operated (No in step S20), the robot control device 15 does not generate a motion command based on the motion input (step S24). ). Specifically, the
ロボット制御装置15は、ロボット12から周辺状況、動作入力、オペレータの視線の情報を取得し、オペレータの動作入力と、対象のオブジェクトを特定し、オペレータが見ているオブジェクトが操作対象か否かに基づいて、ロボット12に送信する動作命令を決定する。 The robot control device 15 acquires information about the surrounding situation, motion input, and operator's line of sight from the robot 12, identifies the operator's motion input and the target object, and determines whether the object the operator is looking at is the target of operation. Based on this, an operation command to be sent to the robot 12 is determined.
これにより、オペレータが、オブジェクトを見て行った動作に基づいて、ロボット12を操作することができる。つまり、オペレータが意図せずロボット12への動作入力の動きを行っても、オブジェクトを見ていない場合、ロボット12が動作入力に対応する動作を実行しない状態とすることができる。これにより、オペレータが、オブジェクトを見て主体的に行った動作入力をトリガーとしてロボット12を動作させることができる。これにより、ロボット制御装置15は、オペレータが遠隔でロボット12を操作した場合でも、オペレータが意図しないロボット12の動作が生じることを抑制できる。 Thereby, the operator can operate the robot 12 based on the action performed by looking at the object. In other words, even if the operator unintentionally performs a motion input to the robot 12, if the operator does not look at the object, the robot 12 can be placed in a state in which it does not perform the motion corresponding to the motion input. As a result, the robot 12 can be moved by triggering a motion input that the operator independently performs while looking at the object. Thereby, the robot control device 15 can prevent the robot 12 from moving unintended by the operator even when the operator remotely operates the robot 12 .
また、命令生成部69は、動作入力取得部64で取得した動作入力を実行する場合、オブジェクトとロボット12の関係を算出し、ロボット12の動作を補助する動作を含む動作命令を生成することが好ましい。例えば、オペレータの身体動作があるオブジェクトをロボットアームで取る動作であり、かつ、オブジェクトとロボット12とに所定以上の距離がある場合、オペレータの視線がそのオブジェクトに向いていれば、ロボットアームをオブジェクトに近づける動作命令と、ロボットアームでオブジェクトに手に取る動作命令を生成する。この場合、ロボットアームをオブジェクトに近づける動作命令が、動作を補助する処理となる。また、命令生成部69は、周囲情報取得部54の各種センサでロボット12とオブジェクトの相対位置や、距離を算出することができ、算出結果に基づいて、オペレータの入力動作に基づいた動作を補助することができる。つまり、オペレータの入力動作をオブジェクトに実行するために補完する必要がある動作を、動作命令として追加する。これにより、オペレータが意図する動作をオブジェクトに対して実行できる。この動作を補助する命令は、命令生成プログラム74、またはデータベース76に命令生成の基準のデータとして格納してもよい。
Further, when executing the motion input acquired by the motion
ロボットシステム10は、オペレータに装着され、前記オペレータの動きを検出するセンサ及び前記オペレータを撮影した画像から前記オペレータの動きを検出するセンサの少なくとも一方を備える身体動作検出部38を用い、オペレータの入力を、オペレータの動作とした場合でも、上記処理を行うことで、オペレータがロボット12の操作を意図しないで行った動作で、ロボット12が動作することを抑制でき、オペレータの意図する動作を実行することができる。これにより、例えば手術ロボット等を遠隔操作で意図しない動作をロボットが行うことを抑制できる。
The
身体動作検出部38は、入力端末への物理入力、音声入力、ジェスチャー入力等をする入力部として構成してもよい。入力部は、キーボード、マウス、タッチパネル、マイク、カメラなどが例示されるが、これに限定されない。入力部は、オペレータの操作に関する操作信号をロボット制御装置15に出力する。ロボット制御装置15の動作入力取得部64は、オペレータの操作に基づくロボット12への動作入力を取得する。
The body motion detection unit 38 may be configured as an input unit for physical input, voice input, gesture input, etc. to the input terminal. Examples of the input unit include a keyboard, mouse, touch panel, microphone, camera, and the like, but are not limited to these. The input unit outputs to the robot control device 15 an operation signal regarding an operator's operation. A motion
ロボット制御装置15は、オブジェクト取得部62でのオブジェクトの抽出を機械学習で学習した学習済みプログラムを用いてもよい。つまり実行判定プログラム72の一部を学習済みプログラムとしてもよい。具体的には、ロボット制御装置15は、画像からオブジェクトを抽出した情報を教師データとして学習を行い、学習済みプログラムを作成する。ここで、機械学習は、教師あり学習の例としたが教師無し学習でもよい。ロボット制御装置15は、オブジェクト取得部62の処理を機械学習で学習することで、学習済みプログラムの教師データを更新することで、容易に変更することができる。これにより、ロボット12の操作対象のオブジェクトの違いに応じた変更を簡単に行うことができる。 The robot control device 15 may use a learned program in which object extraction by the object acquisition unit 62 is learned by machine learning. That is, part of the execution determination program 72 may be a learned program. Specifically, the robot control device 15 performs learning using information obtained by extracting an object from an image as teacher data, and creates a learned program. Here, machine learning is an example of supervised learning, but may be unsupervised learning. The robot control device 15 learns the processing of the object acquisition unit 62 by machine learning, and can easily change by updating the teacher data of the learned program. As a result, it is possible to easily make changes according to differences in the objects to be operated by the robot 12 .
ロボット制御装置15は、視線判定部66、実行判定部68の判定処理も機械学習で学習した学習済みプログラムを用いてもよい。つまり実行判定プログラム72の一部を学習済みプログラムとしてもよい。このように、判定処理も機械学習とし、予測モデルを再学習することで、予測の精度を高くすることができる。 In the robot control device 15, the determination processing of the line-of-sight determination unit 66 and the execution determination unit 68 may also use a learned program learned by machine learning. That is, part of the execution determination program 72 may be a learned program. In this way, the determination process is also performed by machine learning, and the prediction model is re-learned, so that the prediction accuracy can be improved.
ロボット制御装置15は、ロボット12とは別体であるとして説明したが、ロボット12に搭載して構成してもよい。この場合、ロボット制御装置15の通信部50とロボット12の通信部22は共通としてよいし、ロボット制御装置15とロボット12とは無線通信ではなく直接通信してもよい。また、カメラ部52は、ロボット12の全体を撮影するためにロボット12とは別体としてロボット12の近傍に配置してもよいし、ロボット12から見た特定の視点を撮影するためにロボット12と一体として配置してもよい。
Although the robot control device 15 has been described as being separate from the robot 12 , it may be mounted on the robot 12 . In this case, the
ロボット制御装置15は、演算部56と記憶部58の全てを含むものとして説明した。これら演算部56と記憶部58について、その少なくとも一部の要素は、ロボット12やネットワーク16と接続されたサーバ(図示せず)に配置してもよい。さらに、記憶部58の少なくとも一部の要素は、ネットワーク16上に分散して配置してもよい。例えば、データベース76は、サーバにのみ配置してもよいし、ロボット12とサーバとにそれぞれ分散して配置してもよい。ロボット12は、通信部26を介して定期的にサーバに配置されたデータベース76から命令生成の基準のデータなどを参照する。
The robot control device 15 has been described as including all of the calculation unit 56 and the storage unit 58 . At least some elements of the computing unit 56 and the storage unit 58 may be arranged in a server (not shown) connected to the robot 12 and the
ここで、ロボット制御装置15を、演算部56と記憶部58のみから構成した場合を考える。すると、ロボット制御装置15は、ネットワーク16上の任意の位置(例えば図1の遠隔操作装置14の位置)に配置される。この場合、ロボット制御装置15は、遠距離通信網で各部と通信を行う。また、カメラ部52は、別体としてロボット12の近傍に配置しても、備えていなくてもよい。
Here, let us consider a case where the robot control device 15 is composed only of the calculation unit 56 and the storage unit 58 . Then, the robot control device 15 is arranged at an arbitrary position on the network 16 (for example, the position of the
以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。 Although the embodiments of the present invention have been described above, the present invention is not limited by the contents of these embodiments. In addition, the components described above include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those within the so-called equivalent range. Furthermore, the components described above can be combined as appropriate. Furthermore, various omissions, replacements, or modifications of components can be made without departing from the gist of the above-described embodiments.
10 ロボットシステム
12 ロボット(操作対象物)
14 遠隔操作装置(操作端末)
15 ロボット制御装置
16 ネットワーク
22 制御部
24 駆動部
26 通信部
28 情報取得部
32 画像表示部
34 通信部
36 視線検出部
38 身体動作検出部
50 通信部
52 カメラ部
54 周囲情報取得部
56 演算部
58 記憶部
62 オブジェクト取得部
64 動作入力取得部
66 視線判定部
68 実行判定部
69 命令生成部
70 制御プログラム
72 実行判定プログラム
74 命令生成プログラム
76 データベース
10 robot system 12 robot (object to be manipulated)
14 remote control device (control terminal)
15
Claims (5)
前記ロボットの周辺を撮影して画像を取得するカメラ部と、
前記カメラ部で取得した画像をオペレータに向けて表示する画像表示部と、
前記オペレータの視線を検出する視線検出部と、
前記オペレータの身体動作を検出する身体動作検出部と、
前記カメラ部で取得した画像からオブジェクトを取得するオブジェクト取得部、前記身体動作検出部で検出した前記オペレータの動作を取得する動作入力取得部、及び、前記ロボットの動作を制御する動作命令を生成する命令生成部を備える演算部と、を備え、
前記演算部は、前記画像に含まれるオブジェクトとオペレータの視線が一致しているか否かを判定し、一致していない場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成せず、一致している場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成する、ロボットシステム。 A remote control system in which an operator operates a robot,
a camera unit for capturing an image by capturing the periphery of the robot;
an image display unit that displays an image acquired by the camera unit toward an operator;
a line-of-sight detection unit that detects the line of sight of the operator;
a body motion detector that detects the body motion of the operator;
An object acquisition unit that acquires an object from the image acquired by the camera unit, a motion input acquisition unit that acquires the operator's motion detected by the body motion detection unit, and a motion command that controls the motion of the robot. a calculation unit comprising an instruction generation unit;
The computing unit determines whether or not the object included in the image and the line of sight of the operator match, and if they do not match, issues the motion command to the robot that executes the motion input operation. A robot system that, if not generated and matched, generates the motion command to the robot that performs the operation of the motion input.
前記演算部は、前記周囲情報取得部の情報に基づいて、前記ロボットと前記オブジェクトとの距離を測定し、測定した距離に基づいて、前記ロボットを前記オブジェクトに向けて移動させる前記動作命令を生成する、請求項1または請求項2に記載のロボットシステム。 A peripheral information acquisition unit that acquires a situation around the robot,
The calculation unit measures the distance between the robot and the object based on the information from the surrounding information acquisition unit, and generates the action command for moving the robot toward the object based on the measured distance. 3. The robot system according to claim 1 or 2, wherein:
前記ロボットの周辺を撮影した画像を取得するステップと、
取得した画像からオブジェクトを取得するステップと、
前記オペレータの身体動作に基づいた前記オペレータの動作命令を取得するステップと、
前記ロボットの周辺を撮影した画像を前記オペレータに表示させた状態で前記オペレータの視線を検出するステップと、
前記画像に含まれるオブジェクトとオペレータの視線が一致しているか否かを判定し、一致していない場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成せず、一致している場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成するステップと、を含む遠隔操作方法。 A remote control method in which an operator operates a robot,
obtaining an image of the surroundings of the robot;
obtaining an object from the obtained image;
obtaining a motion command of the operator based on the body motion of the operator;
a step of detecting the line of sight of the operator in a state in which an image of the surroundings of the robot is displayed on the operator;
determining whether or not the object included in the image and the line of sight of the operator match; and, if there is a match, generating the motion command to the robot that performs the operation of the motion input.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021096059A JP2022187852A (en) | 2021-06-08 | 2021-06-08 | Robot system and remote control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021096059A JP2022187852A (en) | 2021-06-08 | 2021-06-08 | Robot system and remote control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022187852A true JP2022187852A (en) | 2022-12-20 |
Family
ID=84531915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021096059A Pending JP2022187852A (en) | 2021-06-08 | 2021-06-08 | Robot system and remote control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022187852A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11731262B2 (en) | 2021-06-28 | 2023-08-22 | Samsung Electronics Co., Ltd. | Robot and method for operating the same |
-
2021
- 2021-06-08 JP JP2021096059A patent/JP2022187852A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11731262B2 (en) | 2021-06-28 | 2023-08-22 | Samsung Electronics Co., Ltd. | Robot and method for operating the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11379287B2 (en) | System and method for error detection and correction in virtual reality and augmented reality environments | |
JP6810125B2 (en) | How to navigate, systems, and equipment in a virtual reality environment | |
US10613642B2 (en) | Gesture parameter tuning | |
US10088971B2 (en) | Natural user interface camera calibration | |
Mahmud et al. | Interface for human machine interaction for assistant devices: A review | |
CN110362193B (en) | Target tracking method and system assisted by hand or eye tracking | |
US9625994B2 (en) | Multi-camera depth imaging | |
US20180005445A1 (en) | Augmenting a Moveable Entity with a Hologram | |
EP2932358A1 (en) | Direct interaction system for mixed reality environments | |
JP2017185994A (en) | Device for controlling interior lighting of motor vehicle | |
WO2017166767A1 (en) | Information processing method, mobile device, and computer storage medium | |
KR102452924B1 (en) | Force-sense visualization apparatus, robot, and force-sense visualization program | |
US20190049558A1 (en) | Hand Gesture Recognition System and Method | |
JP2022187852A (en) | Robot system and remote control method | |
US11029753B2 (en) | Human computer interaction system and human computer interaction method | |
US11366450B2 (en) | Robot localization in a workspace via detection of a datum | |
CN114981700A (en) | Device, method and computer program for controlling a microscope system | |
US11926064B2 (en) | Remote control manipulator system and remote control assistance system | |
US20220291679A1 (en) | Information processing device, information processing method, information processing program, and control device | |
EP4075786A1 (en) | Image processing device, system, image processing method and image processing program | |
Arreghini et al. | A Long-Range Mutual Gaze Detector for HRI | |
WO2021131950A1 (en) | Information processing device, information processing method, and program | |
JP7434207B2 (en) | System, information processing method, and information processing program | |
US20230010302A1 (en) | Generation of image for robot operation | |
WO2024013895A1 (en) | Remote control system, remote control method, and remote control program |