JP2022187852A - Robot system and remote control method - Google Patents

Robot system and remote control method Download PDF

Info

Publication number
JP2022187852A
JP2022187852A JP2021096059A JP2021096059A JP2022187852A JP 2022187852 A JP2022187852 A JP 2022187852A JP 2021096059 A JP2021096059 A JP 2021096059A JP 2021096059 A JP2021096059 A JP 2021096059A JP 2022187852 A JP2022187852 A JP 2022187852A
Authority
JP
Japan
Prior art keywords
robot
operator
motion
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021096059A
Other languages
Japanese (ja)
Inventor
裕一 新幡
Yuichi ARAHATA
貴之 荒瀬
Takayuki Arase
俊一 藤井
Shunichi Fujii
智至 吉村
Satoshi Yoshimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2021096059A priority Critical patent/JP2022187852A/en
Publication of JP2022187852A publication Critical patent/JP2022187852A/en
Pending legal-status Critical Current

Links

Images

Abstract

To properly operate a robot which is controlled remotely.SOLUTION: A robot system for an operator to control a robot comprises: a camera part that photographs a circumference of the robot to obtain an image; an image display part that displays the image obtained by the camera part toward the operator; a visual line detecting part that detects a visual line of the operator; a body motion detecting part that detects a body motion of the operator; and a calculating part which comprises an object obtaining part that obtains an object from the image obtained by the camera part, a motion obtaining part that obtains the body motion of the operator detected by the body motion detecting part and a command generating part that generates a motion command to control a motion of the robot. The calculating part determines whether the object included in the image matches the visual line of the operator, which does not generate the motion command to control the robot which executes operation of motion input when the object does not match the visual line, and generates the motion command to control the robot which executes the operation of motion input when the object matches the visual line.SELECTED DRAWING: Figure 2

Description

本発明は、ロボットシステム及び遠隔操作方法に関する。 The present invention relates to a robot system and a remote control method.

オペレータが離れた位置のロボットを操作する技術が知られている。例えば、特許文献1には、遠隔地から他のオペレータがいる領域に配置されたロボットを操作するシステムが記載されている。また、遠隔地のオペレータには、ロボットで検出した位置情報を基にアバターを表示することで、複数のオペレータが3次元的な位置の認識を共有して、同じ空間にいるような感覚を得ることができる技術が記載されている。 A technique is known in which an operator operates a robot at a remote position. For example, Patent Literature 1 describes a system for remotely operating a robot placed in an area where other operators are present. In addition, by displaying an avatar to the remote operator based on the location information detected by the robot, multiple operators can share 3D position recognition and feel as if they are in the same space. A possible technique is described.

特開2019-168971号公報JP 2019-168971 A

離れた場所からオペレータがロボットを操作する場合、ロボットが意図しない動作をしてしまう恐れがある。例えば、ロボットを操作するための入力をオペレータの身体動作とした場合、ロボットの操作以外のための身体動作でロボットが動作してしまうと、ロボットの周囲に悪影響を与える恐れがある。 When an operator operates a robot from a remote location, the robot may behave unintendedly. For example, when the input for operating the robot is the operator's body motion, if the robot moves by a body motion other than the operation of the robot, there is a risk that the surroundings of the robot will be adversely affected.

本発明は、遠隔地から操作されるロボットを、適切に動作させる遠隔操作システム及び遠隔操作方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a remote control system and a remote control method for appropriately operating a robot that is remotely controlled.

本発明の一態様に係るロボットシステムは、オペレータがロボットを操作するロボットシステムであって、前記ロボットの周辺を撮影して画像を取得するカメラ部と、前記カメラ部で取得した画像をオペレータに向けて表示する画像表示部と、前記オペレータの視線を検出する視線検出部と、前記オペレータの身体動作を検出する身体動作検出部と、前記カメラ部で取得した画像からオブジェクトを取得するオブジェクト取得部、前記身体動作検出部で検出した前記オペレータの動作を取得する動作取得部、及び、前記ロボットの動作を制御する動作命令を生成する命令生成部を備える演算部と、を備え、前記演算部は、前記画像に含まれるオブジェクトとオペレータの視線が一致しているかを判定し、一致していない場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成せず、一致している場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成する。 A robot system according to one aspect of the present invention is a robot system in which an operator operates a robot, and includes a camera unit that acquires an image by photographing the surroundings of the robot, and an image acquired by the camera unit that is directed to the operator. a line-of-sight detection unit that detects the line of sight of the operator; a body movement detection unit that detects the body movement of the operator; an object acquisition unit that acquires an object from the image acquired by the camera unit; a motion acquisition unit that acquires the operator's motion detected by the body motion detection unit; It is determined whether or not the object included in the image and the line of sight of the operator match, and if they do not match, the motion command is not generated for the robot executing the operation of the motion input, and they match. If so, the motion command is generated for the robot that executes the operation of the motion input.

本発明の一態様に係る遠隔操作方法は、オペレータがロボットを操作する遠隔操作方法であって、前記ロボットの周辺を撮影した画像を取得するステップと、取得した画像からオブジェクトを取得するステップと、前記オペレータの身体動作に基づいた前記オペレータの動作命令を取得するステップと、前記ロボットの周辺を撮影した画像を前記オペレータに表示させた状態で前記オペレータの視線を検出するステップと、前記画像に含まれるオブジェクトとオペレータの視線が一致しているかを判定し、一致していない場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成せず、一致している場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成するステップと、を含む。 A remote control method according to an aspect of the present invention is a remote control method in which an operator operates a robot, comprising: obtaining an image of the surroundings of the robot; obtaining an object from the obtained image; obtaining an operator's motion command based on the operator's body motion; detecting the line of sight of the operator in a state in which an image of the surroundings of the robot is displayed to the operator; It is determined whether the line of sight of the object to be viewed and the line of sight of the operator match. and generating the motion command to the robot that performs the manipulation of the motion input.

本発明によれば、遠隔地から操作されるロボットを、適切に動作させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the robot operated from a remote place can be operated appropriately.

図1は、実施形態に係るロボットシステムの構成例を説明するための図である。FIG. 1 is a diagram for explaining a configuration example of a robot system according to an embodiment. 図2は、実施形態に係る遠隔操作装置及びロボット制御装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of a remote control device and a robot control device according to the embodiment. 図3は、実施形態に係るロボットシステムのロボット操作装置の処理の一例を示すフローチャートである。FIG. 3 is a flow chart showing an example of processing of the robot operating device of the robot system according to the embodiment.

以下、添付図面を参照して、本発明に係る実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではなく、また、実施形態が複数ある場合には、各実施形態を組み合わせて構成するものも含む。また、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 DETAILED DESCRIPTION OF THE INVENTION Embodiments according to the present invention will be described in detail below with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment, and when there are a plurality of embodiments, a combination of each embodiment is also included. Further, in the following embodiments, the same parts are denoted by the same reference numerals, thereby omitting redundant explanations.

[ロボットシステム]
図1を用いて、実施形態に係るロボットシステムについて説明する。図1は、実施形態に係るロボットシステムの構成例を示す図である。図1に示すように、ロボットシステム10は、ロボット(操作対象物)12と遠隔操作装置(操作端末)14とロボット制御装置15とネットワーク16と、を含む。ロボットシステム10は、オペレータにより遠隔操作装置14に入力されたロボット12への操作を、ネットワーク16およびロボット制御装置15を介してロボット12に送信する。ロボット12は、受信した操作に基づいて動作する。ネットワーク16は、例えば、インターネット網である。
[Robot system]
A robot system according to an embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of a robot system according to an embodiment. As shown in FIG. 1 , the robot system 10 includes a robot (object to be manipulated) 12 , a remote control device (manipulation terminal) 14 , a robot control device 15 and a network 16 . The robot system 10 transmits an operation to the robot 12 input to the remote control device 14 by the operator to the robot 12 via the network 16 and the robot control device 15 . The robot 12 operates based on the received operation. Network 16 is, for example, the Internet network.

ロボット12は、少なくとも一部が物理的に移動する。ロボット12は、地面を移動する機構を備えていても、ロボットアームのように本体に対して移動する機構を備えていてもよい。ロボット12は、制御部22と、駆動部24と、通信部26と、情報取得部28と、を備える。 The robot 12 is at least partially physically mobile. The robot 12 may be equipped with a mechanism for moving on the ground, or may be equipped with a mechanism for moving relative to the main body like a robot arm. The robot 12 includes a control section 22 , a drive section 24 , a communication section 26 and an information acquisition section 28 .

制御部22は、ロボット12の各部の動作を制御する。制御部22は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の演算装置と、例えば、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、ソリッドステートドライブなどの記憶装置と、を備える。制御部22は、記憶装置に記憶されたプログラム(例えば、本開示に係るプログラム)がRAM等を作業領域として実行されることにより制御機能を実現する。また、制御部22は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部22は、ソフトウェアと、ハードウェアとの組み合わせで実現されてもよい。 The control section 22 controls the operation of each section of the robot 12 . The control unit 22 includes, for example, an arithmetic unit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, a solid state drive, or the like. and a storage device of The control unit 22 implements a control function by executing a program (for example, a program according to the present disclosure) stored in a storage device using a RAM or the like as a work area. Also, the control unit 22 may be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 22 may be realized by a combination of software and hardware.

駆動部24は、ロボット12の可動部分である。駆動部24は、車輪、脚等の本体を移動させる機構や、ロボットアーム等の本体に設置され、本体に対して移動する機構である。駆動部24は、制御部22により制御される。 Drive 24 is the movable part of robot 12 . The driving unit 24 is a mechanism such as a wheel or a leg that moves the main body, or a mechanism that is installed in the main body such as a robot arm and moves relative to the main body. The driving section 24 is controlled by the control section 22 .

通信部26は、無線通信を行う無線通信部である。具体的には、通信部26は、ロボット制御装置15と通信可能に接続されている。すなわち、ロボット12は、通信部26を用いて、ロボット制御装置15と無線通信を行う。また、ロボット制御装置15は、ネットワーク16を介して遠隔操作装置14と通信可能に接続されている。 The communication unit 26 is a wireless communication unit that performs wireless communication. Specifically, the communication unit 26 is communicably connected to the robot control device 15 . That is, the robot 12 uses the communication unit 26 to wirelessly communicate with the robot control device 15 . Also, the robot control device 15 is communicably connected to the remote control device 14 via the network 16 .

情報取得部28は、ロボット12の周囲の情報を取得する。情報取得部28は、位置センサ、カメラ部(画像センサ)、距離センサ、マイク等を備え、周囲の情報として、現在の位置情報、周囲の三次元形状、周囲の画像、音声等を取得する。位置センサとしては、GPS等の絶対座標の位置を取得するセンサや、周囲の障害物との間の距離を検出するレーザレーダ(例えば、LIDAR:Laser Imaging Detection and Ranging)、赤外線照射部と受光センサとを含む赤外線センサ、およびToF(Time of Flight)センサなどが例示される。カメラ部(画像センサ)としては、CMOSイメージセンサおよびCCDなどが例示される。 The information acquisition unit 28 acquires information around the robot 12 . The information acquisition unit 28 includes a position sensor, a camera unit (image sensor), a distance sensor, a microphone, etc., and acquires current position information, surrounding three-dimensional shape, surrounding images, sounds, etc. as surrounding information. As a position sensor, a sensor that acquires the position of absolute coordinates such as GPS, a laser radar that detects the distance between surrounding obstacles (for example, LIDAR: Laser Imaging Detection and Ranging), an infrared irradiation unit and a light receiving sensor and an infrared sensor, a ToF (Time of Flight) sensor, and the like. Examples of the camera section (image sensor) include a CMOS image sensor and a CCD.

図2は、実施形態に係る遠隔操作装置14及びロボット制御装置15の構成例を示すブロック図であり、ネットワーク16の図示は省略している。遠隔操作装置14は、オペレータがロボット12に関する情報を取得し、ロボット12に対する操作を身体動作で入力する機器である。遠隔操作装置14は、例えば、パーソナルコンピュータや、オペレータが頭部に装着して使用するHMD(Head Mounted Display)装置と身体動作で入力される操作を検出する装置(カメラ、センサ)とを用いた構成が例示されるが、これに限定されない。遠隔操作装置14は、画像表示部32と、通信部34と、視線検出部36と、身体動作検出部38と、を含む。 FIG. 2 is a block diagram showing a configuration example of the remote control device 14 and the robot control device 15 according to the embodiment, and the illustration of the network 16 is omitted. The remote control device 14 is a device with which an operator obtains information about the robot 12 and inputs an operation to the robot 12 by body motion. The remote control device 14 is, for example, a personal computer, an HMD (Head Mounted Display) device worn by the operator on the head, and a device (camera, sensor) that detects an operation input by body motion. Configurations are exemplified, but not limited to. The remote control device 14 includes an image display section 32 , a communication section 34 , a line-of-sight detection section 36 and a body motion detection section 38 .

画像表示部32は、オペレータにロボット12の周辺の画像を出力する。画像表示部32は、ロボット12の情報取得部28のカメラ部で取得した画像を表示する。 The image display unit 32 outputs an image around the robot 12 to the operator. The image display unit 32 displays images acquired by the camera unit of the information acquisition unit 28 of the robot 12 .

通信部34は、遠距離無線通信を行う遠距離無線通信部である。具体的には、通信部34は、ネットワーク16を介して、ロボット制御装置15と通信可能に接続されている。すなわち、遠隔操作装置14は、通信部34を用いて、ロボット制御装置15と遠距離無線通信を行う。 The communication unit 34 is a long-distance wireless communication unit that performs long-distance wireless communication. Specifically, the communication unit 34 is communicably connected to the robot control device 15 via the network 16 . That is, the remote control device 14 uses the communication unit 34 to perform long-distance wireless communication with the robot control device 15 .

視線検出部36は、オペレータの視線を検出する。視線検出部36は、オペレータの瞳孔の位置を検出し、見ている位置、具体的には画像表示部32のどの位置を見ているかを検出する。視線検出部36は、検出した結果をロボット制御装置15に出力する。 The line-of-sight detection unit 36 detects the line of sight of the operator. The line-of-sight detection unit 36 detects the positions of the pupils of the operator, and detects the viewing position, specifically which position of the image display unit 32 the operator is viewing. The line-of-sight detection unit 36 outputs the detection result to the robot control device 15 .

身体動作検出部38は、オペレータの頭や腕、手の動作等のジェスチャー入力を検出する。身体動作検出部38は、オペレータに装着され、オペレータの動きを検出するセンサ(例えば加速度センサ)、オペレータを撮影した画像から前記オペレータの動きを検出するセンサ(例えばカメラ部)等である。身体動作検出部38は、オペレータの身体動作をロボット制御装置15に出力する。 The body motion detector 38 detects gesture inputs such as motions of the operator's head, arms, and hands. The body motion detector 38 is a sensor (for example, an acceleration sensor) that is worn by the operator to detect the operator's motion, a sensor (for example, a camera) that detects the operator's motion from a photographed image of the operator, or the like. The body motion detector 38 outputs the body motion of the operator to the robot controller 15 .

ロボット制御装置15は、ロボット12が配置されている領域に配置され、前記ロボットの動作を制御する。本実施形態では、ロボット制御装置15は、ロボット12とは別体である。ロボット制御装置15は、通信部50、カメラ部52、周囲情報取得部54と、演算部56と、記憶部58と、を含む。 A robot control device 15 is arranged in the area where the robot 12 is arranged and controls the operation of the robot. In this embodiment, the robot controller 15 is separate from the robot 12 . The robot control device 15 includes a communication section 50 , a camera section 52 , an ambient information acquisition section 54 , a calculation section 56 and a storage section 58 .

通信部50は、遠距離無線通信を行う遠距離無線通信部である。具体的には、通信部50は、ネットワーク16を介して、遠隔操作装置14と通信可能に接続され、かつ、無線通信でロボット16と通信可能に接続されている。すなわち、ロボット制御装置15は、通信部50を用いて、ロボット12及び遠隔操作装置14と、無線通信を行う。 The communication unit 50 is a long-distance wireless communication unit that performs long-distance wireless communication. Specifically, the communication unit 50 is communicably connected to the remote controller 14 via the network 16 and is communicatively connected to the robot 16 by wireless communication. That is, the robot control device 15 uses the communication unit 50 to wirelessly communicate with the robot 12 and the remote control device 14 .

カメラ部52は、ロボット12を含む領域を撮影する。カメラ部52としては、CMOSイメージセンサおよびCCDなどが例示される。周囲情報取得部54は、ロボット12の周囲の状況を取得する。つまり、周囲情報取得部54は、ロボット12の情報取得部28で取得されたロボット12の周囲の情報を、通信部26と通信部50を介して取得する。 The camera unit 52 photographs an area including the robot 12 . Examples of the camera unit 52 include a CMOS image sensor and a CCD. The surrounding information acquisition unit 54 acquires the circumstances around the robot 12 . That is, the ambient information acquisition unit 54 acquires the information around the robot 12 acquired by the information acquisition unit 28 of the robot 12 via the communication unit 26 and the communication unit 50 .

演算部56は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、記憶部58に記憶されたプログラム(例えば、本開示に係るプログラム)がRAM等を作業領域として実行されることにより実現される。また、演算部56は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。演算部56は、ソフトウェアと、ハードウェアとの組み合わせで実現されてもよい。演算部56は、オブジェクト取得部62と、動作入力取得部64と、視線判定部66と、実行判定部68と、命令生成部69と、を含む。各部については、記憶部58の後に説明する。 The computing unit 56 executes a program (for example, a program according to the present disclosure) stored in the storage unit 58 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like, using a RAM or the like as a work area. It is realized by Further, the calculation unit 56 may be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The computing unit 56 may be realized by a combination of software and hardware. The calculation unit 56 includes an object acquisition unit 62 , a motion input acquisition unit 64 , a line-of-sight determination unit 66 , an execution determination unit 68 and an instruction generation unit 69 . Each unit will be described after the storage unit 58 .

記憶部58は、各種の情報を記憶する。記憶部58は、例えば、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、ソリッドステートドライブなどの記憶装置で実現することができる。記憶部58は、制御プログラム70と、実行判定プログラム72と、命令生成プログラム74と、データベース76と、を含む。 The storage unit 58 stores various information. The storage unit 58 can be implemented by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or flash memory, or a storage device such as a hard disk or solid state drive. Storage unit 58 includes control program 70 , execution determination program 72 , instruction generation program 74 , and database 76 .

制御プログラム70は、ロボット12の遠隔操作処理の全体を統括する。制御プログラム70は、オブジェクト取得部62と、動作入力取得部64と、視線判定部66と、実行判定部68と、命令生成部69と、の各部の動作を実現するプログラムである。制御プログラム70は、実行判定プログラム72と、命令生成プログラム74の処理の制御も実行する。実行判定プログラム72は、実行判定部68の処理を実現するプログラムである。実行判定プログラム72は、ロボット12の周囲情報と、視線の情報とに基づいて、動作命令を実行してもよいかを判定する。命令生成プログラム74は、命令生成部69の処理を実現するプログラムである。命令生成プログラム74は、動作命令に基づいてロボット12に出力する命令(動作信号)を生成する。 The control program 70 supervises the entire remote control process of the robot 12 . The control program 70 is a program that implements the operations of the object acquisition unit 62 , the motion input acquisition unit 64 , the line-of-sight determination unit 66 , the execution determination unit 68 , and the command generation unit 69 . The control program 70 also controls the processing of the execution determination program 72 and the instruction generation program 74 . The execution determination program 72 is a program that implements the processing of the execution determination unit 68 . The execution determination program 72 determines whether or not it is permissible to execute the motion command based on the surrounding information of the robot 12 and the line-of-sight information. The instruction generation program 74 is a program that implements the processing of the instruction generation unit 69 . The command generation program 74 generates commands (motion signals) to be output to the robot 12 based on the motion commands.

データベース76は、画像からオブジェクトを抽出する基準のデータ、視線判定の基準のデータ、実行判定の基準のデータ、命令生成の基準のデータが含まれる。なお、データベース76は、各部の処理に必要なデータを含んでもよい。 The database 76 contains reference data for extracting objects from images, reference data for line-of-sight determination, reference data for execution determination, and reference data for command generation. Note that the database 76 may include data necessary for processing of each unit.

次に、演算部56の各部を説明する。オブジェクト取得部62は、通信部50を介して、ロボット12の情報取得部28で取得した画像に基づいて、ロボット12の周囲にあるオブジェクトを抽出する。オブジェクトは、ロボット12の動作に影響がある物体である。例えば、ロボット12が物品を移動させる機構である場合、移動対象の物品がオブジェクトとなる。また、ロボット12が移動する場合、障害物、例えば避ける必要がある物がオブジェクトとなる。オブジェクト取得部62は、カメラ部52で取得した画像に基づいてオブジェクトを抽出してもよい。 Next, each part of the calculation part 56 will be described. The object acquisition unit 62 extracts objects around the robot 12 based on the image acquired by the information acquisition unit 28 of the robot 12 via the communication unit 50 . Objects are objects that affect the operation of the robot 12 . For example, if the robot 12 is a mechanism for moving items, the item to be moved is the object. Also, when the robot 12 moves, an object is an obstacle, for example, an object that needs to be avoided. The object acquisition section 62 may extract the object based on the image acquired by the camera section 52 .

動作入力取得部64は、身体動作検出部38で検出したオペレータの動作に基づいて、オペレータの動作に基づくロボット12への動作入力を取得する。オペレータの動作と、ロボット12への動作入力との関係は、予めデータベース76に記憶されている。動作入力取得部64は、データベース76のデータと、検出したオペレータの動作に基づいて、ロボット12への動作入力を取得する。 The motion input acquisition unit 64 acquires a motion input to the robot 12 based on the operator's motion detected by the body motion detection unit 38 . The relationship between the operator's motion and the motion input to the robot 12 is stored in the database 76 in advance. The motion input acquiring unit 64 acquires a motion input to the robot 12 based on the data in the database 76 and the detected operator's motion.

視線判定部66は、視線検出部36で検出した視線の位置と、オブジェクト取得部62で取得したオブジェクトとの位置に基づいて、オペレータがどのオブジェクトを見ているかを判定する。 The line-of-sight determination unit 66 determines which object the operator is looking at based on the position of the line of sight detected by the line-of-sight detection unit 36 and the position of the object acquired by the object acquisition unit 62 .

実行判定部68は、視線判定部66で検出した視線とオブジェクトとの関係と、動作入力取得部64で取得した動作入力に基づいて、動作を実行するか否かを判定する。具体的には、実行判定部68は、オペレータが見ているオブジェクトが動作入力の対象であるか否かを判定する。実行判定部68は、動作入力の対象のオブジェクトを見ている場合、動作入力に基づいた動作を実行すると判定する。一方、実行判定部68は、動作入力の対象のオブジェクトを見ていない場合、動作入力に基づいた動作を実行しないと判定する。 The execution determination unit 68 determines whether or not to execute the action based on the relationship between the line of sight and the object detected by the line-of-sight determination unit 66 and the action input acquired by the action input acquisition unit 64 . Specifically, the execution determination unit 68 determines whether or not the object viewed by the operator is the target of motion input. The execution determination unit 68 determines that the motion based on the motion input is to be performed when the object to which the motion input is to be input is viewed. On the other hand, the execution determination unit 68 determines not to execute the motion based on the motion input when the object to which the motion input is applied is not viewed.

命令生成部69は、実行判定部68で動作入力に基づいた動作を実行すると判定された場合、動作入力取得部64で取得した動作入力に基づいた動作命令を生成し、ロボット12に出力する。一方、命令生成部69は、実行判定部68で動作入力に基づいた動作を実行しないと判定された場合、動作入力取得部64で取得した動作入力に基づいた動作命令を生成しない。代わりに、動作を停止する命令や、動作入力とは異なる動作をする命令を生成する。命令生成部69は、通信部50を介して生成した動作命令をロボット12へ送信する。 When the execution determination unit 68 determines to execute the motion based on the motion input, the command generation unit 69 generates a motion command based on the motion input acquired by the motion input acquisition unit 64 and outputs the motion command to the robot 12 . On the other hand, when the execution determination unit 68 determines not to execute the motion based on the motion input, the command generation unit 69 does not generate the motion command based on the motion input acquired by the motion input acquisition unit 64 . Instead, it generates an instruction to stop the action or an instruction to perform a different action than the action input. The command generation unit 69 transmits the generated motion commands to the robot 12 via the communication unit 50 .

ロボット12は、通信部26を介して受信した動作命令を制御部22に入力し、駆動部24は動作命令に従って動作する。これにより、オペレータはロボット12を適切に動作させることができる。 The robot 12 inputs the operation command received via the communication unit 26 to the control unit 22, and the driving unit 24 operates according to the operation command. This allows the operator to operate the robot 12 appropriately.

次に、図3を用いて、ロボットシステム10のロボット制御装置15の動作について説明する。図3は、実施形態に係るロボットシステムのロボット制御装置の処理の一例を示すフローチャートである。ロボット制御装置15は、図3に示す処理を繰り返し実行することで、ロボット12の動作を制御する。 Next, the operation of the robot controller 15 of the robot system 10 will be described with reference to FIG. FIG. 3 is a flowchart illustrating an example of processing of the robot controller of the robot system according to the embodiment. The robot control device 15 controls the motion of the robot 12 by repeatedly executing the process shown in FIG.

ロボット制御装置15は、周囲情報取得部54でロボット12の周囲の情報を取得する(ステップS12)。ロボット制御装置15は、ロボット12が取得した画像を取得する。ロボット制御装置15は、周囲の画像に加え、ロボット12の情報取得部28で取得したデータを取得してもよい。また、ロボット制御装置15は、周囲の情報としてカメラ部52で取得したロボット12を含む画像を取得してもよい。 The robot control device 15 acquires information about the surroundings of the robot 12 using the surroundings information obtaining unit 54 (step S12). The robot control device 15 acquires the image acquired by the robot 12 . The robot control device 15 may acquire the data acquired by the information acquisition unit 28 of the robot 12 in addition to the image of the surroundings. Further, the robot control device 15 may acquire an image including the robot 12 acquired by the camera unit 52 as surrounding information.

次に、ロボット制御装置15は、オブジェクト取得部62でオブジェクトを抽出する(ステップS14)。オブジェクト取得部62は、取得した画像を解析し、ロボット12の周囲にあるオブジェクトを抽出する。抽出するオブジェクトは1つに限定されず複数でもよい。また、ロボット12の周囲にオブジェクトがない場合、オブジェクトが抽出されない場合もある。 Next, the robot control device 15 extracts the object by the object obtaining section 62 (step S14). The object acquisition unit 62 analyzes the acquired image and extracts objects around the robot 12 . The number of objects to be extracted is not limited to one, and plural objects may be extracted. Also, if there are no objects around the robot 12, the objects may not be extracted.

次に、ロボット制御装置15は、動作入力取得部64で動作命令を取得する(ステップS16)。動作入力取得部64は、身体動作検出部38で取得したオペレータの動きとデータベース76の情報に基づいて、オペレータの動作に対応する入力動作、つまりロボット12への操作内容を特定する。動作入力取得部64は、特定した操作内容を動作命令として取得する。 Next, the robot control device 15 acquires a motion command by the motion input acquisition section 64 (step S16). The motion input acquisition unit 64 identifies the input motion corresponding to the operator's motion, that is, the operation content of the robot 12 based on the operator's motion acquired by the body motion detection unit 38 and the information in the database 76 . The motion input acquisition unit 64 acquires the identified operation content as a motion command.

次に、ロボット制御装置15は、視線検出部36からオペレータの視線の情報を取得する(ステップS18)。オペレータの視線の情報は、画像表示部32のどの位置をみているかの情報である。なお、ロボット制御装置15は、オブジェクトの抽出と動作命令、およびその動作命令と同じタイミングにおけるオペレータの視線を取得できればよい。よって、ステップS12からステップS18の処理は順番が異なってもよいし、並列して処理してもよい。 Next, the robot control device 15 acquires information on the line of sight of the operator from the line of sight detector 36 (step S18). Information on the line of sight of the operator is information on which position of the image display unit 32 the operator is looking at. It should be noted that the robot control device 15 only needs to be able to extract an object, obtain an action command, and acquire the line of sight of the operator at the same timing as the action command. Therefore, the processing from step S12 to step S18 may be performed in a different order, or may be performed in parallel.

次に、ロボット制御装置15は、視線判定部66及び実行判定部68でオペレータの視線が操作対象のオフジェクトであるか、つまりオペレータが操作対象のオブジェクトを見ているか否かを判定する(ステップS20)。ロボット制御装置15は、視線判定部66に基づいて、オペレータがどのオブジェクトを見ているかを判定し、実行判定部68で特定したオブジェクトと動作命令に基づいて、動作命令の対象が見ているオブジェクトであるか否かを判定する。 Next, the robot control device 15 uses the line-of-sight determination unit 66 and the execution determination unit 68 to determine whether the operator's line of sight is the object to be operated, that is, whether the operator is looking at the object to be operated (step S20). The robot control device 15 determines which object the operator is looking at based on the line-of-sight determination unit 66, and determines the object viewed by the target of the operation command based on the object and the operation command specified by the execution determination unit 68. It is determined whether or not.

ロボット制御装置15は、視線が操作対象のオブジェクトにある、つまり、操作対象のオブジェクトをオペレータが見ている(ステップS20でYes)と判定した場合、動作入力に基づく動作命令を生成する(ステップS22)。具体的には、命令生成部69で動作入力に基づく動作命令を生成し、ロボット12に出力する。 When determining that the line of sight is on the object to be operated, that is, the operator is looking at the object to be operated (Yes in step S20), the robot control device 15 generates a motion command based on the motion input (step S22). ). Specifically, the command generator 69 generates a motion command based on the motion input and outputs it to the robot 12 .

ロボット制御装置15は、視線が操作対象のオブジェクトにない、つまり、操作対象のオブジェクトをオペレータが見ていない(ステップS20でNo)と判定した場合、動作入力に基づく動作命令を生成しない(ステップS24)。具体的には、命令生成部69で動作入力に基づく動作命令を生成しない。代わりに、動作を停止する命令や、動作入力とは異なる動作を行う命令を生成し、ロボット12に出力する。 If it is determined that the line of sight is not on the object to be operated, that is, the operator is not looking at the object to be operated (No in step S20), the robot control device 15 does not generate a motion command based on the motion input (step S24). ). Specifically, the command generator 69 does not generate an action command based on the action input. Instead, it generates a command to stop the motion or a command to perform a motion different from the motion input and outputs it to the robot 12 .

ロボット制御装置15は、ロボット12から周辺状況、動作入力、オペレータの視線の情報を取得し、オペレータの動作入力と、対象のオブジェクトを特定し、オペレータが見ているオブジェクトが操作対象か否かに基づいて、ロボット12に送信する動作命令を決定する。 The robot control device 15 acquires information about the surrounding situation, motion input, and operator's line of sight from the robot 12, identifies the operator's motion input and the target object, and determines whether the object the operator is looking at is the target of operation. Based on this, an operation command to be sent to the robot 12 is determined.

これにより、オペレータが、オブジェクトを見て行った動作に基づいて、ロボット12を操作することができる。つまり、オペレータが意図せずロボット12への動作入力の動きを行っても、オブジェクトを見ていない場合、ロボット12が動作入力に対応する動作を実行しない状態とすることができる。これにより、オペレータが、オブジェクトを見て主体的に行った動作入力をトリガーとしてロボット12を動作させることができる。これにより、ロボット制御装置15は、オペレータが遠隔でロボット12を操作した場合でも、オペレータが意図しないロボット12の動作が生じることを抑制できる。 Thereby, the operator can operate the robot 12 based on the action performed by looking at the object. In other words, even if the operator unintentionally performs a motion input to the robot 12, if the operator does not look at the object, the robot 12 can be placed in a state in which it does not perform the motion corresponding to the motion input. As a result, the robot 12 can be moved by triggering a motion input that the operator independently performs while looking at the object. Thereby, the robot control device 15 can prevent the robot 12 from moving unintended by the operator even when the operator remotely operates the robot 12 .

また、命令生成部69は、動作入力取得部64で取得した動作入力を実行する場合、オブジェクトとロボット12の関係を算出し、ロボット12の動作を補助する動作を含む動作命令を生成することが好ましい。例えば、オペレータの身体動作があるオブジェクトをロボットアームで取る動作であり、かつ、オブジェクトとロボット12とに所定以上の距離がある場合、オペレータの視線がそのオブジェクトに向いていれば、ロボットアームをオブジェクトに近づける動作命令と、ロボットアームでオブジェクトに手に取る動作命令を生成する。この場合、ロボットアームをオブジェクトに近づける動作命令が、動作を補助する処理となる。また、命令生成部69は、周囲情報取得部54の各種センサでロボット12とオブジェクトの相対位置や、距離を算出することができ、算出結果に基づいて、オペレータの入力動作に基づいた動作を補助することができる。つまり、オペレータの入力動作をオブジェクトに実行するために補完する必要がある動作を、動作命令として追加する。これにより、オペレータが意図する動作をオブジェクトに対して実行できる。この動作を補助する命令は、命令生成プログラム74、またはデータベース76に命令生成の基準のデータとして格納してもよい。 Further, when executing the motion input acquired by the motion input acquisition unit 64, the command generation unit 69 can calculate the relationship between the object and the robot 12 and generate a motion command including a motion for assisting the motion of the robot 12. preferable. For example, if the operator's body motion is to take an object with the robot arm, and the distance between the object and the robot 12 is greater than or equal to a predetermined distance, and the operator's line of sight is directed toward the object, the robot arm can move the robot arm to the object. It generates an action command to approach the object and an action command to pick up the object with the robot arm. In this case, an action command to bring the robot arm closer to the object is processing that assists the action. Also, the command generation unit 69 can calculate the relative position and distance between the robot 12 and the object using various sensors of the surrounding information acquisition unit 54, and based on the calculation results, assist the operation based on the operator's input operation. can do. In other words, an operation that needs to be complemented to execute an operator's input operation on an object is added as an operation instruction. This allows the operator to perform the intended operation on the object. Instructions for assisting this operation may be stored in the instruction generation program 74 or the database 76 as reference data for instruction generation.

ロボットシステム10は、オペレータに装着され、前記オペレータの動きを検出するセンサ及び前記オペレータを撮影した画像から前記オペレータの動きを検出するセンサの少なくとも一方を備える身体動作検出部38を用い、オペレータの入力を、オペレータの動作とした場合でも、上記処理を行うことで、オペレータがロボット12の操作を意図しないで行った動作で、ロボット12が動作することを抑制でき、オペレータの意図する動作を実行することができる。これにより、例えば手術ロボット等を遠隔操作で意図しない動作をロボットが行うことを抑制できる。 The robot system 10 uses a body motion detection unit 38 that is worn by an operator and includes at least one of a sensor that detects the operator's motion and a sensor that detects the operator's motion from an image of the operator. is the operator's motion, the above processing can prevent the robot 12 from moving due to the operator's unintentional motion, and the operator's intended motion can be performed. be able to. As a result, for example, it is possible to prevent a surgical robot or the like from performing an unintended operation by remote control.

身体動作検出部38は、入力端末への物理入力、音声入力、ジェスチャー入力等をする入力部として構成してもよい。入力部は、キーボード、マウス、タッチパネル、マイク、カメラなどが例示されるが、これに限定されない。入力部は、オペレータの操作に関する操作信号をロボット制御装置15に出力する。ロボット制御装置15の動作入力取得部64は、オペレータの操作に基づくロボット12への動作入力を取得する。 The body motion detection unit 38 may be configured as an input unit for physical input, voice input, gesture input, etc. to the input terminal. Examples of the input unit include a keyboard, mouse, touch panel, microphone, camera, and the like, but are not limited to these. The input unit outputs to the robot control device 15 an operation signal regarding an operator's operation. A motion input acquiring unit 64 of the robot control device 15 acquires a motion input to the robot 12 based on an operator's operation.

ロボット制御装置15は、オブジェクト取得部62でのオブジェクトの抽出を機械学習で学習した学習済みプログラムを用いてもよい。つまり実行判定プログラム72の一部を学習済みプログラムとしてもよい。具体的には、ロボット制御装置15は、画像からオブジェクトを抽出した情報を教師データとして学習を行い、学習済みプログラムを作成する。ここで、機械学習は、教師あり学習の例としたが教師無し学習でもよい。ロボット制御装置15は、オブジェクト取得部62の処理を機械学習で学習することで、学習済みプログラムの教師データを更新することで、容易に変更することができる。これにより、ロボット12の操作対象のオブジェクトの違いに応じた変更を簡単に行うことができる。 The robot control device 15 may use a learned program in which object extraction by the object acquisition unit 62 is learned by machine learning. That is, part of the execution determination program 72 may be a learned program. Specifically, the robot control device 15 performs learning using information obtained by extracting an object from an image as teacher data, and creates a learned program. Here, machine learning is an example of supervised learning, but may be unsupervised learning. The robot control device 15 learns the processing of the object acquisition unit 62 by machine learning, and can easily change by updating the teacher data of the learned program. As a result, it is possible to easily make changes according to differences in the objects to be operated by the robot 12 .

ロボット制御装置15は、視線判定部66、実行判定部68の判定処理も機械学習で学習した学習済みプログラムを用いてもよい。つまり実行判定プログラム72の一部を学習済みプログラムとしてもよい。このように、判定処理も機械学習とし、予測モデルを再学習することで、予測の精度を高くすることができる。 In the robot control device 15, the determination processing of the line-of-sight determination unit 66 and the execution determination unit 68 may also use a learned program learned by machine learning. That is, part of the execution determination program 72 may be a learned program. In this way, the determination process is also performed by machine learning, and the prediction model is re-learned, so that the prediction accuracy can be improved.

ロボット制御装置15は、ロボット12とは別体であるとして説明したが、ロボット12に搭載して構成してもよい。この場合、ロボット制御装置15の通信部50とロボット12の通信部22は共通としてよいし、ロボット制御装置15とロボット12とは無線通信ではなく直接通信してもよい。また、カメラ部52は、ロボット12の全体を撮影するためにロボット12とは別体としてロボット12の近傍に配置してもよいし、ロボット12から見た特定の視点を撮影するためにロボット12と一体として配置してもよい。 Although the robot control device 15 has been described as being separate from the robot 12 , it may be mounted on the robot 12 . In this case, the communication unit 50 of the robot control device 15 and the communication unit 22 of the robot 12 may be shared, and the robot control device 15 and the robot 12 may communicate directly instead of wirelessly. In addition, the camera unit 52 may be arranged in the vicinity of the robot 12 as a separate body from the robot 12 in order to photograph the entire robot 12 , or may be arranged in the vicinity of the robot 12 in order to photograph a specific viewpoint seen from the robot 12 . may be arranged as one with the

ロボット制御装置15は、演算部56と記憶部58の全てを含むものとして説明した。これら演算部56と記憶部58について、その少なくとも一部の要素は、ロボット12やネットワーク16と接続されたサーバ(図示せず)に配置してもよい。さらに、記憶部58の少なくとも一部の要素は、ネットワーク16上に分散して配置してもよい。例えば、データベース76は、サーバにのみ配置してもよいし、ロボット12とサーバとにそれぞれ分散して配置してもよい。ロボット12は、通信部26を介して定期的にサーバに配置されたデータベース76から命令生成の基準のデータなどを参照する。 The robot control device 15 has been described as including all of the calculation unit 56 and the storage unit 58 . At least some elements of the computing unit 56 and the storage unit 58 may be arranged in a server (not shown) connected to the robot 12 and the network 16 . Furthermore, at least some elements of the storage unit 58 may be distributed over the network 16 . For example, the database 76 may be placed only on the server, or may be placed separately on the robot 12 and the server. The robot 12 periodically refers to the reference data for command generation from the database 76 arranged in the server via the communication unit 26 .

ここで、ロボット制御装置15を、演算部56と記憶部58のみから構成した場合を考える。すると、ロボット制御装置15は、ネットワーク16上の任意の位置(例えば図1の遠隔操作装置14の位置)に配置される。この場合、ロボット制御装置15は、遠距離通信網で各部と通信を行う。また、カメラ部52は、別体としてロボット12の近傍に配置しても、備えていなくてもよい。 Here, let us consider a case where the robot control device 15 is composed only of the calculation unit 56 and the storage unit 58 . Then, the robot control device 15 is arranged at an arbitrary position on the network 16 (for example, the position of the remote control device 14 in FIG. 1). In this case, the robot control device 15 communicates with each unit via a telecommunications network. Also, the camera unit 52 may be arranged in the vicinity of the robot 12 as a separate unit, or may not be provided.

以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。 Although the embodiments of the present invention have been described above, the present invention is not limited by the contents of these embodiments. In addition, the components described above include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those within the so-called equivalent range. Furthermore, the components described above can be combined as appropriate. Furthermore, various omissions, replacements, or modifications of components can be made without departing from the gist of the above-described embodiments.

10 ロボットシステム
12 ロボット(操作対象物)
14 遠隔操作装置(操作端末)
15 ロボット制御装置
16 ネットワーク
22 制御部
24 駆動部
26 通信部
28 情報取得部
32 画像表示部
34 通信部
36 視線検出部
38 身体動作検出部
50 通信部
52 カメラ部
54 周囲情報取得部
56 演算部
58 記憶部
62 オブジェクト取得部
64 動作入力取得部
66 視線判定部
68 実行判定部
69 命令生成部
70 制御プログラム
72 実行判定プログラム
74 命令生成プログラム
76 データベース
10 robot system 12 robot (object to be manipulated)
14 remote control device (control terminal)
15 robot control device 16 network 22 control unit 24 drive unit 26 communication unit 28 information acquisition unit 32 image display unit 34 communication unit 36 line of sight detection unit 38 body movement detection unit 50 communication unit 52 camera unit 54 ambient information acquisition unit 56 calculation unit 58 Storage unit 62 Object acquisition unit 64 Motion input acquisition unit 66 Line of sight determination unit 68 Execution determination unit 69 Instruction generation unit 70 Control program 72 Execution determination program 74 Instruction generation program 76 Database

Claims (5)

オペレータがロボットを操作する遠隔操作システムであって、
前記ロボットの周辺を撮影して画像を取得するカメラ部と、
前記カメラ部で取得した画像をオペレータに向けて表示する画像表示部と、
前記オペレータの視線を検出する視線検出部と、
前記オペレータの身体動作を検出する身体動作検出部と、
前記カメラ部で取得した画像からオブジェクトを取得するオブジェクト取得部、前記身体動作検出部で検出した前記オペレータの動作を取得する動作入力取得部、及び、前記ロボットの動作を制御する動作命令を生成する命令生成部を備える演算部と、を備え、
前記演算部は、前記画像に含まれるオブジェクトとオペレータの視線が一致しているか否かを判定し、一致していない場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成せず、一致している場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成する、ロボットシステム。
A remote control system in which an operator operates a robot,
a camera unit for capturing an image by capturing the periphery of the robot;
an image display unit that displays an image acquired by the camera unit toward an operator;
a line-of-sight detection unit that detects the line of sight of the operator;
a body motion detector that detects the body motion of the operator;
An object acquisition unit that acquires an object from the image acquired by the camera unit, a motion input acquisition unit that acquires the operator's motion detected by the body motion detection unit, and a motion command that controls the motion of the robot. a calculation unit comprising an instruction generation unit;
The computing unit determines whether or not the object included in the image and the line of sight of the operator match, and if they do not match, issues the motion command to the robot that executes the motion input operation. A robot system that, if not generated and matched, generates the motion command to the robot that performs the operation of the motion input.
前記身体動作検出部は、前記オペレータに装着され、前記オペレータの動きを検出するセンサ及び前記オペレータを撮影した画像から前記オペレータの動きを検出するセンサの少なくとも一方を備える、請求項1に記載のロボットシステム。 2. The robot according to claim 1, wherein said body movement detection unit is attached to said operator and includes at least one of a sensor for detecting movement of said operator and a sensor for detecting movement of said operator from an image of said operator. system. 前記ロボットの周囲の状況を取得する周囲情報取得部を備え、
前記演算部は、前記周囲情報取得部の情報に基づいて、前記ロボットと前記オブジェクトとの距離を測定し、測定した距離に基づいて、前記ロボットを前記オブジェクトに向けて移動させる前記動作命令を生成する、請求項1または請求項2に記載のロボットシステム。
A peripheral information acquisition unit that acquires a situation around the robot,
The calculation unit measures the distance between the robot and the object based on the information from the surrounding information acquisition unit, and generates the action command for moving the robot toward the object based on the measured distance. 3. The robot system according to claim 1 or 2, wherein:
前記画像表示部は、前記オペレータの頭部に装着されるヘッドマウントディスプレイである、請求項1から請求項3のいずれか一項に記載のロボットシステム。 The robot system according to any one of claims 1 to 3, wherein said image display unit is a head-mounted display mounted on said operator's head. オペレータがロボットを操作する遠隔操作方法であって、
前記ロボットの周辺を撮影した画像を取得するステップと、
取得した画像からオブジェクトを取得するステップと、
前記オペレータの身体動作に基づいた前記オペレータの動作命令を取得するステップと、
前記ロボットの周辺を撮影した画像を前記オペレータに表示させた状態で前記オペレータの視線を検出するステップと、
前記画像に含まれるオブジェクトとオペレータの視線が一致しているか否かを判定し、一致していない場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成せず、一致している場合には、前記動作入力の操作を実行する前記ロボットへの前記動作命令を生成するステップと、を含む遠隔操作方法。
A remote control method in which an operator operates a robot,
obtaining an image of the surroundings of the robot;
obtaining an object from the obtained image;
obtaining a motion command of the operator based on the body motion of the operator;
a step of detecting the line of sight of the operator in a state in which an image of the surroundings of the robot is displayed on the operator;
determining whether or not the object included in the image and the line of sight of the operator match; and, if there is a match, generating the motion command to the robot that performs the operation of the motion input.
JP2021096059A 2021-06-08 2021-06-08 Robot system and remote control method Pending JP2022187852A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021096059A JP2022187852A (en) 2021-06-08 2021-06-08 Robot system and remote control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021096059A JP2022187852A (en) 2021-06-08 2021-06-08 Robot system and remote control method

Publications (1)

Publication Number Publication Date
JP2022187852A true JP2022187852A (en) 2022-12-20

Family

ID=84531915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021096059A Pending JP2022187852A (en) 2021-06-08 2021-06-08 Robot system and remote control method

Country Status (1)

Country Link
JP (1) JP2022187852A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11731262B2 (en) 2021-06-28 2023-08-22 Samsung Electronics Co., Ltd. Robot and method for operating the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11731262B2 (en) 2021-06-28 2023-08-22 Samsung Electronics Co., Ltd. Robot and method for operating the same

Similar Documents

Publication Publication Date Title
US11379287B2 (en) System and method for error detection and correction in virtual reality and augmented reality environments
JP6810125B2 (en) How to navigate, systems, and equipment in a virtual reality environment
US10613642B2 (en) Gesture parameter tuning
US10088971B2 (en) Natural user interface camera calibration
Mahmud et al. Interface for human machine interaction for assistant devices: A review
CN110362193B (en) Target tracking method and system assisted by hand or eye tracking
US9625994B2 (en) Multi-camera depth imaging
US20180005445A1 (en) Augmenting a Moveable Entity with a Hologram
EP2932358A1 (en) Direct interaction system for mixed reality environments
JP2017185994A (en) Device for controlling interior lighting of motor vehicle
WO2017166767A1 (en) Information processing method, mobile device, and computer storage medium
KR102452924B1 (en) Force-sense visualization apparatus, robot, and force-sense visualization program
US20190049558A1 (en) Hand Gesture Recognition System and Method
JP2022187852A (en) Robot system and remote control method
US11029753B2 (en) Human computer interaction system and human computer interaction method
US11366450B2 (en) Robot localization in a workspace via detection of a datum
CN114981700A (en) Device, method and computer program for controlling a microscope system
US11926064B2 (en) Remote control manipulator system and remote control assistance system
US20220291679A1 (en) Information processing device, information processing method, information processing program, and control device
EP4075786A1 (en) Image processing device, system, image processing method and image processing program
Arreghini et al. A Long-Range Mutual Gaze Detector for HRI
WO2021131950A1 (en) Information processing device, information processing method, and program
JP7434207B2 (en) System, information processing method, and information processing program
US20230010302A1 (en) Generation of image for robot operation
WO2024013895A1 (en) Remote control system, remote control method, and remote control program