JP2023009642A - Remote operation system, operation device and remote operation support method - Google Patents

Remote operation system, operation device and remote operation support method Download PDF

Info

Publication number
JP2023009642A
JP2023009642A JP2021113091A JP2021113091A JP2023009642A JP 2023009642 A JP2023009642 A JP 2023009642A JP 2021113091 A JP2021113091 A JP 2021113091A JP 2021113091 A JP2021113091 A JP 2021113091A JP 2023009642 A JP2023009642 A JP 2023009642A
Authority
JP
Japan
Prior art keywords
remote control
operator
movement
robot
remote
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021113091A
Other languages
Japanese (ja)
Inventor
貴志 堀ノ内
Takashi Horinouchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021113091A priority Critical patent/JP2023009642A/en
Publication of JP2023009642A publication Critical patent/JP2023009642A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a remote operation system which makes a remote operator to easily move at the time of remote operation, enables remote operation for a long time, and facilitates learning of an operation method of an operation device.SOLUTION: A remote operation system includes a robot device having a first moving mechanism, and an operation device for instructing control of operation of the robot device from an operation site. The operation device has a display device, and a second moving mechanism. The operation device receives a first image imaged by the robot device, displays the first image on the display device, and transmits an instruction signal including an instruction to move the robot device to the robot device when detecting operation of moving the operation device by an operator. The robot device receives the instruction signal, and controls the first moving mechanism so as to move the robot device corresponding to movement of the operator on the basis of the instruction signal.SELECTED DRAWING: Figure 1

Description

本開示は、遠隔操作システム、操作器及び遠隔操作支援方法に関する。 The present disclosure relates to a remote control system, an operator, and a remote control support method.

従来、遠隔地での作業を支援するシステムとして、遠隔地における点検作業を支援する点検支援システムが知られている(特許文献1参照)。この点検支援システムは、無人移動体を含む現場装置と、仮想現実デバイスを含む遠隔地装置とを備える。無人移動体は、駆動機構と、点検現場を撮像する仮想現実カメラと、点検現場の音を収集するマイクと、アームと、駆動機構を制御して無人移動体を移動させると共に、アームを制御して点検対象機器を操作する制御部と、を備える。また、仮想現実デバイスは、仮想現実カメラで得られる画像の情報に基づいて、点検員の向きに応じた点検現場の画像を表示部により点検員に視認可能に表示する表示処理部と、マイクで得られる音の情報に基づいて、点検現場の音をスピーカから出力する音出力処理部と、を備える。 Conventionally, an inspection support system that supports inspection work at a remote location is known as a system that supports work at a remote location (see Patent Document 1). This inspection support system includes a field device including an unmanned mobile body and a remote device including a virtual reality device. The unmanned mobile body controls a drive mechanism, a virtual reality camera that captures images of the inspection site, a microphone that collects the sound of the inspection site, an arm, and a drive mechanism to move the unmanned mobile body and control the arm. and a control unit that operates the equipment to be inspected. In addition, the virtual reality device includes a display processing unit that displays an image of the inspection site according to the orientation of the inspector so that the inspector can see it on the display unit based on the information of the image obtained by the virtual reality camera, and a microphone. a sound output processing unit for outputting the sound of the inspection site from a speaker based on the obtained sound information.

特開2020-149349公報Japanese Patent Application Laid-Open No. 2020-149349

特許文献1のシステムでは、仮想現実デバイスがスマートグラスである場合、表示部は、点検員の向きに応じた領域の画像を外景に重ねて点検員に視認させる拡張現実ディスプレイである。そのため、点検員は、表示される点検現場の画像の状態によっては外景の視認性が低下することで、点検現場を移動することが困難となり得る。また、仮想現実デバイスとして、更に点検現場の画像である視覚情報の表示により立体感や距離感を高めるという観点でHMD(Head Mount Display)を採用することも考えられる。しかし、HMDでは操作者の視界全体を塞ぐので点検現場での移動が更に困難となり、HMDは重量があるために、点検員が長時間にわたって作業を行うことが困難である。 In the system of Patent Literature 1, when the virtual reality device is smart glasses, the display unit is an augmented reality display that superimposes an image of an area corresponding to the orientation of the inspector on the outside scenery and allows the inspector to visually recognize the image. Therefore, it may be difficult for the inspector to move around the inspection site due to the reduced visibility of the outside scenery depending on the state of the displayed image of the inspection site. It is also conceivable to employ an HMD (Head Mount Display) as a virtual reality device from the viewpoint of enhancing the stereoscopic effect and sense of distance by displaying visual information, which is an image of the inspection site. However, since the HMD blocks the operator's entire field of view, it is more difficult to move at the inspection site, and the HMD is heavy, so it is difficult for the inspector to work for a long time.

また、遠隔地の点検現場に配置された無人移動体の遠隔操作には、例えば、コントローラが用いられる。しかし、無人移動体を遠隔操作するためのコントローラの操作には所定水準の技能が必要であり、高い教育コストが要求される。また、遠隔操作の途中で入力作業などが必要になった場合、点検員が装着しているHMDを一時的に取り外し、コントローラとは異なるPC等の入力デバイスを用いる必要がある。そのため、入力作業の作業効率が不十分である。 Further, for example, a controller is used for remote control of an unmanned mobile unit placed at a remote inspection site. However, a certain level of skill is required to operate a controller for remotely controlling an unmanned mobile object, and high training costs are required. In addition, when an input operation or the like is required during remote operation, it is necessary to temporarily remove the HMD worn by the inspector and use an input device such as a PC that is different from the controller. Therefore, the work efficiency of the input work is insufficient.

本開示は、遠隔操作者が遠隔操作時に移動することが容易であり、長時間の遠隔操作が可能であり、操作器の操作方法の習得が容易である遠隔操作システム、操作器及び遠隔操作方法を提供する。 The present disclosure provides a remote control system, a controller, and a remote control method that allow a remote operator to easily move during remote control, enable remote control for a long period of time, and easily learn how to operate the controller. I will provide a.

本開示の一態様は、第1の移動機構を備えたロボット装置と、操作現場から前記ロボット装置の動作の制御を指示する操作器と、を備える遠隔操作システムであって、前記操作器は、表示デバイスと、第2の移動機構と、を備え、前記操作器は、前記ロボット装置により撮像された第1の画像を受信し、前記表示デバイスに前記第1の画像を表示させ、操作者による前記操作器を移動させる操作が検知された場合、前記ロボット装置を移動させる指示を含む指示信号を前記ロボット装置へ送信し、前記ロボット装置は、前記指示信号を受信し、前記指示信号に基づいて、前記操作器の移動に対応して前記ロボット装置が移動するよう前記第1の移動機構を制御する、遠隔操作システムである。 One aspect of the present disclosure is a remote control system that includes a robot device that includes a first movement mechanism, and an operator that instructs control of the operation of the robot device from an operation site, wherein the operator: A display device and a second movement mechanism, wherein the operator receives a first image captured by the robot apparatus, causes the display device to display the first image, and is operated by an operator. When an operation to move the manipulator is detected, an instruction signal including an instruction to move the robot apparatus is transmitted to the robot apparatus, and the robot apparatus receives the instruction signal and based on the instruction signal. and a remote control system that controls the first moving mechanism so that the robot device moves in accordance with the movement of the operating device.

本開示の一態様は、操作現場から第1の移動機構を備えたロボット装置の動作の制御を指示する操作器であって、プロセッサと、通信デバイスと、表示デバイスと、第2の移動機構と、を備え、前記プロセッサは、前記通信デバイスを介して、前記ロボット装置により撮像された第1の画像を受信し、前記表示デバイスに前記第1の画像を表示させ、操作者による前記操作器を移動させる操作が検知された場合、前記通信デバイスを介して、前記ロボット装置を移動させる指示を含む指示信号を送信する、操作器である。 One aspect of the present disclosure is an operation device that instructs control of the operation of a robot device that includes a first movement mechanism from an operation site, and includes a processor, a communication device, a display device, and a second movement mechanism. , wherein the processor receives a first image captured by the robot apparatus via the communication device, causes the display device to display the first image, and operates the operation device by an operator. The operator transmits an instruction signal including an instruction to move the robot apparatus via the communication device when an operation to move is detected.

本開示の一態様は、操作現場から第1の移動機構を備えたロボット装置の動作の制御を指示する遠隔操作支援方法であって、前記ロボット装置により撮像された第1の画像を受信し、表示デバイスに前記第1の画像を表示させ、操作者による前記表示デバイスを含む操作器を移動させる操作が検知された場合、前記ロボット装置を移動させる指示を含む指示信号を前記ロボット装置へ送信する、遠隔操作支援方法である。 One aspect of the present disclosure is a remote operation support method for instructing control of an operation of a robot device having a first movement mechanism from an operation site, the method receiving a first image captured by the robot device, Displaying the first image on a display device, and transmitting an instruction signal including an instruction to move the robot device to the robot device when an operator's operation to move the operation device including the display device is detected. , is a remote control support method.

本開示によれば、遠隔操作者が遠隔操作時に移動することが容易であり、長時間の遠隔操作が可能であり、操作器の操作方法の習得が容易である。 According to the present disclosure, it is easy for a remote operator to move during remote operation, long-term remote operation is possible, and it is easy to learn how to operate the operation device.

本開示の実施形態の遠隔操作システムの構成例を示すブロック図1 is a block diagram showing a configuration example of a remote control system according to an embodiment of the present disclosure; FIG. 遠隔現場に配置された対象物と遠隔制御ロボットとの外観例を示す模式図Schematic diagram showing an example of the appearance of an object placed at a remote site and a remote-controlled robot 操作現場に配置された操作器と操作者との外観例を示す模式図Schematic diagram showing an example of the external appearance of the operation device and the operator placed at the operation site 入力センサの入力に基づく入力操作の検出例を説明するための図A diagram for explaining an example of detection of an input operation based on input from an input sensor. 表示範囲外且つ撮像範囲内に存在する物体に関する情報の表示例を示す図A diagram showing a display example of information on an object existing outside the display range and within the imaging range. 操作器に対するスワイプ操作に基づく遠隔カメラの向きの指示例を示す図A diagram showing an example of an instruction of the direction of the remote camera based on a swipe operation on the operation device. 操作器に対するスワイプ操作に基づく遠隔制御ロボットの移動の指示例を示す図A diagram showing an example of an instruction to move the remote control robot based on a swipe operation on the operation device. 遠隔制御ロボットの周辺に障害物が存在する場合のアラート表示の一例を示す図A diagram showing an example of an alert display when there are obstacles around the remote control robot. 複数の操作器が連携した形態の一例を示す模式図Schematic diagram showing an example of a form in which a plurality of operating devices are linked 複数の操作器が連携した形態の一例を示す模式図Schematic diagram showing an example of a form in which a plurality of operating devices are linked 複数の操作器が連携した形態の一例を示す模式図Schematic diagram showing an example of a form in which a plurality of operating devices are linked 遠隔操作システムの動作例を示すフローチャートFlowchart showing an operation example of the remote control system 変形例における遠隔制御ロボットの構成を示す模式図Schematic diagram showing the configuration of a remote control robot in a modified example

以下、適宜図面を参照しながら、実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。尚、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided to allow those skilled in the art to fully understand the present disclosure and are not intended to limit the claimed subject matter thereby.

例えば、実施形態でいう「部」又は「装置」とは単にハードウェアによって機械的に実現される物理的構成に限らず、その構成が有する機能をプログラムなどのソフトウェアにより実現されるものも含む。また、1つの構成が有する機能が2つ以上の物理的構成により実現されても、又は2つ以上の構成の機能が例えば1つの物理的構成によって実現されていてもかまわない。 For example, the term "unit" or "apparatus" as used in the embodiments is not limited to a physical configuration that is mechanically implemented simply by hardware, but also includes a configuration that implements the functions of the configuration by software such as a program. Also, the function of one configuration may be implemented by two or more physical configurations, or the functions of two or more configurations may be implemented by, for example, one physical configuration.

(遠隔操作システムの構成)
図1は、本開示の実施形態の遠隔操作システム5の構成例を示すブロック図である。図2は、遠隔現場LN1に配置された対象物100と遠隔制御ロボット10との外観例を示す模式図である。図3は、操作現場LN2に配置された操作器30と操作者200との外観例を示す模式図である。
(Configuration of remote control system)
FIG. 1 is a block diagram showing a configuration example of a remote control system 5 according to an embodiment of the present disclosure. FIG. 2 is a schematic diagram showing an appearance example of the object 100 and the remote control robot 10 placed at the remote site LN1. FIG. 3 is a schematic diagram showing an appearance example of the operation device 30 and the operator 200 arranged at the operation site LN2.

本実施形態では、説明のため、図2において、対象物100に対向する遠隔制御ロボット10の左右方向をx1軸方向とし、遠隔制御ロボット10が対象物に近づく又は遠ざかる方向を前後方向としてy1軸方向とし、水平方向に垂直な鉛直方向を上下方向としてz1軸方向とする。また、図3において、操作者200に対向する操作器30の左右方向をx2軸方向とし、操作器30に操作者200が近づく又は遠ざかる方向を前後方向としてy2軸方向とし、水平方向に垂直な鉛直方向を上下方向としてz2軸方向とする。よって、x1y1平面及びx2y2平面は、水平方向に沿う。 In this embodiment, in FIG. 2, the left-right direction of the remote-controlled robot 10 facing the object 100 is defined as the x1-axis direction, and the direction in which the remote-controlled robot 10 approaches or moves away from the object is defined as the front-back direction in FIG. The vertical direction perpendicular to the horizontal direction is taken as the up-down direction and taken as the z1-axis direction. In FIG. 3, the left-right direction of the operator 30 facing the operator 200 is defined as the x2-axis direction, the direction in which the operator 200 approaches or moves away from the operator 30 is defined as the front-rear direction, and the y2-axis direction is defined as the direction perpendicular to the horizontal direction. Let the vertical direction be the z2-axis direction with the up-down direction. Therefore, the x1y1 plane and the x2y2 plane are along the horizontal direction.

遠隔操作システム5は、1つ以上の遠隔制御ロボット10と、1つ以上の操作器30と、を含んで構成される。遠隔制御ロボット10と、操作器30とは、例えば異なる場所に配置される。図2に示すように、遠隔制御ロボット10は、例えば遠隔現場LN1に配置される。遠隔現場LN1には、遠隔制御ロボット10と、対象物100、とが配置される。対象物100は、遠隔制御ロボット10による何らかの操作の対象となる物体である。図2では、対象物100が棚に複数載置されている。また、図3に示すように、操作器30は、例えば操作現場LN2(例えば自室(自宅の部屋))に配置される。操作現場LN2には、操作器30が配置され、操作者200が所在している。操作者200は、操作器30を操作する人物である。 The remote control system 5 includes one or more remote control robots 10 and one or more controllers 30 . The remote control robot 10 and the manipulator 30 are arranged at different locations, for example. As shown in FIG. 2, the remote-controlled robot 10 is placed, for example, at a remote site LN1. A remote control robot 10 and an object 100 are arranged at the remote site LN1. A target object 100 is an object to be manipulated by the remote control robot 10 . In FIG. 2, a plurality of objects 100 are placed on the shelf. Further, as shown in FIG. 3, the operation device 30 is arranged, for example, at the operation site LN2 (eg, own room (home room)). An operator 30 is arranged and an operator 200 is located at the operation site LN2. An operator 200 is a person who operates the operation device 30 .

図1に示すように、遠隔制御ロボット10は、プロセッサ11と、電源12と、メモリ13と、通信デバイス14と、マイク15(マイクロホン)と、環境センサ16と、遠隔カメラ17と、雲台機構18と、腕部機構19(アーム機構)と、移動機構20と、を含む構成である。 As shown in FIG. 1, the remote control robot 10 includes a processor 11, a power supply 12, a memory 13, a communication device 14, a microphone 15 (microphone), an environment sensor 16, a remote camera 17, and a platform mechanism. 18 , an arm mechanism 19 (arm mechanism), and a moving mechanism 20 .

プロセッサ11は、MPU(Micro processing Unit)、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphical Processing Unit)等を含んでよい。プロセッサ11は、各種集積回路(例えばLSI(Large Scale Integration)、FPGA(Field Programmable Gate Array))により構成されてもよい。プロセッサ11は、メモリ13に保持されたプログラムを実行することで、各種機能を実現する。プロセッサ11は、遠隔制御ロボット10の各部を統括的に制御し、各種処理を行う。 The processor 11 may include an MPU (Micro processing Unit), a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphical Processing Unit). The processor 11 may be configured by various integrated circuits (eg, LSI (Large Scale Integration), FPGA (Field Programmable Gate Array)). The processor 11 implements various functions by executing programs held in the memory 13 . The processor 11 comprehensively controls each part of the remote control robot 10 and performs various processes.

電源12は、プロセッサ11を介して、遠隔制御ロボット10の各部に必要な電力を供給する。 The power supply 12 supplies necessary power to each part of the remote control robot 10 via the processor 11 .

メモリ13は、一次記憶装置(例えばRAM(Random Access Memory)又はROM(Read Only Memory))を含む。メモリ13は、二次記憶装置(例えばHDD(Hard Disk Drive)又はSSD(Solid State Drive))又は三次記憶装置(例えば光ディスク又はSDカード)等を含んでよい。また、メモリ13は、外部記憶媒体であってもよい。メモリ13は、各種データ、情報又はプログラム等を記憶する。 The memory 13 includes a primary storage device (eg, RAM (Random Access Memory) or ROM (Read Only Memory)). The memory 13 may include a secondary storage device (for example, HDD (Hard Disk Drive) or SSD (Solid State Drive)) or a tertiary storage device (for example, optical disk or SD card). Also, the memory 13 may be an external storage medium. The memory 13 stores various data, information, programs, and the like.

通信デバイス14は、各種データ又は情報等を通信する。通信デバイス14による有線又は無線による通信方式に従って通信する。通信方式は、WAN(Wide Area Network)、LAN(Local Area Network)、又は携帯電話用のセルラー通信(例えばLTE、5G)、又は近距離通信(例えば、赤外線通信又はBluetooth(登録商標)通信)又は電力線通信等であってもよい。 The communication device 14 communicates various data or information. The communication device 14 communicates according to a wired or wireless communication method. The communication method is WAN (Wide Area Network), LAN (Local Area Network), or cellular communication for mobile phones (for example, LTE, 5G), or short-range communication (for example, infrared communication or Bluetooth (registered trademark) communication) or Power line communication or the like may be used.

マイク15は、遠隔制御ロボット10の周囲の音を収音する。ここでの音は、遠隔現場LN1の環境音、音声、音楽、又はその他の音を広く含む。マイク15は、遠隔制御ロボット10の任意の場所に設置される。マイク15は、例えば、遠隔制御ロボット10の耳に相当し、遠隔カメラ17の上端部のx1軸方向両端部に配置される。 The microphone 15 picks up sounds around the remote control robot 10 . The sounds here broadly include environmental sounds, voices, music, or other sounds of the remote site LN1. The microphone 15 is installed anywhere on the remote control robot 10 . The microphones 15 correspond to the ears of the remote control robot 10, for example, and are arranged at both ends of the upper end of the remote camera 17 in the x1-axis direction.

環境センサ16は、遠隔制御ロボット10が配置された環境における任意の情報を検出するセンサである。環境センサ16は、遠隔制御ロボット10の周辺環境において距離情報を取得可能な深度カメラ、ステレオカメラ、又は3次元LiDAR等であってよい。 The environment sensor 16 is a sensor that detects arbitrary information in the environment in which the remote control robot 10 is placed. The environment sensor 16 may be a depth camera, a stereo camera, a three-dimensional LiDAR, or the like capable of acquiring distance information in the surrounding environment of the remote control robot 10 .

プロセッサ11は、環境センサ16により検出された情報に基づいて、遠隔現場LN1の3次元モデル(遠隔制御ロボット10の周辺の環境のモデル)(単に周辺環境モデルとも称する)を生成し、メモリ13に格納してよい。遠隔制御ロボット10の周辺環境モデルは、遠隔制御ロボット10が移動する際の障害物の回避等に利用できる。周辺環境モデルは、遠隔制御ロボット10が移動しながら順次現在位置を変更しながら生成されてよい。例えば、プロセッサ11は、SLAM(Simultaneous Localization And Mapping)のアルゴリズムに従って、自己位置推定と環境地図(遠隔現場LN1内の地図)との生成を同時に行う。これにより、プロセッサ11は、未知の環境下においても環境地図を生成する。 Based on the information detected by the environment sensor 16, the processor 11 generates a three-dimensional model of the remote site LN1 (a model of the surrounding environment of the remote control robot 10) (also referred to simply as a surrounding environment model), and stores it in the memory 13. can be stored. The peripheral environment model of the remote control robot 10 can be used for avoiding obstacles when the remote control robot 10 moves. The surrounding environment model may be generated while the remote control robot 10 moves and changes the current position sequentially. For example, the processor 11 simultaneously performs self-location estimation and environment map generation (map within the remote site LN1) according to the SLAM (Simultaneous Localization And Mapping) algorithm. Thereby, the processor 11 generates an environment map even in an unknown environment.

環境センサ16は、定期的(例えば1Hz~30Hz程度)に遠隔制御ロボット10の周辺環境の距離情報を取得する。プロセッサ11は、取得された距離情報に基づく周辺環境モデルと、遠隔制御ロボット10の現在位置(現在の自己推定位置)での予め取得済みの周辺環境モデルと、の差分量を計測し、差分量が所定量以上である場合に、周辺環境モデルの更新を行う。これにより、遠隔制御ロボット10は、周辺環境の変化に対応し易くなる。また、遠隔制御ロボット10は、差分量が所定量以上でない場合に周辺環境モデルの更新を抑制することで、周辺環境に大きな変化がない場合の更新を抑制できるので、処理の負荷を軽減できる。環境センサ16は、例えば台座21に設置される(図2参照)。 The environment sensor 16 acquires distance information of the surrounding environment of the remote control robot 10 periodically (for example, about 1 Hz to 30 Hz). The processor 11 measures the amount of difference between the surrounding environment model based on the acquired distance information and the previously acquired surrounding environment model at the current position (current self-estimated position) of the remote control robot 10, and calculates the difference amount. is greater than or equal to a predetermined amount, the surrounding environment model is updated. This makes it easier for the remote control robot 10 to adapt to changes in the surrounding environment. In addition, the remote control robot 10 suppresses updating of the surrounding environment model when the difference amount is less than a predetermined amount, thereby suppressing updating when there is no significant change in the surrounding environment, thereby reducing the processing load. The environment sensor 16 is installed, for example, on a pedestal 21 (see FIG. 2).

遠隔カメラ17は、遠隔制御ロボット10の周囲を撮像し、画像を得る。遠隔カメラ17の画角は、広くても狭くてもよい。遠隔カメラ17は、遠隔カメラ17により撮像された画像には、例えば被写体としての対象物100が映り込んでいる。遠隔カメラ17は、遠隔制御ロボット10の目に相当し、雲台機構18に回転自在に支持されている(図2参照)。 The remote camera 17 takes an image of the surroundings of the remote control robot 10 to obtain an image. The angle of view of the remote camera 17 may be wide or narrow. An image captured by the remote camera 17 includes, for example, an object 100 as a subject. The remote camera 17 corresponds to the eyes of the remote control robot 10 and is rotatably supported by the platform mechanism 18 (see FIG. 2).

また、プロセッサ11は、遠隔カメラ17により撮像された画像に対して、所定のタイミングで(例えば常時)画像認識を行い、画像内の物体を認識する。この所定のタイミングの間隔を十分に短くすることによって、プロセッサ11は、遠隔制御ロボット10による操作の対象となる対象物100、及び、その他の物体を認識し続けることができる。そこで、以下では、遠隔制御ロボット10は、対象物100、及び、その他の物体は常に認識されているものとして説明する。 In addition, the processor 11 performs image recognition at a predetermined timing (for example, all the time) on the image captured by the remote camera 17 to recognize an object in the image. By sufficiently shortening the predetermined timing interval, the processor 11 can continue to recognize the target object 100 and other objects to be manipulated by the remote control robot 10 . Therefore, the remote control robot 10 will be described below assuming that the object 100 and other objects are always recognized.

雲台機構18は、遠隔制御ロボット10の胴体部22に対する遠隔カメラ17の向きを調整自在にして、胴体部22と遠隔カメラ17とを連結する。雲台機構18は、プロセッサ11の制御に従って、電源12からの電力を受けて駆動し、遠隔制御ロボット10の胴体部22に対する遠隔カメラ17の向きを調整する。雲台機構18は、例えば、ロール軸、ピッチ軸、及びヨー軸のうちのピッチ軸及びヨー軸の2軸を回転軸として回転自在である。なお。雲台機構18は、ロール軸、ピッチ軸、及びヨー軸の3軸を回転軸として回転自在であってもよい。 The camera platform mechanism 18 allows the orientation of the remote camera 17 with respect to the body section 22 of the remote control robot 10 to be adjustable, and connects the body section 22 and the remote camera 17 . Under the control of the processor 11 , the camera platform mechanism 18 receives power from the power supply 12 and drives to adjust the orientation of the remote camera 17 with respect to the body 22 of the remote control robot 10 . The camera platform mechanism 18 is rotatable about two axes, the pitch axis and the yaw axis, among the roll axis, the pitch axis, and the yaw axis, for example. note that. The camera platform mechanism 18 may be rotatable about three axes, a roll axis, a pitch axis, and a yaw axis.

腕部機構19は、胴体部22に接続される基端から、手部19hに相当する先端に至るまでの間の機構を含む。腕部機構19は、1つ以上(図2では2つ)のアーム19aと、手部19hと、アーム19a同士、アーム19aと手部19h、又は手部19h内の指部、を接続する各関節部と、を有する。腕部機構19は、プロセッサ11の制御に従って電源12からの電力を受けて駆動し、対象物100に対して任意の操作を行う。手部19hは、例えば操作として、遠隔現場LN1に存在する対象物100を掴んだり、掴んだものを開放したり、掴んだものを移動させたりすることが可能である。遠隔制御ロボット10の腕部機構19は、例えば6自由度又は7自由度を有する。関節部の数が多い程、腕部機構19は滑らかな動作が可能である。腕部機構19は、遠隔制御ロボット10の腕及び手に相当する。なお、手部19hの移動は、移動機構20を駆動せずに行う手部19hの位置の変更であるものとして説明する。 The arm mechanism 19 includes mechanisms from the proximal end connected to the body portion 22 to the distal end corresponding to the hand portion 19h. The arm mechanism 19 connects one or more (two in FIG. 2) arms 19a, hands 19h, arms 19a to each other, arms 19a and hands 19h, or fingers within hands 19h. and a joint. The arm mechanism 19 is driven by receiving power from the power supply 12 under the control of the processor 11 to perform arbitrary operations on the object 100 . The hand part 19h can, for example, operate to grasp the target object 100 existing at the remote site LN1, release the grasped object, or move the grasped object. The arm mechanism 19 of the remote controlled robot 10 has, for example, 6 or 7 degrees of freedom. As the number of joints increases, the arm mechanism 19 can move more smoothly. The arm mechanism 19 corresponds to the arm and hand of the remote control robot 10 . It should be noted that the movement of the hand portion 19h is described as changing the position of the hand portion 19h without driving the moving mechanism 20. FIG.

移動機構20は、プロセッサ11の制御に従って電源12からの電力を受けて駆動し、遠隔制御ロボット10を任意に移動させる。移動機構20は、例えば、メカナムホイール、オムニホイール、又は車輪により構成される。移動機構20がメカナムホイールである場合、遠隔制御ロボット10は、全方位に移動可能であり、メカナムホイールの7軸を基準に旋回可能である。移動機構20がオムニホイールである場合、遠隔制御ロボット10は、全方位に移動可能であり、オムニホイールの中心軸を基準に旋回可能である。移動機構20が車輪である場合、遠隔制御ロボット10は、前後方向(図2のy1軸方向)に移動可能であり、車輪の中心軸を基準に旋回可能である。 The moving mechanism 20 receives power from the power source 12 and drives according to the control of the processor 11 to arbitrarily move the remote control robot 10 . The moving mechanism 20 is configured by, for example, a mecanum wheel, an omni wheel, or wheels. When the moving mechanism 20 is a mecanum wheel, the remote control robot 10 can move in all directions and can turn around the seven axes of the mecanum wheel. When the movement mechanism 20 is an omniwheel, the remote control robot 10 can move in all directions and can turn around the central axis of the omniwheel. When the moving mechanism 20 is a wheel, the remote control robot 10 can move in the front-rear direction (the y1-axis direction in FIG. 2) and can turn around the central axis of the wheel.

例えば、移動機構20が四輪のオムニホイールの場合、プロセッサ11は、前後方向の移動と左右方向(図2のx1軸方向)の移動とx1y1面に沿って時計回り又は反時計回りに旋回するように、各オムニホイールの正転及び逆転の速度を指令する。移動機構20は、遠隔制御ロボット10の脚に相当する。 For example, when the movement mechanism 20 is a four-wheel omni wheel, the processor 11 moves in the front-rear direction, moves in the left-right direction (the x1-axis direction in FIG. 2), and rotates clockwise or counterclockwise along the x1y1 plane. command the forward and reverse speed of each omniwheel. The moving mechanism 20 corresponds to the legs of the remote control robot 10 .

図1に示すように、操作器30は、プロセッサ31と、電源32と、メモリ33と、通信デバイス34と、スピーカ35と、環境センサ36と、表示デバイス37、入力センサ38、変形機構39、移動機構40と、を含む構成である。 As shown in FIG. 1, the operation device 30 includes a processor 31, a power source 32, a memory 33, a communication device 34, a speaker 35, an environment sensor 36, a display device 37, an input sensor 38, a deformation mechanism 39, and a moving mechanism 40 .

プロセッサ31は、MPU、CPU、DSP、又はGPU等を含んでよい。プロセッサ11は、各種集積回路(例えばLSI、FPGA)により構成されてもよい。プロセッサ31は、メモリ33に保持されたプログラムを実行することで、各種機能を実現する。プロセッサ31は、操作器30の各部を統括的に制御し、各種処理を行う。 The processor 31 may include an MPU, CPU, DSP, GPU, or the like. The processor 11 may be composed of various integrated circuits (eg, LSI, FPGA). The processor 31 implements various functions by executing programs held in the memory 33 . The processor 31 comprehensively controls each part of the operation device 30 and performs various processes.

電源32は、充電可能な二次電池などで構成される。電源32は、プロセッサ31による電池残量と充電制御との監視が可能であり、操作器30の各部に必要な電力を供給する。 The power source 32 is composed of a rechargeable secondary battery or the like. The power supply 32 can monitor the remaining battery level and charge control by the processor 31 and supplies necessary power to each part of the operation device 30 .

メモリ33は、一次記憶装置(例えばRAM又はROM)を含む。メモリ33は、二次記憶装置(例えばHDD又はSSD)又は三次記憶装置(例えば光ディスク又はSDカード)等を含んでよい。また、メモリ33は、外部記憶媒体であってもよい。メモリ33は、各種データ、情報又はプログラム等を記憶する。 Memory 33 includes primary storage (eg, RAM or ROM). The memory 33 may include a secondary storage device (eg, HDD or SSD) or a tertiary storage device (eg, optical disc or SD card). Also, the memory 33 may be an external storage medium. The memory 33 stores various data, information, programs, and the like.

通信デバイス34は、各種データ又は情報等を通信する。通信デバイス34による有線又は無線による通信方式に従って通信する。通信方式は、WAN、LAN、又は携帯電話用のセルラー通信(例えばLTE、5G)、又は近距離通信(例えば、赤外線通信又はBluetooth(登録商標)通信)又は電力線通信等であってもよい。 The communication device 34 communicates various data or information. The communication device 34 communicates according to a wired or wireless communication method. The communication method may be WAN, LAN, or cellular communication for mobile phones (eg LTE, 5G), short-range communication (eg infrared communication or Bluetooth® communication), power line communication, or the like.

スピーカ35は、各種の音に関する音を出力する。スピーカ35は、例えば、通信デバイス34を介して、遠隔制御ロボット10から取得された遠隔現場LN1での周囲音を出力する。これにより、操作者200が、遠隔現場LN1の状況を聴覚的に把握可能である。また、スピーカ35は、後述するアラートの際にアラート音を出力してもよい。 The speaker 35 outputs sounds related to various sounds. The speaker 35 outputs ambient sound at the remote site LN1 acquired from the remote control robot 10 via the communication device 34, for example. This allows the operator 200 to audibly grasp the situation of the remote site LN1. Moreover, the speaker 35 may output an alert sound at the time of an alert, which will be described later.

環境センサ36は、操作器30が配置された操作現場LN2の環境における任意の情報を検出するセンサである。環境センサ36は、操作器30の周辺環境において距離情報を取得可能な深度カメラ、ステレオカメラ、又は3次元LiDARであってよい。 The environment sensor 36 is a sensor that detects arbitrary information in the environment of the operation site LN2 where the operation device 30 is arranged. The environment sensor 36 may be a depth camera, a stereo camera, or a 3D LiDAR capable of acquiring distance information in the surrounding environment of the manipulator 30 .

プロセッサ31は、環境センサ36により検出された情報に基づいて、操作現場LN2の3次元モデル(操作器30の周辺の環境のモデル)(単に周辺環境モデルとも称する)を生成し、メモリ33に格納してよい。生成された操作器30の周辺環境モデルは、操作器30が移動する際の障害物の回避等に利用できる。操作器30の周辺環境モデルは、操作器30が移動しながら順次現在位置を変更しながら生成されてよい。例えば、プロセッサ31は、SLAMのアルゴリズムに従って、自己位置推定と環境地図(操作現場LN2内の地図)との生成を同時に行う。これにより、プロセッサ31は、未知の環境下においても環境地図を生成する。 Based on the information detected by the environment sensor 36 , the processor 31 generates a three-dimensional model of the operation site LN 2 (a model of the environment around the operator 30 ) (also referred to simply as a model of the surrounding environment), and stores the model in the memory 33 . You can The generated peripheral environment model of the operating device 30 can be used to avoid obstacles when the operating device 30 moves. The surrounding environment model of the operation device 30 may be generated while the operation device 30 moves and changes the current position sequentially. For example, the processor 31 simultaneously performs self-position estimation and generation of an environment map (map inside the operation site LN2) according to the SLAM algorithm. Thereby, the processor 31 generates an environment map even in an unknown environment.

また、プロセッサ31は、操作器30の周辺環境モデルを基に、操作器30の周辺に所在する操作者200(人間の一例)の位置姿勢を特定してよい。この場合、プロセッサ31は、「人体検出」とも表現される姿勢推定モデルを利用して、予め学習した操作者200の関節点を検出して関節点同士を結ぶことで、操作者200の姿勢を検出してよい。ここでの操作者200の姿勢には、操作者200が行う任意のジェスチャが含まれる。ここでのジェスチャは、対象物100を把持(掴むこと)、開放(離すこと)、移動、その他のジェスチャを含んでよい。なお、予め学習された操作者200の関節点の情報は、メモリ13に保持されていてよい。 In addition, the processor 31 may identify the position and orientation of the operator 200 (an example of a person) located around the operating device 30 based on the peripheral environment model of the operating device 30 . In this case, the processor 31 uses a posture estimation model, which is also expressed as “human body detection,” to detect previously learned joint points of the operator 200 and connect the joint points, thereby estimating the posture of the operator 200 . may be detected. The posture of the operator 200 here includes arbitrary gestures made by the operator 200 . The gestures here may include gripping (grabbing), releasing (releasing) the object 100, moving, and other gestures. Information on the joint points of the operator 200 learned in advance may be held in the memory 13 .

また、プロセッサ31は、後述する入力センサ38Bで検出された入力に基づいて、自己推定位置(操作器30の位置)に対する操作者200の位置を所定距離以内に維持するよう制御してよい。これにより、操作器30は、操作者200の移動に操作器30が追従するよう制御する「自動追従制御」が可能である。 Further, the processor 31 may perform control to maintain the position of the operator 200 relative to the self-estimated position (the position of the operation device 30) within a predetermined distance based on the input detected by the input sensor 38B, which will be described later. As a result, the operation device 30 can perform “automatic follow-up control” for controlling the operation device 30 to follow the movement of the operator 200 .

表示デバイス37は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、リアプロジェクションディスプレイ、又はその他の表示デバイスである。表示デバイス37は、操作デバイスも兼ねるタッチパネルであってもよい。表示デバイス37は、各種データ又は情報(例えばアラート情報)を表示可能である。また、表示デバイス37は、操作器30の背面側(Y1軸方向の正側)に表示対象の画像を投影するプロジェクタであってもよい。この場合、表示デバイス37は、表示デバイス37の背面側にある壁面又は床面等に画像を投影してよい。本実施形態では、表示デバイス37がタッチパネルであることを主に例示する。なお、操作器30の基本姿勢において、表示デバイス37の表示面は、xz面に沿って配置され、つまり鉛直方向に沿って配置される(図3参照)。 The display device 37 is a liquid crystal display, an organic EL (Electro Luminescence) display, a rear projection display, or another display device. The display device 37 may be a touch panel that also serves as an operation device. The display device 37 can display various data or information (for example, alert information). Further, the display device 37 may be a projector that projects an image to be displayed on the rear side of the operation device 30 (the positive side in the Y1 axis direction). In this case, the display device 37 may project an image onto a wall surface, a floor surface, or the like on the back side of the display device 37 . This embodiment mainly exemplifies that the display device 37 is a touch panel. In addition, in the basic posture of the operation device 30, the display surface of the display device 37 is arranged along the xz plane, that is, arranged along the vertical direction (see FIG. 3).

入力センサ38は、用途の違いによって複数の種類用意されており、入力センサ38A及び入力センサ38Bを含む。入力センサ38Aは、表示デバイス37の外枠(周端部にある枠の外側)に設置される(図3参照)。入力センサ38Aは、例えば、歪センサ(例えば金属歪センサ)、圧力センサである。入力センサ38Aは、操作者が操作器30に対して加えた力を検出し、例えば、この力の大きさ、方向、又はその他の力に関する情報を検出する。入力センサ38Aによる検出結果は、例えば、遠隔制御ロボット10の移動又は姿勢等の変更に関する処理に用いられる。 A plurality of types of the input sensor 38 are prepared according to different uses, and include an input sensor 38A and an input sensor 38B. The input sensor 38A is installed on the outer frame of the display device 37 (outside the frame at the peripheral edge) (see FIG. 3). The input sensor 38A is, for example, a strain sensor (for example, a metal strain sensor) or a pressure sensor. The input sensor 38A detects the force applied by the operator to the manipulator 30, and detects, for example, the magnitude, direction, or other information regarding this force. The detection result by the input sensor 38A is used, for example, for processing related to movement or change in attitude of the remote control robot 10. FIG.

入力センサ38Bは、表示デバイス37の内枠(周端部にある枠の内側)に設置される(図3参照)。入力センサ38Bは、例えばカメラ又は赤外線センサを含む。入力センサ38Bは、表示デバイス37の前面での立体的な手の動き又は指のポーズ等をスキャンする。入力センサ38Bは、プロセッサ31と協働して、ジェスチャセンサとして動作してよい。この場合、LeapMotion(登録商標)のように、入力センサ38Bとしてのステレオカメラが、赤外線LED(Light Emitting Diode)の照射光が操作者200の手200hで反射された反射光を撮影し、プロセッサ31が、手の位置、姿勢、又はその組み合わせによるポーズ(ジェスチャ)等を検出する。 The input sensor 38B is installed on the inner frame of the display device 37 (inside the frame at the peripheral edge) (see FIG. 3). Input sensor 38B includes, for example, a camera or an infrared sensor. The input sensor 38B scans three-dimensional hand movements or finger poses on the front surface of the display device 37 . Input sensor 38B may cooperate with processor 31 to operate as a gesture sensor. In this case, like LeapMotion (registered trademark), a stereo camera as the input sensor 38B captures the reflected light of the light emitted from an infrared LED (Light Emitting Diode) reflected by the hand 200h of the operator 200, and the processor 31 detects poses (gestures) based on hand positions, postures, or a combination thereof.

変形機構39は、操作器30の形態を変形する。例えば、変形機構39は、操作器30の台座52に対する表示デバイス37の位置関係(姿勢)を変更する。台座52は水平方向に沿って配置される。変形機構39は、所定の方向(例えば鉛直方向)に対する表示デバイス37の角度(向き)を変更する。本実施形態では、表示デバイス37が水平方向に垂直な方向(鉛直方向)に沿って配置されるよう調整された形態を、「縦置き」とも称する。また、表示デバイス37が水平方向に沿って配置されるよう調整された形態を、「横置き」とも称する。 The deformation mechanism 39 deforms the form of the operation device 30 . For example, the deformation mechanism 39 changes the positional relationship (attitude) of the display device 37 with respect to the pedestal 52 of the operation device 30 . The pedestal 52 is arranged along the horizontal direction. The deformation mechanism 39 changes the angle (orientation) of the display device 37 with respect to a predetermined direction (eg, vertical direction). In the present embodiment, the mode in which the display device 37 is arranged in a direction perpendicular to the horizontal direction (vertical direction) is also referred to as “vertical placement”. Moreover, the configuration in which the display device 37 is arranged horizontally is also referred to as “horizontal placement”.

移動機構40は、プロセッサ11の制御に従って電源12からの電力を受けて駆動し、操作器30を任意に移動させる。移動機構40は、例えば、メカナムホイール、オムニホイール、又は車輪により構成される。移動機構40がメカナムホイールである場合、操作器30は、全方位に移動可能であり、メカナムホイールの7軸を基準に旋回可能である。移動機構40がオムニホイールである場合、操作器30は、全方位に移動可能であり、オムニホイールの中心軸を基準に旋回可能である。移動機構40が車輪である場合、操作器30は、前後方向(図3のy2軸方向)に移動可能であり、車輪の中心軸を基準に旋回可能である。 The moving mechanism 40 receives power from the power supply 12 and drives according to the control of the processor 11 to arbitrarily move the operating device 30 . The moving mechanism 40 is configured by, for example, a mecanum wheel, an omni wheel, or wheels. When the moving mechanism 40 is a mecanum wheel, the operating device 30 can move in all directions and can be turned around the seven axes of the mecanum wheel. When the moving mechanism 40 is an omniwheel, the operating device 30 can move in all directions and can turn around the central axis of the omniwheel. When the moving mechanism 40 is a wheel, the operation device 30 can move in the front-rear direction (the y2-axis direction in FIG. 3) and can turn around the central axis of the wheel.

例えば、移動機構40が四輪のオムニホイールの場合、プロセッサ31は、前後方向の移動と左右方向(図3のx2軸方向)の移動とx2y2面に沿って時計回り又は反時計回りに旋回するように、各オムニホイールの正転及び逆転の速度を指令する。 For example, when the movement mechanism 40 is a four-wheeled omni wheel, the processor 31 moves in the front-rear direction, moves in the left-right direction (the x2-axis direction in FIG. 3), and rotates clockwise or counterclockwise along the x2y2 plane. command the forward and reverse speed of each omniwheel.

移動機構40は、操作器30が操作者200に押されたり引っ張られたりする操作をトリガとして、プロセッサ31の制御により駆動して自動的に操作器30を移動させる。また、移動機構40は、操作器30が上記の操作をされて車輪等が回転することで、手動で移動可能であってもよい。 The moving mechanism 40 is driven by the control of the processor 31 and automatically moves the operating device 30 , triggered by an operation in which the operating device 30 is pushed or pulled by the operator 200 . Further, the moving mechanism 40 may be manually movable by operating the operating device 30 as described above and rotating wheels or the like.

次に、入力センサ38Aの入力に基づく入力操作の検出について説明する。
図4は、入力センサ38Aの入力に基づく入力操作の検出例を説明するための図である。
Next, detection of an input operation based on the input of the input sensor 38A will be described.
FIG. 4 is a diagram for explaining an example of detection of an input operation based on the input of the input sensor 38A.

操作器30は、操作本体部51と台座52と支持柱53とを含む。操作本体部51は、操作本体部51は、操作者200による操作を受ける部位であり、表示デバイス37を含む。台座52には移動機構40が取り付けられる。支持柱53は、操作本体部51と台座52とを連結する。支持柱53は、1つでも複数でもよい。支持柱53が複数設けられる場合、支持柱53が操作本体部51による加重を分散して受けることができ、操作器30の機構強度が向上する。図4では、支持柱53として2つの支持柱53A,53Bが設けられている。なお、図4以外では、操作器30における支持柱53の図示が省略されている。 The operation device 30 includes an operation body portion 51 , a base 52 and a support column 53 . The operation main body portion 51 is a part that receives an operation by the operator 200 and includes the display device 37 . A moving mechanism 40 is attached to the base 52 . The support column 53 connects the operation main body portion 51 and the pedestal 52 . One or a plurality of support columns 53 may be provided. When a plurality of support columns 53 are provided, the support columns 53 can receive the load of the operation main body 51 in a distributed manner, thereby improving the mechanical strength of the operation device 30 . In FIG. 4, two support columns 53A and 53B are provided as the support column 53. As shown in FIG. In addition, illustration of the support column 53 in the operation device 30 is omitted except in FIG. 4 .

各支持柱53は、アルミニウム等の微小に弾性変形する金属材料により形成されてよい。図4では、2つの支持柱53のそれぞれにおいて、少なくとも前面又は後面と右側面又は左側面との2面に、入力センサ38Aとしての歪ゲージが接着される。 Each support column 53 may be made of a metal material that is elastically deformed slightly, such as aluminum. In FIG. 4, on each of the two support columns 53, a strain gauge as the input sensor 38A is adhered to at least two surfaces, ie, the front or rear surface and the right or left side.

操作者200が操作本体部51の一部(例えば右側端部及び左側端部の少なくとも一方)を把持した状態で、前後方向(y2軸方向)又は左右方向(x2軸方向)に力(操作力)を加える(押圧する)場合、支持柱53には、その操作力の大きさ(操作量)と方向(操作方向)とに応じて、圧縮力又は引張力が加わる。支持柱53に接着された歪ゲージがこの圧縮力又は引張力に応じて伸縮することで、歪ゲージの抵抗値が増減する。この場合、歪ゲージが電流を流すことで、歪ゲージの抵抗の変化に応じて抵抗に流れる電圧が上昇又は低下する。プロセッサ31は、歪ゲージにおけるこの電圧変化を監視することで、操作者200の操作力を検出可能である。図4では、操作器30に対する操作者200の左手200h1による操作位置と、操作器30に対する操作者200の右手200h2による操作位置と、が示されている。 While the operator 200 grips a portion of the operation main body 51 (for example, at least one of the right end and the left end), the operator 200 applies a force (operating force ) is applied (pressed), a compressive force or a tensile force is applied to the support column 53 according to the magnitude (operating amount) and direction (operating direction) of the operating force. The strain gauge adhered to the support column 53 expands and contracts according to this compressive force or tensile force, thereby increasing or decreasing the resistance value of the strain gauge. In this case, the current flowing through the strain gauge increases or decreases the voltage flowing through the resistor according to the change in resistance of the strain gauge. The processor 31 can detect the operating force of the operator 200 by monitoring this voltage change in the strain gauge. FIG. 4 shows an operation position of the operator's 200 left hand 200h1 on the operation device 30 and an operation position of the operator's 200 right hand 200h2 on the operation device 30. FIG.

例えば、プロセッサ31は、歪ゲージにより支持柱53Aと支持柱53Bとに対する同じ前方向の力(入力の一例)が検出された場合、操作器30に対する前方向操作(入力操作の一例)として検出する。プロセッサ31は、歪ゲージにより支持柱53Aと支持柱53Bとに対する同じ後方向の力が検出された場合、操作器30に対する後方向操作として検出する。プロセッサ31は、歪ゲージにより支持柱53Aと支持柱53Bとに対する同じ右方向の力が検出された場合、操作器30に対する右方向操作として検出する。プロセッサ31は、歪ゲージにより支持柱53Aと支持柱53Bとに対する同じ左方向の力が検出された場合、操作器30に対する左方向操作として検出する。 For example, when the strain gauge detects the same forward force (an example of an input) on the support columns 53A and 53B, the processor 31 detects it as a forward operation (an example of the input operation) on the operating device 30. . The processor 31 detects the same rearward force on the support column 53A and the support column 53B by the strain gauge as a rearward operation on the operation device 30 . When the strain gauge detects the same rightward force on the support column 53A and the support column 53B, the processor 31 detects that the operation device 30 is operated in the rightward direction. When the strain gauge detects the same leftward force on the support column 53A and the support column 53B, the processor 31 detects that the operation device 30 is operated in the left direction.

また、例えば、プロセッサ31は、歪ゲージにより支持柱53Aに前方向の力が検出され、支持柱53Bに後方向の力が検出された場合、操作器30に対する左旋回(半時計回り)操作として検出する。プロセッサ31は、歪ゲージにより支持柱53Aに後方向の力が検出され、支持柱53Bに前方向の力が検出された場合、操作器30に対する右旋回(時計回り)操作として検出する。プロセッサ31は、これらの各入力操作に基づいて、操作器30を移動させる操作を検出する。 Further, for example, when the strain gauge detects a force in the forward direction on the support column 53A and a force in the rearward direction on the support column 53B, the processor 31 detects left turning (counterclockwise) operation on the operation device 30. To detect. When the strain gauge detects a rearward force on the support column 53A and a forward force on the support column 53B, the processor 31 detects that the operation device 30 is turned to the right (clockwise). Processor 31 detects an operation to move operating device 30 based on each of these input operations.

このように、プロセッサ31は、操作者200による操作器30に対する操作力の大きさと方向(前後左右移動と左右旋回)とを検出する。そして、プロセッサ31は、操作力の大きさと方向とに基づいて、操作者200の意図に応じた移動速度(旋回速度を含む)と移動方向(旋回方向を含む)とで遠隔制御ロボット10が移動するように、通信デバイス34を介して遠隔制御ロボット10へ移動を指示する移動指示信号を出力する。すなわち、プロセッサ31は、操作器30の移動速度や移動方向を検知し、それに対応する速度や方向に遠隔制御ロボット10を移動させる移動指示信号を出力する。 In this manner, the processor 31 detects the magnitude and direction of the operating force (forward/backward/left/right movement and left/right turning) by the operator 200 on the operating device 30 . Then, the processor 31 causes the remote control robot 10 to move at a moving speed (including turning speed) and moving direction (including turning direction) according to the intention of the operator 200 based on the magnitude and direction of the operation force. A movement instruction signal instructing the remote control robot 10 to move is output via the communication device 34 so as to move. That is, the processor 31 detects the moving speed and moving direction of the operator 30 and outputs a movement instruction signal for moving the remote control robot 10 in the corresponding speed and direction.

なお、このような入力操作は一例であり、他の入力操作が行われてもよい。例えば、上記では、操作者200の左右両手で操作器30を操作することを例示したが、操作者200の左右どちらかの片手で操作器30を操作し、遠隔制御ロボット10の移動等を指示してもよい。 Note that such an input operation is an example, and other input operations may be performed. For example, in the above description, the operation device 30 is operated with both left and right hands of the operator 200, but the operation device 30 can be operated with either the left or right hand of the operator 200 to instruct the remote control robot 10 to move or the like. You may

また、プロセッサ31は、操作者200の操作を、移動機構40の移動等から検知してもよい。この場合、操作者200が操作器30に接触していることを検知した場合のみ、移動機構40の移動等に基づいて移動指示を行ってもよい。これにより、操作器30は、誤った指示を行うことを防止できる。また、操作者200が操作器30の所定の箇所(例えば、表示デバイス37の外枠)に接触していることが検知されていない場合には、操作器30の移動の有無に関わらず、操作器30の移動が規制されるよう、プロセッサ31は、移動機構40の駆動を抑制(例えばロック)してもよい。なお、移動機構40の移動の規制の内容としては、例えば、プロセッサ31が、移動機構40を動かせないようにロックしたり、移動機構40の移動に負荷がかかるようにブレーキをかけたりすることが考えられる。これにより、操作器30は、操作者200が誤って操作器30及び遠隔制御ロボット10を移動させてしまうことを防ぐことができるので、安全に遠隔制御ロボット10を運用できる。また、操作者200が操作器30の所定の箇所に接触していない場合には、プロセッサ31は、操作器30を移動可能にするものの、操作器30の移動の有無に関わらず、移動指示信号を出力しないように制御してもよい。これにより、例えば、操作器30が、操作者200から操作しにくい位置に存在している場合に、遠隔制御ロボット10を移動させることなく操作器30のみを移動させることが可能となる。 Also, the processor 31 may detect the operation of the operator 200 from the movement of the moving mechanism 40 or the like. In this case, only when it is detected that the operator 200 is in contact with the operation device 30, the movement instruction may be issued based on the movement of the movement mechanism 40 or the like. Thereby, the operating device 30 can prevent an erroneous instruction. Further, when it is not detected that the operator 200 is in contact with a predetermined portion of the operation device 30 (for example, the outer frame of the display device 37), regardless of whether or not the operation device 30 is moved, the operation is performed. The processor 31 may suppress (for example, lock) the driving of the moving mechanism 40 so that the movement of the device 30 is restricted. In addition, as the contents of the restriction on the movement of the moving mechanism 40, for example, the processor 31 may lock the moving mechanism 40 so that it cannot be moved, or apply a brake so as to apply a load to the movement of the moving mechanism 40. Conceivable. As a result, the operator 30 can prevent the operator 200 from accidentally moving the operator 30 and the remote-controlled robot 10, so that the remote-controlled robot 10 can be operated safely. Further, when the operator 200 is not in contact with a predetermined portion of the operation device 30, the processor 31 makes the operation device 30 movable, but regardless of whether the operation device 30 is moved, the movement instruction signal may be controlled so as not to output This makes it possible to move only the controller 30 without moving the remote control robot 10, for example, when the controller 30 is located at a position that is difficult for the operator 200 to operate.

次に、遠隔操作システム5による遠隔現場LN1のモニタリングについて説明する。 Next, monitoring of the remote site LN1 by the remote control system 5 will be described.

遠隔操作システム5では、遠隔制御ロボット10は、遠隔現場LN1における各種の情報を取得する。具体的には、遠隔カメラ17が、撮像対象の画像を撮像する。この画像には、例えば対象物100が含まれる。また、マイク15が、遠隔制御ロボット10の周囲の音(環境音)を収音し、環境音の音情報を得る。通信デバイス14が、得られた画像及び音情報を操作器30へ送信する。操作器30は、操作現場LN2において、遠隔現場LN1の様子を再現する。具体的には、通信デバイス34が、遠隔制御ロボット10からの画像及び音情報を受信する。表示デバイス37が、受信された画像を表示する。スピーカ35が、受信された音情報を基に、遠隔現場LN1の環境音を出力する(音を発する)。 In the remote control system 5, the remote control robot 10 acquires various information on the remote site LN1. Specifically, the remote camera 17 captures the image of the imaging target. This image includes, for example, the object 100 . Also, the microphone 15 picks up sounds (environmental sounds) around the remote control robot 10 to obtain sound information of the environmental sounds. Communication device 14 transmits the resulting image and sound information to manipulator 30 . The operator 30 reproduces the state of the remote site LN1 at the operation site LN2. Specifically, communication device 34 receives image and sound information from remote controlled robot 10 . A display device 37 displays the received image. The speaker 35 outputs (sounds) the environmental sound of the remote site LN1 based on the received sound information.

これにより、操作者200は、操作器30の表示デバイス37の表示面に表示された映像を裸眼で見ることにより、まるで窓から覗き込むような感覚で、遠隔制御ロボット10の遠隔カメラ17により撮像された画像に映り込んだ遠隔現場LN1をモニタリング(監視)できる。また、操作者200は、遠隔現場LN1の環境音もあわせて確認できる。 As a result, the operator 200 sees the image displayed on the display surface of the display device 37 of the operation device 30 with the naked eye, and the image is captured by the remote camera 17 of the remote control robot 10 as if looking through a window. It is possible to monitor (monitor) the remote site LN1 reflected in the captured image. In addition, the operator 200 can also confirm the environmental sound of the remote site LN1.

遠隔操作システム5では、操作器30のプロセッサ31は、入力センサ38Aとして測距センサ等により操作器30と操作者200との距離d1(不図示)を検出し、この距離d1に基づいて遠隔制御ロボット10の遠隔カメラ17による撮像範囲の制御を指示してよい。この場合、例えば、操作器30の通信デバイス34が、操作器30と操作者200との距離d1を示す距離情報を遠隔制御ロボット10に送信し、遠隔制御ロボット10の通信デバイス14が、この距離情報を受信してよい。そして、プロセッサ11は、距離情報に基づいて、遠隔カメラ17の撮像範囲を決定してよい。例えば、操作器30と操作者200との距離が遠いほど遠隔カメラ17の画角を狭めて撮像範囲を狭くし、距離が近いほど画角を広げて撮像範囲を広げてもよい。このようにすることで、表示デバイス37に表示される遠隔地の映像が、表示デバイス37が実物の窓であるときと同様に変化するため、操作器30は、操作者200に臨場感のある操作環境を提供することができる。または、プロセッサ31が、距離に基づいて撮像範囲を算出し、撮像範囲の情報を遠隔制御ロボット10に送信し、通信デバイス14がこの撮像範囲の情報を受信してよい。そして、プロセッサ11は、遠隔カメラ17の撮像範囲をこの撮像範囲に決定してよい。 In the remote control system 5, the processor 31 of the operation device 30 detects the distance d1 (not shown) between the operation device 30 and the operator 200 by a distance measuring sensor or the like as the input sensor 38A, and performs remote control based on this distance d1. Control of the imaging range by the remote camera 17 of the robot 10 may be instructed. In this case, for example, the communication device 34 of the operator 30 transmits distance information indicating the distance d1 between the operator 30 and the operator 200 to the remote control robot 10, and the communication device 14 of the remote control robot 10 transmits this distance You may receive information. Processor 11 may then determine the imaging range of remote camera 17 based on the distance information. For example, as the distance between the operator 30 and the operator 200 increases, the angle of view of the remote camera 17 may be narrowed to narrow the imaging range, and as the distance decreases, the angle of view may be widened to widen the imaging range. By doing so, the image of the remote location displayed on the display device 37 changes in the same manner as when the display device 37 is a real window, so that the operation device 30 gives the operator 200 a sense of realism. It can provide an operating environment. Alternatively, the processor 31 may calculate the imaging range based on the distance, transmit the imaging range information to the remote control robot 10, and the communication device 14 may receive the imaging range information. Processor 11 may then determine the imaging range of remote camera 17 to be this imaging range.

プロセッサ11は、撮像範囲の制御では、移動機構20を駆動し、遠隔現場LN1における対象物100と遠隔制御ロボット10との距離d2(不図示)を制御してよい。この場合、プロセッサ11は、操作器30と操作者200との距離d1が短い程、対象物100と遠隔制御ロボット10との距離d2を短くし、操作器30と操作者200との距離d1が長い程、対象物100と遠隔制御ロボット10との距離d2を長くしてよい。 In controlling the imaging range, the processor 11 may drive the moving mechanism 20 and control the distance d2 (not shown) between the object 100 and the remote control robot 10 at the remote site LN1. In this case, the processor 11 shortens the distance d2 between the object 100 and the remote control robot 10 as the distance d1 between the manipulator 30 and the operator 200 becomes shorter. The longer the distance, the longer the distance d2 between the object 100 and the remote control robot 10 may be.

また、プロセッサ11は、撮像範囲の制御では、遠隔カメラ17のズーム倍率を制御してよい。この場合、プロセッサ11は、操作器30と操作者200との距離d1が短い程、遠隔カメラ17のズーム倍率を大きくし、操作器30と操作者200との距離d1が長い程、遠隔カメラ17のズーム倍率を小さくしてよい。 In addition, the processor 11 may control the zoom magnification of the remote camera 17 in controlling the imaging range. In this case, the processor 11 increases the zoom magnification of the remote camera 17 as the distance d1 between the operation device 30 and the operator 200 becomes shorter, and increases the zoom magnification of the remote camera 17 as the distance d1 between the operation device 30 and the operator 200 becomes longer. may be reduced.

これにより、操作器30は、操作器30から操作者200が離れた場合、対象物100の全体像を表示可能である。よって、操作者200は、対象物100を俯瞰して全体を確認できる。また、操作器30は、操作器30に操作者200が近づいた場合、対象物100の詳細を表示可能である。よって、操作者200は、対象物100に接近したような状態で詳細を確認できる。また、操作器30は、遠隔制御ロボット10の遠隔カメラ17の手動による操作が不要である。 Thereby, the operation device 30 can display the entire image of the target object 100 when the operator 200 leaves the operation device 30 . Therefore, the operator 200 can look down on the object 100 and check the whole. Further, the operation device 30 can display the details of the target object 100 when the operator 200 approaches the operation device 30 . Therefore, the operator 200 can confirm the details while approaching the object 100 . Further, the operation device 30 does not require manual operation of the remote camera 17 of the remote control robot 10 .

遠隔操作システム5では、遠隔制御ロボット10は、入力センサ38Bとは別にオプションカメラ(不図示)を備えてよい。オプションカメラは、遠隔制御ロボット10の台座21に設置されてよい。オプションカメラは、遠隔現場LN1における遠隔制御ロボット10の周辺の床面を含む画像を撮像する。オプションカメラによる撮像方向は、入力センサ38Bとしてのカメラの撮像方向と同じ方向であってもよいし異なる方向であってもよい。また、操作器30は、画像を投影するプロジェクタ41(図9参照)を備えてよい。プロジェクタ41は、台座52に設置されてよい。 In the remote control system 5, the remote control robot 10 may have an optional camera (not shown) in addition to the input sensor 38B. An optional camera may be installed on the pedestal 21 of the remote control robot 10 . The optional camera captures an image including the floor around the remote control robot 10 at the remote site LN1. The imaging direction of the optional camera may be the same as or different from the imaging direction of the camera as the input sensor 38B. Also, the operation device 30 may include a projector 41 (see FIG. 9) that projects an image. The projector 41 may be installed on the pedestal 52 .

例えば、通信デバイス14は、撮像された床面を含む画像を操作器30へ送信する。通信デバイス34は、遠隔制御ロボット10からこの画像を受信する。プロジェクタ41は、操作器30の周辺の床面にこの画像を投影してよい。 For example, the communication device 14 transmits an image including the captured floor surface to the operation device 30 . Communication device 34 receives this image from remote controlled robot 10 . The projector 41 may project this image onto the floor around the operation device 30 .

これにより、操作器30は、操作現場LN2において、遠隔現場LN1の様子を、入力センサ38Aとしてカメラによる撮像範囲だけでなく、このカメラの撮像範囲の外側にある床面を含めて再現できる。例えば、操作器30は、遠隔制御ロボット10の足元の画像を補足的に投影でき、又は遠隔制御ロボット10が移動する様子をアニメーションとして投影できる。よって、遠隔操作システム5は、操作者200に対して、操作者200があたかも遠隔現場LN1に居るような感覚、遠隔現場LN1内を移動しているような感覚を提供でき、臨場感を向上できる。 As a result, the operator 30 can reproduce the state of the remote site LN1 at the operation site LN2 including not only the imaging range of the camera as the input sensor 38A but also the floor outside the imaging range of this camera. For example, the controller 30 can additionally project an image of the feet of the remote-controlled robot 10, or can project the movement of the remote-controlled robot 10 as an animation. Therefore, the remote control system 5 can provide the operator 200 with a feeling as if the operator 200 were at the remote site LN1 and a feeling as if the operator 200 were moving within the remote site LN1, thereby improving the sense of reality. .

遠隔操作システム5では、遠隔カメラ17による撮像範囲は、表示デバイス37による表示される画像の画像範囲よりも広くてよい。つまり、遠隔カメラ17による撮像範囲の一部を、表示デバイス37に表示される画像範囲(表示範囲)としてよい。プロセッサ11は、この撮像範囲で撮像された画像に対して、常に画像認識の処理を行ってよい。よって、遠隔制御ロボット10は、表示デバイス37による表示範囲外且つ遠隔カメラ17による撮像範囲内である範囲において、どのような物体が存在するかを認識可能である。また、遠隔制御ロボット10は、この物体が移動物体であっても、常に画像認識することで追跡することが可能である。 In the remote control system 5 , the imaging range of the remote camera 17 may be wider than the image range of the image displayed by the display device 37 . That is, a part of the imaging range of the remote camera 17 may be used as the image range (display range) displayed on the display device 37 . The processor 11 may always perform image recognition processing on images captured in this imaging range. Therefore, the remote control robot 10 can recognize what kind of object exists outside the display range of the display device 37 and within the imaging range of the remote camera 17 . Further, even if this object is a moving object, the remote control robot 10 can always track it by image recognition.

図5は、表示範囲外且つ撮像範囲内に存在する物体に関する情報の表示例を示す図である。例えば、上記の表示範囲外且つ撮像範囲内の範囲で、所定の部品の組立作業に用いられる工具が検出された場合、プロセッサ31は、表示デバイス37にバルーンオブジェクトBO1を表示させてよい。この場合、プロセッサ31は、表示デバイス37の枠(周端部)付近において、この工具の検出方向を指示して、遠隔カメラ17に撮像された画像に重畳してバルーンオブジェクトBO1を表示させてよい。バルーンオブジェクトBO1は、例えば工具の識別情報(例えば工具名称)が記載されており、工具の存在と、遠隔制御ロボット10を基点とした工具が存在する方向と、を操作者200へ案内する。これにより、操作者200は、案内情報を確認して、工具がある方向を加味して工具を掴むジェスチャをすることで、遠隔制御ロボット10に工具を掴ませることができる。 FIG. 5 is a diagram showing a display example of information on an object existing outside the display range and within the imaging range. For example, the processor 31 may cause the display device 37 to display a balloon object BO1 when a tool used for assembling a predetermined part is detected outside the display range and within the imaging range. In this case, the processor 31 may instruct the detection direction of the tool in the vicinity of the frame (peripheral end) of the display device 37 to display the balloon object BO1 superimposed on the image captured by the remote camera 17. . The balloon object BO1 describes, for example, tool identification information (for example, tool name), and guides the operator 200 to the presence of the tool and the direction in which the tool is present with respect to the remote control robot 10 as a base point. Accordingly, the operator 200 can make the remote control robot 10 grasp the tool by confirming the guide information and making a gesture of grasping the tool in consideration of the direction in which the tool is located.

遠隔操作システム5では、表示デバイス37がタッチパネルである場合、プロセッサ31は、タッチパネルを介してスワイプ操作を検出してよい。プロセッサ31は、スワイプ操作の操作量(操作者200の指のタッチパネル上での移動量)、操作速度(スワイプ速度)、及び操作方向に基づいて、遠隔制御ロボット10の雲台機構18を駆動させてよい。この場合、プロセッサ31は、例えば、スワイプ操作の操作量、操作速度、及び操作方向に基づいて、雲台機構18の制御を指示する雲台指示信号を生成してよい。そして、通信デバイス34は、雲台指示信号を遠隔制御ロボット10に送信する。遠隔制御ロボット10では、通信デバイス14が、雲台指示信号を受信し、プロセッサ11が、雲台指示信号に基づいて、雲台機構18を駆動して、雲台機構18の回転量、回転速度、及び回転方向を決定して、雲台機構18を回転させることで遠隔カメラ17の向きを変更してよい。 In the remote control system 5, if the display device 37 is a touch panel, the processor 31 may detect a swipe operation via the touch panel. The processor 31 drives the platform mechanism 18 of the remote control robot 10 based on the operation amount of the swipe operation (the amount of movement of the finger of the operator 200 on the touch panel), the operation speed (swipe speed), and the operation direction. you can In this case, the processor 31 may generate a camera platform instruction signal for instructing control of the camera platform mechanism 18 based on, for example, the operation amount, the operation speed, and the operation direction of the swipe operation. The communication device 34 then transmits a camera platform instruction signal to the remote control robot 10 . In the remote control robot 10, the communication device 14 receives the camera platform instruction signal, the processor 11 drives the camera platform mechanism 18 based on the camera platform instruction signal, and controls the rotation amount and rotation speed of the camera platform mechanism 18. , and the direction of rotation may be determined, and the orientation of the remote camera 17 may be changed by rotating the camera platform mechanism 18 .

図6は、操作器30に対するスワイプ操作に基づく遠隔カメラ17の向きの指示例を示す図である。図6では、操作器30は、タッチパネルを介して右方向へのスワイプ操作を検出する。遠隔制御ロボット10は、このスワイプ操作に応じて雲台機構18を駆動し、胴体部22に対する遠隔カメラ17の向きを時計回りに90度旋回して、遠隔カメラ17による撮像方向を変更する。 FIG. 6 is a diagram showing an example of an indication of the direction of the remote camera 17 based on a swipe operation on the operation device 30. As shown in FIG. In FIG. 6, the operation device 30 detects a rightward swipe operation via the touch panel. The remote control robot 10 drives the pan head mechanism 18 according to this swipe operation, rotates the direction of the remote camera 17 clockwise by 90 degrees with respect to the body portion 22 , and changes the imaging direction of the remote camera 17 .

これにより、操作者200は、操作者200が見たい方向にスワイプ操作を行うことで、雲台機構18に連結された遠隔カメラ17の向きを、操作者200が見たい方向に変更でき、操作者200が見たい方向の遠隔現場LN1の様子を確認できる。 Accordingly, the operator 200 can change the orientation of the remote camera 17 connected to the platform mechanism 18 to the direction the operator 200 wants to see by performing a swipe operation in the direction the operator 200 wants to see. The person 200 can check the state of the remote site LN1 in the direction he/she wants to see.

次に、遠隔制御ロボット10の移動について説明する。 Next, movement of the remote control robot 10 will be described.

操作者200が操作器30の表示デバイス37の外枠を手200h(例えば両手又は片手)で押すことで、操作器30を移動させたり操作器30の姿勢を変更したりすると、遠隔制御ロボット10は、操作器30に倣って移動したり姿勢を変更したりする。 When the operator 200 presses the outer frame of the display device 37 of the controller 30 with a hand 200h (for example, both hands or one hand) to move the controller 30 or change the posture of the controller 30, the remote control robot 10 follows the operation device 30 to move or change its posture.

上述のように、操作器30の表示デバイス37の外枠には、金属歪センサなどの入力センサ38Bが設けられている。この入力センサ38Bは、操作者200が加えた力(操作力)の大きさ及び方向を検知可能である。プロセッサ31は、検出された操作力の大きさ及び方向に基づいて、遠隔制御ロボット10が、操作力に対応する移動量且つ移動方向で移動するよう、遠隔制御ロボット10に指示してよい。この場合、具体的には、プロセッサ31が、検出された操作力(操作力の大きさや方向)に基づいて遠隔制御ロボット10の移動を指示する移動指示信号を生成し、通信デバイス34が、この移動指示信号を遠隔制御ロボット10に送信してよい。そして、通信デバイス14が、操作器30からの移動指示信号を受信し、移動指示信号に基づいて移動機構40を駆動してよい。 As described above, the outer frame of the display device 37 of the operation device 30 is provided with the input sensor 38B such as a metal strain sensor. This input sensor 38B can detect the magnitude and direction of the force (operating force) applied by the operator 200 . Based on the magnitude and direction of the detected operating force, the processor 31 may instruct the remote controlled robot 10 to move by a movement amount and a movement direction corresponding to the operating force. In this case, specifically, the processor 31 generates a movement instruction signal for instructing the movement of the remote control robot 10 based on the detected operating force (magnitude and direction of the operating force), and the communication device 34 A movement instruction signal may be sent to the remote controlled robot 10 . Then, the communication device 14 may receive the movement instruction signal from the operation device 30 and drive the movement mechanism 40 based on the movement instruction signal.

これにより、遠隔制御ロボット10が操作者200により押された方向(操作力の方向)に沿うように移動するので、遠隔制御ロボット10の視点及び視野(つまり遠隔カメラ17の位置及び撮像範囲)を変更できる。 As a result, since the remote control robot 10 moves along the direction (the direction of the operation force) pushed by the operator 200, the viewpoint and field of view of the remote control robot 10 (that is, the position and imaging range of the remote camera 17) are changed. can be changed.

また、プロセッサ31は、表示デバイス37としてのタッチパネルに対するスワイプ操作に基づいて、遠隔制御ロボット10がスワイプ操作に基づく方向に移動するよう、遠隔制御ロボット10に指示してもよい。この場合、具体的には、プロセッサ31が、スライプ操作に基づいて遠隔制御ロボット10を移動させる移動指示信号を生成し、通信デバイス34が、この移動指示信号を遠隔制御ロボット10に送信してよい。そして、通信デバイス14が、操作器30からの移動指示信号を受信し、プロセッサ11が、移動指示信号に基づいて移動機構40を駆動してよい。この場合、雲台指示信号の場合と同様に、プロセッサ31が、スワイプ操作の操作量、操作速度、及び操作方向に基づいて、移動指示信号を生成してもよい。そして、プロセッサ11が、スワイプ操作の操作量、操作速度、及び操作方向に基づいて、遠隔制御ロボット10の移動量、移動速度、及び移動方向を決定し、遠隔制御ロボット10を移動させてよい。 Further, the processor 31 may instruct the remote control robot 10 to move in the direction based on the swipe operation based on the swipe operation on the touch panel as the display device 37 . In this case, specifically, the processor 31 may generate a movement instruction signal for moving the remote controlled robot 10 based on the swiping operation, and the communication device 34 may transmit this movement instruction signal to the remote controlled robot 10. . The communication device 14 may then receive the movement instruction signal from the operator 30, and the processor 11 may drive the movement mechanism 40 based on the movement instruction signal. In this case, similarly to the camera platform instruction signal, the processor 31 may generate the movement instruction signal based on the operation amount, operation speed, and operation direction of the swipe operation. Then, the processor 11 may determine the movement amount, movement speed, and movement direction of the remote control robot 10 based on the operation amount, operation speed, and operation direction of the swipe operation, and move the remote control robot 10 .

図7は、操作器30に対するスワイプ操作に基づく遠隔制御ロボット10の移動の指示例を示す図である。図7では、操作器30は、タッチパネルを介して右方向へのスワイプ操作を検出する。遠隔制御ロボット10は、このスワイプ操作に応じ移動機構20を駆動し、右方向に移動する。 FIG. 7 is a diagram showing an example of an instruction for movement of the remote control robot 10 based on a swipe operation on the operation device 30. As shown in FIG. In FIG. 7, the operation device 30 detects a rightward swipe operation via the touch panel. The remote control robot 10 drives the movement mechanism 20 according to this swipe operation and moves rightward.

これにより、遠隔制御ロボット10がスワイプ方向に沿うように移動するので、遠隔制御ロボット10の視点及び視野(つまり遠隔カメラ17の位置及び撮像範囲)を変更できる。 As a result, the remote control robot 10 moves along the swipe direction, so the viewpoint and field of view of the remote control robot 10 (that is, the position and imaging range of the remote camera 17) can be changed.

また、遠隔現場LN1と操作現場LN2では、作業空間の大きさ(スケール)(縦横高)が異なる場合がある。プロセッサ31は、操作現場LN2の作業空間のスケールに対する遠隔現場LN1の作業空間のスケールの比(単にスケール比とも称する)と、操作現場LN2での操作器30の移動量(操作器30の移動量に対応する操作力)と、に基づいて、遠隔現場LN1での遠隔制御ロボット10の移動量を算出し、この移動量で移動するよう遠隔制御ロボット10に指令してよい。なお、スケール比の情報は、メモリ33に予め保持されていてもよいし、例えばタッチパネルを介してスケール比の情報が入力されてもよい。なお、このスケール比は、必ずしもすべての方角において同一の比率である必要はない。例えば、遠隔現場LN1の前後方向の広さが左右方向の広さよりも広い場合には、遠隔現場LN1で左右方向に操作器30を移動させられる余地が狭い。この場合、プロセッサ31は、前後方向よりも左右方向において、小さい移動が操作現場では大きな移動に変換されるようスケール比を設定してよい。また、操作者200がタッチパネル等を介してスケール比を直接設定する場合、スケール比は、必ずしも遠隔現場LN1と操作現場LN2との比率に対応する値である必要はない。すなわち、このスケール比は、遠隔現場LN1と操作現場LN2との移動量の比率を示すものであり、その比率が実物の比率に合致または類似しているか否かは、操作者200の好みに応じて変更されてよい。 Also, the remote site LN1 and the operation site LN2 may differ in size (scale) (vertical and horizontal height) of the work space. The processor 31 calculates the ratio of the scale of the work space of the remote site LN1 to the scale of the work space of the operation site LN2 (also referred to simply as the scale ratio) and the amount of movement of the operator 30 at the operation site LN2 (the amount of movement of the operator 30 The amount of movement of the remote control robot 10 at the remote site LN1 is calculated based on the operation force corresponding to ), and the remote control robot 10 may be commanded to move by this amount of movement. Note that the scale ratio information may be stored in the memory 33 in advance, or the scale ratio information may be input via a touch panel, for example. Note that this scale ratio does not necessarily have to be the same ratio in all directions. For example, when the front-rear direction width of the remote site LN1 is wider than the left-right direction width, there is little room for moving the operation device 30 in the left-right direction at the remote site LN1. In this case, the processor 31 may set the scale ratio such that a small movement translates into a large movement at the operating site in the left-to-right direction rather than in the front-to-rear direction. Further, when the operator 200 directly sets the scale ratio via a touch panel or the like, the scale ratio does not necessarily have to be a value corresponding to the ratio between the remote site LN1 and the operation site LN2. That is, this scale ratio indicates the ratio of the amount of movement between the remote site LN1 and the operation site LN2, and whether or not the ratio matches or resembles the actual ratio depends on the preference of the operator 200. may be changed by

例えば、プロセッサ31は、スケール比が1以上である場合には、操作現場LN2よりも遠隔現場LN1の方が広いので、操作現場LN2での操作器30の移動量よりも、遠隔現場LN1での遠隔制御ロボット10の移動量が大きくなるよう調整してよい。よって、プロセッサ31は、遠隔制御ロボット10への移動量の指令値を、スケール比を考慮しない場合よりも大きくしてよい。 For example, when the scale ratio is 1 or more, the remote site LN1 is wider than the operation site LN2, so the processor 31 determines Adjustments may be made to increase the amount of movement of the remote control robot 10 . Therefore, the processor 31 may set the movement amount command value to the remote control robot 10 larger than when the scale ratio is not considered.

例えば、プロセッサ31は、スケール比が1未満である場合には、操作現場LN2よりも遠隔現場LN1の方が狭いので、操作現場LN2での操作器30の移動量よりも、遠隔現場LN1での遠隔制御ロボット10の移動量が小さくなるよう調整してよい。よって、プロセッサ31は、遠隔制御ロボット10への移動量の指令値を、スケール比を考慮しない場合よりも小さくしてよい。 For example, when the scale ratio is less than 1, the remote site LN1 is narrower than the operation site LN2. Adjustments may be made so that the amount of movement of the remote control robot 10 is reduced. Therefore, the processor 31 may set the movement amount command value to the remote control robot 10 smaller than when the scale ratio is not considered.

また、遠隔制御ロボット10の移動時の安全性を考慮して、遠隔制御ロボット10の移動機構20の移動速度の上限値が、移動機構20により移動可能な最高速度よりも低い所定値に設定されている場合がある。そのため、プロセッサ31は、遠隔制御ロボット10の移動速度の上限値に基づいて、操作器30の移動速度の上限値を制限してもよい。これにより、操作器30の移動速度の移動速度も上限値以上にならない設定となるので、遠隔操作システム5は、操作器30の移動時の安全性も向上できる。また、操作者200は、操作器30の移動を実際に目視で確認することで移動速度の上限が低くなっていることを認識でき、遠隔制御ロボット10の移動速度が制限された状態であることを認識できる。この場合、操作器30は、移動機構40にブレーキをかけて、操作者200に、速度が制限されていることを抵抗感として伝えてもよい。例えば、プロセッサ31は、操作器30の移動速度に対応する遠隔制御ロボット10の移動速度が上限に到達したことで、操作器30の移動を抑制するよう移動機構40を制御してよい。 In consideration of safety when the remote control robot 10 moves, the upper limit of the movement speed of the movement mechanism 20 of the remote control robot 10 is set to a predetermined value lower than the maximum speed at which the movement mechanism 20 can move. may be Therefore, the processor 31 may limit the upper limit of the movement speed of the operating device 30 based on the upper limit of the movement speed of the remote control robot 10 . As a result, the moving speed of the operating device 30 is set so as not to exceed the upper limit value, so that the remote control system 5 can improve the safety when the operating device 30 is moved. Further, the operator 200 can recognize that the upper limit of the movement speed is low by actually visually confirming the movement of the operation device 30, and the movement speed of the remote control robot 10 is limited. can recognize In this case, the operating device 30 may brake the moving mechanism 40 to convey to the operator 200 that the speed is limited as a sense of resistance. For example, the processor 31 may control the movement mechanism 40 to suppress the movement of the manipulator 30 when the movement speed of the remote control robot 10 corresponding to the movement speed of the manipulator 30 reaches the upper limit.

また、安全のために遠隔制御ロボット10の移動速度が制限されている場合、操作者200は、表示デバイス37により遠隔制御ロボット10からの画像を確認することで、遠隔制御ロボット10の移動が遅いと感じることがあり得る。これに対し、操作器30のプロセッサ31は、操作者200による操作に基づく目標位置への到達予想時刻を算出しておき、この時刻に関する情報(例えば残り移動時間)を表示デバイス37に表示させてもよい。これにより、操作者200は、遠隔制御ロボット10の目標位置への移動が完了するまでの待ち時間が分かり、操作器30は、その間に操作者200が操作器30に対して他の操作を行うことで遠隔制御ロボット10が違う動きを開始してしまうことを抑制できる。 In addition, when the movement speed of the remote-controlled robot 10 is restricted for safety, the operator 200 can check the image from the remote-controlled robot 10 on the display device 37 so that the remote-controlled robot 10 moves slowly. can feel. On the other hand, the processor 31 of the operation device 30 calculates the expected arrival time to the target position based on the operation by the operator 200, and causes the display device 37 to display information about this time (for example, the remaining travel time). good too. This allows the operator 200 to know the waiting time until the movement of the remote control robot 10 to the target position is completed, and the operator 200 performs another operation on the operator 30 during that time. Thus, it is possible to prevent the remote control robot 10 from starting a wrong movement.

また、遠隔制御ロボット10では、操作者200が意図する遠隔制御ロボット10の移動方向に、環境センサ16(例えばLiDAR)により障害物(例えば椅子やダンボール)が検出された場合、プロセッサ11は、移動機構20の駆動を抑制させ、又は、障害物に関するアラートを操作器30に表示させてよい。駆動の抑制としては、停止や速度の低減等が考えられる。この場合、具体的には、通信デバイス14は、障害物が検出されたことを示す障害物検出情報を操作器30に送信する。障害物検出情報は、障害物に関する情報(障害物の名称や特性等)を含んでよい。なお、障害物の名称や特性等の情報の取得は、例えば、既知の物体認識技術を用いたり、障害物それぞれに貼り付けたマーカ等を読み取ったりすることで実現できる。操作器30では、通信デバイス34が、操作器30からの障害物検出情報を受信する。プロセッサ31は、アラートとして障害物検出情報を表示デバイス37に表示させる。なお、移動機構20の駆動の抑制とアラートの表示とは、少なくとも一方が実施されればよい。また、アラートは、障害物が存在する方向には遠隔制御ロボット10を動かせない旨のアラートであってもよい。 Further, in the remote control robot 10, when an obstacle (eg, a chair or a cardboard) is detected by the environment sensor 16 (eg, LiDAR) in the movement direction of the remote control robot 10 intended by the operator 200, the processor 11 moves. Driving of the mechanism 20 may be suppressed, or an alert regarding the obstacle may be displayed on the operation device 30 . As suppression of driving, stopping, reduction of speed, etc. can be considered. In this case, specifically, the communication device 14 transmits obstacle detection information indicating that an obstacle has been detected to the operating device 30 . The obstacle detection information may include information about obstacles (obstacle names, characteristics, etc.). Acquisition of information such as names and characteristics of obstacles can be realized by, for example, using a known object recognition technique or reading markers or the like attached to each obstacle. In operation device 30 , communication device 34 receives obstacle detection information from operation device 30 . The processor 31 causes the display device 37 to display the obstacle detection information as an alert. At least one of the suppression of driving of the moving mechanism 20 and the display of the alert may be performed. Alternatively, the alert may be an alert to the effect that the remote control robot 10 cannot be moved in the direction in which the obstacle exists.

これにより、遠隔制御ロボット10は、例えば、操作器30からの遠隔制御ロボット10の移動指令(移動指示信号)を無効化して、移動により障害物に衝突することを未然に回避できる。よって、遠隔操作システム5は、遠隔現場LN1での安全性を向上できる。また、操作者200は、遠隔現場LN1を直接目視で確認できないが、障害物検出情報を確認することで、障害物に接近していることを認識できる。また、操作者200は、障害物検出情報を確認することで、障害物に関する情報を把握でき、遠隔現場LN1での障害物の支障度合いを把握できる。 As a result, the remote-controlled robot 10 can, for example, invalidate the movement command (movement instruction signal) of the remote-controlled robot 10 from the operator 30 to avoid colliding with an obstacle during movement. Therefore, the remote control system 5 can improve safety at the remote site LN1. Also, the operator 200 cannot directly visually confirm the remote site LN1, but can recognize that an obstacle is approaching by confirming the obstacle detection information. Also, by checking the obstacle detection information, the operator 200 can grasp the information about the obstacle, and can grasp the degree of obstruction of the obstacle at the remote site LN1.

図8は、遠隔制御ロボット10の周辺に障害物が存在する場合のアラート表示の一例を示す図である。図8では、表示デバイス37は、バルーンオブジェクトBO2に障害物検出情報を表示している。ここでは、障害物検出情報として、障害物が存在する旨を通知する「障害物あり」、障害物により遠隔制御ロボット10が移動不可であることを示す「移動不可」が表示されている。 FIG. 8 is a diagram showing an example of an alert display when an obstacle exists around the remote-controlled robot 10. As shown in FIG. In FIG. 8, the display device 37 displays obstacle detection information on the balloon object BO2. Here, as the obstacle detection information, "obstacle present" indicating that an obstacle exists, and "movable" indicating that the remote control robot 10 cannot move due to the obstacle are displayed.

なお、遠隔制御ロボット10は、操作器30の表示デバイス37に表示される範囲外(つまり撮像範囲、画像範囲に対応する空間の外側)の障害物も検知し、障害物検出情報を操作器30に送信してもよい。これにより、遠隔制御ロボット10は、操作者200が観測できない位置にある障害物の存在等を通知することができるので、操作者200は、より的確に障害物への対策を行うことができる。 Note that the remote control robot 10 also detects obstacles outside the range displayed on the display device 37 of the operation device 30 (that is, outside the space corresponding to the imaging range and image range), and transmits obstacle detection information to the operation device 30. may be sent to As a result, the remote control robot 10 can notify the operator 200 of the existence of an obstacle that cannot be observed by the operator 200, so that the operator 200 can more accurately take countermeasures against the obstacle.

また、操作器30では、操作者200が意図する遠隔制御ロボット10の移動方向に対応する操作器30の移動方向に、環境センサ36(例えばLiDAR)により障害物が検出された場合、プロセッサ31は、移動機構40の駆動を抑制させ、障害物に関するアラートを表示デバイス37に表示させてよい。駆動の抑制としては、停止や速度の低減等が考えられる。この場合、プロセッサ31は、障害物が検出されたことを示す障害物検出情報を表示デバイス37に表示させる。障害物検出情報は、障害物に関する情報(障害物の名称や特性等)を含んでよい。 Further, in the operation device 30, when an obstacle is detected by the environment sensor 36 (for example, LiDAR) in the movement direction of the operation device 30 corresponding to the movement direction of the remote control robot 10 intended by the operator 200, the processor 31 , the driving of the moving mechanism 40 may be suppressed and an alert regarding the obstacle may be displayed on the display device 37 . As suppression of driving, stopping, reduction of speed, etc. can be considered. In this case, the processor 31 causes the display device 37 to display obstacle detection information indicating that an obstacle has been detected. The obstacle detection information may include information about obstacles (obstacle names, characteristics, etc.).

これにより、操作器30は、例えば、操作器30を移動するための移動指令(移動指示信号)を無効化して、移動により障害物に衝突することを未然に回避できる。よって、遠隔操作システム5は、操作現場LN2での安全性を向上できる。また、操作者200は、表示デバイス37を介して遠隔現場LN1の様子を確認しつつ、画面上に表示された障害物検出情報を確認することで、操作現場LN2において操作器30が障害物に接近していることを認識できる。また、操作者200は、障害物検出情報を確認することで、障害物に関する情報を把握でき、操作現場LN2での障害物の支障度合いを把握できる。 As a result, the operation device 30 can, for example, invalidate a movement command (movement instruction signal) for moving the operation device 30 to avoid colliding with an obstacle due to movement. Therefore, the remote control system 5 can improve safety at the operation site LN2. In addition, the operator 200 confirms the obstacle detection information displayed on the screen while confirming the state of the remote site LN1 via the display device 37, so that the operation device 30 becomes an obstacle at the operation site LN2. You can recognize that you are getting closer. Also, by checking the obstacle detection information, the operator 200 can grasp the information about the obstacle, and can grasp the degree of hindrance of the obstacle at the operation site LN2.

なお、操作器30のプロセッサ31は、操作器30に対する操作に基づいて遠隔制御ロボット10の移動を指示する移動指示信号と同様に、操作器30の移動を指示する移動指示信号を生成し、移動指示信号に基づいて操作器30を移動させてよい。この場合、入力操作に基づく操作器30の移動量、移動速度、及び移動方向等の決定方法は、遠隔制御ロボット10の場合と同様でよい。よって、遠隔操作システム5では、遠隔制御ロボット10と操作器30とが連動して移動してよい。この場合、遠隔制御ロボット10を移動させる操作は、操作器30を移動させる操作でもある。よって、遠隔制御ロボット10は、移動機構20の駆動により、操作器30の移動に対応して移動するとも言える。 Note that the processor 31 of the operation device 30 generates a movement instruction signal that instructs the movement of the operation device 30 in the same manner as the movement instruction signal that instructs the movement of the remote control robot 10 based on the operation on the operation device 30, and moves the movement instruction signal. The operator 30 may be moved based on the instruction signal. In this case, the method of determining the movement amount, movement speed, movement direction, etc. of the operation device 30 based on the input operation may be the same as in the case of the remote control robot 10 . Therefore, in the remote control system 5, the remote control robot 10 and the operation device 30 may move together. In this case, the operation to move the remote control robot 10 is also the operation to move the operating device 30 . Therefore, it can be said that the remote control robot 10 is driven by the movement mechanism 20 and moves corresponding to the movement of the operation device 30 .

次に、操作者200のジェスチャに基づく遠隔制御ロボット10の姿勢の制御について説明する。 Next, posture control of the remote control robot 10 based on gestures of the operator 200 will be described.

上述のように、操作器30では、プロセッサ31は、入力センサ38Bにより検出された入力に基づいて、操作者200の手200hが実施したジェスチャを検出する。プロセッサ31は、遠隔制御ロボット10が、検出されたジェスチャに対応する姿勢をとるように、遠隔制御ロボット10の腕部機構19の姿勢を指示する。この場合、具体的には、通信デバイス34は、遠隔制御ロボット10の腕部機構19の姿勢を指示する姿勢指示信号を遠隔制御ロボット10に送信する。通信デバイス14は、操作器30からの姿勢指示情報を受信する。プロセッサ11は、姿勢指示信号に基づいて、腕部機構19を構成する各関節角を計算する。なお、遠隔制御ロボット10の腕部機構19の特性が既知であれば、手部19hの3次元座標から逆運動学(IK:Inverse Kinematic)を解くことで、手部19hがその3次元座標の示す位置に到達するような腕部機構19の各関節角が計算できることが知られている。本実施の形態では、この手法を用いて、操作者200の手200hに対応する遠隔制御ロボット10の手部19hの3次元座標を用いて、各関節角を計算する。手部19hの3次元座標は、姿勢指示情報に含まれていてもよいし、姿勢指示情報に含まれる他の情報(例えば手200hの三次元座標)から計算されてもよい、そして、プロセッサ11は、腕部機構19を駆動して、腕部機構19の各関節が算出された各関節角となるように制御することで、操作者200のジェスチャに対応する姿勢とする。 As described above, in the operation device 30, the processor 31 detects the gesture performed by the hand 200h of the operator 200 based on the input detected by the input sensor 38B. The processor 31 directs the posture of the arm mechanism 19 of the remote controlled robot 10 so that the remote controlled robot 10 assumes the posture corresponding to the detected gesture. In this case, specifically, the communication device 34 transmits to the remote control robot 10 an attitude instruction signal that instructs the attitude of the arm mechanism 19 of the remote control robot 10 . The communication device 14 receives attitude instruction information from the manipulator 30 . The processor 11 calculates each joint angle forming the arm mechanism 19 based on the posture instruction signal. If the characteristics of the arm mechanism 19 of the remote control robot 10 are known, the hand 19h can be obtained from the three-dimensional coordinates by solving inverse kinematics (IK) from the three-dimensional coordinates of the hand 19h. It is known that each joint angle of the arm mechanism 19 can be calculated to reach the position shown. In the present embodiment, this method is used to calculate each joint angle using the three-dimensional coordinates of the hand 19h of the remote control robot 10 corresponding to the hand 200h of the operator 200. FIG. The three-dimensional coordinates of the hand portion 19h may be included in the posture-indicating information, or may be calculated from other information included in the posture-indicating information (eg, the three-dimensional coordinates of the hand 200h), and the processor 11 drives the arm mechanism 19 and controls each joint of the arm mechanism 19 to have the calculated joint angle, thereby providing a posture corresponding to the gesture of the operator 200 .

これにより、遠隔制御ロボット10は、操作者200のジェスチャと同様の姿勢をとることができる。よって、例えば、操作者200が表示デバイス37に表示された対象物100を掴むジェスチャを行うことで、遠隔制御ロボット10は、遠隔現場LN1に実在する対象物100を掴む姿勢を実施できる。他のジェスチャについても同様に実施可能である。なお、操作者200の関節の位置や数と腕部機構19の関節の位置や数とは完全には一致しないので、操作者200のジェスチャと遠隔制御ロボット10の姿勢とは多少異なるが、対応する動作となる。 As a result, the remote control robot 10 can assume the same posture as the operator's 200 gesture. Therefore, for example, when the operator 200 makes a gesture of grabbing the target object 100 displayed on the display device 37, the remote control robot 10 can take a posture of grabbing the target object 100 that actually exists at the remote site LN1. Other gestures can be similarly implemented. Note that since the positions and number of joints of the operator 200 and the positions and number of joints of the arm mechanism 19 do not completely match, the gestures of the operator 200 and the posture of the remote control robot 10 are somewhat different. It becomes the operation to do.

また、遠隔制御ロボット10の腕部機構19(手部を含む)の動作速度は、安全性を考慮して動作速度の上限値が、腕部機構19により動作可能な最高速度よりも低い所定値に設定されていることがある。この場合、遠隔制御ロボット10の腕部機構19の手部19hは、操作者200の手200hの動きに遅れて移動し得る。そのため、遠隔制御ロボット10のプロセッサ11は、遠隔制御ロボット10の腕部機構19の目標位置までの移動の予定軌跡を算出し、算出された腕部機構19の予定軌跡を操作器30に表示させるよう指示してよい。この場合、通信デバイス14は、算出された腕部機構19の予定軌跡を操作器30に送信する。通信デバイス34は、操作器30からの腕部機構19の予定軌跡を受信する。プロセッサ11は、腕部機構19の予定軌跡を示す情報を表示デバイス37に表示させてよい。遠隔カメラ17の撮像範囲に遠隔制御ロボット10の腕部機構19が含まれる場合、表示デバイス37に表示される画像に腕部機構19が映り込む。この場合、表示デバイス37は、画像内の腕部機構19に重畳して、腕部機構19が今後移動することになる予定軌跡を表示させてよい。これにより、操作者200は、移動が完了していない腕部機構19の移動軌跡を予め把握でき、安心して腕部機構19の移動の完了を待機できる。 Further, the operating speed of the arm mechanism 19 (including the hands) of the remote control robot 10 is a predetermined value whose upper limit value is lower than the maximum operating speed of the arm mechanism 19 in consideration of safety. is sometimes set to In this case, the hand 19h of the arm mechanism 19 of the remote control robot 10 can move behind the movement of the operator's 200 hand 200h. Therefore, the processor 11 of the remote control robot 10 calculates the planned trajectory of the movement of the arm mechanism 19 of the remote control robot 10 to the target position, and causes the controller 30 to display the calculated planned trajectory of the arm mechanism 19. You can direct In this case, the communication device 14 transmits the calculated planned trajectory of the arm mechanism 19 to the operation device 30 . The communication device 34 receives the planned trajectory of the arm mechanism 19 from the manipulator 30 . The processor 11 may cause the display device 37 to display information indicating the planned trajectory of the arm mechanism 19 . When the imaging range of the remote camera 17 includes the arm mechanism 19 of the remote control robot 10 , the arm mechanism 19 is reflected in the image displayed on the display device 37 . In this case, the display device 37 may display a planned path along which the arm mechanism 19 will move in the future, superimposed on the arm mechanism 19 in the image. As a result, the operator 200 can grasp in advance the movement trajectory of the arm mechanism 19 whose movement has not been completed, and can wait for the completion of movement of the arm mechanism 19 with peace of mind.

また、プロセッサ11は、腕部機構19の目標位置までの移動に要する移動予定時間を算出し、算出された移動予定時間を操作器30に表示させてもよい。この場合、通信デバイス14は、算出された移動予定時間を操作器30に送信する。通信デバイス34は、操作器30からの移動予定時間を受信する。プロセッサ11は、腕部機構19の目標位置までの移動に要する移動予定時間を示す情報を表示デバイス37に表示させてよい。これにより、操作者200は、ジェスチャに対応する姿勢を実施するために腕部機構19の移動にどの程度時間を要するかを予め把握でき、腕部機構19の不具合ではないことを把握できる。 The processor 11 may also calculate the estimated movement time required for the movement of the arm mechanism 19 to the target position, and cause the operation device 30 to display the calculated estimated movement time. In this case, the communication device 14 transmits the calculated estimated travel time to the operation device 30 . The communication device 34 receives the estimated travel time from the operation device 30 . The processor 11 may cause the display device 37 to display information indicating the estimated movement time required for movement of the arm mechanism 19 to the target position. Thereby, the operator 200 can grasp in advance how much time it takes to move the arm mechanism 19 in order to perform the posture corresponding to the gesture, and can grasp that the arm mechanism 19 is not defective.

また、遠隔制御ロボット10では、操作者200のジェスチャに伴う遠隔制御ロボット10の腕部機構19の移動方向に、環境センサ16(例えばLiDAR)により障害物が検出された場合、プロセッサ11は、腕部機構19の駆動を抑制させ、障害物に関するアラートを操作器30に表示させてよい。駆動の抑制としては、停止や速度の低減等が考えられる。この場合、具体的には、通信デバイス14は、障害物が検出されたことを示す障害物検出情報を操作器30に送信する。障害物検出情報は、障害物に関する情報(障害物の名称や特性等)を含んでよい。操作器30では、通信デバイス34が、操作器30からの障害物検出情報を受信する。プロセッサ31は、アラートとして障害物検出情報を表示デバイス37に表示させる。なお、腕部機構19の駆動の抑制とアラートの表示とは、少なくとも一方が実施されればよい。 In addition, in the remote control robot 10, when an obstacle is detected by the environment sensor 16 (for example, LiDAR) in the moving direction of the arm mechanism 19 of the remote control robot 10 in response to the gesture of the operator 200, the processor 11 The driving of the unit mechanism 19 may be suppressed, and an alert regarding the obstacle may be displayed on the operating device 30 . As suppression of driving, stopping, reduction of speed, etc. can be considered. In this case, specifically, the communication device 14 transmits obstacle detection information indicating that an obstacle has been detected to the operating device 30 . The obstacle detection information may include information about obstacles (obstacle names, characteristics, etc.). In operation device 30 , communication device 34 receives obstacle detection information from operation device 30 . The processor 31 causes the display device 37 to display the obstacle detection information as an alert. At least one of suppressing the driving of the arm mechanism 19 and displaying an alert may be performed.

なお、遠隔制御ロボット10は、腕部機構19の各関節角を動かすことで、手部19hの最終的な位置を変えることなく障害物を回避できるようであれば、自動的に障害物を回避してもよい。この処理は、逆運動学を解く際に、障害物の座標を考慮することで実現できる。この場合、プロセッサ31は、自動で障害物を回避した旨をアラートとして表示してもよい。 If the remote control robot 10 can avoid the obstacle without changing the final position of the hand 19h by moving each joint angle of the arm mechanism 19, the remote control robot 10 automatically avoids the obstacle. You may This process can be achieved by considering the coordinates of the obstacles when solving the inverse kinematics. In this case, the processor 31 may display an alert indicating that the obstacle has been automatically avoided.

これにより、遠隔制御ロボット10は、例えば、操作器30からの姿勢指示信号(姿勢指令)を無効化して、腕部機構19の移動により障害物に衝突することを未然に回避できる。よって、遠隔操作システム5は、遠隔現場LN1での安全性を向上できる。また、操作者200は、遠隔現場LN1を直接目視で確認できないが、障害物検出情報を確認することで、腕部機構19の少なくとも一部(例えば手部19h)が障害物に接近していることを認識できる。また、操作者200は、障害物検出情報を確認することで、障害物に関する情報を把握でき、遠隔現場LN1での障害物の支障度合いを把握できる。
なお、遠隔制御ロボット10は、操作器30の表示デバイス37に表示される範囲外の障害物も検知し、障害物検出情報を操作器30に送信してもよい。これにより、遠隔制御ロボット10は、操作者200が観測できない位置にある障害物の存在等を通知することができるので、操作者200は、より的確に障害物への対策を行うことができる。
As a result, the remote control robot 10 can, for example, invalidate the posture instruction signal (posture command) from the operation device 30 to avoid colliding with an obstacle due to the movement of the arm mechanism 19 . Therefore, the remote control system 5 can improve safety at the remote site LN1. Although the operator 200 cannot directly visually confirm the remote site LN1, by confirming the obstacle detection information, at least part of the arm mechanism 19 (for example, the hand 19h) is approaching the obstacle. I can recognize that. Also, by checking the obstacle detection information, the operator 200 can grasp the information about the obstacle, and can grasp the degree of obstruction of the obstacle at the remote site LN1.
The remote control robot 10 may also detect obstacles outside the range displayed on the display device 37 of the operating device 30 and transmit obstacle detection information to the operating device 30 . As a result, the remote control robot 10 can notify the operator 200 of the existence of an obstacle that cannot be observed by the operator 200, so that the operator 200 can more accurately take countermeasures against the obstacle.

また、遠隔制御ロボット10が備える腕部機構19が1つである場合、つまり単腕の場合、操作者200が一方の手でジェスチャを実施すると、他方の手はジェスチャを行わない空き状態になる。この場合、空き状態の他方の手により、表示デバイス37の外枠を掴んでもよい。この場合、入力センサ38Aは、操作者200の他方の手による操作器30に対する操作力(押圧力)を検出する。プロセッサ31は、入力センサ38Aにより入力が検出されている期間に限り、つまり操作力が検出されている期間に限り、入力センサ38Bによる入力を検出し、つまり操作者200によるジェスチャを検出するようにしてもよい。 In addition, when the remote control robot 10 has one arm mechanism 19, that is, in the case of a single arm, when the operator 200 makes a gesture with one hand, the other hand becomes free and does not make a gesture. . In this case, the outer frame of the display device 37 may be grasped with the free other hand. In this case, the input sensor 38A detects the operating force (pressing force) applied to the operating device 30 by the operator's 200 other hand. The processor 31 detects an input by the input sensor 38B, that is, detects a gesture by the operator 200 only during the period during which the input is detected by the input sensor 38A, that is, during the period during which the operating force is detected. may

これにより、プロセッサ31は、他方の手で操作器30を掴んでいる期間(すなわち、他方の手で操作器30の外枠に接触している期間)に限って、一方の手によるジェスチャをスキャンして認識して、遠隔制御ロボット10に対してジェスチャに基づく姿勢をとるよう指示できる。これによって、操作者200の動作が意図せずに操作器30に認識され、遠隔制御ロボット10が動作してしまうことを防ぐことができる。よって、遠隔操作システム5は、産業用ロボットのデッドマンスイッチを用いる場合と同様に、遠隔制御ロボット10に対する遠隔操作を安全に実施できる。 Thereby, the processor 31 scans gestures made by one hand only while the other hand is holding the operation device 30 (that is, while the other hand is in contact with the outer frame of the operation device 30). , and instruct the remote control robot 10 to take a posture based on the gesture. As a result, it is possible to prevent the operation of the operator 200 from being unintentionally recognized by the operating device 30 and causing the remote control robot 10 to operate. Therefore, the remote control system 5 can safely remotely control the remote control robot 10 as in the case of using a deadman's switch of an industrial robot.

また、プロセッサ31は、操作者200が操作器30を掴んでいる箇所が2箇所未満であるか否かに応じて、遠隔制御ロボット10に対して、操作器30の近傍におけるジェスチャ入力による遠隔操作(腕部機構19の駆動)を指示するか、移動機構20による移動の制御の指示を行うかを判定してもよい。ここで、操作者200が1名である場合、操作器30を掴んでいる箇所が2箇所であるということは、操作者200が両手で操作器30を掴んでいることを意味し、上述したとおり、この動作は操作器30を移動させようとする操作に相当する。この場合、プロセッサ31は、移動の制御の指示を行う。一方、プロセッサ31は、操作器30に操作者200が接触している箇所が1箇所または0箇所である場合には、移動させる意思がないと推定することができる。この場合、プロセッサ31は、操作者200がジェスチャ入力による遠隔操作を行おうとしていると判定して、遠隔操作を指示する。これにより、操作者200は、遠隔制御ロボット10の移動の制御と遠隔制御ロボット10に対するジェスチャ入力とを簡易な操作で切り替えることができる。なお、操作器30に操作者200が触れている箇所が0箇所である場合は、プロセッサ31は、操作者200が移動も遠隔操作も行う意思がないものと判定して、移動の制御の指示と遠隔操作の指示とのどちらも行わないように制御してもよい。 In addition, the processor 31 instructs the remote control robot 10 to remotely operate the remote control robot 10 by gesture input in the vicinity of the operation device 30 depending on whether the operator 200 is holding the operation device 30 at less than two locations. It may be determined whether to instruct (drive the arm mechanism 19) or to instruct the control of movement by the moving mechanism 20. FIG. Here, when there is only one operator 200, the fact that the operator 200 is gripping the operating device 30 at two locations means that the operator 200 is holding the operating device 30 with both hands. As shown, this action corresponds to an operation to move the operating device 30 . In this case, the processor 31 instructs movement control. On the other hand, the processor 31 can estimate that there is no intention to move the operator 200 when the number of locations where the operator 200 is in contact with the operation device 30 is one or zero. In this case, the processor 31 determines that the operator 200 intends to perform remote operation by gesture input, and instructs remote operation. As a result, the operator 200 can switch between movement control of the remote control robot 10 and gesture input to the remote control robot 10 with a simple operation. When the operator 200 touches the operation device 30 at 0 locations, the processor 31 determines that the operator 200 has no intention of moving or performing remote control, and instructs movement control. It may be controlled so that neither the remote control instruction nor the remote control instruction is performed.

また、プロセッサ31は、検出されたジェスチャだけでなく、検出された操作者200の手200h(指を含む)の細かな動き(位置や姿勢や移動)についても、遠隔制御ロボット10の腕部機構19に反映するよう指示可能である。具体的な動作については、上記のように逆運動学(IK)の演算により実現可能である。例えば、操作者200が、手200hで対象物100を掴むジェスチャを行い、手200hで対象物100を掴んだまま移動させ、手200hを開放して対象物100を所定の位置に配置したとする。プロセッサ31は、入力センサ38Bと協働して、この手200hの一連の動き(ピックアンドプレースの動き)を検出する。プロセッサ31は、この検出結果に基づく姿勢指示信号を生成し、通信デバイス34を介して姿勢指示信号を遠隔制御ロボット10へ送信する。遠隔制御ロボット10は、操作器30からの姿勢指示信号に従って、このピックアンドプレースの動作を追従(トレース)して実施できる。具体的には、プロセッサ31は、対象物100を掴んだ手200hに対応する手部19hの座標を定期的に取得し、取得した座標から腕部機構19の各関節角度を逆運動学(IK)の演算によって算出して反映することで、ジェスチャに対応する一連の動きを実現する。なお、遠隔制御ロボット10は、操作現場LN2における腕部機構19の動きが滑らかになるように自動制御をおこなってもよい。 In addition, the processor 31 detects not only the detected gestures, but also fine movements (positions, postures, and movements) of the operator's 200 hand 200h (including fingers). 19 can be instructed to be reflected. A specific operation can be realized by the calculation of inverse kinematics (IK) as described above. For example, assume that the operator 200 makes a gesture of grasping the object 100 with the hand 200h, moves the object 100 while grasping it with the hand 200h, releases the hand 200h, and arranges the object 100 at a predetermined position. . The processor 31 cooperates with the input sensor 38B to detect a series of movements (pick-and-place movements) of the hand 200h. The processor 31 generates an attitude instruction signal based on this detection result, and transmits the attitude instruction signal to the remote control robot 10 via the communication device 34 . The remote-controlled robot 10 can follow (trace) and implement this pick-and-place operation in accordance with the attitude instruction signal from the manipulator 30 . Specifically, the processor 31 periodically acquires the coordinates of the hand 19h corresponding to the hand 200h that grips the object 100, and calculates each joint angle of the arm mechanism 19 from the acquired coordinates by inverse kinematics (IK ) is calculated and reflected to realize a series of movements corresponding to the gesture. Note that the remote control robot 10 may perform automatic control so that the movement of the arm mechanism 19 at the operation site LN2 becomes smooth.

なお、操作器30により検出された手200hの動きに追従して腕部機構19が動作した場合、この腕部機構19の動作は遠隔カメラ17の撮像範囲に含まれる。よって、遠隔制御ロボット10が操作者200の動きに追従した結果は、表示デバイス37により表示された画像に映り込む。よって、操作者200は、操作者200の動きに対する追従が正常に実施されたか否かを、表示デバイス37の表示内容により確認できる。 Note that when the arm mechanism 19 operates following the movement of the hand 200 h detected by the operation device 30 , the movement of the arm mechanism 19 is included in the imaging range of the remote camera 17 . Therefore, the result of the remote control robot 10 following the movement of the operator 200 is reflected in the image displayed by the display device 37 . Therefore, the operator 200 can confirm from the display contents of the display device 37 whether or not the movement of the operator 200 has been properly followed.

なお、プロセッサ31は、表示デバイス37の表示面側における空間的な操作者200の手200hの動きや姿勢やジェスチャに基づいて、遠隔制御ロボット10の腕部機構19の動きの制御を指示することを例示したが、これに限られない。例えば、表示デバイス37がタッチパネルである場合、タッチパネルが5指タッチ又は10指タッチ等を検出して、プロセッサ31が、タッチパネルによる検出結果に基づいて、各種のジェスチャを認識してもよい。この場合でも、操作器30は、認識されたジェスチャに基づいて、遠隔制御ロボット10の腕部機構19の動きの制御を指示してもよい。 Note that the processor 31 instructs control of the movement of the arm mechanism 19 of the remote control robot 10 based on the spatial movement, posture, and gesture of the hand 200h of the operator 200 on the display surface side of the display device 37. was exemplified, but it is not limited to this. For example, if the display device 37 is a touch panel, the touch panel may detect a 5-finger touch or a 10-finger touch, and the processor 31 may recognize various gestures based on the detection results of the touch panel. Even in this case, the manipulator 30 may instruct movement control of the arm mechanism 19 of the remote control robot 10 based on the recognized gesture.

なお、スケール比として、遠隔現場LN1と操作現場LN2との間で移動量のスケール比が設定されていてもよい。つまり、遠隔現場LN1の空間における移動量と、操作現場LN2の空間における移動量と、の比がスケール比とされてもよい。この場合は、ジェスチャにもそのスケール比が適用されてよい。すなわち、プロセッサ31は、遠隔現場LN1での3次元座標を操作現場LN2での3次元座標に変換する際に、このスケール比を考慮してよい。これにより、操作器30は、移動量とのスケール比の違いによる操作(例えばジェスチャ)の違和感を低減することができる。また、プロセッサ31は、移動量のスケール比から独立して、ジェスチャのスケール比を設定可能としてもよい。例えば、プロセッサ31は、遠隔現場LN1の大きな動きが操作現場LN2の小さな動きに変換されるようにジェスチャのスケール比を設定すると、微細な操作が必要になる場合に有益である。また、プロセッサ31は、遠隔現場LN1の小さな動きが操作現場LN2の大きな動きに変換されるようにジェスチャのスケール比を設定すると、人体の可動範囲を超えた大きな操作を短時間で実現できる。 As a scale ratio, a scale ratio of the amount of movement may be set between the remote site LN1 and the operation site LN2. That is, the scale ratio may be the ratio of the amount of movement in the space of the remote site LN1 and the amount of movement in the space of the operation site LN2. In this case, the gesture may also have that scale ratio applied. That is, the processor 31 may take this scale ratio into account when converting the 3D coordinates at the remote site LN1 to the 3D coordinates at the operation site LN2. As a result, the operation device 30 can reduce the sense of incongruity of the operation (for example, gesture) due to the difference in the scale ratio with respect to the amount of movement. Also, the processor 31 may be able to set the scale ratio of the gesture independently of the scale ratio of the amount of movement. For example, the processor 31 sets the gesture scale ratio so that large movements of the remote site LN1 are converted into small movements of the operation site LN2, which is useful when fine manipulations are required. Moreover, if the processor 31 sets the scale ratio of the gesture so that a small movement of the remote site LN1 is converted into a large movement of the operation site LN2, it is possible to realize a large operation exceeding the movable range of the human body in a short time.

次に、1つの操作器30の形態について説明する。 Next, the form of one operating device 30 will be described.

変形機構39は、操作器30の形態を変形自在である。操作器30は、少なくとも、表示デバイス37の表示面がz軸方向に沿う縦置きの形態と、表示デバイス37の表示面がxy平面に沿って配置される横置きの形態と、に変形可能である。変形機構39は、縦置きの形態と横置きの形態との間で、表示デバイス37の表示面が鉛直方向に対して所定の角度となるように、操作器30の形態を調整可能であってもよい。 The deformation mechanism 39 is capable of deforming the form of the operation device 30 . The operation device 30 can be transformed into at least a vertical configuration in which the display surface of the display device 37 is arranged along the z-axis direction and a horizontal configuration in which the display surface of the display device 37 is arranged along the xy plane. be. The deformation mechanism 39 can adjust the form of the operation device 30 so that the display surface of the display device 37 is at a predetermined angle with respect to the vertical direction between the vertical position and the horizontal position. good too.

プロセッサ31は、入力センサ38A,38Bともに電源OFF又は機能が無効にされている場合、且つ、移動機構40が停止状態である場合という条件を満たす場合に限り、変形機構39の電磁ブレーキを解除するよう制御してよい。つまり、この条件を満たさない場合には、電磁ブレーキが解除されずに変形機構39による操作器30の形態を変更不可であり、この条件を満たす場合には、電磁ブレーキが解除されて変形機構39による操作器30の形態を変更可能である。よって、この条件を満たす場合に限り、変形機構39は、手動で変形機構39による変形が可能である。これにより、操作器30は、操作器30の変形時に操作器30が意図せずに移動開始するなどの誤動作することを抑制できる。 The processor 31 releases the electromagnetic brake of the deformation mechanism 39 only when the input sensors 38A and 38B are powered off or disabled and the moving mechanism 40 is in a stopped state. can be controlled as follows. In other words, if this condition is not met, the electromagnetic brake is not released and the shape of the operating device 30 cannot be changed by the deformation mechanism 39. If this condition is met, the electromagnetic brake is released and the deformation mechanism 39 is disabled. It is possible to change the form of the operation device 30 by Therefore, the deformation mechanism 39 can be manually deformed only when this condition is satisfied. As a result, the operation device 30 can be prevented from malfunctioning, such as the operation device 30 unintentionally starting to move when the operation device 30 is deformed.

また、操作器30は、鉛直方向に対する表示デバイス37の表示面の傾斜角度(向き)を検出する入力センサ38Cを含んでもよい(図1参照)。操作器30は、傾斜角度が0度の場合には縦置きの形態であることを示し、傾斜角度が90度である場合には横置きの形態であることを示す。入力センサ38Cは、例えば近接センサ又はジャイロセンサであってよい。例えば、近接センサの少なくとも1つが、変形機構39の関節部分に設置され、表示デバイス37の外枠を構成する金属製のブラケットの接近の状態を検出することで、上記の傾斜角度を検出してよい。近接センサは、誘電電流方式に従って、上記の傾斜角度を検出してよい。なお、入力センサ38Cは、他の方法で上記の傾斜角度を検出してもよい。 The operation device 30 may also include an input sensor 38C that detects the tilt angle (orientation) of the display surface of the display device 37 with respect to the vertical direction (see FIG. 1). The operating device 30 indicates that it is in a vertical orientation when the tilt angle is 0 degrees, and indicates that it is in a horizontal orientation when the tilt angle is 90 degrees. Input sensor 38C may be, for example, a proximity sensor or a gyro sensor. For example, at least one of the proximity sensors is installed in the joint portion of the deformation mechanism 39, and detects the state of approach of a metal bracket that constitutes the outer frame of the display device 37, thereby detecting the tilt angle. good. The proximity sensor may detect the tilt angle according to the inductive current method. It should be noted that the input sensor 38C may detect the tilt angle by other methods.

次に、複数の操作器30が連携した形態について説明する。 Next, a form in which a plurality of manipulators 30 cooperate will be described.

本実施形態では、複数の操作器30が連携して、様々な形態をとり得る。例えば、各操作器30のプロセッサ31は、環境センサ36により検出された情報に基づいて、各操作器30に対する操作者200の位置を取得し、各操作器30と操作者200との位置関係が所定の位置関係となるように、各操作器30の移動機構40を駆動して移動させてよい。所定の位置関係の情報は、例えば各操作器30のメモリ33に保持されていてよい。これにより、各操作器30は、自律的に操作者200との位置を適切に確保して配置可能である。このような操作器30と操作者200との位置関係を所定の位置関係にすることが可能であることは、操作器30が1つ(単体)である場合でも同様である。 In this embodiment, a plurality of operation devices 30 can work together to take various forms. For example, the processor 31 of each operating device 30 acquires the position of the operator 200 with respect to each operating device 30 based on the information detected by the environment sensor 36, and the positional relationship between each operating device 30 and the operator 200 is The moving mechanism 40 of each operating device 30 may be driven to move so as to achieve a predetermined positional relationship. Information on the predetermined positional relationship may be held in the memory 33 of each operating device 30, for example. Thereby, each operating device 30 can be arranged by securing a proper position with respect to the operator 200 autonomously. The fact that the positional relationship between the operation device 30 and the operator 200 can be set to a predetermined positional relationship is the same even when there is one operation device 30 (single unit).

例えば、操作現場LN2において複数の操作器30が縦置きの形態で配置され、且つ複数の操作器30のそれぞれが離間されて配置されてよい。この場合、遠隔現場LN1において遠隔制御ロボット10も複数配置されてよい。この場合、上述のように、各操作器30の位置は、各操作器30に対する操作者200の操作力によって各操作器30を移動させて決定されてもよいし、予め各操作器30の位置関係が決定されており、メモリ33に保持されていてもよい。また、遠隔現場LN1における複数の遠隔制御ロボット10も、複数の操作器30の間の距離に対応する距離を保って配置されてよい。この場合、上記の遠隔現場LN1と操作現場LN2とのスケール比が考慮されて、複数の操作器30の間の距離が決定されて複数の操作器30が配置されてもよい。 For example, at the operation site LN2, the plurality of manipulators 30 may be vertically arranged, and the plurality of manipulators 30 may be spaced apart from each other. In this case, a plurality of remote control robots 10 may also be arranged at the remote site LN1. In this case, as described above, the position of each operating device 30 may be determined by moving each operating device 30 according to the operating force of the operator 200 on each operating device 30, or the position of each operating device 30 may be determined in advance. The relationship has been determined and may be held in memory 33 . Further, the plurality of remote control robots 10 at the remote site LN1 may also be arranged with a distance corresponding to the distance between the plurality of manipulators 30 maintained. In this case, the scale ratio between the remote site LN1 and the operation site LN2 may be considered to determine the distances between the plurality of operators 30 and arrange the plurality of operators 30 .

これにより、遠隔操作システム5は、複数の操作器30が距離を持って配置可能であり、操作現場LN2におけるこの複数の操作器30の位置関係に対応して、遠隔現場LN1における複数の遠隔制御ロボット10の位置関係を規定できる。よって、複数の操作器30の表示デバイス37には、複数の操作器30に対応する遠隔現場LN1での位置で撮像された画像が表示されることとなる。よって、操作者200は、複数の操作器30の表示デバイス37の表示を確認することで、遠隔現場LN1の対応する位置での状態を確認できる。 As a result, the remote operation system 5 allows the plurality of operators 30 to be arranged at a distance, and according to the positional relationship of the plurality of operators 30 at the operation site LN2, the plurality of remote control devices at the remote site LN1. A positional relationship of the robot 10 can be defined. Therefore, the images captured at the positions at the remote site LN1 corresponding to the plurality of manipulators 30 are displayed on the display devices 37 of the plurality of manipulators 30 . Therefore, the operator 200 can confirm the state at the corresponding position of the remote site LN1 by confirming the display of the display devices 37 of the plurality of operation devices 30 .

また、図9は、複数の操作器30(30A,30B)が連携した形態の一例を示す模式図である。図9に示すように、操作現場LN2において複数の操作器30のうちの2つの操作器30がいずれも縦置きの形態で配置され、且つ、この2つの操作器30の位置関係がx2y2平面において垂直になるように配置されてよい。また、遠隔現場LN1では、操作器30の数と同数の遠隔制御ロボット10が配置されてよい。そして、複数の遠隔制御ロボット10のうちの2つの遠隔制御ロボット10が、操作現場LN2における2つの操作器30と同様の位置関係で配置されてよい。この場合、2つの遠隔制御ロボット10の2つの遠隔カメラ17は、x1y1平面において垂直な方向を撮像方向として画像を撮像する。 Moreover, FIG. 9 is a schematic diagram showing an example of a form in which a plurality of operation devices 30 (30A, 30B) are linked. As shown in FIG. 9, at the operation site LN2, two operators 30 out of the plurality of operators 30 are arranged vertically, and the positional relationship between the two operators 30 is in the x2y2 plane. It may be arranged vertically. Further, at the remote site LN1, the same number of remote control robots 10 as the number of manipulators 30 may be arranged. Two remote control robots 10 out of the plurality of remote control robots 10 may be arranged in the same positional relationship as the two manipulators 30 at the operation site LN2. In this case, the two remote cameras 17 of the two remote control robots 10 capture images with the direction perpendicular to the x1y1 plane as the imaging direction.

これにより、操作者200の位置を基準として、90度異なる方向に2つの操作器30の表示デバイス37が配置され、操作者200の目前の視界を覆うことになる。この2つの表示デバイス37には、複数の操作器30に対応する遠隔現場LN1での位置で撮像された画像が表示されることなる。よって、遠隔操作システム5は、一層臨場感を高めて遠隔現場LN1の状況を操作者200に伝達可能である。 As a result, the display devices 37 of the two operation devices 30 are arranged in directions different by 90 degrees with respect to the position of the operator 200 , and cover the field of view in front of the operator 200 . The two display devices 37 display images captured at positions on the remote site LN1 corresponding to the plurality of operation devices 30 . Therefore, the remote control system 5 can transmit the situation of the remote site LN1 to the operator 200 with a more realistic feeling.

図9では、操作者200から見て前方の表示デバイス37Aと右方の表示デバイス37Bにそれぞれ棚が存在し、それぞれの棚に対象物100が載置されている。この状態は、遠隔現場LN1でも同様であり、操作器30Aに対応する遠隔制御ロボット10の前方に、棚に載置された対象物100が存在し、操作器30Bに対応する遠隔制御ロボット10の右方に、棚に載置された対象物100が存在することを示している。 In FIG. 9, there are shelves in the front display device 37A and the right display device 37B when viewed from the operator 200, and the object 100 is placed on each shelf. This state is the same at the remote site LN1, and the object 100 placed on the shelf exists in front of the remote-controlled robot 10 corresponding to the manipulator 30A, and the remote-controlled robot 10 corresponding to the manipulator 30B. An object 100 placed on a shelf is shown on the right side.

また、図9では、プロジェクタ41が、操作器30A,30Bのそれぞれに設けられており、2方向から床面に画像を投影している。図9では、投影範囲AR1に画像が投影されている。これにより、操作器30は、前述のように、遠隔制御ロボット10の足元の画像を補足的に投影でき、臨場感を向上できる。さらに、2方向から床面に画像を投影することで、投影による陰が発生することを抑制できる。なお、図9では、台座52に設置された環境センサ36の図示が省略されている。 Further, in FIG. 9, the projectors 41 are provided on the operation devices 30A and 30B, respectively, and project images onto the floor surface from two directions. In FIG. 9, an image is projected onto the projection range AR1. As a result, the controller 30 can supplementally project the image of the feet of the remote control robot 10 as described above, thereby improving the sense of reality. Furthermore, by projecting images onto the floor surface from two directions, it is possible to suppress the occurrence of shadows due to projection. 9, illustration of the environment sensor 36 installed on the pedestal 52 is omitted.

また、図10は、複数の操作器30(30A,30B)が連携した形態の一例を示す模式図である。図10に示すように、操作現場LN2において複数の操作器30が縦置きの形態で配置され、且つ複数の操作器30のそれぞれが離間せずにx2y2平面上のいずれかの方向に平行に配置されてよい。この場合、複数の操作器30のそれぞれの表示デバイス37の表示面は、同一平面上に配置されてよい。つまり、複数の表示デバイス37により1つの表示デバイス37が拡大されたような形態となる。また、遠隔現場LN1において遠隔制御ロボット10も複数配置されてよい。複数の遠隔制御ロボット10は、操作現場LN2における複数の操作器30と同様の位置関係で配置されてよい。この場合、2つの遠隔制御ロボット10の2つの遠隔カメラ17は、x1y1平面において平行な方向を撮像方向として画像を撮像する。 Moreover, FIG. 10 is a schematic diagram showing an example of a form in which a plurality of operation devices 30 (30A, 30B) are linked. As shown in FIG. 10, at the operation site LN2, a plurality of operation devices 30 are arranged vertically, and the plurality of operation devices 30 are arranged in parallel in any direction on the x2y2 plane without being separated from each other. may be In this case, the display surfaces of the respective display devices 37 of the plurality of manipulators 30 may be arranged on the same plane. In other words, the form is such that one display device 37 is enlarged by a plurality of display devices 37 . A plurality of remote control robots 10 may also be arranged at the remote site LN1. The plurality of remote control robots 10 may be arranged in the same positional relationship as the plurality of manipulators 30 at the operation site LN2. In this case, the two remote cameras 17 of the two remote control robots 10 capture images with parallel directions on the x1y1 plane.

これにより、遠隔操作システム5は、遠隔現場LN1の遠隔制御ロボット10の作業環境を、複数の表示デバイス37で1つの画面のように拡張して広範囲にわたって表示できる。よって、遠隔操作システム5は、一覧性を高くして遠隔現場LN1の状況を操作現場LN2で再現できる。 As a result, the remote control system 5 can display the work environment of the remote control robot 10 at the remote site LN1 over a wide range by expanding it like one screen on a plurality of display devices 37. FIG. Therefore, the remote control system 5 can reproduce the situation of the remote site LN1 at the operation site LN2 with high visibility.

また、図11は、複数の操作器30(30A,30B)が連携した形態の一例を示す模式図である。図11に示すように、操作現場LN2において複数の操作器30のうちの2つの操作器30の一方が縦置きの形態で配置され、他方が横置きの形態で配置され、この2つの操作器30が隣接して配置されてよい。また、遠隔現場LN1では、遠隔制御ロボット10が1つだけ配置されても複数配置されてもよい。この場合、縦置きの形態の操作器30の表示デバイス37Aと横置きの形態の操作器30の表示デバイス37Bとは、1つの遠隔カメラ17より撮像された同一の画像を表示してもよいし、異なる遠隔カメラ17により撮像された異なる画像を表示してもよい。また、表示デバイス37Bは、遠隔カメラ17により撮像された画像ではなく、操作を行うための所定の操作画面が表示されてもよい。 Also, FIG. 11 is a schematic diagram showing an example of a form in which a plurality of operation devices 30 (30A, 30B) are linked. As shown in FIG. 11, at the operation site LN2, one of two operation devices 30 out of the plurality of operation devices 30 is arranged vertically and the other is arranged horizontally. 30 may be arranged adjacently. Further, at the remote site LN1, only one remote control robot 10 or a plurality of remote control robots 10 may be arranged. In this case, the display device 37A of the manipulator 30 placed vertically and the display device 37B of the manipulator 30 placed horizontally may display the same image captured by one remote camera 17. , may display different images captured by different remote cameras 17 . Also, the display device 37B may display a predetermined operation screen for performing an operation instead of the image captured by the remote camera 17 .

これにより、遠隔操作システム5は、2つの操作器30を連携して使用し、例えば、表示デバイス37Aを棚として使用し、表示デバイス37Bを机として使用するような、立体的な作業環境を提示できる。この場合、表示デバイス37A,37Bの両方を操作のために使用することで、遠隔操作システム5は、遠隔地(遠隔現場LN1)の状況を3次元的に再現して直感的な操作を行うことができる。この場合、遠隔操作システム5は、表示デバイス37Aと37Bとの座標空間を揃えることで、棚と机との間で物品を移動させる等の複雑な操作を遠隔地から実施することができる。また、遠隔操作システム5は、いずれか一方の表示デバイス37を表示確認のために用い、他方の表示デバイス37を操作用に用いてもよい。例えば、操作者200は、表示デバイス37Aを表示確認のために用い、表示デバイス37Bとしてのタッチパネルを操作のために用いることで、棚の状況を表示デバイス37Aで確認しつつ、表示デバイス37Bによって机の上の操作を行うことができるので、作業効率の向上が期待できる。また、遠隔操作システム5は、操作用ではない表示デバイス37を表示専用に用いることで、机上の操作のつもりで行ったジェスチャが、棚の操作にも反映されてしまうなどの誤操作を防止することができる。 Thereby, the remote control system 5 uses the two controllers 30 in cooperation, and presents a three-dimensional working environment such as using the display device 37A as a shelf and using the display device 37B as a desk, for example. can. In this case, by using both the display devices 37A and 37B for operation, the remote control system 5 reproduces the situation at the remote site (remote site LN1) three-dimensionally and performs intuitive operations. can be done. In this case, by aligning the coordinate spaces of the display devices 37A and 37B, the remote control system 5 can remotely perform complicated operations such as moving an article between the shelf and the desk. Further, the remote control system 5 may use one of the display devices 37 for display confirmation and the other display device 37 for operation. For example, the operator 200 uses the display device 37A for display confirmation and uses the touch panel as the display device 37B for operation, thereby confirming the status of the shelf with the display device 37A and displaying the desk with the display device 37B. Since the above operation can be performed, an improvement in work efficiency can be expected. In addition, the remote control system 5 uses the display device 37 that is not for operation only for display, thereby preventing erroneous operations, such as a gesture performed with the intention of operating on the desk being reflected in the operation of the shelf. can be done.

このように、遠隔制御ロボット10は、複数設けられてよい。複数の操作器30のそれぞれと複数の遠隔制御ロボット10のそれぞれとが、対応する位置及び向きに配置されてよい。対応する位置及び向きの情報は、メモリ13,33の少なくとも一方に保持されていてよい。 Thus, a plurality of remote control robots 10 may be provided. Each of the plurality of manipulators 30 and each of the plurality of remote control robots 10 may be arranged in corresponding positions and orientations. Corresponding position and orientation information may be held in at least one of the memories 13 , 33 .

これにより、操作器30及び遠隔制御ロボット10が複数ある場合でも、操作者200は、複数の操作器300の位置関係や向きを確認することで、複数の遠隔制御ロボット10の位置関係や向きを直感的に把握できる。例えば、遠隔現場LN1での各遠隔制御ロボット10の位置関係が、操作現場LN2において各操作器30の相似な位置関係として反映される。 As a result, even when there are a plurality of manipulators 30 and remote control robots 10, the operator 200 can confirm the positional relationships and orientations of the plurality of remote control robots 10 by checking the positional relationships and orientations of the plurality of manipulators 300. It can be grasped intuitively. For example, the positional relationship of each remote control robot 10 at the remote site LN1 is reflected as a similar positional relationship of each operator 30 at the operation site LN2.

図12は、遠隔操作システム5の動作例を示すフローチャートである。 FIG. 12 is a flowchart showing an operation example of the remote control system 5. As shown in FIG.

遠隔操作システム5の動作の開始前に、事前準備フェーズとして、事前準備の処理が実施される。事前準備フェーズでは、遠隔制御ロボット10及び操作器30のそれぞれを起動すると、自律的に周辺環境モデルを生成する。具体的には、遠隔制御ロボット10では、環境センサ16が、遠隔現場LN1での任意の環境に関する情報(例えば距離情報)を検出する。プロセッサ11は、環境センサ16により検出された情報に基づいて遠隔現場LN1の周辺環境モデルを生成し、メモリ13に保存しておく。同様に、操作器30では、環境センサ36が、操作現場LN2での任意の環境に関する情報(例えば距離情報)を検出する。プロセッサ31は、環境センサ36により検出された情報に基づいて操作現場LN2の周辺環境モデルを生成し、メモリ33に保存しておく。なお、このような周辺環境モデルの生成は、所定のタイミングで繰り返し行われてよく、遠隔現場LN1及び操作現場LN2のそれぞれの周辺環境モデルは更新されてよい。また、操作器30の形態が所定の形態となるように、表示デバイス37の傾斜角度が予め調整されている。 Before starting the operation of the remote control system 5, preparation processing is performed as a preparation phase. In the preliminary preparation phase, when each of the remote control robot 10 and the operation device 30 is activated, a surrounding environment model is generated autonomously. Specifically, in the remote control robot 10, the environment sensor 16 detects information (for example, distance information) regarding any environment at the remote site LN1. The processor 11 generates a peripheral environment model of the remote site LN1 based on the information detected by the environment sensor 16, and stores it in the memory 13. FIG. Similarly, in the operation device 30, the environment sensor 36 detects information (for example, distance information) regarding any environment at the operation site LN2. The processor 31 generates a surrounding environment model of the operation site LN2 based on the information detected by the environment sensor 36, and stores it in the memory 33. FIG. The generation of such a surrounding environment model may be repeated at a predetermined timing, and the surrounding environment models of the remote site LN1 and the operation site LN2 may be updated. In addition, the inclination angle of the display device 37 is adjusted in advance so that the operation device 30 has a predetermined form.

まず、操作器30のプロセッサ31は、変形機構39の関節角度の情報を取得する(S11)。変形機構39の関節角度は、表示デバイス37の傾斜角度に相当する。ここでは、プロセッサ31は、入力センサ38Cにより検出された操作器30の表示デバイス37の傾斜角度を取得する。 First, the processor 31 of the operating device 30 acquires joint angle information of the deformation mechanism 39 (S11). The joint angle of the deformation mechanism 39 corresponds to the tilt angle of the display device 37 . Here, the processor 31 acquires the tilt angle of the display device 37 of the operation device 30 detected by the input sensor 38C.

プロセッサ31は、表示デバイス37の傾斜角度に基づいて、座標変換行列を生成する(S12)。この座標変換行列は、移動量及び姿勢情報の計測時に用いられる。例えば、操作器30に対する操作力に基づく遠隔制御ロボット10又は操作器30の移動量、又は、操作者200によるジェスチャに基づく姿勢をとるための移動量は、表示デバイス37の基準の形態(縦置きの形態)を基準として算出される。そのため、表示デバイス37が基準の形態の傾きと異なる場合、操作器30に対する操作力及び操作者200によるジェスチャの向きが傾斜角度に応じて2つの方向が分解されるので、上記の算出結果に誤差が生じる。プロセッサ31が、座標変換行列を用いて、操作器30に対する操作力に基づく遠隔制御ロボット10又は操作器30の移動量、又は、操作者200によるジェスチャに基づく姿勢を実施するための移動量を算出することで、この誤差が解消される。 Processor 31 generates a coordinate transformation matrix based on the tilt angle of display device 37 (S12). This coordinate transformation matrix is used when measuring the amount of movement and orientation information. For example, the amount of movement of the remote control robot 10 or the operation device 30 based on the operating force on the operation device 30, or the amount of movement for taking a posture based on the gesture by the operator 200 is the reference form of the display device 37 (vertical orientation). form). Therefore, when the tilt of the display device 37 is different from the tilt of the reference form, the operation force on the operation device 30 and the direction of the gesture by the operator 200 are resolved into two directions according to the tilt angle. occurs. The processor 31 uses the coordinate transformation matrix to calculate the movement amount of the remote control robot 10 or the operation device 30 based on the operation force on the operation device 30 or the movement amount for performing the posture based on the gesture by the operator 200. This will eliminate this error.

プロセッサ31は、入力センサ38Aにより操作器30に対する操作力(情報の一例)が検出されたか否かを判定する(S13)。 The processor 31 determines whether or not the input sensor 38A has detected an operating force (an example of information) on the operation device 30 (S13).

プロセッサ31は、入力センサ38Aにより操作器30に対する操作力が検出された場合、座標変換行列に基づいて、操作器30に対する操作力(操作力の大きさ)を基に操作器30の移動量を算出する(S14)。この場合、プロセッサ31は、操作器30に対する操作力が加えられた方向に基づいて、操作器30の移動方向を算出してよい。プロセッサ31は、算出された操作器30の移動量に基づいて、又は操作器30の移動量及び移動方向に基づいて、移動機構40の駆動を制御し、操作器30を移動させる(S15)。通信デバイス34は、算出された移動量の情報を含む移動指示信号を遠隔制御ロボット10へ送信する(S16)。移動指示信号は、移動量とともに移動方向の情報を含んでよい。 When the input sensor 38A detects the operating force on the operating device 30, the processor 31 calculates the amount of movement of the operating device 30 based on the operating force (magnitude of the operating force) on the operating device 30 based on the coordinate transformation matrix. Calculate (S14). In this case, the processor 31 may calculate the moving direction of the operating device 30 based on the direction in which the operating force is applied to the operating device 30 . The processor 31 controls driving of the moving mechanism 40 to move the operating device 30 based on the calculated moving amount of the operating device 30 or based on the moving amount and moving direction of the operating device 30 (S15). The communication device 34 transmits a movement instruction signal including information on the calculated movement amount to the remote control robot 10 (S16). The movement instruction signal may include information on the direction of movement as well as the amount of movement.

遠隔制御ロボット10では、通信デバイス14は、操作器30からの移動指示信号を受信する。プロセッサ11は、受信された移動指示信号に基づいて、移動機構20の駆動を制御し、遠隔制御ロボット10を移動させる(S17)。 In the remote control robot 10 , the communication device 14 receives movement instruction signals from the operator 30 . The processor 11 controls driving of the moving mechanism 20 based on the received movement instruction signal to move the remote control robot 10 (S17).

一方、ステップS13において、入力センサ38Aにより操作器30に対する操作力が検出されなかった場合(S13のNo)、プロセッサ31は、入力センサ38Bの入力に基づいてジェスチャ(情報の一例)が検出されたか否かを判定する(S18)。ジェスチャは、操作者の手200h及び腕の少なくとも一方の姿勢により規定される。プロセッサ31は、操作者200によるジェスチャが検出された場合、座標変換情報に基づいて、検出されたジェスチャを示す操作者200の手200h及び腕の姿勢情報を算出する(S19)。通信デバイス34は、計測された姿勢情報を含む姿勢指示信号を遠隔制御ロボット10へ送信する(S20)。 On the other hand, in step S13, if the input sensor 38A does not detect an operating force on the operation device 30 (No in S13), the processor 31 detects whether a gesture (an example of information) is detected based on the input of the input sensor 38B. It is determined whether or not (S18). A gesture is defined by the posture of at least one of the operator's hand 200h and arm. When the gesture by the operator 200 is detected, the processor 31 calculates posture information of the hand 200h and arm of the operator 200 indicating the detected gesture based on the coordinate conversion information (S19). The communication device 34 transmits an attitude instruction signal including the measured attitude information to the remote control robot 10 (S20).

遠隔制御ロボット10では、通信デバイス14は、操作器30からの姿勢指示信号を受信する。プロセッサ11は、受信された姿勢指示信号に基づいて、腕部機構19の駆動を制御する(S21)。この場合、プロセッサ11は、操作器30に対して操作者200が実施した各種ジェスチャと同じ姿勢をとるよう制御する。つまり、プロセッサ11は、操作者200の手200h及び腕部の位置や姿勢に、遠隔制御ロボット10の手200h及び腕部の位置や姿勢を追従させる。 In the remote controlled robot 10 , the communication device 14 receives attitude instruction signals from the manipulator 30 . Processor 11 controls the driving of arm mechanism 19 based on the received posture instruction signal (S21). In this case, the processor 11 controls the operation device 30 to take the same posture as the various gestures performed by the operator 200 . That is, the processor 11 causes the positions and postures of the hands 200h and arms of the remote control robot 10 to follow the positions and postures of the hands 200h and arms of the operator 200 .

(変形例)
図13は、変形例における操作器30Aの構成を示す模式図である。操作器30Aは、例えば天井から吊り下げて設置される。操作器30Aの移動機構40Aは、3軸の水平多関節ロボットアームにより構成されている。具体的には、移動機構40Aは、第1軸J1、第2軸J2及び第3軸J3を含む。移動機構40Aでは、天井に近い方から、第1軸J1、第2軸J2、第3軸J3の順に配置される。なお、操作器30Aは、移動機構40A以外の構成については、操作器30と同様の構成を有する。
(Modification)
FIG. 13 is a schematic diagram showing the configuration of an operating device 30A in a modified example. The operation device 30A is installed, for example, suspended from the ceiling. A moving mechanism 40A of the manipulator 30A is composed of a three-axis horizontal articulated robot arm. Specifically, the moving mechanism 40A includes a first axis J1, a second axis J2 and a third axis J3. In the moving mechanism 40A, the first axis J1, the second axis J2, and the third axis J3 are arranged in this order from the side closer to the ceiling. Note that the operating device 30A has the same configuration as the operating device 30 except for the configuration of the moving mechanism 40A.

操作器30Aは、操作器30と同様に、操作者200により押したり引っ張ったりされる等の物理的な接触に基づく操作を受けると、操作器30Aの各軸の回転角度が変化する。操作器30Aは、例えば角度センサ(不図示)により、第1軸J1、第2軸J2及び第3軸J3の各軸の回転角度を検出する。この回転角度は、入力センサにより検出される入力の一例である。プロセッサ31は、検出された各軸の回転角度に基づいて、遠隔制御ロボット10の移動の制御を指示する。なお、遠隔制御ロボット10の態様(例えば天井配置型、地上配置型)の態様に応じて、遠隔制御ロボット10の移動の制御の指示方法が異なる。 As with the operating device 30, when the operating device 30A receives an operation based on physical contact such as being pushed or pulled by the operator 200, the rotation angle of each axis of the operating device 30A changes. The operation device 30A detects the rotation angles of each of the first axis J1, the second axis J2 and the third axis J3, for example, using an angle sensor (not shown). This rotation angle is an example of an input detected by an input sensor. The processor 31 instructs movement control of the remote control robot 10 based on the detected rotation angle of each axis. It should be noted that the instruction method for controlling the movement of the remote-controlled robot 10 differs depending on the mode of the remote-controlled robot 10 (eg, ceiling-mounted type, ground-mounted type).

例えば、遠隔制御ロボット10が、操作器30Aと同様に、例えば天井から吊り下げて設置される遠隔制御ロボット10Aであり、遠隔制御ロボット10Aの移動機構20Aが、3軸の水平多関節ロボットアームにより構成されているとする。また、操作器30Aと同様に、移動機構20Aが、第1軸J11、第2軸J12及び第3軸J13を含み、天井に近い方から、第1軸J11、第2軸J12、第3軸J13の順に配置されているとする。 For example, the remote control robot 10 is a remote control robot 10A that is installed, for example, suspended from the ceiling like the operation device 30A, and the movement mechanism 20A of the remote control robot 10A is a three-axis horizontal articulated robot arm. Assume it is configured. Further, similarly to the operation device 30A, the moving mechanism 20A includes a first axis J11, a second axis J12 and a third axis J13, and from the side near the ceiling, the first axis J11, the second axis J12 and the third axis Assume that they are arranged in the order of J13.

この場合、操作器30Aの通信デバイス34は、検出された各軸の回転角度の情報を含む角度指示信号を遠隔制御ロボット10Aに送信する。遠隔制御ロボット10Aでは、通信デバイス14は、角度指示信号を受信する。プロセッサ11は、受信された角度指示信号に基づいて、移動機構20Aの駆動を制御する。つまり、プロセッサ11は、操作器30Aの移動機構40Aの第1軸J1、第2軸J2及び第3軸J3と、遠隔制御ロボット10Aの移動機構20Aの第1軸J11、第2軸J12及び第3軸J13と、を同じ回転角度とすることで、遠隔制御ロボット10Aと操作器30Aとを同じように移動させることができる。 In this case, the communication device 34 of the manipulator 30A transmits an angle instruction signal including information on the detected rotation angle of each axis to the remote control robot 10A. In remote controlled robot 10A, communication device 14 receives the angle indicating signal. Processor 11 controls driving of moving mechanism 20A based on the received angle instruction signal. That is, the processor 11 controls the first axis J1, the second axis J2 and the third axis J3 of the movement mechanism 40A of the controller 30A and the first axis J11, the second axis J12 and the third axis J11 of the movement mechanism 20A of the remote control robot 10A. By setting the three axes J13 and J13 to the same rotation angle, the remote control robot 10A and the operation device 30A can be moved in the same manner.

また、例えば、遠隔制御ロボット10が、上記の実施形態と同様に、移動機構20により地上を移動する遠隔制御ロボット10であるとする。この場合、操作器30Aのプロセッサ31は、例えば、検出された各軸の回転角度に基づいて、順運動学(FK:Forward Kinematics)を解くことで、遠隔制御ロボット10の移動後の位置P(Px,Py,Pz)を算出する。ここでのx、y、zは、3次元空間での直交する3方向の成分(x成分、y成分、z成分)を示す。通信デバイス34は、算出された移動後の遠隔制御ロボット10の位置情報を含む位置指示信号を遠隔制御ロボット10に送信する。遠隔制御ロボット10では、通信デバイス14は、位置指示信号を受信する。プロセッサ11は、受信された位置指示信号に基づいて、移動機構20の駆動を制御する。これにより、遠隔制御ロボット10は、操作器30Aにより算出されていた移動機構20の移動後の位置に到達可能である。 Also, for example, let us assume that the remote control robot 10 is a remote control robot 10 that moves on the ground using a moving mechanism 20 as in the above embodiment. In this case, the processor 31 of the manipulator 30A, for example, solves forward kinematics (FK) based on the detected rotation angles of the respective axes to determine the post-movement position P ( Px, Py, Pz) are calculated. Here, x, y, and z represent components in three orthogonal directions (x component, y component, and z component) in a three-dimensional space. The communication device 34 transmits to the remote controlled robot 10 a position indication signal including the calculated position information of the remote controlled robot 10 after movement. In remote controlled robot 10, communication device 14 receives position indication signals. Processor 11 controls driving of moving mechanism 20 based on the received position indication signal. As a result, the remote control robot 10 can reach the post-movement position of the movement mechanism 20 calculated by the operation device 30A.

また、操作器30Aは、遠隔制御ロボット10の移動後の位置情報でなく、遠隔制御ロボット10の速度情報を遠隔制御ロボット10に指示してもよい。この場合、プロセッサ31は、遠隔制御ロボット10の移動後の位置を順次算出し、算出された各位置の差分を算出し、この差分を基に遠隔制御ロボット10の速度V(Vx,Vy,Vz)を順次算出する。通信デバイス34は、算出された遠隔制御ロボット10の速度Vの情報を含む速度指示信号を遠隔制御ロボット10に順次送信する。遠隔制御ロボット10では、通信デバイス14は、速度指示信号を順次受信する。プロセッサ11は、受信された速度指示信号に基づいて、移動機構20の駆動を制御する。よって、遠隔制御ロボット10は、移動機構20が指示された速度で移動することを継続することで、操作器30Aにより算出されていた移動機構20の移動後の位置に到達可能である。 Further, the controller 30A may instruct the remote-controlled robot 10 not to provide the position information after the remote-controlled robot 10 has moved, but to provide the speed information of the remote-controlled robot 10 to the remote-controlled robot 10 . In this case, the processor 31 sequentially calculates the position of the remote-controlled robot 10 after movement, calculates the difference between the calculated positions, and based on this difference, the speed V (Vx, Vy, Vz) of the remote-controlled robot 10 ) are calculated sequentially. The communication device 34 sequentially transmits to the remote-controlled robot 10 speed instruction signals including information on the calculated speed V of the remote-controlled robot 10 . In the remote controlled robot 10, the communication device 14 sequentially receives speed indication signals. Processor 11 controls driving of moving mechanism 20 based on the received speed instruction signal. Therefore, the remote control robot 10 can reach the post-movement position of the movement mechanism 20 calculated by the operation device 30A by continuing the movement of the movement mechanism 20 at the instructed speed.

このように、遠隔操作システム5は、操作器30Aの移動機構40Aの第1軸J1、第2軸J2及び第3軸J3の回転角度を、遠隔制御ロボット10Aの移動機構20Aの移動後の位置又は速度に変換することで、遠隔制御ロボット10Aと操作器30Aとを同じように移動させることができる。 In this way, the remote control system 5 changes the rotation angles of the first axis J1, the second axis J2 and the third axis J3 of the movement mechanism 40A of the controller 30A to the post-movement position of the movement mechanism 20A of the remote control robot 10A. Alternatively, by converting to speed, the remote control robot 10A and the manipulator 30A can be moved in the same manner.

このような本実施形態の遠隔操作システム5によれば、操作者200は、遠隔操作時に移動することが容易であり、長時間の遠隔操作が可能であり、操作器30の操作方法の習得が容易である。また、遠隔操作システム5は、ロボット遠隔制御(テレプレゼンス)において、遠隔現場LN1の環境やワークといった視覚情報を操作者200に適切に提示できる。よって、操作者200は、遠隔操作し易い。なお、遠隔操作システム5は、例えば、遠隔現場LN1が工場であり、遠隔操作者としての操作者200が工場に出向くことが困難である場合でも、操作者200の自宅等から遠隔現場LN1の遠隔制御ロボット10を遠隔操作できるので、大変有益である。 According to the remote control system 5 of the present embodiment, the operator 200 can easily move during remote control, can perform remote control for a long time, and can easily learn how to operate the operator 30. Easy. Further, the remote control system 5 can appropriately present visual information such as the environment of the remote site LN1 and the work to the operator 200 in robot remote control (telepresence). Therefore, the operator 200 can easily operate remotely. For example, even if the remote site LN1 is a factory and it is difficult for the operator 200 as a remote operator to go to the factory, the remote operation system 5 can be remotely operated from the operator 200's home or the like. Being able to remotely control the control robot 10 is very beneficial.

なお、本実施形態では、操作器30への入力操作に基づく遠隔制御ロボット10の具体的な動作に関する情報(例えば移動量)の算出を、主に操作器30によって実施することを例示したが、これに限られない。例えば、操作器30が、操作器30への入力操作の情報を遠隔制御ロボット10に送信し、遠隔制御ロボット10のプロセッサ11が、操作器30への入力操作に基づく遠隔制御ロボット10の具体的な動作に関する情報の算出を行ってもよい。 It should be noted that, in the present embodiment, the operating device 30 is mainly used to calculate the information (for example, the amount of movement) regarding the specific motion of the remote control robot 10 based on the input operation to the operating device 30. It is not limited to this. For example, the operation device 30 transmits information of the input operation to the operation device 30 to the remote control robot 10, and the processor 11 of the remote control robot 10 transmits the information of the remote control robot 10 based on the input operation to the operation device 30. Information about the motion may be calculated.

なお、本実施形態では、遠隔制御ロボット10の手部19hの移動は、移動機構20を駆動せずに行われるものとしたが、移動機構20の駆動を含むものであってもよい。この場合、移動機構20を駆動させる方向および量は、移動機構20も関節の一つとみなすことで計算できる。これにより、例えば、遠隔制御ロボット10の現在の位置では届かない対象物100を操作する場合に、遠隔制御ロボット10自体の移動の入力を省略することができる。また、この場合、プロセッサ31は、遠隔制御ロボット10の移動機構20の駆動に合わせて、操作器30の移動機構40も駆動させてもよい。この場合、操作器30は、移動機構40を駆動させることによって衝突するおそれがある障害物又は操作者200が存在しないことを確認(認識)した上で、移動機構40を駆動させてもよい。
なお、本実施形態では、遠隔現場LN1と操作現場LN2とは、互いに離れている(遠隔地である)のみならず、物理的に隔離されているために操作者200が遠隔現場LN1を五感で直接認識できない例を説明したが、遠隔現場LN1と操作現場LN2とが隔離されていなくてもよい。具体的には、工場等の1つの広い空間内で互いに離れている箇所を遠隔現場LN1と操作現場LN2としてもよい。この場合、遠隔現場LN1を操作現場LN2から目視することができる場合がある。しかし、このような場合であっても、操作者200は、操作器30を介して遠隔制御ロボット10の視点から遠隔現場LN1を認識できることで遠隔制御ロボット10をより直感的に操作することができる。
In this embodiment, the movement of the hand portion 19h of the remote control robot 10 is performed without driving the movement mechanism 20, but the movement of the movement mechanism 20 may be included. In this case, the direction and amount of driving the moving mechanism 20 can be calculated by regarding the moving mechanism 20 as one of the joints. As a result, for example, when operating an object 100 that cannot be reached at the current position of the remote control robot 10, the input of the movement of the remote control robot 10 itself can be omitted. In this case, the processor 31 may also drive the moving mechanism 40 of the operation device 30 in synchronization with the driving of the moving mechanism 20 of the remote control robot 10 . In this case, the operating device 30 may drive the moving mechanism 40 after confirming (recognizing) that there is no obstacle or operator 200 that may collide with the moving mechanism 40 .
In this embodiment, the remote site LN1 and the operation site LN2 are not only separated from each other (remote sites) but also physically isolated, so that the operator 200 can sense the remote site LN1 with all five senses. Although an example in which direct recognition is not possible has been described, the remote site LN1 and the operation site LN2 may not be isolated. Specifically, the remote site LN1 and the operation site LN2 may be remote sites LN1 and operation sites LN2 that are separated from each other in one large space such as a factory. In this case, the remote site LN1 may be visible from the operation site LN2. However, even in such a case, the operator 200 can recognize the remote site LN1 from the viewpoint of the remote-controlled robot 10 via the operation device 30, so that the remote-controlled robot 10 can be operated more intuitively. .

以上のように、上記実施形態の遠隔操作システム5は、移動機構20(第1の移動機構の一例)を備えた遠隔制御ロボット10(ロボット装置の一例)と、操作現場LN2から遠隔制御ロボット10の動作の制御を指示する操作器30と、を備える。操作器30は、表示デバイス37と、移動機構40(第2の移動機構の一例)と、を備える。操作器30は、遠隔制御ロボット10により撮像された第1の画像を受信し、表示デバイス37に第1の画像を表示させ、操作者200による操作器30を移動させる操作が検知された場合、遠隔制御ロボット10を移動させる指示を含む指示信号を遠隔制御ロボット10へ送信する。遠隔制御ロボット10は、指示信号を受信し、指示信号に基づいて、操作器30の移動に対応して遠隔制御ロボット10が移動するよう移動機構20を制御する。 As described above, the remote control system 5 of the above-described embodiment includes the remote control robot 10 (an example of the robot device) equipped with the movement mechanism 20 (an example of the first movement mechanism), and the remote control robot 10 from the operation site LN2. and an operation device 30 for instructing control of the operation of. The operation device 30 includes a display device 37 and a moving mechanism 40 (an example of a second moving mechanism). The operation device 30 receives the first image captured by the remote control robot 10, displays the first image on the display device 37, and when an operation of moving the operation device 30 by the operator 200 is detected, An instruction signal including an instruction to move the remote controlled robot 10 is sent to the remote controlled robot 10 . The remote control robot 10 receives the instruction signal, and controls the movement mechanism 20 based on the instruction signal so that the remote control robot 10 moves in accordance with the movement of the operation device 30 .

例えば、操作器30は、プロセッサ31と、通信デバイス34と、表示デバイス37と、入力センサ38と、を備えてよい。通信デバイス34は、遠隔制御ロボット10により撮像された第1の画像を受信してよい。表示デバイス37は、第1の画像を表示してよい。プロセッサ31は、入力センサ38により検出された入力に基づいて、操作者200による操作器30に対する入力操作を検出し、入力操作に基づいて遠隔制御ロボット10の動作の制御を指示する指示信号を生成してよい。通信デバイス34は、指示信号を遠隔制御ロボット10へ送信してよい。遠隔制御ロボット10は、指示信号を受信し、指示信号に基づいて動作してよい。 For example, controller 30 may comprise processor 31 , communication device 34 , display device 37 and input sensor 38 . Communication device 34 may receive the first image captured by remote controlled robot 10 . Display device 37 may display the first image. The processor 31 detects an input operation to the operation device 30 by the operator 200 based on the input detected by the input sensor 38, and generates an instruction signal instructing control of the operation of the remote control robot 10 based on the input operation. You can The communication device 34 may send instruction signals to the remote controlled robot 10 . The remote controlled robot 10 may receive the instruction signal and act based on the instruction signal.

これにより、遠隔操作システム5は、遠隔地の様子を確認しながら操作器30を操作できる。操作者200は、スマートグラス又はHMD等とは異なり、目の周辺よりも広い面積の画面を有する表示デバイス37の表示を確認できる。つまり、遠隔操作システム5は、操作者200の視界が制限されることを抑制できる。そのため、操作者200は、例えば操作現場LN2(例えば自室)での移動をし易くなる。また、遠隔操作システム5は、操作者200が操作器30を頭部に装着することを不要にできるので、操作器30の重量による操作者の負担を低減できる。よって、操作者200による操作器30を用いた長時間の遠隔操作が可能である。また、操作者200は、入力センサ38を用いて操作器30を直感的に操作できるので、コントローラの複雑な操作方法を習得することが不要である。また、操作器30は、入力センサ38と表示デバイス37との双方を備え、入力センサ38の入力に基づく入力操作を検出できるので、表示装置とは別の操作装置を準備することが不要である。 As a result, the remote control system 5 can operate the controller 30 while checking the state of the remote location. The operator 200 can confirm the display of the display device 37 having a screen larger than the area around the eyes, unlike smart glasses, HMD, or the like. In other words, the remote control system 5 can prevent the field of view of the operator 200 from being restricted. Therefore, the operator 200 can easily move, for example, at the operation site LN2 (for example, his/her own room). In addition, since the remote control system 5 can eliminate the need for the operator 200 to wear the operating device 30 on the head, the operator's burden due to the weight of the operating device 30 can be reduced. Therefore, the operator 200 can perform remote operation for a long time using the operation device 30 . Further, since the operator 200 can intuitively operate the operation device 30 using the input sensor 38, it is not necessary to learn a complicated operation method of the controller. Further, since the operation device 30 includes both the input sensor 38 and the display device 37 and can detect an input operation based on the input of the input sensor 38, it is unnecessary to prepare an operation device other than the display device. .

また、例えば、操作者200が操作器30を手で持って移動させると、遠隔制御ロボット10が、所望の視点となるように移動する。操作者200は、操作器30の表示デバイス37の表示面に表示された映像を裸眼で見ることにより、まるで窓から覗き込むような感覚で、遠隔制御ロボット10により撮像された画像に映り込んだ遠隔現場LN1をモニタリング(監視)できる。また、操作器30が、遠隔制御ロボット10により収音された遠隔現場LN1の環境音を遠隔制御ロボット10から取得して、音出力してもよい。この場合、操作者200は、遠隔現場LN1の環境音もあわせて確認できる。 Further, for example, when the operator 200 moves the operating device 30 by hand, the remote control robot 10 moves to a desired viewpoint. The operator 200 sees the image displayed on the display surface of the display device 37 of the operation device 30 with the naked eye, and is reflected in the image captured by the remote control robot 10 as if looking through a window. Remote site LN1 can be monitored. Further, the operating device 30 may acquire the environmental sound of the remote site LN1 picked up by the remote control robot 10 from the remote control robot 10 and output the sound. In this case, the operator 200 can also confirm the environmental sound of the remote site LN1.

また、入力センサ38は、操作器30の近傍における操作者200の手及び腕の少なくとも一方の姿勢を入力操作として検出してよい。言い換えると、プロセッサ31は、入力センサ38により検出された入力に基づいて、操作者200の手及び腕の少なくとも一方の姿勢を入力操作として検出してよい。プロセッサ31は、入力操作に基づいて、遠隔制御ロボット10が備える腕部機構19の姿勢を指示する指示信号を生成してよい。この場合、プロセッサ31は、入力センサ38により検出された表示デバイス37の周端部への接触箇所が2箇所未満の場合、操作器30の近傍における入力操作に基づいて生成された遠隔制御ロボット10が備える腕部機構19の姿勢を指示する指示信号を出力してよい。遠隔制御ロボット10は、指示信号に基づいて、腕部機構19を駆動してよい。また、プロセッサ31は、入力センサ38により表示デバイス37の周端部への接触が検知されていない場合、操作器30の近傍における手及び腕の少なくとも一方の姿勢が検出されたか否かにかかわらず、腕部機構19の姿勢を指示する指示信号の出力を抑制してよい。 Also, the input sensor 38 may detect the posture of at least one of the hand and arm of the operator 200 in the vicinity of the operation device 30 as the input operation. In other words, the processor 31 may detect the posture of at least one of the hand and arm of the operator 200 as the input operation based on the input detected by the input sensor 38 . The processor 31 may generate an instruction signal that instructs the posture of the arm mechanism 19 included in the remote control robot 10 based on the input operation. In this case, if there are less than two contact points on the peripheral edge of the display device 37 detected by the input sensor 38, the processor 31 generates the remote control robot 10 based on the input operation in the vicinity of the operation device 30. may output an instruction signal that instructs the posture of the arm mechanism 19 provided in the . The remote control robot 10 may drive the arm mechanism 19 based on the command signal. In addition, when the input sensor 38 does not detect contact with the peripheral edge of the display device 37, the processor 31 detects whether or not the posture of at least one of the hand and the arm in the vicinity of the operation device 30 is detected. , the output of the instruction signal for instructing the posture of the arm mechanism 19 may be suppressed.

これにより、遠隔操作システム5は、操作者200の所定の姿勢(ジェスチャ)に対応する動作(例えば対象物100の把持、開放)を、遠隔制御ロボット10に実施させることができる。よって、例えば、操作者200が、操作器30の表示デバイス37に表示された対象物100を把持するようなジェスチャを行った場合、遠隔地における遠隔制御ロボット10に、対象物100を実際に把持させることができる。また、表示デバイス37の周端部への接触箇所への接触の検知に基づいて指示信号を出力し、この接触が検知されなかった場合には指示信号を出力しないことで、ジェスチャに基づく遠隔操作を安全に実施できる。 As a result, the remote control system 5 can cause the remote control robot 10 to perform actions (for example, gripping and releasing the object 100 ) corresponding to predetermined postures (gestures) of the operator 200 . Therefore, for example, when the operator 200 makes a gesture of gripping the target object 100 displayed on the display device 37 of the operation device 30, the remote control robot 10 at the remote location actually grips the target object 100. can be made In addition, by outputting an instruction signal based on detection of contact with a contact point on the peripheral edge of the display device 37 and not outputting an instruction signal when this contact is not detected, remote operation based on gestures can be performed. can be safely carried out.

また、操作者200の姿勢は、操作器30に対する操作者200の手及び腕の少なくとも一方の位置を含んでよい。遠隔制御ロボット10の姿勢は、遠隔制御ロボット10が備える遠隔カメラ17(カメラの一例)による撮像範囲に対する腕部機構19の位置を含んでよい。 Also, the posture of operator 200 may include the position of at least one of the hand and arm of operator 200 with respect to operator 30 . The posture of the remote controlled robot 10 may include the position of the arm mechanism 19 with respect to the imaging range of the remote camera 17 (an example of a camera) provided on the remote controlled robot 10 .

これにより、遠隔操作システム5は、操作器30に対する操作者200の手及び腕の少なくとも一方の位置を1つのジェスチャとすることで、ジェスチャに対応する動作(例えば移動)を、遠隔制御ロボット10に実施させることができる。よって、例えば、操作者200が、操作器30の表示デバイス37に表示された対象物100を移動させるようなジェスチャを行った場合、遠隔地における遠隔制御ロボット10に、対象物100を実際に移動させることができる。 As a result, the remote control system 5 makes the position of at least one of the hand and arm of the operator 200 with respect to the operation device 30 one gesture, so that the remote control robot 10 can perform an action (for example, movement) corresponding to the gesture. can be implemented. Therefore, for example, when the operator 200 makes a gesture to move the object 100 displayed on the display device 37 of the operation device 30, the remote control robot 10 at the remote location actually moves the object 100. can be made

また、入力センサ38は、表示デバイス37の周端部(例えば外枠)に設置され、物理的な接触に基づく入力を検出してよい。プロセッサ31は、入力に基づく入力操作に基づいて、遠隔制御ロボット10を移動させる操作を検知し、遠隔制御ロボット10を移動させる指示信号を生成してよい。遠隔制御ロボット10は、指示信号に基づいて、遠隔制御ロボット10が備える移動機構20(第1の移動機構の一例)を駆動してよい。 Also, the input sensor 38 may be installed at the peripheral edge (for example, the outer frame) of the display device 37 to detect input based on physical contact. The processor 31 may detect an operation for moving the remote controlled robot 10 based on an input operation based on the input, and generate an instruction signal for moving the remote controlled robot 10 . The remote-controlled robot 10 may drive the moving mechanism 20 (an example of the first moving mechanism) included in the remote-controlled robot 10 based on the instruction signal.

これにより、遠隔操作システム5は、例えば操作者200が操作器30を押したり引っ張ったりすることをトリガとして、遠隔制御ロボット10に移動を指示できる。 As a result, the remote control system 5 can instruct the remote control robot 10 to move, for example, when the operator 200 pushes or pulls the operation device 30 as a trigger.

また、入力センサが表示デバイス37の周端部への接触に基づく入力を検知していない場合、操作器30の移動の有無に関わらず、遠隔制御ロボット10を移動させる指示を含む指示信号を遠隔制御ロボット10に送信しなくてよい。 Further, when the input sensor does not detect an input based on contact with the peripheral edge of the display device 37, regardless of whether or not the operation unit 30 is moved, an instruction signal including an instruction to move the remote control robot 10 is remotely transmitted. It does not have to be sent to the control robot 10 .

これにより、遠隔操作システム5は、操作者200による遠隔制御ロボット10を移動する明示的な意思がない場合には、遠隔制御ロボット10の移動を抑制でき、遠隔現場LN1での安全性を向上できる。 As a result, the remote control system 5 can suppress the movement of the remote control robot 10 when the operator 200 does not expressly intend to move the remote control robot 10, thereby improving safety at the remote site LN1. .

また、入力センサが表示デバイス37の周端部への接触に基づく入力を検知していない場合、操作者200による操作器30の移動を抑制するよう移動機構40を制御してよい。 Further, when the input sensor does not detect an input based on contact with the peripheral edge of the display device 37 , the movement mechanism 40 may be controlled to suppress movement of the operation device 30 by the operator 200 .

これにより、遠隔操作システム5は、操作者200による操作器30を移動する明示的な意思がない場合には、操作器30の移動を抑制でき、操作現場LN2での安全性を向上できる。 Thereby, the remote control system 5 can suppress the movement of the operation device 30 when the operator 200 has no explicit intention to move the operation device 30, and can improve the safety at the operation site LN2.

また、指示信号は、遠隔制御ロボット10の移動量、移動方向、及び移動速度の少なくとも1つの制御を指示する信号を含んでよい。遠隔制御ロボット10は、指示信号に基づいて、遠隔制御ロボット10の移動量、移動方向、及び移動速度の少なくとも1つを制御してよい。 Also, the instruction signal may include a signal for instructing control of at least one of the movement amount, movement direction, and movement speed of the remote control robot 10 . The remote control robot 10 may control at least one of the movement amount, movement direction, and movement speed of the remote control robot 10 based on the instruction signal.

これにより、遠隔操作システム5は、操作器30が強く押されることで、移動量を大きくでき、操作器30が一時的に強くおされることで、加速度が大きくなって移動速度を大きくできる。また、遠隔操作システム5は、操作器30を所定の方向に押したり引っ張ったりすることで、この方向に遠隔制御ロボット10を移動させることができる。よって、操作者200は、一層直感的な遠隔操作を実現できる。 As a result, the remote control system 5 can increase the amount of movement by pressing the operating device 30 strongly, and can increase the acceleration and the moving speed by temporarily pressing the operating device 30 strongly. Further, the remote control system 5 can move the remote control robot 10 in a predetermined direction by pushing or pulling the operator 30 in this direction. Therefore, the operator 200 can realize more intuitive remote control.

また、操作器30は、操作現場LN2に配置されてよい。遠隔制御ロボット10は、遠隔現場LN1に配置されてよい。操作現場LN2の空間における移動量の大きさに対する遠隔現場LN1における移動量の大きさの比を示すスケール比に基づいて、操作器30の移動量が遠隔制御ロボット10の移動量に変換されてよい。また、スケール比は、操作現場LN2の空間の大きさと遠隔現場LN1の空間の大きさとの比とされてもよい。 Further, the operation device 30 may be arranged at the operation site LN2. The remote controlled robot 10 may be located at the remote site LN1. The amount of movement of the operator 30 may be converted into the amount of movement of the remote control robot 10 based on the scale ratio indicating the ratio of the amount of movement at the remote site LN1 to the amount of movement in the space of the operation site LN2. . Also, the scale ratio may be the ratio of the space size of the operation site LN2 and the space size of the remote site LN1.

これにより、遠隔操作システム5は、操作現場LN2での移動量と遠隔現場LN1での移動量とを加味して、操作現場LN2での操作器30に対する操作者200の操作に基づく遠隔現場LN1での遠隔制御ロボット10の挙動を決定できる。よって、遠隔操作システム5は、例えば、操作現場LN2に対して遠隔現場LN1での移動量が小さい場合、遠隔制御ロボット10の移動が過大になることを抑制でき、操作現場LN2での移動量に対して遠隔現場LN1での移動量が大きい場合、遠隔制御ロボット10の移動が過小になることを抑制できる。 As a result, the remote control system 5 considers the amount of movement at the operation site LN2 and the amount of movement at the remote site LN1, and at the remote site LN1 based on the operation of the operator 200 on the operation device 30 at the operation site LN2. of the remote control robot 10 can be determined. Therefore, for example, when the amount of movement at the remote site LN1 is smaller than that at the operation site LN2, the remote control system 5 can prevent the movement of the remote control robot 10 from becoming excessive. On the other hand, when the amount of movement at the remote site LN1 is large, it is possible to prevent the movement of the remote control robot 10 from becoming too small.

また、遠隔操作システム5は、操作現場LN2と遠隔現場LN1との空間の大きさを加味して、操作現場LN2での操作器30に対する操作者200の操作に基づく遠隔現場LN1での遠隔制御ロボット10の挙動を決定できる。よって、遠隔操作システム5は、例えば、操作現場LN2に対して遠隔現場LN1が狭い場合、遠隔制御ロボット10の移動が過大になることを抑制でき、操作現場に対して遠隔現場が広い場合、遠隔制御ロボット10の移動が過小になることを抑制できる。 In addition, the remote control system 5 considers the size of the space between the operation site LN2 and the remote site LN1, and the remote control robot at the remote site LN1 based on the operation of the operator 200 on the operation device 30 at the operation site LN2. Ten behaviors can be determined. Therefore, for example, when the remote site LN1 is narrow with respect to the operation site LN2, the remote control system 5 can prevent the remote control robot 10 from moving excessively. It is possible to prevent the movement of the control robot 10 from becoming too small.

また、操作器30は、移動機構40(第2の移動機構の一例)を備えてよい。プロセッサ31は、入力操作に基づいて、移動機構40を駆動し、遠隔制御ロボット10の移動に連動して操作器30を移動させてよい。 Further, the operation device 30 may include a moving mechanism 40 (an example of a second moving mechanism). The processor 31 may drive the movement mechanism 40 based on the input operation to move the manipulator 30 in conjunction with movement of the remote control robot 10 .

これにより、遠隔操作システム5は、遠隔現場LN1と操作現場LN2とにおいて、遠隔制御ロボット10の移動と操作器30の移動とが対応するので、操作者200は、遠隔制御ロボット10の動きを直感的に理解し易くなる。 Accordingly, in the remote control system 5, the movement of the remote control robot 10 corresponds to the movement of the operator 30 at the remote site LN1 and the operation site LN2. easier to understand.

また、プロセッサ31は、遠隔制御ロボット10の移動速度の上限値を取得し、遠隔制御ロボット10の移動速度の上限値に基づいて、操作器30の移動速度の上限値を決定してよい。また、遠隔制御ロボット10の移動速度には上限が設けられていてよい。操作器30の移動速度に対応する遠隔制御ロボット10の移動速度が上限に到達した場合、操作器30は、操作器30の移動を抑制するよう移動機構20を制御してよい。 Further, the processor 31 may acquire the upper limit value of the movement speed of the remote controlled robot 10 and determine the upper limit value of the movement speed of the operator 30 based on the upper limit value of the movement speed of the remote controlled robot 10 . Further, an upper limit may be set for the movement speed of the remote control robot 10 . When the moving speed of the remote control robot 10 corresponding to the moving speed of the manipulator 30 reaches the upper limit, the manipulator 30 may control the movement mechanism 20 to suppress the movement of the manipulator 30 .

これにより、遠隔操作システム5は、遠隔制御ロボット10の安全性を加味した移動速度の上限値に合わせて、操作器30の移動時の安全性も向上できる。 As a result, the remote control system 5 can improve the safety of the operation device 30 during movement in accordance with the upper limit of the movement speed of the remote control robot 10, which takes safety into consideration.

また、遠隔制御ロボット10は、操作器30の周囲の状況を検出する環境センサ16(第1の環境センサの一例)を備えてよい。環境センサ16は、第1の画像の範囲に対応する空間よりも広い範囲で操作器30の周囲の状況を検出してよい。遠隔制御ロボット10は、環境センサ16により第1の障害物が検出された場合、第1の障害物が検出されたことを示す障害物検出情報を操作器300に送信してよい。通信デバイス34は、遠隔制御ロボット10からの障害物検出情報を受信してよい。プロセッサ31は、第1の障害物が検出された旨を表示デバイス37に表示させてよい。 The remote control robot 10 may also include an environment sensor 16 (an example of a first environment sensor) that detects the surroundings of the operation device 30 . The environment sensor 16 may detect the situation around the operation device 30 in a wider range than the space corresponding to the range of the first image. When the environmental sensor 16 detects the first obstacle, the remote control robot 10 may transmit obstacle detection information indicating that the first obstacle has been detected to the operator 300 . Communication device 34 may receive obstacle detection information from remote controlled robot 10 . The processor 31 may cause the display device 37 to display that the first obstacle has been detected.

これにより、操作者200は、表示デバイス37の表示を確認することで、例えば遠隔制御ロボット10の移動中に遠隔制御ロボット10の周辺における第1の画像の範囲外に障害物がある場合でも障害物を認識でき、遠隔制御ロボット10を停止させるなどの対応を行うことができ、遠隔現場LN1での安全性を向上できる。 As a result, the operator 200 can check the display on the display device 37, for example, even if there is an obstacle outside the range of the first image around the remote-controlled robot 10 while the remote-controlled robot 10 is moving. It is possible to recognize objects, to take measures such as stopping the remote control robot 10, and to improve safety at the remote site LN1.

また、遠隔制御ロボット10は、上記の環境センサ16を備え、環境センサ16により第1の障害物が検出された場合、第1の障害物が検出されたことを示す障害物検出情報を操作器30に送信してよい。通信デバイス34は、遠隔制御ロボット10からの障害物検出情報を受信してよい。プロセッサ31は、障害物検出情報の受信に基づいて遠隔制御ロボット10の移動を抑制させる指示信号を生成してよい。遠隔制御ロボット10は、指示信号に基づいて、移動機構20の駆動を抑制してよい。 The remote control robot 10 also includes the environment sensor 16 described above. When the environment sensor 16 detects the first obstacle, the remote control robot 10 outputs obstacle detection information indicating that the first obstacle has been detected to the operator. 30. Communication device 34 may receive obstacle detection information from remote controlled robot 10 . The processor 31 may generate an instruction signal for restraining the movement of the remote controlled robot 10 based on the reception of the obstacle detection information. The remote control robot 10 may suppress driving of the moving mechanism 20 based on the instruction signal.

これにより、遠隔操作システム5は、例えば遠隔制御ロボット10の移動中に遠隔制御ロボット10の周辺に障害物があることを認識でき、操作者200が追加で操作しなくても自動的に遠隔制御ロボット10の移動を停止できる。よって、遠隔操作システム5は、遠隔現場LN1での安全性を向上できる。 As a result, the remote control system 5 can recognize, for example, that there is an obstacle in the vicinity of the remote control robot 10 while the remote control robot 10 is moving, and the remote control system 5 can automatically perform remote control without additional operations by the operator 200. Movement of the robot 10 can be stopped. Therefore, the remote control system 5 can improve safety at the remote site LN1.

また、操作器30は、操作器30の周囲の状況を検出する環境センサ36(第2の環境センサの一例)を備えてよい。プロセッサ31は、例えば操作者200が操作器30を移動させる方向に、環境センサ36により第2の障害物が検出された場合、移動機構40の駆動を抑制してよい。 Further, the operation device 30 may include an environment sensor 36 (an example of a second environment sensor) that detects the circumstances around the operation device 30 . For example, when the environment sensor 36 detects a second obstacle in the direction in which the operator 200 moves the operating device 30 , the processor 31 may suppress driving of the moving mechanism 40 .

これにより、遠隔操作システム5は、例えば、操作者200が操作器30への操作や表示デバイス37の表示の確認に集中しており、操作現場LN2内の操作器30を移動させる方向にある障害物に気づいていない場合でも、自動的に操作器30の移動を停止させることができる。よって、遠隔操作システム5は、操作器30の周辺に所在する操作者200の安全を確保できる。 As a result, the remote control system 5, for example, when the operator 200 is concentrating on the operation of the operation device 30 and the confirmation of the display of the display device 37, the obstacle in the direction of moving the operation device 30 in the operation site LN2 is detected. Even if the user does not notice the object, the movement of the operating device 30 can be automatically stopped. Therefore, the remote control system 5 can ensure the safety of the operator 200 around the operation device 30 .

また、操作器30は、操作現場LN2に配置されてよい。操作器30は、操作器30の周囲の状況を検出する環境センサ36(第2の環境センサの一例)を備えてよい。プロセッサ31は、環境センサ36により操作現場LN2における操作者200の位置を検出した場合、操作者200から所定距離以内に前記操作器30を移動させてよい。 Further, the operation device 30 may be arranged at the operation site LN2. The operation device 30 may include an environment sensor 36 (an example of a second environment sensor) that detects the circumstances around the operation device 30 . The processor 31 may move the operator 30 within a predetermined distance from the operator 200 when the environment sensor 36 detects the position of the operator 200 at the operation site LN2.

これにより、操作者200が操作現場LN2内を動き回っても、操作者200の移動に操作器30が追従するので、操作者200が操作器30を用いて表示の確認や操作を実施し易くなる。 As a result, even if the operator 200 moves around the operation site LN2, the operation device 30 follows the movement of the operator 200, so that the operator 200 can easily confirm the display and perform the operation using the operation device 30. .

また、遠隔制御ロボット10により1の画像が撮像される際の撮像範囲が、表示デバイス37により表示される第1の画像の表示範囲よりも広くてよい。プロセッサ31は、撮像範囲の内側且つ表示範囲の外側に存在する物体を認識した場合、第1の画像に重畳して物体に関する情報を表示デバイス37に表示させてよい。 Also, the imaging range when one image is captured by the remote control robot 10 may be wider than the display range of the first image displayed by the display device 37 . When the processor 31 recognizes an object existing inside the imaging range and outside the display range, the processor 31 may cause the display device 37 to display information about the object superimposed on the first image.

これにより、表示デバイス37により確認可能な表示範囲の外側に、操作者200によって有益な物体(例えば工具)が存在する場合でも、操作者200は、その存在を認識できる。 Accordingly, even if an object (for example, a tool) useful to the operator 200 exists outside the display range that can be confirmed by the display device 37, the operator 200 can recognize its existence.

また、操作器30は、鉛直方向(z2方向)に対する表示デバイス37の表示面の角度を変更自在に支持する変形機構39を備えてよい。プロセッサ31は、鉛直方向に対する表示デバイス37の表示面の角度に基づいて、指示信号を生成してよい。 Further, the operation device 30 may include a deformation mechanism 39 that supports the display surface of the display device 37 so that the angle of the display surface of the display device 37 with respect to the vertical direction (z2 direction) can be changed. Processor 31 may generate the indication signal based on the angle of the display surface of display device 37 relative to the vertical direction.

これにより、遠隔操作システム5は、表示デバイス37の表示面の角度を自在に調整でき、所望の情報表示形態を実現できる。また、表示面の角度に応じて算出される移動情報や姿勢情報が複数の方向に分散され得る。この場合でも、遠隔操作システム5は、表示面の角度に応じて指示信号を生成し、動作指示を行うことで、検出された入力操作に基づく遠隔制御ロボット10の動作制御の精度が低下することを抑制できる。 As a result, the remote control system 5 can freely adjust the angle of the display surface of the display device 37 to realize a desired information display form. Also, movement information and posture information calculated according to the angle of the display surface can be distributed in a plurality of directions. Even in this case, the remote control system 5 generates an instruction signal according to the angle of the display surface and issues an operation instruction, so that the accuracy of the operation control of the remote control robot 10 based on the detected input operation is reduced. can be suppressed.

また、表示デバイス37は、操作デバイスを兼ねるタッチパネルであり、水平方向に沿って配置されてよい。 The display device 37 is a touch panel that also serves as an operation device, and may be arranged along the horizontal direction.

これにより、遠隔操作システム5は、表示デバイス37の表示面の角度を自在に調整でき、タッチパネルによって操作可能であるので、所望の操作形態を実現できる。 As a result, the remote control system 5 can freely adjust the angle of the display surface of the display device 37 and can be operated by the touch panel, so that a desired operation mode can be realized.

以上、図面を参照しながら各種の実施形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、開示の趣旨を逸脱しない範囲において、上記実施形態における各構成要素を任意に組み合わせてもよい。特に、上述した実施の形態では、操作器30のプロセッサ31が主な処理を行っていたが、遠隔操作システム5内のどの装置がどの処理を行うかは任意で構わない。例えば、各種の指示情報は、プロセッサ31で生成しなくとも、操作器30が取得して転送した情報を基に遠隔制御ロボット10のプロセッサ11で生成するようにしてもよい。 Various embodiments have been described above with reference to the drawings, but it goes without saying that the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications or modifications within the scope described in the claims, and these also belong to the technical scope of the present disclosure. Understood. Also, the components in the above embodiments may be combined arbitrarily without departing from the gist of the disclosure. In particular, in the above-described embodiment, the processor 31 of the operation device 30 performs the main processing, but which device in the remote control system 5 performs which processing may be arbitrary. For example, the various instruction information may be generated by the processor 11 of the remote control robot 10 based on the information acquired and transferred by the operation device 30 instead of being generated by the processor 31 .

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as actions, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is , etc., and unless the output of the previous process is used in the subsequent process, it can be implemented in any order. Regarding the operation flow in the claims, the specification, and the drawings, even if the description is made using "first," "next," etc. for convenience, it means that it is essential to carry out in this order. is not.

本開示は、遠隔操作者が遠隔操作時に移動することが容易であり、長時間の遠隔操作が可能であり、操作器の操作方法の習得が容易である遠隔操作システム、操作器及び遠隔操作方法等に有用である。 The present disclosure provides a remote control system, a controller, and a remote control method that allow a remote operator to easily move during remote control, enable remote control for a long period of time, and easily learn how to operate the controller. etc. is useful.

5 遠隔操作システム
10 遠隔制御ロボット
11 プロセッサ
12 電源
13 メモリ
14 通信デバイス
15 マイク
16 環境センサ
18 雲台機構
19 腕部機構
19a アーム
19h 手部
20 移動機構
21 台座
22 胴体部
30 操作器
31 プロセッサ
32 電源
33 メモリ
34 通信デバイス
35 スピーカ
36 環境センサ
37,37A,37B 表示デバイス
38,38A,38B,38C 入力センサ
39 変形機構
40 移動機構
41 プロジェクタ
51 操作本体部
52 台座
53,53A,53B 支持柱
100 対象物
200 操作者
AR1 投影範囲
5 Remote control system 10 Remote control robot 11 Processor 12 Power supply 13 Memory 14 Communication device 15 Microphone 16 Environment sensor 18 Platform mechanism 19 Arm mechanism 19a Arm 19h Hand 20 Moving mechanism 21 Pedestal 22 Body 30 Manipulator 31 Processor 32 Power supply 33 memory 34 communication device 35 speaker 36 environment sensor 37, 37A, 37B display device 38, 38A, 38B, 38C input sensor 39 deformation mechanism 40 movement mechanism 41 projector 51 operation main unit 52 pedestal 53, 53A, 53B support column 100 object 200 operator AR1 projection range

Claims (18)

第1の移動機構を備えたロボット装置と、操作現場から前記ロボット装置の動作の制御を指示する操作器と、を備える遠隔操作システムであって、
前記操作器は、表示デバイスと、第2の移動機構と、を備え、
前記操作器は、
前記ロボット装置により撮像された第1の画像を受信し、前記表示デバイスに前記第1の画像を表示させ、
操作者による前記操作器を移動させる操作が検知された場合、前記ロボット装置を移動させる指示を含む指示信号を前記ロボット装置へ送信し、
前記ロボット装置は、
前記指示信号を受信し、
前記指示信号に基づいて、前記操作器の移動に対応して前記ロボット装置が移動するよう前記第1の移動機構を制御する、
遠隔操作システム。
A remote control system comprising: a robot device having a first movement mechanism;
The manipulator comprises a display device and a second movement mechanism,
The operating device is
receiving a first image captured by the robotic device and causing the display device to display the first image;
transmitting an instruction signal including an instruction to move the robot device to the robot device when an operator's operation to move the controller is detected;
The robotic device is
receiving the instruction signal;
controlling the first movement mechanism so that the robot device moves in accordance with the movement of the operation device, based on the instruction signal;
Remote control system.
前記指示信号は、前記ロボット装置の移動量、移動方向、及び移動速度の少なくとも1つの制御を指示する信号を含み、
前記ロボット装置は、前記指示信号に基づいて、前記ロボット装置の移動量、移動方向、及び移動速度の少なくとも1つを制御する、
請求項1に記載の遠隔操作システム。
the instruction signal includes a signal for instructing control of at least one of a movement amount, a movement direction, and a movement speed of the robot device;
The robot device controls at least one of a movement amount, a movement direction, and a movement speed of the robot device based on the instruction signal.
The remote control system according to claim 1.
前記操作器は、前記操作現場に配置され、
前記ロボット装置は、遠隔現場に配置され、
前記操作現場の空間における移動量の大きさに対する前記遠隔現場における移動量の大きさの比を示すスケール比に基づいて、前記操作器の移動量が前記ロボット装置の移動量に変換される、
請求項2に記載の遠隔操作システム。
The operator is arranged at the operation site,
The robotic device is placed at a remote site,
The amount of movement of the operator is converted into the amount of movement of the robot device based on a scale ratio indicating the ratio of the amount of movement at the remote site to the amount of movement in the space at the operation site.
The remote control system according to claim 2.
前記スケール比は、前記操作現場の空間と前記遠隔現場の空間との大きさの比である、請求項3に記載の遠隔操作システム。 4. The remote control system according to claim 3, wherein the scale ratio is the ratio of the size of the space at the operation site and the space at the remote site. 前記ロボット装置の移動速度には上限が設けられており、
前記操作器の移動速度に対応する前記ロボット装置の移動速度が前記上限に到達した場合、前記操作器は、前記操作器の移動を抑制するよう前記第2の移動機構を制御する、
請求項2に記載の遠隔操作システム。
An upper limit is set for the movement speed of the robot device,
When the moving speed of the robot device corresponding to the moving speed of the manipulator reaches the upper limit, the manipulator controls the second movement mechanism to suppress the movement of the manipulator.
The remote control system according to claim 2.
前記表示デバイスの周端部に入力センサが設置され、
前記入力センサは、物理的な接触に基づく入力を検出し、
前記操作器は、前記入力に基づく入力操作に基づいて、前記操作器を移動させる操作を検知する、
請求項1に記載の遠隔操作システム。
An input sensor is installed at the peripheral edge of the display device,
the input sensor detects input based on physical contact;
the operating device detects an operation to move the operating device based on an input operation based on the input;
The remote control system according to claim 1.
前記操作器は、前記入力センサが前記表示デバイスの周端部への接触に基づく入力を検知していない場合、前記操作器の移動の有無にかかわらず、前記ロボット装置を移動させる指示を含む指示信号を前記ロボット装置に送信しない、
請求項6に記載の遠隔操作システム。
When the input sensor does not detect an input based on contact with the peripheral edge of the display device, the operation device provides an instruction including an instruction to move the robot device regardless of whether or not the operation device is moved. sending no signal to said robotic device;
The remote control system according to claim 6.
前記入力センサが前記表示デバイスの周端部への接触に基づく入力を検知していない場合、前記操作器は、前記操作者による前記操作器の移動を抑制するよう前記第2の移動機構を制御する、
請求項6に記載の遠隔操作システム。
When the input sensor does not detect an input based on contact with the peripheral edge of the display device, the operating device controls the second movement mechanism to suppress movement of the operating device by the operator. do,
The remote control system according to claim 6.
前記入力センサは、更に、前記操作器の近傍における前記操作者の手及び腕の少なくとも一方の姿勢を前記入力操作として検出し、
前記操作器は、前記入力センサにより検出された前記表示デバイスの周端部への接触箇所が2箇所未満の場合、前記操作器の近傍における入力操作に基づいて生成された前記ロボット装置が備える腕部機構の姿勢を指示する前記指示信号を出力し、
前記ロボット装置は、前記指示信号に基づいて、前記腕部機構を駆動する、
請求項6に記載の遠隔操作システム。
The input sensor further detects a posture of at least one of the operator's hand and arm in the vicinity of the operator as the input operation,
When the number of contact points on the peripheral edge of the display device detected by the input sensor is less than two, the manipulator is an arm included in the robot device generated based on an input operation in the vicinity of the manipulator. outputting the instruction signal for instructing the attitude of the unit mechanism;
The robot device drives the arm mechanism based on the instruction signal.
The remote control system according to claim 6.
前記操作器は、前記入力センサにより前記表示デバイスの周端部への接触が検知されていない場合、前記操作器の近傍における前記手及び前記腕の少なくとも一方の姿勢が検出されたか否かにかかわらず、前記腕部機構の姿勢を指示する前記指示信号の出力を抑制する、
請求項9に記載の遠隔操作システム。
When the input sensor does not detect contact with the peripheral edge of the display device, the operating device detects whether or not the posture of at least one of the hand and the arm in the vicinity of the operating device is detected. first, suppressing the output of the instruction signal that instructs the posture of the arm mechanism;
The remote control system according to claim 9.
前記ロボット装置は、
前記第1の画像の範囲に対応する空間よりも広い範囲で、前記ロボット装置の周囲の状況を検出する第1の環境センサを備え、
前記第1の環境センサにより第1の障害物が検出された場合、前記第1の障害物が検出されたことを示す障害物検出情報を前記操作器に送信し、
前記操作器は、前記障害物検出情報を受信すると、前記第1の障害物が検出された旨を前記表示デバイスに表示させる、
請求項1~10のいずれか1項に記載の遠隔操作システム。
The robotic device is
a first environment sensor that detects a situation around the robot device in a range wider than the space corresponding to the range of the first image;
when a first obstacle is detected by the first environmental sensor, transmitting obstacle detection information indicating that the first obstacle has been detected to the operating device;
When the obstacle detection information is received, the operation device causes the display device to display that the first obstacle has been detected.
The remote control system according to any one of claims 1-10.
前記ロボット装置は、
前記第1の画像の範囲に対応する空間よりも広い範囲で、前記ロボット装置の周囲の状況を検出する第1の環境センサを備え、
前記第1の環境センサにより第1の障害物が検出された場合、前記第1の障害物が検出されたことを示す障害物検出情報を前記操作器に送信し、
前記操作器は、
前記ロボット装置からの前記障害物検出情報を受信し、
前記障害物検出情報の受信に基づいて前記ロボット装置の移動を抑制させる前記指示信号を生成し、
前記ロボット装置は、前記指示信号に基づいて、前記第1の移動機構の駆動を抑制する、
請求項1~10のいずれか1項に記載の遠隔操作システム。
The robotic device is
a first environment sensor that detects a situation around the robot device in a range wider than the space corresponding to the range of the first image;
when a first obstacle is detected by the first environmental sensor, transmitting obstacle detection information indicating that the first obstacle has been detected to the operating device;
The operating device is
receiving the obstacle detection information from the robot device;
generating the instruction signal for suppressing the movement of the robot device based on the reception of the obstacle detection information;
The robot apparatus suppresses driving of the first movement mechanism based on the instruction signal.
The remote control system according to any one of claims 1-10.
前記操作器は、前記操作器の周囲の状況を検出する第2の環境センサを備え、
前記操作器は、前記操作者が前記操作器を移動させる方向に、前記第2の環境センサにより第2の障害物が検出された場合、前記第2の移動機構の駆動を抑制する、
請求項11又は12に記載の遠隔操作システム。
The operating device includes a second environment sensor that detects a situation around the operating device,
The operating device suppresses driving of the second moving mechanism when the second environment sensor detects a second obstacle in the direction in which the operator moves the operating device.
The remote control system according to claim 11 or 12.
前記操作器は、操作現場に配置され、
前記操作器は、前記操作器の周囲の状況を検出する第2の環境センサを備え、
前記操作器は、前記第2の環境センサにより前記操作現場における前記操作者の位置を検出した場合、前記操作者から所定距離以内に前記操作器を移動させる
請求項1~11のいずれか1項に記載の遠隔操作システム。
The operator is arranged at the operation site,
The operating device includes a second environment sensor that detects a situation around the operating device,
12. Any one of claims 1 to 11, wherein the operating device moves the operating device within a predetermined distance from the operator when the position of the operator at the operation site is detected by the second environment sensor. The remote control system described in .
前記ロボット装置により前記第1の画像が撮像される際の撮像範囲が、前記表示デバイスにより表示される前記第1の画像の表示範囲よりも広く、
前記操作器は、前記撮像範囲の内側且つ前記表示範囲の外側に存在する物体を認識した場合、前記第1の画像に重畳して前記物体に関する情報を前記表示デバイスに表示させる、
請求項1~14のいずれか1項に記載の遠隔操作システム。
an imaging range when the first image is captured by the robot device is wider than a display range of the first image displayed by the display device;
When an object existing inside the imaging range and outside the display range is recognized, the operation device causes the display device to display information about the object superimposed on the first image.
The remote control system according to any one of claims 1-14.
前記操作器は、鉛直方向に対する前記表示デバイスの表示面の角度を変更自在に支持する変形機構を備え、
前記操作器は、鉛直方向に対する前記表示デバイスの表示面の角度に基づいて、前記指示信号を生成する、
請求項1~15のいずれか1項に記載の遠隔操作システム。
The operation device includes a deformation mechanism that supports the angle of the display surface of the display device with respect to the vertical direction so that it can be changed,
The operation device generates the instruction signal based on the angle of the display surface of the display device with respect to the vertical direction.
The remote control system according to any one of claims 1-15.
操作現場から第1の移動機構を備えたロボット装置の動作の制御を指示する操作器であって、
プロセッサと、通信デバイスと、表示デバイスと、第2の移動機構と、を備え、
前記プロセッサは、
前記通信デバイスを介して、前記ロボット装置により撮像された第1の画像を受信し、
前記表示デバイスに前記第1の画像を表示させ、
操作者による前記操作器を移動させる操作が検知された場合、前記通信デバイスを介して、前記ロボット装置を移動させる指示を含む指示信号を送信する、
操作器。
An operation device for instructing control of the operation of a robot device having a first movement mechanism from an operation site,
comprising a processor, a communication device, a display device, and a second movement mechanism;
The processor
receiving a first image captured by the robotic device via the communication device;
causing the display device to display the first image;
transmitting an instruction signal including an instruction to move the robot apparatus via the communication device when an operation by an operator to move the operation device is detected;
operator.
操作現場から第1の移動機構を備えたロボット装置の動作の制御を指示する遠隔操作支援方法であって、
前記ロボット装置により撮像された第1の画像を受信し、
表示デバイスに前記第1の画像を表示させ、
操作者による前記表示デバイスを含む操作器を移動させる操作が検知された場合、前記ロボット装置を移動させる指示を含む指示信号を前記ロボット装置へ送信する、
遠隔操作支援方法。
A remote operation support method for instructing control of the operation of a robot device having a first movement mechanism from an operation site,
receiving a first image captured by the robotic device;
causing a display device to display the first image;
transmitting an instruction signal including an instruction to move the robot apparatus to the robot apparatus when an operation by an operator to move the operation device including the display device is detected;
Remote control support method.
JP2021113091A 2021-07-07 2021-07-07 Remote operation system, operation device and remote operation support method Pending JP2023009642A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021113091A JP2023009642A (en) 2021-07-07 2021-07-07 Remote operation system, operation device and remote operation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021113091A JP2023009642A (en) 2021-07-07 2021-07-07 Remote operation system, operation device and remote operation support method

Publications (1)

Publication Number Publication Date
JP2023009642A true JP2023009642A (en) 2023-01-20

Family

ID=85118807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021113091A Pending JP2023009642A (en) 2021-07-07 2021-07-07 Remote operation system, operation device and remote operation support method

Country Status (1)

Country Link
JP (1) JP2023009642A (en)

Similar Documents

Publication Publication Date Title
JP6940879B2 (en) Robot control systems, machine control systems, robot control methods, machine control methods, and computer programs
US20200055195A1 (en) Systems and Methods for Remotely Controlling a Robotic Device
JP6567563B2 (en) Humanoid robot with collision avoidance and orbit return capability
US11220002B2 (en) Robot simulation device
JP5022868B2 (en) Information processing apparatus and information processing method
US9052710B1 (en) Manipulation control based upon mimic of human gestures
KR101978740B1 (en) Tele-operation system and control method thereof
JP5246672B2 (en) Robot system
JP2022189986A (en) System and method for re-centering imaging devices and input controls
Fritsche et al. First-person tele-operation of a humanoid robot
US20140316570A1 (en) Systems and methods for communicating robot intentions to human beings
JP6598191B2 (en) Image display system and image display method
JP2015520040A (en) Training and operating industrial robots
Luo et al. Team Northeastern's approach to ANA XPRIZE Avatar final testing: A holistic approach to telepresence and lessons learned
US20190366554A1 (en) Robot interaction system and method
Ryu et al. Multi-modal user interface for teleoperation of ROBHAZ-DT2 field robot system
US20230270502A1 (en) Mobile virtual reality system for surgical robotic systems
JP2023009642A (en) Remote operation system, operation device and remote operation support method
Park et al. A whole-body integrated AVATAR system: Implementation of telepresence with intuitive control and immersive feedback
WO2021256464A1 (en) Image capturing system and robot system
JP2020175453A (en) Remote control device
Kato et al. Development of direct operation system for mobile robot by using 3D CG diorama
WO2023106354A1 (en) Teaching system, robot system, teaching method for robot, and teaching program for robot
Lofaro et al. ARCHR—Apparatus for Remote Control of Humanoid Robots
JP2023177286A (en) Information processing device, information processing system, information processing method, and program