JP2022164028A - Remote operation control system, remote operation control method, and program - Google Patents

Remote operation control system, remote operation control method, and program Download PDF

Info

Publication number
JP2022164028A
JP2022164028A JP2021069234A JP2021069234A JP2022164028A JP 2022164028 A JP2022164028 A JP 2022164028A JP 2021069234 A JP2021069234 A JP 2021069234A JP 2021069234 A JP2021069234 A JP 2021069234A JP 2022164028 A JP2022164028 A JP 2022164028A
Authority
JP
Japan
Prior art keywords
operator
information
remote
controller
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021069234A
Other languages
Japanese (ja)
Inventor
裕太 木村
Yuta Kimura
智弘 川上
Tomohiro Kawakami
孝英 吉池
Takahide Yoshiike
謙一郎 杉山
Kenichiro Sugiyama
維昭 室町
Koreaki Muromachi
洋一 谷口
Yoichi Taniguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021069234A priority Critical patent/JP2022164028A/en
Priority to CN202311388284.1A priority patent/CN117336337A/en
Priority to CN202210195963.6A priority patent/CN115225682B/en
Priority to US17/720,271 priority patent/US20220331967A1/en
Publication of JP2022164028A publication Critical patent/JP2022164028A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a remote operation control system, a remote operation control method, and a program for enabling an operator to bodily sense an operation to the same remote operation object by another operator.SOLUTION: According to an embodiment, a remote operation control system includes a control information generation part for generating control information to operate a remote operation object on the basis of first operation information showing an operation inputted by a first operator through a first controller for receiving an operation to the remote operation object and second operation information showing an operation inputted by a second operator through a second controller for receiving the operation to the remote operation object, and a feedback information generation part for generating first feedback information for feeding back operation contents of the remote operation object to the first controller and generating second feedback information to feeding back the operation contents of the remote operation object to the second controller on the basis of the control information.SELECTED DRAWING: Figure 4

Description

本発明は、遠隔操作制御システム、遠隔操作制御方法、およびプログラムに関する。 The present invention relates to a remote operation control system, a remote operation control method, and a program.

近年、操作者がロボットなどの遠隔操作対象を遠隔操作する技術が知られている。例えば、遠隔操作の権限を切り替えて、複数の操作者が交代して同一のロボットを遠隔操作するものが知られている(特許文献1参照)。 2. Description of the Related Art In recent years, there has been known a technique in which an operator remotely controls a remote control target such as a robot. For example, there is known a system in which a plurality of operators take turns remotely operating the same robot by switching the remote control authority (see Patent Document 1).

特開2019-005819号公報JP 2019-005819 A

しかしながら、従来の技術では、同一の遠隔操作対象を複数人で操作し、同一の遠隔操作対象に対する他の操作者による操作を体感することはできなかった。 However, in the conventional technology, it was not possible for a plurality of operators to operate the same remote-operated object and to experience the operation of the same remote-operated object by other operators.

本発明の態様は、このような事情を考慮してなされたものであり、同一の遠隔操作対象に対する他の操作者による操作を体感することができる遠隔操作制御システム、遠隔操作制御方法、およびプログラムを提供することを目的とする。 Aspects of the present invention have been made in consideration of such circumstances, and provide a remote operation control system, a remote operation control method, and a program that allow a user to experience the operation of the same remote operation target by another operator. intended to provide

この発明に係る遠隔操作制御システム、遠隔操作制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る遠隔操作制御システムは、現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムにおいて、前記遠隔操作対象に対する操作を受け付ける第1コントローラを介して第1操作者により入力された操作を示す第1操作情報と、前記遠隔操作対象に対する操作を受け付ける第2コントローラを介して第2操作者により入力された操作を示す第2操作情報と、を取得する情報取得部と、前記情報取得部が取得した前記第1操作情報と前記第2操作情報とに基づいて、前記遠隔操作対象を動作させる制御情報を生成する制御情報生成部と、前記制御情報に基づいて、前記遠隔操作対象の動作内容を前記第1コントローラにフィードバックする第1フィードバック情報を生成し、前記遠隔操作対象の動作内容を前記第2コントローラにフィードバックする第2フィードバック情報を生成するフィードバック情報生成部と、を備えるものである。
A remote operation control system, a remote operation control method, and a program according to the present invention employ the following configurations.
(1): A remote operation control system according to one aspect of the present invention is a remote operation control system in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world, in which an operation on the remote operation target is performed. First operation information indicating an operation input by a first operator via a first controller that accepts the operation, and indicating an operation input by a second operator via a second controller that accepts an operation for the remote operation target. an information acquisition unit that acquires second operation information; and control that generates control information for operating the remote operation target based on the first operation information and the second operation information acquired by the information acquisition unit. an information generating unit for generating, based on the control information, first feedback information for feeding back details of the action of the remote-operated target to the first controller, and feeding back the details of the action of the remote-operated target to the second controller; and a feedback information generation unit that generates second feedback information.

(2):上記(1)の態様において、前記フィードバック情報生成部は、前記第1操作者により入力された操作に基づく前記遠隔操作対象の動作に基づいて、前記第1操作者による操作内容を、前記第2コントローラを介して前記第2操作者に伝達するための第1フィードバック情報を生成し、前記第2操作者により入力された操作に基づく前記遠隔操作対象の動作に基づいて、前記第2操作者による操作内容を、前記第1コントローラを介して前記第1操作者に伝達するための第2フィードバック情報を生成する、ものである。 (2): In the aspect of (1) above, the feedback information generation unit determines the details of the operation by the first operator based on the action of the remote-operated object based on the operation input by the first operator. , generating first feedback information to be transmitted to the second operator via the second controller; (2) generating second feedback information for transmitting the operation content of the operator to the first operator via the first controller;

(3):上記(1)あるいは(2)の態様において、前記第1操作者のための第1表示部、あるいは、前記第2操作者のための第2表示部に表示させる画像データであって、前記第1操作者により入力された操作と前記第2操作者により入力された操作との比較結果を示す比較画像を生成する比較画像生成部と、をさらに備える、ものである。 (3): Image data to be displayed on the first display unit for the first operator or the second display unit for the second operator in the aspect (1) or (2) above. and a comparison image generation unit that generates a comparison image showing a comparison result between the operation input by the first operator and the operation input by the second operator.

(4):上記(1)から(3)のうちのいずれかの態様において、前記制御情報生成部は、前記第1操作者による遠隔操作の内容と前記第2操作者による遠隔操作の内容とを合成した結果に基づいて、前記制御情報を生成する、ものである。 (4): In any one of the aspects (1) to (3) above, the control information generation unit generates the content of the remote operation by the first operator and the content of the remote operation by the second operator. The control information is generated based on the result of synthesizing the .

(5):上記(4)の態様において、前記制御情報生成部は、前記第1操作者による遠隔操作の内容と前記第2操作者による遠隔操作の内容とを合成する際に、前記第1操作者に比べて前記第2操作者の操作を優先させた前記制御情報を生成する、ものである。 (5): In the aspect of (4) above, the control information generation unit, when synthesizing the details of the remote operation by the first operator and the details of the remote operation by the second operator, generates the first The control information is generated by prioritizing the operation of the second operator over that of the operator.

(6):上記(1)~(5)のうち何れか一つの態様において、前記フィードバック情報生成部は、前記遠隔操作対象に搭載されたセンサによる検出結果に基づいて、前記遠隔操作対象側において得られる感覚あるいは感触を、前記第1コントローラを介して前記第1操作者に伝達するための第3フィードバック情報を生成し、前記遠隔操作対象に搭載されたセンサによる検出結果に基づいて、前記遠隔操作対象側において得られる感覚あるいは感触を、前記第2コントローラを介して前記第2操作者に伝達するための第1フィードバック情報を生成する、ものである。 (6): In any one of the aspects (1) to (5) above, the feedback information generating unit, based on the detection result of a sensor mounted on the remote operation target, causes the remote operation target to: generating third feedback information for transmitting the obtained sensation or touch to the first operator via the first controller; It generates first feedback information for transmitting a sensation or feeling obtained on the operation target side to the second operator via the second controller.

(7):この発明の他の態様に係る遠隔操作制御方法は、コンピュータが、現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御において、前記遠隔操作対象に対する操作を受け付ける第1コントローラを介して第1操作者により入力された操作を示す第1操作情報と、前記遠隔操作対象に対する操作を受け付ける第2コントローラを介して第2操作者により入力された操作を示す第2操作情報と、を取得し、取得された前記第1操作情報と前記第2操作情報とに基づいて、前記遠隔操作対象を動作させる制御情報を生成し、前記制御情報に基づいて、前記遠隔操作対象の動作内容を前記第1コントローラにフィードバックする第1フィードバック情報を生成し、前記遠隔操作対象の動作内容を前記第2コントローラにフィードバックする第2フィードバック情報を生成する、遠隔操作制御方法である。 (7): A remote operation control method according to another aspect of the present invention is a remote operation control in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world, wherein the remote operation first operation information indicating an operation input by a first operator through a first controller that accepts an operation on an object; and input by a second operator through a second controller that accepts an operation on the remotely operated object. obtaining second operation information indicating an operation; generating control information for operating the remote operation target based on the obtained first operation information and the second operation information; and generating control information for operating the remote operation target based on the control information to generate first feedback information for feeding back details of the action of the remote-operated target to the first controller, and to generate second feedback information for feeding back the details of the action of the remote-operated target to the second controller. control method.

(8):この発明の他の態様に係るプログラムは、現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御において、コンピュータに、前記遠隔操作対象に対する操作を受け付ける第1コントローラを介して第1操作者により入力された操作を示す第1操作情報と、前記遠隔操作対象に対する操作を受け付ける第2コントローラを介して第2操作者により入力された操作を示す第2操作情報と、を取得させ、取得された前記第1操作情報と前記第2操作情報とに基づいて、前記遠隔操作対象を動作させる制御情報を生成させ、前記制御情報に基づいて、前記遠隔操作対象の動作内容を前記第1コントローラにフィードバックする第1フィードバック情報を生成し、前記遠隔操作対象の動作内容を前記第2コントローラにフィードバックする第2フィードバック情報を生成させる、プログラムである。 (8): A program according to another aspect of the present invention provides a remote operation control in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world, by causing a computer to perform an operation on the remote operation target. first operation information indicating an operation input by a first operator via a first controller that accepts; obtaining second operation information; generating control information for operating the remote operation target based on the obtained first operation information and the second operation information; The program generates first feedback information for feeding back details of an operation of a remote-controlled object to the first controller, and generates second feedback information for feeding back details of the operation of the remote-controlled object to the second controller.

上記(1)~(8)の態様によれば、同一の遠隔操作対象に対する他の操作者による操作を体感することができる。
上記(2)によれば、一方の操作者の遠隔操作によるロボット等の動作を、他方の操作者に伝達することができる。
上記(3)によれば、一方の操作者は、他方の操作者により修正された自身の誤操作や、自分の操作と他方の操作者による操作との違いなどを画像で確認することができる。
上記(4)によれば、二人以上の操作者による遠隔操作に従って、遠隔操作対象を動作させることができ、例えば新人の作業をリアルタイムに熟練者が指導することが可能となる。
上記(5)によれば、一方の操作者による遠隔操作よりも他方の操作者による遠隔操作を遠隔操作対象の動作に反映することができ、一方の操作者による遠隔操作を他方の操作者による遠隔操作に修正することができる。
上記(6)によれば、遠隔操作対象を用いた遠隔操作ではなく、操作者が実際に操作物体を操作した場合に得られる感覚や感触を、操作者に伝達することができる。
According to the aspects (1) to (8) above, it is possible to experience the operation of the same remote-operated object by another operator.
According to the above (2), a motion of a robot or the like remotely controlled by one operator can be transmitted to the other operator.
According to the above (3), one operator can confirm the erroneous operation corrected by the other operator, the difference between his operation and the operation by the other operator, and the like in the image.
According to (4) above, the remote-controlled object can be operated according to the remote control by two or more operators, and for example, it is possible for a skilled worker to guide the work of a newcomer in real time.
According to (5) above, the remote operation by the other operator can be reflected in the action of the remote operation target rather than the remote operation by the other operator, and the remote operation by one operator can be reflected by the other operator. Can be modified for remote operation.
According to (6) above, it is possible to convey to the operator the sensations and sensations obtained when the operator actually operates the operation object instead of the remote operation using the remote operation target.

本実施形態に係る遠隔操作制御システムの概要を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the outline|summary of the remote operation control system which concerns on this embodiment. 第1操作者が作業する作業空間に設置される構成の機能ブロック図である。It is a functional block diagram of a configuration installed in a work space where a first operator works. ロボットの機能ブロック図である。It is a functional block diagram of a robot. ロボット遠隔操作制御装置の機能ブロック図である。It is a functional block diagram of a robot remote control device. 比較画像の一例を示す図である。It is a figure which shows an example of a comparison image. ロボット遠隔操作制御システムにおける処理の一例を示すシーケンス図である。FIG. 4 is a sequence diagram showing an example of processing in the robot remote control system; ロボット遠隔操作制御装置による処理の一例を示すフローチャートである。4 is a flowchart showing an example of processing by a robot remote control device; ロボット遠隔操作制御システムにおける処理の他の例を示すシーケンス図である。FIG. 10 is a sequence diagram showing another example of processing in the robot remote control system; ロボット遠隔操作制御装置による処理の他の例を示すフローチャートである。9 is a flowchart showing another example of processing by the robot remote control device;

以下、図面を参照し、本発明の遠隔操作制御システム、遠隔操作制御方法、およびプログラムの実施形態について説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。 Hereinafter, embodiments of a remote operation control system, a remote operation control method, and a program according to the present invention will be described with reference to the drawings. In addition, in the drawings used for the following description, the scale of each member is appropriately changed so that each member has a recognizable size.

<概要>
図1は、本実施形態に係る遠隔操作制御システム1の概要を示す図である。遠隔操作制御システム1は、例えば、第1HMD(ヘッドマウントディスプレイ)10と、第1コントローラ20と、第1環境センサ30と、第1端末装置40と、第2HMD50と、第2コントローラ60と、第2環境センサ70と、第2端末装置80と、ロボット100と、第3環境センサ200と、ロボット遠隔操作制御装置300とを備える。
<Overview>
FIG. 1 is a diagram showing an outline of a remote operation control system 1 according to this embodiment. The remote operation control system 1 includes, for example, a first HMD (head mounted display) 10, a first controller 20, a first environment sensor 30, a first terminal device 40, a second HMD 50, a second controller 60, a first A second environment sensor 70 , a second terminal device 80 , a robot 100 , a third environment sensor 200 , and a robot remote control device 300 are provided.

例えば、第1HMD10、第1コントローラ20、および第1環境センサ30は、近距離無線通信を介して、第1端末装置40と接続されている。第1端末装置40は、ネットワークNWを介して、ロボット100、第3環境センサ200、およびロボット遠隔操作制御装置300と接続されている。また、第2HMD50、第2コントローラ60、および第2環境センサ70は、例えば、近距離無線通信を介して、第2端末装置80と接続されている。第2端末装置80は、ネットワークNWを介して、ロボット100、第3環境センサ200、およびロボット遠隔操作制御装置300と接続されている。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local1 Area Network)、プロバイダ装置、無線基地局などを含む。 For example, the first HMD 10, the first controller 20, and the first environment sensor 30 are connected to the first terminal device 40 via short-range wireless communication. The first terminal device 40 is connected to the robot 100, the third environment sensor 200, and the robot remote control device 300 via the network NW. Also, the second HMD 50, the second controller 60, and the second environment sensor 70 are connected to the second terminal device 80, for example, via short-range wireless communication. The second terminal device 80 is connected to the robot 100, the third environment sensor 200, and the robot remote control device 300 via the network NW. The network NW includes, for example, the Internet, a WAN (Wide Area Network), a LAN (Local 1 Area Network), a provider device, a radio base station, and the like.

なお、この構成に限られず、第1端末装置40と第2端末装置80とは省略されてもよい。この場合、第1HMD10、第1コントローラ20、第1環境センサ30、第2HMD50、第2コントローラ60、および第2環境センサ70は、ネットワークNWを介してロボット100、第3環境センサ200、およびロボット遠隔操作制御装置300と直接的に接続されてもよい。 The configuration is not limited to this, and the first terminal device 40 and the second terminal device 80 may be omitted. In this case, first HMD 10, first controller 20, first environment sensor 30, second HMD 50, second controller 60, and second environment sensor 70 are connected to robot 100, third environment sensor 200, and robot remote control via network NW. It may be directly connected to the operation control device 300 .

ロボット100、第3環境センサ200、およびロボット遠隔操作制御装置300は、例えば、無線または有線の通信ネットワークを介して接続されている。これに限られず、ロボット100、第3環境センサ200、およびロボット遠隔操作制御装置300は、通信ネットワークを介さずに、直接有線で接続されてもよい。 The robot 100, the third environment sensor 200, and the robot remote control device 300 are connected via a wireless or wired communication network, for example. Without being limited to this, the robot 100, the third environment sensor 200, and the robot remote control device 300 may be directly connected by wire without going through a communication network.

第1HMD10と第1コントローラ20は、例えば新人A(第1操作者の一例)が装着する装置であり、第2HMD50と第2コントローラ60は、例えば熟練者B(第2操作者の一例)が装着する装置である。第1コントローラ20と第2コントローラ60は、例えば、触覚データグローブであり、操作者の手に装着される。第1コントローラ20と第2コントローラ60は、それぞれが備えるセンサによって方位や各指の動きや手の動きや腕の動きなどを検出し、検出結果を示す情報(以下、操作情報と記す)を、ロボット遠隔操作制御装置300に送信する。操作情報には、新人Aによる操作を示す情報や、熟練者Bによる操作を示す情報などが含まれる。 The first HMD 10 and the first controller 20 are devices worn by, for example, a newcomer A (an example of a first operator), and the second HMD 50 and the second controller 60 are worn by, for example, an expert B (an example of a second operator). It is a device that The first controller 20 and the second controller 60 are, for example, tactile data gloves worn on the hands of the operator. The first controller 20 and the second controller 60 detect orientation, movement of each finger, hand movement, arm movement, etc. by the sensors provided therein, and transmit information indicating the detection results (hereinafter referred to as operation information) to It is transmitted to the robot remote control device 300 . The operation information includes information indicating the operation by the newcomer A, information indicating the operation by the expert B, and the like.

新人Aが作業する作業空間には、例えば、第1環境センサ30と第1端末装置40とが設置されている。第1環境センサ30は、例えば、通信機能とRBGカメラと深度センサを備える専用装置である。第1環境センサ30は、新人Aの作業を撮影、検出できる位置に設置される。第1端末装置40は、例えば、通信機能を備えるタブレット端末やパーソナルコンピュータである。これに限られず、第1環境センサ30は、例えば、第1端末装置40に取り付けられていてもよく、第1環境センサ30が第1端末装置40の機能を備える構成であってもよい。 For example, a first environment sensor 30 and a first terminal device 40 are installed in the work space where the newcomer A works. The first environment sensor 30 is, for example, a dedicated device that includes a communication function, an RBG camera, and a depth sensor. The first environment sensor 30 is installed at a position where the newcomer A's work can be photographed and detected. The first terminal device 40 is, for example, a tablet terminal or a personal computer having a communication function. For example, the first environment sensor 30 may be attached to the first terminal device 40 , and the first environment sensor 30 may have the functions of the first terminal device 40 .

熟練者Bが作業する作業空間には、例えば、第2環境センサ70と第2端末装置80とが設置されている。第2環境センサ70は、例えば、通信機能とRBGカメラと深度センサを備える専用装置である。第2環境センサ70は、熟練者Bの作業を撮影、検出できる位置に設置される。第2端末装置80は、例えば、通信機能を備えるタブレット端末やパーソナルコンピュータである。これに限られず、第2環境センサ70は、例えば、第2端末装置80に取り付けられていてもよく、第2環境センサ70が第2端末装置80の機能を備える構成であってもよい。 For example, a second environment sensor 70 and a second terminal device 80 are installed in the work space where the expert B works. The second environment sensor 70 is, for example, a dedicated device that includes a communication function, an RBG camera, and a depth sensor. The second environment sensor 70 is installed at a position where the operation of the expert B can be photographed and detected. The second terminal device 80 is, for example, a tablet terminal or a personal computer having a communication function. For example, the second environment sensor 70 may be attached to the second terminal device 80 , and the second environment sensor 70 may have the functions of the second terminal device 80 .

第3環境センサ200は、例えば、通信機能とRBGカメラと深度センサを備える専用装置であり、ロボット100の作業を撮影、検出できる位置に設置されている。なお、第3環境センサ200は、ロボット100が備えていてもよく、ロボット100に取り付けられていてもよい。 The third environment sensor 200 is, for example, a dedicated device having a communication function, an RBG camera, and a depth sensor, and is installed at a position where it can photograph and detect the work of the robot 100 . Note that the third environment sensor 200 may be provided in the robot 100 or may be attached to the robot 100 .

例えば、新人Aは、第1HMD10に表示された画像を見ながら第1コントローラ20を装着している手や指を動かすことで、ロボット100を遠隔操作する。また、熟練者Bは、第2HMD50に表示された画像を見ながら第2コントローラ60を装着している手や指を動かすことで、ロボット100を遠隔操作する。本実施形態において、新人Aは、ロボット100を遠隔操作して、製作に技術を要する工芸品等の物体を作成する作業を行う作業者である。熟練者Bは、新人Aの操作中や操作の前後に、ロボット100を遠隔操作することによって、新人Aに熟練者Bによる手本を体感させ、新人Aによる作業を修正するなどの指導を行う指導者である。なお、遠隔操作において、新人Aと熟練者Bは、ロボット100の動作を直接視認できないが、ロボット100側の映像を第1HMD10や第2HMD50で間接的に視認できる状態である。 For example, the newcomer A remotely operates the robot 100 by moving the hand or fingers wearing the first controller 20 while watching the image displayed on the first HMD 10 . Further, the expert B remotely operates the robot 100 by moving the hand or fingers wearing the second controller 60 while watching the image displayed on the second HMD 50 . In this embodiment, the newcomer A is a worker who remotely operates the robot 100 to create an object such as a handicraft that requires skill to create. The expert B remote-controls the robot 100 during, before, and after the operation of the newcomer A, so that the newcomer A can experience the example of the expert B, and is instructed to correct the work by the newcomer A. Be a leader. In the remote operation, the newcomer A and the expert B cannot directly view the motion of the robot 100, but can indirectly view the image of the robot 100 through the first HMD 10 and the second HMD 50. FIG.

ロボット100は、現実の物体である遠隔操作対象の一例である。遠隔操作対象は、これに限られず、仮想世界の仮想物体であってもよい。例えば、二次元あるいは三次元のアニメーションなどの仮想世界において出現する仮想物体のロボットやアバターが、遠隔操作対象であってもよい。以下、遠隔操作対象がロボット100である例について説明する。遠隔操作対象が仮想物体である例については、ロボット100を動作させるための処理を、仮想世界において仮想物体を動作させるための処理と読み替えればよい。つまり、ロボット遠隔操作制御装置300は、仮想世界において仮想物体を動作させるための画像処理部などの構成を備え、第1コントローラ20や第2コントローラ60は仮想世界における仮想物体を操作するための構成を備えてもよい。 The robot 100 is an example of a remote control target that is a physical object. The remote operation target is not limited to this, and may be a virtual object in the virtual world. For example, a robot or an avatar, which is a virtual object that appears in a virtual world such as two-dimensional or three-dimensional animation, may be a remote control target. An example in which the remote control target is the robot 100 will be described below. In the case where the remote control target is a virtual object, the process for operating the robot 100 can be read as the process for operating the virtual object in the virtual world. In other words, the robot remote control device 300 has a configuration such as an image processing unit for operating a virtual object in the virtual world, and the first controller 20 and the second controller 60 have a configuration for operating the virtual object in the virtual world. may be provided.

ロボット遠隔操作制御装置300は、新人Aや熟練者Bにより遠隔操作されたロボット100の動作を、第1コントローラ20や第2コントローラ60にフィードバックする。これにより、第1コントローラ20は、熟練者Bの遠隔操作によるロボット100の動作を再現し、第2コントローラ60は、新人Aの遠隔操作によるロボット100の動作を再現する。例えば、新人Aが操作物体を変形させる遠隔操作を行う際に熟練者Bがもっと力をいれるように指導するシーンにおいて、ロボット100は、熟練者Bの遠隔操作に従って、ロボット100の操作物体にロボットアームを添えた時にもっと操作物体に対して力を入れる動作を実行する。このようなロボット100が実行した動作を、第1コントローラ20や第2コントローラ60にフィードバックすることで、熟練者Bによる遠隔操作の内容を新人Aにフィードバックし、新人Aの作業を熟練者Bが手を添えて直接指導しているかのような感覚や感触を新人Aに与えることができる。 The robot remote control device 300 feeds back the motion of the robot 100 remotely controlled by the newcomer A or the expert B to the first controller 20 or the second controller 60 . Thereby, the first controller 20 reproduces the motion of the robot 100 remotely controlled by the expert B, and the second controller 60 reproduces the motion of the robot 100 remotely controlled by the newcomer A. For example, in a scene in which expert B instructs newcomer A to use remote control to transform an object to be manipulated, the robot 100 moves the robot 100 to the object to be manipulated according to expert B's remote control. When the arm is attached, an action that puts more force on the object to be manipulated is executed. By feeding back the operation performed by the robot 100 to the first controller 20 and the second controller 60, the content of the remote operation by the expert B is fed back to the newcomer A, and the work of the newcomer A is performed by the expert B. It is possible to give the newcomer A a sensation and feel as if he were directly instructing the newcomer A with his hand.

こうすることで、熟練者Bは、第2コントローラ60を介して新人Aの操作を体感することができ、熟練者Bは、新人Aの操作を修正する操作を第2コントローラ60に入力することができる。よって、新人Aは、第1コントローラ20を介して熟練者Bの操作を体感し、熟練者Bやロボット100から離れた場所にいながら、熟練者Bの指導を受けながら、ロボット100を遠隔操作することができる。 By doing so, the expert B can experience the operation of the newcomer A through the second controller 60, and the expert B can input an operation to correct the operation of the newcomer A to the second controller 60. can be done. Therefore, the newcomer A can experience the operation of the expert B through the first controller 20, and remotely operate the robot 100 while receiving guidance from the expert B while being away from the expert B and the robot 100. can do.

なお、詳細については後述するが、ロボット遠隔操作制御装置300は、ロボット100側において得られる感覚や感触を新人Aや熟練者Bにフィードバックしてもよい。 Although the details will be described later, the robot remote control device 300 may feed back to the newcomer A and the expert B the senses and sensations obtained on the robot 100 side.

図2は、第1操作者が作業する作業空間に設置される構成の機能ブロック図である。なお、熟練者Bが作業する作業空間に設置される各構成も同様の機能を備えており、これらについての詳細な説明を省略する。 FIG. 2 is a functional block diagram of the configuration installed in the work space where the first operator works. It should be noted that each component installed in the work space where the expert B works also has the same function, and detailed description thereof will be omitted.

<HMD>
第1HMD10は、例えば、表示部11、視線検出部12、センサ13、制御部14、通信部15、および収音部16を備える。第1HMD10は、ロボット遠隔操作制御装置300から受信した画像データに基づいて、ロボット100を遠隔操作するための画像を表示する。例えば、第1HMD10は、ロボット100の状態画像を表示する。ロボット100の状態画像とは、ロボット100による動作を示す画像であって、例えば、ロボット100の手元を撮影した画像などが含まれる。
<HMD>
The first HMD 10 includes, for example, a display unit 11, a line-of-sight detection unit 12, a sensor 13, a control unit 14, a communication unit 15, and a sound pickup unit 16. The first HMD 10 displays images for remotely operating the robot 100 based on the image data received from the robot remote control device 300 . For example, the first HMD 10 displays a state image of the robot 100. FIG. The state image of the robot 100 is an image showing the motion of the robot 100, and includes, for example, an image of the hand of the robot 100 captured.

表示部11は、例えば、LCDや有機EL表示装置などである。視線検出部12は、新人Aの視線の動きを検出する。視線検出部12は、新人Aの視線情報を検出する針検出器を備えていてもよい。センサ13は、例えば、加速度センサ、ジャイロスコープ等である。センサ13は、新人Aの頭部の動きや傾きを検出する。 The display unit 11 is, for example, an LCD or an organic EL display device. The line-of-sight detection unit 12 detects movement of the newcomer A's line of sight. The line-of-sight detection unit 12 may include a needle detector for detecting the newcomer A's line-of-sight information. The sensor 13 is, for example, an acceleration sensor, a gyroscope, or the like. The sensor 13 detects the movement and tilt of the newcomer A's head.

例えば、制御部14は、ロボット遠隔操作制御装置300が送信した画像データに基づいて、例えばロボットの状態画像を表示部11に表示させる。 For example, the control unit 14 causes the display unit 11 to display, for example, a state image of the robot based on the image data transmitted by the robot remote control device 300 .

例えば、制御部14は、視線検出部12による検出結果に基づいて、新人Aの視線の動きを示す情報(以下、視線情報と記す)を生成する。また、制御部14は、センサ13による検出結果に基づいて、新人Aの頭部の動きや傾きを示す情報(以下、頭部動作情報と記す)を生成する。視線情報や頭部動作情報は、後述の操作者センサ値に含まれる情報である。制御部14は、生成した視線情報と頭部動作情報とを、第1端末装置40を介してロボット遠隔操作制御装置300に送信させる。 For example, the control unit 14 generates information (hereinafter referred to as line-of-sight information) indicating the line-of-sight movement of the newcomer A based on the detection result of the line-of-sight detection unit 12 . The control unit 14 also generates information (hereinafter referred to as head movement information) indicating the movement and tilt of the head of the newcomer A based on the detection result of the sensor 13 . Line-of-sight information and head motion information are information included in operator sensor values, which will be described later. The control unit 14 causes the generated line-of-sight information and head motion information to be transmitted to the robot remote control device 300 via the first terminal device 40 .

通信部15は、例えば、Bluetooth(登録商標)など利用するための無線モジュールであって、アンテナおよび送受信装置などを有する。通信部15は、制御部14による制御に従い、近距離無線通信を介して、第1端末装置40と通信する。これに限られず、通信部15は、NIC等の通信インターフェースを含み、ネットワークNWを介して、第1端末装置40やロボット100やロボット遠隔操作制御装置300と通信してもよい。 The communication unit 15 is, for example, a wireless module for using Bluetooth (registered trademark), and has an antenna, a transmitting/receiving device, and the like. The communication unit 15 communicates with the first terminal device 40 via short-range wireless communication under the control of the control unit 14 . Not limited to this, the communication unit 15 may include a communication interface such as a NIC and communicate with the first terminal device 40, the robot 100, and the robot remote control device 300 via the network NW.

収音部16は、例えばマイクロホンであり、収音した音響信号を制御部14に出力する。制御部14は、通信部15を用いて、音響信号をロボット遠隔操作制御装置300に送信させる。制御部14は、ロボット遠隔操作制御装置300から音声情報を受信した場合、スピーカ17から出力させる。ロボット遠隔操作制御装置300は、例えば、第1HMD10を介して新人Aの会話の音響信号を取得した場合、新人Aの会話の音声信号を、第2HMD50を介して熟練者Bに提供する。また、ロボット遠隔操作制御装置300は、例えば、第2HMD50を介して熟練者Bの会話の音響信号を取得した場合、熟練者Bの会話の音声信号を、第1HMD10を介して新人Aに提供する。 The sound pickup unit 16 is, for example, a microphone, and outputs a picked-up sound signal to the control unit 14 . The control unit 14 uses the communication unit 15 to transmit the acoustic signal to the robot remote control device 300 . When voice information is received from the robot remote control device 300 , the control unit 14 causes the speaker 17 to output the voice information. For example, when the robot remote control device 300 acquires the audio signal of the conversation of the newcomer A via the first HMD 10 , it provides the audio signal of the conversation of the newcomer A to the expert B via the second HMD 50 . For example, when the robot remote control device 300 acquires an audio signal of expert B's conversation via the second HMD 50, the robot remote control device 300 provides the audio signal of expert B's conversation to newcomer A via the first HMD 10. .

<コントローラ>
第1コントローラ20は、例えば、センサ21、制御部22、通信部23、およびフィードバック手段24を備える。
<Controller>
The first controller 20 comprises, for example, a sensor 21, a control section 22, a communication section 23, and a feedback means 24.

センサ21は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。制御部22は、例えば、センサ21に含まれる複数種類のセンサによって検出された検出結果に基づいて、各指の動きをトラッキングする。また、制御部22は、センサ21による検出結果に基づいて、方位や各指の動きや手の動き等の操作者の腕部の姿勢や位置を示す情報(以下、操作者腕部情報と記す)を取得する。操作者腕部情報には、例えば、手先位置・姿勢情報、各指の角度情報、肘の位置・姿勢情報、各部の動きをトラッキングした情報等のヒトの腕部全般におよぶ情報が含まれる。操作者腕部情報は、操作情報の一例である。制御部22は、取得した操作者腕部情報を、第1端末装置40を介してロボット遠隔操作制御装置300に送信させる。 The sensor 21 is, for example, an acceleration sensor, a gyroscope sensor, a magnetic force sensor, or the like. The control unit 22 tracks the movement of each finger based on detection results detected by multiple types of sensors included in the sensor 21, for example. Based on the detection result of the sensor 21, the control unit 22 also provides information indicating the posture and position of the operator's arm, such as orientation, movement of each finger, and movement of the hand (hereinafter referred to as operator arm information). ). The operator arm information includes, for example, hand position/orientation information, finger angle information, elbow position/orientation information, and information on the entire human arm such as movement tracking information. The operator arm information is an example of operation information. The control unit 22 transmits the acquired operator arm information to the robot remote control device 300 via the first terminal device 40 .

通信部23は、Bluetooth(登録商標)など利用するための無線モジュールであって、アンテナおよび送受信装置などを有する。通信部23は、制御部22による制御に従い、近距離無線通信を介して、第1端末装置40と通信する。これに限られず、通信部23は、NIC等の通信インターフェースを含み、ネットワークNWを介して、第1端末装置40やロボット100やロボット遠隔操作制御装置300と通信してもよい。 The communication unit 23 is a wireless module for using Bluetooth (registered trademark) or the like, and has an antenna, a transmitting/receiving device, and the like. The communication unit 23 communicates with the first terminal device 40 via short-range wireless communication under the control of the control unit 22 . Not limited to this, the communication unit 23 may include a communication interface such as a NIC and communicate with the first terminal device 40, the robot 100, and the robot remote control device 300 via the network NW.

フィードバック手段24は、制御部22の制御に従って、操作者にロボット100のエンドエフェクタからのフィードバック情報(圧力、温度等)をフィードバックする。 The feedback means 24 feeds back feedback information (pressure, temperature, etc.) from the end effector of the robot 100 to the operator under the control of the control section 22 .

フィードバック手段24は、例えば、ロボット100側において得られる感覚や感触を再現する手段と、ロボット100による動作を再現する手段とを備える。ロボット100側において得られる感覚や感触を再現する手段は、例えば、ロボット100が作業している際にロボットハンドが物体などに接触しているときの感触や感覚を再現する手段である。ロボット100による動作を再現する手段は、例えば、ロボット100のロボットアームが動いた方向や速さなどを再現する手段である。 The feedback means 24 includes, for example, means for reproducing sensations and tactile sensations obtained on the robot 100 side and means for reproducing motions of the robot 100 . Means for reproducing the sensations and sensations obtained on the robot 100 side are, for example, means for reproducing the sensations and sensations when the robot hand is in contact with an object or the like while the robot 100 is working. The means for reproducing the motion of the robot 100 is, for example, means for reproducing the direction and speed of movement of the robot arm of the robot 100 .

例えば、フィードバック手段24は、振動を与える手段(不図示)、空気圧を与える手段(不図示)、手の動きを拘束する手段(不図示)、温度を感じさせる手段(不図示)、堅さや柔らかさを感じさせる手段(不図示)等を備える。フィードバック手段24は、制御部22による制御に従って、ロボット100からフィードバックされたロボット100側において得られる感覚や感触や、ロボット100による動作を再現する。こうすることで、第1コントローラ20は、新人Aや熟練者Bの遠隔操作を新人Aに伝達することができる。 For example, the feedback means 24 may include means for applying vibration (not shown), means for applying air pressure (not shown), means for restraining hand movement (not shown), means for feeling temperature (not shown), hardness and softness. A means (not shown) or the like for making the user feel a sense of urgency is provided. The feedback means 24 reproduces the sensations and sensations obtained on the robot 100 side and the motions of the robot 100 that are fed back from the robot 100 under the control of the control unit 22 . By doing so, the first controller 20 can transmit the remote operation of the newcomer A or the expert B to the newcomer A.

制御部22は、ロボット遠隔操作制御装置300から受信したフィードバック情報に基づいて、フィードバック手段24を制御する。フィードバック情報の詳細については後述する。 The controller 22 controls the feedback means 24 based on feedback information received from the robot remote control device 300 . Details of the feedback information will be described later.

<環境センサ>
第1環境センサ30は、例えば、撮影装置31、センサ32、物体位置検出部33、制御部34、および通信部35を備える。なお、第2環境センサ70や第3環境センサ200も同様の機能を備えており、これらについての詳細な説明は省略する。
<Environmental sensor>
The first environment sensor 30 includes, for example, a photographing device 31, a sensor 32, an object position detection section 33, a control section 34, and a communication section 35. Note that the second environment sensor 70 and the third environment sensor 200 also have similar functions, and detailed description thereof will be omitted.

撮影装置31は、例えばRGBカメラであり、センサ32は、例えば深度センサである。なお、撮影装置31とセンサ32は、距離センサであってもよい。第1環境センサ30において、撮影装置31とセンサ32の位置関係は既知である。 The imaging device 31 is, for example, an RGB camera, and the sensor 32 is, for example, a depth sensor. Note that the imaging device 31 and the sensor 32 may be distance sensors. In the first environment sensor 30, the positional relationship between the imaging device 31 and the sensor 32 is known.

物体位置検出部33は、撮影装置31により撮影された画像と、センサ32により検出された検出結果とに基づいて、撮影画像における対象物体の三次元位置と大きさ形状等を周知の手法で検出する。例えば、物体位置検出部33は、物体位置検出部33が記憶するパターンマッチングのモデル等を参照して、撮影装置31が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行って物体の位置を推定する。なお、物体位置検出部33は、撮影された画像から複数の物体が検出された場合、物体毎に位置を検出する。 The object position detection unit 33 detects the three-dimensional position, size and shape of the target object in the captured image based on the image captured by the imaging device 31 and the detection result detected by the sensor 32 by a known method. do. For example, the object position detection unit 33 refers to a pattern matching model or the like stored in the object position detection unit 33, and performs image processing (edge detection, binarization processing, feature amount extraction, image enhancement processing, image extraction, pattern matching processing, etc.) to estimate the position of the object. Note that the object position detection unit 33 detects the position of each object when a plurality of objects are detected from the captured image.

制御部34は、物体位置検出部33により検出された物体の位置を示す情報と、撮影装置31により撮影された画像と、センサ32により検出されたセンサ値を、第1端末装置40を介してロボット遠隔操作制御装置300に送信させる。物体の位置を示す情報、撮影装置31により撮影された画像、およびセンサ32により検出されたセンサ値は、後述の環境センサ値に含まれる。 The control unit 34 transmits information indicating the position of the object detected by the object position detection unit 33, the image captured by the imaging device 31, and the sensor value detected by the sensor 32 via the first terminal device 40. Send to the robot remote control device 300 . The information indicating the position of the object, the image captured by the imaging device 31, and the sensor values detected by the sensor 32 are included in the environmental sensor values described later.

通信部35は、Bluetooth(登録商標)など利用するための無線モジュールであって、アンテナおよび送受信装置などを有する。通信部35は、近距離無線通信を介して、第1端末装置40と通信する。これに限られず、通信部35は、NIC等の通信インターフェースを含み、ネットワークNWを介して、第1端末装置40やロボット100やロボット遠隔操作制御装置300と通信してもよい。 The communication unit 35 is a wireless module for using Bluetooth (registered trademark) or the like, and has an antenna, a transmitting/receiving device, and the like. The communication unit 35 communicates with the first terminal device 40 via near field communication. Not limited to this, the communication unit 35 may include a communication interface such as a NIC and communicate with the first terminal device 40, the robot 100, and the robot remote control device 300 via the network NW.

なお、第1環境センサ30は、モーションキャプチャ装置であってもよく、モーションキャプチャによって物体の位置情報を検出するようにしてもよく、物体に位置情報送信部を備えるGPS受信装置(不図示)が取り付けられていてもよい。この場合、GPS受信装置は、位置情報をロボット遠隔操作制御装置300へ送信するようにしてもよい。 The first environment sensor 30 may be a motion capture device, and may detect the position information of the object by motion capture. may be attached. In this case, the GPS receiver may transmit position information to the robot remote control device 300 .

<ロボットの構成例>
図3は、ロボット100の機能ブロック図である。ロボット100は、例えば、通信部110と、収音部120と、センサ130と、駆動部140と、ロボットアーム150と、電源160と、記憶部170と、制御部180とを備える。
<Example of robot configuration>
FIG. 3 is a functional block diagram of the robot 100. As shown in FIG. The robot 100 includes, for example, a communication unit 110, a sound pickup unit 120, a sensor 130, a driving unit 140, a robot arm 150, a power supply 160, a storage unit 170, and a control unit 180.

通信部110は、例えば、NIC等の通信インターフェースを含む。通信部110は、制御部180による制御に従い、ネットワークNWを介して、第1端末装置40、第2端末装置80、第3環境センサ200、およびロボット遠隔操作制御装置300と接続する。通信部110は、Bluetooth(登録商標)など利用するための無線モジュールであって、アンテナおよび送受信装置などを有し、近距離無線通信を介して、第3環境センサ200、およびロボット遠隔操作制御装置300と通信してもよい。 The communication unit 110 includes, for example, a communication interface such as NIC. The communication unit 110 is connected to the first terminal device 40, the second terminal device 80, the third environment sensor 200, and the robot remote control device 300 via the network NW under the control of the control unit 180. FIG. The communication unit 110 is a wireless module for using Bluetooth (registered trademark) or the like, and has an antenna, a transmitting/receiving device, and the like. 300.

収音部120は、例えば複数のマイクロホンを備えるマイクロホンアレイである。収音部120は、収音した音響信号を制御部180に出力する。収音部120は、音声認識処理機能を備えていてもよい。この場合、収音部120は、音声認識結果を制御部180に出力する。 The sound pickup unit 120 is, for example, a microphone array including a plurality of microphones. The sound pickup unit 120 outputs the picked-up sound signal to the control unit 180 . The sound pickup unit 120 may have a speech recognition processing function. In this case, the sound pickup unit 120 outputs the speech recognition result to the control unit 180 .

センサ130は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ、各関節エンコーダ等である。例えば、センサ130は、ロボット100の各関節や頭部等に取り付けられている。センサ130は、検出した検出結果を示す情報を、制御部180に出力する。 The sensor 130 is, for example, an acceleration sensor, a gyroscope sensor, a magnetic force sensor, each joint encoder, or the like. For example, the sensors 130 are attached to each joint, head, etc. of the robot 100 . Sensor 130 outputs information indicating the detected result to control unit 180 .

駆動部140は、制御部180による制御に従って、ロボット100の各部(腕、指、足、頭、胴、腰等)を駆動する。駆動部140は、例えば、ロボットアーム150を駆動する。ロボットアーム150は、例えば、アクチュエータ、ギア、人工筋等を備える。また、ロボットアーム150は、ハンドセンサ151を備える。ハンドセンサ151は、例えば、温度を感じる手段(不図示)、堅さや柔らかさを感じる手段(不図示)等を備える。 The driving section 140 drives each section (arms, fingers, legs, head, torso, waist, etc.) of the robot 100 under the control of the control section 180 . The drive unit 140 drives the robot arm 150, for example. The robot arm 150 includes, for example, actuators, gears, artificial muscles, and the like. The robot arm 150 also has a hand sensor 151 . The hand sensor 151 includes, for example, means for sensing temperature (not shown), means for sensing hardness and softness (not shown), and the like.

電源160は、ロボット100の各部に電力を供給する。電源160は、例えば充電式のバッテリや充電回路を備えていてもよい。 A power supply 160 supplies power to each part of the robot 100 . Power source 160 may comprise, for example, a rechargeable battery or charging circuit.

記憶部170は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などによって実現される。記憶部170は、プロセッサが実行するプログラムを格納する他、ロボット100を動作させるための動作パラメータなどの各種情報を格納する。 The storage unit 170 is realized by, for example, RAM (Random Access Memory), ROM (Read Only Memory), HDD (Hard Disk Drive), and the like. The storage unit 170 stores programs executed by the processor, and various information such as operation parameters for operating the robot 100 .

制御部180は、遠隔操作によりロボット100を動作させる制御と、遠隔操作によらずにロボット100を動作させる制御とを実行する。前者の場合、制御部180は、ロボット遠隔操作制御装置300により生成された制御情報に従って、ロボット100を動作させる。 The control unit 180 performs control to operate the robot 100 by remote control and control to operate the robot 100 without using remote control. In the former case, the controller 180 operates the robot 100 according to control information generated by the robot remote control device 300 .

後者の場合、制御部180は、収音部120が収音した音響信号に対して音声認識処理(発話区間検出、音源分離、音源定位、雑音抑圧、音源同定等)を行う。音声認識した結果にロボット100に対する動作指示が含まれている場合、制御部180は、音声による動作指示に基づいてロボット100の動作を制御する。また、制御部180は、記憶部170が記憶する情報に基づいて、第3環境センサ200等が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行い、音声認識結果と画像処理結果に基づいてロボット100の動作を制御するようにしてもよい。 In the latter case, the control unit 180 performs speech recognition processing (speech segment detection, sound source separation, sound source localization, noise suppression, sound source identification, etc.) on the acoustic signal collected by the sound collection unit 120 . When the voice recognition result includes an action instruction for the robot 100, the control unit 180 controls the action of the robot 100 based on the action instruction by voice. Based on the information stored in the storage unit 170, the control unit 180 performs image processing (edge detection, binarization processing, feature amount extraction, image enhancement processing, Image extraction, pattern matching processing, etc.) may be performed, and the motion of the robot 100 may be controlled based on the results of voice recognition and image processing.

<ロボット遠隔操作制御装置300の構成例>
図4は、ロボット遠隔操作制御装置300の機能ブロック図である。ロボット遠隔操作制御装置300は、例えば、通信部310と、入力部320と、出力部330と、記憶部340と、処理部350とを備える。
<Configuration example of robot remote control device 300>
FIG. 4 is a functional block diagram of the robot remote control device 300. As shown in FIG. The robot remote control device 300 includes, for example, a communication unit 310, an input unit 320, an output unit 330, a storage unit 340, and a processing unit 350.

通信部310は、例えば、NIC等の通信インターフェースを含む。通信部310は、処理部350による制御に従い、ネットワークNWを介して、第1端末装置40、第2端末装置80、ロボット100と、および第3環境センサ200と通信を行う。 The communication unit 310 includes, for example, a communication interface such as NIC. The communication unit 310 communicates with the first terminal device 40, the second terminal device 80, the robot 100, and the third environment sensor 200 via the network NW under the control of the processing unit 350. FIG.

入力部320は、例えば、各種キー、ボタン、ダイヤルスイッチ、マウスなどのうち一部または全部を含む。出力部330は、例えば、LCDや有機EL表示装置や、スピーカ、プロジェクタなどを含む。記憶部340は、例えば、RAM、ROM、HDDなどによって実現される。記憶部340は、プロセッサが実行するプログラムを格納する他、ロボット情報341、フィードバックパラメータ情報342等を格納する。各情報の詳細については後述する。 The input unit 320 includes, for example, some or all of various keys, buttons, dial switches, a mouse, and the like. The output unit 330 includes, for example, an LCD or organic EL display device, a speaker, a projector, and the like. The storage unit 340 is realized by RAM, ROM, HDD, and the like, for example. The storage unit 340 stores programs executed by the processor, robot information 341, feedback parameter information 342, and the like. Details of each information will be described later.

処理部350は、例えば、情報取得部351と、意図推定部352と、ロボット操作決定部353と、制御情報生成部354と、フィードバック情報生成部355と、ロボット状態画像生成部356と、比較画像生成部357と、通信制御部358とを備える。これらの機能部のうち一部または全部は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めロボット遠隔操作制御装置300の記憶部340に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶部340にインストールされてもよい。 The processing unit 350 includes, for example, an information acquisition unit 351, an intention estimation unit 352, a robot operation determination unit 353, a control information generation unit 354, a feedback information generation unit 355, a robot state image generation unit 356, a comparison image A generation unit 357 and a communication control unit 358 are provided. Some or all of these functional units are realized by executing a program (software) by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). Some or all of these components are implemented by hardware (including circuitry) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), and FPGA (Field-Programmable Gate Array). It may be realized by cooperation of software and hardware. The program may be stored in advance in the storage unit 340 of the robot remote control device 300, or may be stored in a detachable storage medium such as a DVD or CD-ROM, and the storage medium is installed in the drive device. It may be installed in the storage unit 340 by

例えば、情報取得部351は、ネットワークNWを介して第1端末装置40から、第1操作情報を取得する。第1操作情報とは、遠隔操作対象であるロボット100に対する操作を受け付ける第1コントローラ20を介して、新人Aにより入力された操作を示す情報である。また、情報取得部351は、ネットワークNWを介して第2端末装置80から、第2操作情報を取得する。第2操作情報とは、遠隔操作対象であるロボット100に対する操作を受け付ける第2コントローラ60を介して、熟練者Bにより入力された操作を示す情報である。第1操作情報と第2操作情報には、例えば、操作者腕部情報などが含まれる。 For example, the information acquisition unit 351 acquires first operation information from the first terminal device 40 via the network NW. The first operation information is information indicating an operation input by the newcomer A via the first controller 20 that receives an operation on the robot 100 to be remotely operated. Also, the information acquisition unit 351 acquires the second operation information from the second terminal device 80 via the network NW. The second operation information is information indicating an operation input by the expert B via the second controller 60 that receives an operation on the robot 100 to be remotely operated. The first operation information and the second operation information include, for example, operator arm information.

また、情報取得部351は、ネットワークNWを介して第1端末装置40から、第1操作者センサ値情報を取得する。第1操作者センサ値情報とは、第1操作者である新人Aの状態変化をセンサによって検出した検出結果を示す情報であって、例えば、第1HMD10や第1コントローラ20に搭載されているセンサの検出結果を示す情報を含む。また、情報取得部351は、ネットワークNWを介して第2端末装置80から、第2操作者センサ値情報を取得する。第2操作者センサ値情報とは、第2操作者である熟練者Bの状態変化をセンサによって検出した検出結果を示す情報であって、例えば、第2HMD50や第2コントローラ60に搭載されているセンサの検出結果を示す情報を含む。第1操作者センサ値情報と第2操作者センサ値情報には、例えば、第1HMD10あるいは第2HMD50により検出された視線情報や頭部動作情報などが含まれる。 The information acquisition unit 351 also acquires the first operator sensor value information from the first terminal device 40 via the network NW. The first operator sensor value information is information indicating the detection result of a sensor detecting a state change of the newcomer A who is the first operator. Contains information indicating the detection result of The information acquisition unit 351 also acquires the second operator sensor value information from the second terminal device 80 via the network NW. The second operator sensor value information is information indicating the result of detection by a sensor of the state change of the expert B who is the second operator. It contains information indicating the detection result of the sensor. The first operator sensor value information and the second operator sensor value information include line-of-sight information and head motion information detected by the first HMD 10 or the second HMD 50, for example.

また、情報取得部351は、ネットワークNWを介して第1端末装置40から、第1環境センサ値情報を取得する。第1環境センサ値情報とは、第1操作者である新人Aがロボット100を遠隔操作している周辺の環境変化をセンサによって検出した検出結果を示す情報であって、例えば、第1環境センサ30に搭載されているセンサの検出結果を示す情報を含む。また、情報取得部351は、ネットワークNWを介して第2端末装置80から、第2環境センサ値情報を取得する。第2環境センサ値情報とは、第2操作者である熟練者Bがロボット100を遠隔操作している周辺の環境変化をセンサによって検出した検出結果を示す情報であって、例えば、第2環境センサ70に搭載されているセンサの検出結果を示す情報を含む。また、情報取得部351は、ネットワークNWを介して第3環境センサ200から、第3環境センサ値情報を取得する。第3環境センサ値情報とは、第1操作者や第2操作者等により遠隔操作されているロボット100周辺の環境変化をセンサによって検出した検出結果を示す情報であって、例えば、第3環境センサ200に搭載されているセンサの検出結果を示す情報を含む。第1環境センサ値情報、第2環境センサ値情報、第3環境センサ値情報には、例えば、物体位置情報、撮影装置31により撮影された画像、およびセンサ32により検出されたセンサ値などが含まれる。 Also, the information acquisition unit 351 acquires the first environmental sensor value information from the first terminal device 40 via the network NW. The first environment sensor value information is information indicating the detection result of a sensor detecting a change in the environment around the robot 100 remotely operated by the newcomer A, who is the first operator. 30 includes information indicating the detection results of the sensors mounted on the device. Also, the information acquisition unit 351 acquires the second environmental sensor value information from the second terminal device 80 via the network NW. The second environment sensor value information is information indicating the detection result of a sensor detecting a change in the environment around the robot 100 remotely controlled by the expert B who is the second operator. It includes information indicating the detection result of the sensor mounted on the sensor 70 . The information acquisition unit 351 also acquires third environment sensor value information from the third environment sensor 200 via the network NW. The third environment sensor value information is information indicating the result of detection by sensors of changes in the environment around the robot 100 remotely controlled by the first operator or the second operator. It includes information indicating the detection result of the sensor mounted on the sensor 200 . The first environmental sensor value information, the second environmental sensor value information, and the third environmental sensor value information include, for example, object position information, an image captured by the imaging device 31, and sensor values detected by the sensor 32. be

意図推定部352は、情報取得部351が取得した情報に基づいて、操作者の動作意図を推定する。例えば、意図推定部352は、視線情報、操作者腕部情報、および頭部動作情報のうちの少なくとも1つを用いて操作者の動作意図を推定する。なお、意図推定部352は、環境センサ値も用いて意図推定するようにしてもよい。 The intention estimation unit 352 estimates the operator's action intention based on the information acquired by the information acquisition unit 351 . For example, the intention estimation unit 352 estimates the operator's motion intention using at least one of line-of-sight information, operator arm information, and head motion information. Note that the intention estimation unit 352 may also estimate the intention using the environmental sensor value.

また、意図推定部352は、情報取得部351が取得した操作者センサ値と視線情報を学習済みのモデルに入力することで、操作者が行おうとしている動作の意図を推定するようにしてもよい。このような推定結果に基づいて制御情報を生成し、生成された制御情報に基づいてロボット100を制御することで、ロボット100は、操作者が正確な位置合わせの遠隔操作をしない場合であっても、正確な位置合わせを実行することができる。よって、高い精度でロボット100に作業を行わせることができる。なお、学習済みのモデルは、例えば、予め操作者センサ値と視線情報を入力し、操作者が行おうとしている作業を教師データとして学習されたデータである。 Further, the intention estimating unit 352 inputs the operator sensor value and line-of-sight information acquired by the information acquiring unit 351 to the learned model, thereby estimating the intention of the action that the operator is about to perform. good. By generating control information based on such an estimation result and controlling the robot 100 based on the generated control information, the robot 100 can be controlled even when the operator does not perform a remote operation for accurate positioning. can also perform accurate registration. Therefore, it is possible to cause the robot 100 to perform the work with high accuracy. Note that the learned model is, for example, data obtained by inputting operator sensor values and line-of-sight information in advance and learning the work that the operator is about to perform as teacher data.

ロボット操作決定部353は、意図推定部352により推定された動作意図と、ロボット100のセンサ130により検出された検出結果、第3環境センサ200の撮影装置が撮影した画像を画像処理した結果などに基づいて、ロボット100が操作する操作物体に対する操作方法を決定する。操作物体に対する操作方法には、例えば、操作物体を把持する把持方法、操作物体を動かすための移動方法、操作物体を変形させるための変形方法など、様々な操作方法が含まれる。 The robot operation determining unit 353 determines the motion intention estimated by the intention estimating unit 352, the detection result detected by the sensor 130 of the robot 100, the image processing result of the image captured by the imaging device of the third environment sensor 200, and the like. Based on this, the operation method for the operation object operated by the robot 100 is determined. The operation method for the operation object includes various operation methods such as a grasping method for grasping the operation object, a movement method for moving the operation object, a deformation method for deforming the operation object, and the like.

制御情報生成部354は、記憶部340を参照し、情報取得部351により取得された第1操作情報あるいは第2操作情報に基づいて、遠隔操作対象であるロボット100を動作させる制御情報を生成する。例えば、制御情報生成部354は、ロボット情報341を参照し、操作者による操作に応じた動作パラメータを取得し、取得した動作パラメータに基づいてロボット100に動作させる制御情報を生成する。ロボット情報341は、例えば、操作量に応じた動作パラメータを対応付けた情報である。 The control information generation unit 354 refers to the storage unit 340 and generates control information for operating the robot 100 to be remotely operated based on the first operation information or the second operation information acquired by the information acquisition unit 351. . For example, the control information generation unit 354 refers to the robot information 341, acquires operation parameters according to the operation by the operator, and generates control information for causing the robot 100 to operate based on the acquired operation parameters. The robot information 341 is, for example, information in which motion parameters corresponding to operation amounts are associated with each other.

制御情報生成部354は、ロボット操作決定部353により決定された操作方法に基づいて、ロボット100を動作させる制御情報を生成してもよい。こうすることにより、操作者による意図を推定し、推定結果に基づいて、操作者の意図により近い動作をロボット100に実行させることができる。 The control information generation section 354 may generate control information for operating the robot 100 based on the operation method determined by the robot operation determination section 353 . By doing so, it is possible to estimate the operator's intention, and to cause the robot 100 to perform an action closer to the operator's intention based on the estimation result.

また、制御情報生成部354は、第1操作情報に加えて、第1操作者センサ情報や第1環境センサ値情報に基づいて、ロボット100を動作させる制御情報を生成してもよい。また、制御情報生成部354は、第2操作情報に加えて、第2操作者センサ情報や第2環境センサ値情報に基づいて、ロボット100を動作させる制御情報を生成してもよい。 Further, the control information generator 354 may generate control information for operating the robot 100 based on the first operator sensor information and the first environment sensor value information in addition to the first operation information. Further, the control information generator 354 may generate control information for operating the robot 100 based on the second operator sensor information and the second environment sensor value information in addition to the second operation information.

さらに、制御情報生成部354は、第1操作者である新人Aによる遠隔操作の内容と、第2操作者である熟練者Bによる遠隔操作の内容とを合成した結果に基づいて、ロボット100を動作させる制御情報を生成してもよい。例えば、制御情報生成部354は、第1操作情報に応じた動作パラメータと第2操作情報に応じた動作パラメータとの合計値に基づいて、制御情報を生成する。これに限られず、制御情報生成部354は、第1操作情報に応じた動作パラメータから第2操作情報に応じた動作パラメータを減算した値に基づいて、制御情報を生成してもよい。なお、第1操作者である新人Aによる遠隔操作の内容と、第2操作者である熟練者Bによる遠隔操作の内容とを合成する手法をこれに限られず、既存の様々な手法を採用することができる。こうすることで、二人以上の操作者による遠隔操作に従って、ロボット100を動作させることができる。よって、新人Aの作業をリアルタイムに熟練者Bが指導することが可能となる。 Furthermore, the control information generation unit 354 controls the robot 100 based on the result of synthesizing the details of the remote operation by the newcomer A who is the first operator and the details of the remote operation by the expert B who is the second operator. You may generate|occur|produce the control information which operates. For example, the control information generation unit 354 generates control information based on the total value of the operation parameter according to the first operation information and the operation parameter according to the second operation information. The control information generator 354 may generate the control information based on a value obtained by subtracting the operation parameter according to the second operation information from the operation parameter according to the first operation information. Note that the method of synthesizing the details of the remote operation by the newcomer A, who is the first operator, and the details of the remote operation by the expert B, who is the second operator, is not limited to this, and various existing methods can be adopted. be able to. By doing so, the robot 100 can be operated according to remote control by two or more operators. Therefore, it becomes possible for the expert B to guide the work of the newcomer A in real time.

また、制御情報生成部354は、第1操作者による遠隔操作の内容と、第2操作者による遠隔操作の内容とを合成する際に、第1操作者に比べて、第2操作者の操作を優先させた制御情報を生成してもよい。例えば、制御情報生成部354は、第1操作者による操作と第2操作者による操作とが同時に実行された場合、第1操作者による操作に基づく動作パラメータに対して第1の重み付けを実行し、第2操作者による操作に基づく動作パラメータに対して第1の重み付けよりも大きい第2重み付けを実行して、制御情報を生成する。第1の重み付けは0であってもよく、第1操作者による操作が制御情報に反映されないようにしてもよい。また、第1操作者による操作方向と第2操作者による操作方向とが異なる場合、制御情報生成部354は、第2操作者による操作方向に動作させるように制御情報を生成してもよい。こうすることで、第1操作者による遠隔操作よりも第2操作者による遠隔操作をロボット100の動作に反映することができ、第1操作者による遠隔操作を第2操作者による遠隔操作に修正することができる。 Further, when synthesizing the content of the remote operation by the first operator and the content of the remote operation by the second operator, the control information generation unit 354 determines that the operation of the second operator is higher than that of the first operator. You may generate|occur|produce the control information which gave priority to. For example, when the operation by the first operator and the operation by the second operator are performed simultaneously, the control information generation unit 354 performs the first weighting on the operation parameter based on the operation by the first operator. , performing a second weighting greater than the first weighting on the operating parameter based on the operation by the second operator to generate control information. The first weighting may be 0, and the operation by the first operator may not be reflected in the control information. Further, when the operation direction by the first operator and the operation direction by the second operator are different, the control information generation unit 354 may generate control information so as to operate in the operation direction by the second operator. By doing so, the remote operation by the second operator can be reflected in the motion of the robot 100 rather than the remote operation by the first operator, and the remote operation by the first operator can be corrected to the remote operation by the second operator. can do.

また、制御情報生成部354は、第1操作者による遠隔操作の内容と第2操作者による遠隔操作の内容とを合成する際に、第1操作者による遠隔操作タイミングと第2操作者による遠隔操作タイミングとを連続的に実行するようにしてもよい。例えば、制御情報生成部354は、第1操作者による遠隔操作に応じた動作を実行した直後に第2操作者による遠隔操作に応じた動作を実行させるような制御情報を生成してもよい。こうすることで、第1操作者による遠隔操作の直後に、第2操作者による遠隔操作に修正することができる。 Further, when synthesizing the details of the remote operation by the first operator and the details of the remote operation by the second operator, the control information generation unit 354 combines the timing of the remote operation by the first operator and the remote operation by the second operator. You may make it perform operation timing continuously. For example, the control information generation unit 354 may generate control information that causes the second operator to perform the action corresponding to the remote operation immediately after the first operator has performed the action corresponding to the remote operation. By doing so, it is possible to correct the remote operation by the second operator immediately after the remote operation by the first operator.

フィードバック情報生成部355は、第1操作者である新人Aにより入力された操作に基づくロボット100の動作に基づいて、第1操作者による操作内容を、第2コントローラ60を介して第2操作者に伝達するための第2フィードバック情報を生成する。また、フィードバック情報生成部355は、第2操作者である熟練者Bにより入力された操作に基づく遠隔操作対象の動作に基づいて、第2操作者による操作内容を、第1コントローラ20を介して第1操作者に伝達するための第1フィードバック情報を生成する。こうすることで、一方の操作者の遠隔操作によるロボット等の動作を、他方の操作者に伝達することができる。 The feedback information generation unit 355 transmits the operation details of the first operator to the second operator via the second controller 60 based on the motion of the robot 100 based on the operation input by the newcomer A who is the first operator. generate second feedback information for communication to the . Further, the feedback information generation unit 355 transmits the details of the operation by the second operator via the first controller 20 based on the action of the remote-operated object based on the operation input by the expert B who is the second operator. A first feedback information is generated for communication to the first operator. By doing so, the motion of the robot or the like remotely controlled by one operator can be transmitted to the other operator.

例えば、フィードバック情報生成部355は、記憶部340のフィードバックパラメータ情報342を参照し、制御情報生成部354により生成された制御情報に基づいて、遠隔操作対象であるロボット100の動作内容を第1コントローラ20にフィードバックする第1フィードバック情報を生成する。また、フィードバック情報生成部355は、記憶部340のフィードバックパラメータ情報342を参照し、制御情報生成部354により生成された制御情報に基づいて、遠隔操作対象であるロボット100の動作内容を第2コントローラ60にフィードバックする第2フィードバック情報を生成する。フィードバック情報生成部355は、フィードバックパラメータ情報342を参照し、制御情報に応じたフィードバックパラメータを取得し、取得したフィードバックパラメータに基づいてフィードバック情報を生成する。フィードバックパラメータ情報342は、例えば、ロボット100の動作パラメータや操作量に応じたフィードバックパラメータを対応付けた情報である。 For example, the feedback information generation unit 355 refers to the feedback parameter information 342 in the storage unit 340, and based on the control information generated by the control information generation unit 354, determines the operation content of the robot 100 to be remotely operated by the first controller. generating first feedback information to be fed back to 20; Further, the feedback information generation unit 355 refers to the feedback parameter information 342 in the storage unit 340, and based on the control information generated by the control information generation unit 354, the operation content of the robot 100 to be remotely operated is transmitted to the second controller. generating second feedback information to be fed back to 60; The feedback information generator 355 refers to the feedback parameter information 342, acquires feedback parameters corresponding to the control information, and generates feedback information based on the acquired feedback parameters. The feedback parameter information 342 is, for example, information that associates feedback parameters corresponding to operation parameters and manipulated variables of the robot 100 .

例えば、第1操作者によりロボット100が遠隔操作された場合、フィードバック情報生成部355は、第1操作者による遠隔操作の内容をロボット100の動作を第2操作者にフィードバックするために、遠隔操作されたロボット100の動作を第2コントローラ60に再現させるための第2フィードバック情報を生成する。一方、第2操作者によりロボット100が遠隔操作された場合、フィードバック情報生成部355は、第2操作者による遠隔操作の内容をロボット100の動作を第1操作者にフィードバックするために、遠隔操作されたロボット100の動作を第1コントローラ20に再現させるための第1フィードバック情報を生成する。 For example, when the robot 100 is remotely operated by the first operator, the feedback information generation unit 355 generates the remote operation information in order to feed back the contents of the remote operation by the first operator to the motion of the robot 100 to the second operator. Second feedback information is generated for causing the second controller 60 to reproduce the motion of the robot 100 that has been detected. On the other hand, when the robot 100 is remotely operated by the second operator, the feedback information generating unit 355 generates the remote operation information in order to feed back the contents of the remote operation by the second operator to the first operator. First feedback information for causing the first controller 20 to reproduce the motion of the robot 100 is generated.

なお、上述した通り、第1操作者による遠隔操作の内容と、第2操作者による遠隔操作の内容との合成結果に基づいて制御情報生成部354が制御情報を生成した場合、フィードバック情報生成部355は、合成結果に基づくロボット100の動作を第1操作者と第2操作者にフィードバックするために、遠隔操作されたロボット100の動作を第1コントローラ20に再現させるための第1フィードバック情報と、遠隔操作されたロボット100の動作を第2コントローラ60に再現させるための第2フィードバック情報を生成してもよい。 As described above, when the control information generator 354 generates the control information based on the synthesis result of the contents of the remote operation by the first operator and the contents of the remote operation by the second operator, the feedback information generator 355 is first feedback information for causing the first controller 20 to reproduce the motion of the remotely-operated robot 100 in order to feed back the motion of the robot 100 based on the synthesized result to the first operator and the second operator; , may generate second feedback information for causing the second controller 60 to reproduce the motion of the remotely-operated robot 100 .

また、上述の通り、第1操作者による遠隔操作の内容と、第2操作者による遠隔操作の内容とを合成する際に、制御情報生成部354が、第1操作者に比べて第2操作者による遠隔操作を優先した制御情報を生成した場合、フィードバック情報生成部355は、ロボット100の動作を、第2操作者に比べて、第1操作者に対して優先的にフィードバックするような第1フィードバック情報を生成してもよい。例えば、フィードバック情報生成部355は、第1操作者に対するフィードバックの内容を、第2操作者に対するフィードバックの内容を比べて強調された第1フィードバック情報と第2フィードバック情報とを生成する。フィードバック内容を強調することには、例えば、振動を与えこと、より強い圧で空気圧を与えること、手の動きを拘束することなどが含まれる。 In addition, as described above, when synthesizing the content of the remote operation by the first operator and the content of the remote operation by the second operator, the control information generation unit 354 determines that the second operator When the control information giving priority to the remote operation by the operator is generated, the feedback information generating unit 355 generates the first operator's feedback of the motion of the robot 100 preferentially to the first operator over the second operator. 1 feedback information may be generated. For example, the feedback information generation unit 355 generates first feedback information and second feedback information in which the content of the feedback to the first operator is emphasized by comparing the content of the feedback to the second operator. Emphasizing the content of feedback includes, for example, applying vibration, applying air pressure with stronger pressure, restricting hand movement, and the like.

また、フィードバック情報生成部355は、ロボット100のセンサ130やハンドセンサ151により検出された検出結果に基づいて、ロボット100側において得られる感覚や感触を、第1コントローラ20を介して第1操作者に伝達するための第3フィードバック情報を生成する。また、フィードバック情報生成部355は、ロボット100のセンサ130やハンドセンサ151により検出された検出結果に基づいて、ロボット100側において得られる感覚や感触を、第2コントローラ60を介して第2操作者に伝達するための第4フィードバック情報を生成する。こうすることで、ロボット100を用いた遠隔操作ではなく、操作者が実際に遠隔操作対象を操作した場合に得られる感覚や感触を、操作者に伝達することができる。 Further, the feedback information generation unit 355 transmits sensations and sensations obtained on the robot 100 side to the first operator via the first controller 20 based on the detection results detected by the sensor 130 and the hand sensor 151 of the robot 100 . generate third feedback information for communication to the Further, the feedback information generation unit 355 transmits sensations and sensations obtained on the robot 100 side to the second operator via the second controller 60 based on the detection results detected by the sensor 130 and the hand sensor 151 of the robot 100 . generate fourth feedback information for transmission to the By doing so, it is possible to convey to the operator the sensations and tactile sensations obtained when the operator actually operates the remote operation target instead of the remote operation using the robot 100 .

ロボット状態画像生成部356は、例えば、第3環境センサ200の撮影装置31が撮影した画像に対して画像処理(エッジ検出、二値化、特徴量抽出、画像強調、画像抽出、クラスタリング処理等)を行う。 The robot state image generation unit 356 performs image processing (edge detection, binarization, feature quantity extraction, image enhancement, image extraction, clustering processing, etc.) on the image captured by the imaging device 31 of the third environment sensor 200, for example. I do.

また、ロボット状態画像生成部356は、上述した画像処理の結果を示す情報(以下、画像処理結果情報と記す)と、制御情報生成部354により生成される制御情報等に基づいて、ロボット100の手の位置や動きを推定し、操作者の手の動きを推定し、推定した結果に基づいて第1HMD10や第2HMD50に表示させるロボット状態画像を作成する。 In addition, the robot state image generation unit 356 generates the image of the robot 100 based on the information indicating the result of the above-described image processing (hereinafter referred to as image processing result information), the control information generated by the control information generation unit 354, and the like. The position and motion of the hand are estimated, the motion of the operator's hand is estimated, and a robot state image to be displayed on the first HMD 10 and the second HMD 50 is created based on the estimation result.

なお、ロボット状態画像には、ロボット遠隔操作制御装置300が行おうとしている処理に関する情報、エラー情報とのシステムの状態を示すシステム状態情報が含まれていてもよい。 The robot state image may include system state information indicating the state of the system, such as information about the process that the robot remote control device 300 is about to perform and error information.

比較画像生成部357は、第1操作者により入力された操作と第2操作者により入力された操作との比較結果を示す比較画像の画像データを生成する。比較画像の画像データは、第1操作者のための第1表示部(例えば、第1HMD10の表示部)、あるいは、第2操作者のための第2表示部(例えば、第2HMD50の表示部)に表示させる画像データである。比較画像には、例えば、第1操作者による遠隔操作と第2操作者による遠隔操作との違いを表示する画像や、第1操作者による遠隔操作よりも第2操作者による遠隔操作を強調する画像などが含まれる。こうすることで、第1操作者は、第2操作者により修正された自身の誤操作や、自分の操作と第2操作者による操作との違いなどを画像で確認することができる。 The comparison image generation unit 357 generates image data of a comparison image showing a comparison result between the operation input by the first operator and the operation input by the second operator. The image data of the comparison image is displayed on the first display unit for the first operator (for example, the display unit of the first HMD 10) or the second display unit for the second operator (for example, the display unit of the second HMD 50). This is the image data to be displayed on the . The comparative image may be, for example, an image displaying the difference between the remote operation by the first operator and the remote operation by the second operator, or an image emphasizing the remote operation by the second operator rather than the remote operation by the first operator. including images. By doing so, the first operator can check the erroneous operation corrected by the second operator, the difference between his operation and the operation by the second operator, and the like on the image.

通信制御部358は、通信部310を制御して、ネットワークNWを介して第1端末装置40、第2端末装置80、ロボット100、および第3環境センサ200と通信を行う。 The communication control unit 358 controls the communication unit 310 to communicate with the first terminal device 40, the second terminal device 80, the robot 100, and the third environment sensor 200 via the network NW.

<比較画像の一例>
図5は、比較画像の一例を示す図である。図示の比較画像は、例えば、操作物体500を変形する際の遠隔操作を新人Aと熟練者Bとが実行したことにより生成される比較画像の一例である。なお、図示の比較画像には、ロボット100の左手のロボットアーム150Lが表示されており、ロボット100の右手のロボットアームやその他の画像は省略されている。
<Example of comparison image>
FIG. 5 is a diagram showing an example of a comparison image. The illustrated comparison image is an example of a comparison image that is generated when the newcomer A and the expert B perform a remote operation for transforming the manipulation object 500, for example. The illustrated comparison image shows the left-hand robot arm 150L of the robot 100, and omits the right-hand robot arm of the robot 100 and other images.

例えば、新人Aは、ロボット100を遠隔操作して、ろくろを使った湯のみ作りをする。熟練者Bは、ロボット100を遠隔操作して新人Aの湯のみ作りをサポートする。操作物体500は、例えば、ろくろに乗せられた粘土だとする。なお、新人Aと熟練者Bとが実行する作業は、これに限られず、例えば、旋盤加工や、お皿の絵付け、硝子細工作りなど、様々な作業が含まれる。 For example, a newcomer A remotely controls the robot 100 to make a teacup using a potter's wheel. The expert B remotely operates the robot 100 to support the newcomer A in making hot water only. Assume that the manipulation object 500 is, for example, clay placed on a potter's wheel. The work performed by the newcomer A and the expert B is not limited to this, and includes various work such as lathe processing, plate painting, and glass work.

ロボットアーム画像LA1は、第1タイミングにおいて新人Aにより遠隔操作されたときのロボットアーム150Lの状況を示す画像である。ロボットアーム画像LA2は、第2タイミングにおいて新人Aにより遠隔操作されたときのロボットアーム150Lの状況を示す画像である。ロボットアーム画像LB3は、第3タイミングにおいて熟練者Bにより遠隔操作されたときのロボットアーム150Lの状況を示す画像である。第1タイミングが最も過去のタイミングであり、第2タイミングは第1タイミングの次のタイミングであり、第3タイミングは第2タイミングの次のタイミングである。 The robot arm image LA1 is an image showing the state of the robot arm 150L when remotely operated by the newcomer A at the first timing. The robot arm image LA2 is an image showing the state of the robot arm 150L when remotely operated by the newcomer A at the second timing. The robot arm image LB3 is an image showing the state of the robot arm 150L when remotely operated by the expert B at the third timing. The first timing is the most past timing, the second timing is the next timing after the first timing, and the third timing is the next timing after the second timing.

図示の比較画像からは、第1タイミングや第2タイミングにおける新人Aの操作を、第3タイミングにおける位置に熟練者Bが修正していることがわかる。この比較画像を第1HMD10に表示させることで、新人Aは自分の遠隔操作と熟練者Bによる遠隔操作の違いを簡単に認識することができる。また、この比較画像を第2HMD50に表示させることで、熟練者Bは、比較画像を新人Aと共有しながら口頭で作業のポイントや修正箇所を伝達することができる。 From the illustrated comparative image, it can be seen that the expert B corrects the operation of the newcomer A at the first timing and the second timing to the position at the third timing. By displaying this comparative image on the first HMD 10, the newcomer A can easily recognize the difference between the remote control by himself and the remote control by the expert B. Further, by displaying this comparative image on the second HMD 50, the expert B can share the comparative image with the newcomer A and verbally communicate points of work and points to be corrected.

なお、図示では、比較画像に新人Aにより遠隔操作されたときのアーム画像が2つ表示されている例を示したが、これに限られず、1つであってもよい。また、比較画像に熟練者Bにより遠隔操作されたときのアーム画像が1つ表示されている例を示したが、これに限られず、2つ以上であってもよい。 In the drawing, an example is shown in which two arm images are displayed in the comparison image when remote-controlled by newcomer A, but the number of arm images is not limited to this, and may be one. Moreover, although an example in which one arm image is displayed when being remotely operated by the expert B is shown in the comparison image, the present invention is not limited to this, and two or more arm images may be displayed.

<シーケンス図(その1)>
図6は、ロボット遠隔操作制御システム1における処理の一例を示すシーケンス図である。ここでは、第1操作者が遠隔操作した後、第2操作者が遠隔操作する例であって、操作情報に基づいてロボット100を制御する例について説明する。
<Sequence diagram (Part 1)>
FIG. 6 is a sequence diagram showing an example of processing in the robot remote control system 1. As shown in FIG. Here, an example in which the second operator performs the remote operation after the first operator performs the remote operation, and an example in which the robot 100 is controlled based on the operation information will be described.

まず、第1コントローラ20は、第1操作者から入力された操作に基づいて第1操作情報を生成し(ステップS1)、第1端末装置40を介して第1操作情報をロボット遠隔操作制御装置300に送信する(ステップS2)。ロボット遠隔操作制御装置300は、受信した第1操作情報に基づいて制御情報を生成し(ステップS3)、ロボット100に送信する(ステップS4)。ロボット100は、受信した制御情報に基づいて、ロボットアーム150などを動作させる(ステップS5)。一方、ロボット遠隔操作制御装置300は、ステップS3において生成した制御情報に基づいて、第2フィードバック情報を生成し(ステップS6)、生成した第2フィードバック情報を、第2端末装置80を介して第2コントローラ60に送信する(ステップS7)。第2コントローラ60は、受信したフィードバック情報に基づいて、ステップS1における第1操作者の遠隔操作によるロボット100の動作を再現する(ステップS8)。 First, the first controller 20 generates first operation information based on the operation input by the first operator (step S1), and transmits the first operation information to the robot remote control device via the first terminal device 40. 300 (step S2). The robot remote control device 300 generates control information based on the received first operation information (step S3) and transmits it to the robot 100 (step S4). The robot 100 operates the robot arm 150 and the like based on the received control information (step S5). On the other hand, the robot remote control device 300 generates second feedback information based on the control information generated in step S3 (step S6), and transmits the generated second feedback information to the second terminal device 80 via the second terminal device 80. 2 to the controller 60 (step S7). The second controller 60 reproduces the motion of the robot 100 remotely controlled by the first operator in step S1 based on the received feedback information (step S8).

次いで、第2コントローラ60は、第2操作者から入力された操作に基づいて第2操作情報を生成し(ステップS11)、第2端末装置80を介して第2操作情報をロボット遠隔操作制御装置300に送信する(ステップS12)。ロボット遠隔操作制御装置300は、受信した第2操作情報に基づいて制御情報を生成し(ステップS13)、ロボット100に送信する(ステップS14)。ロボット100は、受信した制御情報に基づいて、ロボットアーム150などを動作させる(ステップS15)。一方、ロボット遠隔操作制御装置300は、ステップS13において生成した制御情報に基づいて、第1フィードバック情報を生成し(ステップS16)、生成した第1フィードバック情報を、第1端末装置40を介して第1コントローラ20に送信する(ステップS17)。第1コントローラ20は、受信したフィードバック情報に基づいて、ステップS11における第2操作者の遠隔操作によるロボット100の動作を再現する(ステップS18)。 Next, the second controller 60 generates second operation information based on the operation input by the second operator (step S11), and transmits the second operation information via the second terminal device 80 to the robot remote control device. 300 (step S12). The robot remote control device 300 generates control information based on the received second operation information (step S13) and transmits it to the robot 100 (step S14). The robot 100 operates the robot arm 150 and the like based on the received control information (step S15). On the other hand, the robot remote control device 300 generates first feedback information based on the control information generated in step S13 (step S16), and transmits the generated first feedback information to the first terminal device 40 via the first terminal device 40. 1 controller 20 (step S17). The first controller 20 reproduces the motion of the robot 100 remotely controlled by the second operator in step S11 based on the received feedback information (step S18).

<フローチャート(その1)>
図7は、ロボット遠隔操作制御装置300による処理の一例を示すフローチャートである。ここでは、第1操作者が遠隔操作した後、第2操作者が遠隔操作する例であって、操作情報に基づいてロボット100を制御する例について説明する。また、意図推定部352とロボット操作決定部353による処理や、ロボット状態画像生成部356による処理を省略している。
<Flowchart (Part 1)>
FIG. 7 is a flowchart showing an example of processing by the robot remote control device 300. As shown in FIG. Here, an example in which the second operator performs the remote operation after the first operator performs the remote operation, and an example in which the robot 100 is controlled based on the operation information will be described. Also, processing by the intention estimation unit 352 and the robot operation determination unit 353 and processing by the robot state image generation unit 356 are omitted.

まず、情報取得部351は、第1操作情報(あるいは第2操作情報)を取得したか否かを判定する(ステップS101)。第1操作情報(あるいは第2操作情報)を取得した場合、制御情報生成部354は、取得された第1操作情報(あるいは第2操作情報)に基づいてロボット100を動作させる制御情報を生成し(ステップS102)、生成した制御情報をロボット100に送信する(ステップS103)。 First, the information acquisition unit 351 determines whether or not first operation information (or second operation information) has been acquired (step S101). When the first operation information (or the second operation information) is acquired, the control information generation unit 354 generates control information for operating the robot 100 based on the acquired first operation information (or the second operation information). (Step S102), the generated control information is transmitted to the robot 100 (Step S103).

次いで、フィードバック情報生成部355は、第1操作情報に基づいて制御情報が生成された場合には第2フィードバック情報を生成し、第2操作情報に基づいて制御情報が生成された場合には第1フィードバック情報を生成する(ステップS104)。そして、通信制御部358は、第2フィードバック情報を第2コントローラ60に送信し、第1フィードバック情報を第1コントローラ20に送信する(ステップS105)。 Next, feedback information generation section 355 generates second feedback information when control information is generated based on the first operation information, and generates second feedback information when control information is generated based on the second operation information. 1 feedback information is generated (step S104). The communication control unit 358 then transmits the second feedback information to the second controller 60 and the first feedback information to the first controller 20 (step S105).

次いで、比較画像生成部357は、第1操作情報に基づいて制御情報が生成された場合であって、その前に第2操作情報に基づいて制御情報が生成された場合には、これら第1操作者により入力された操作と第2操作者により入力された操作との比較結果を示す第1比較画像の画像データを生成する(ステップS106)。一方、第2操作情報に基づいて制御情報が生成された場合であって、その前に第1操作情報に基づいて制御情報が生成された場合、比較画像生成部357は、これら第2操作者により入力された操作と第1操作者により入力された操作との比較結果を示す第2比較画像の画像データを生成する。そして、通信制御部358は、第1比較画像の画像データを第1HMD10に送信し、第2比較画像の画像データを第2HMD50に送信する(ステップS107)。 Next, when the control information is generated based on the first operation information and the control information is generated based on the second operation information before that, the comparison image generation unit 357 generates the first operation information. Image data of a first comparison image showing a comparison result between the operation input by the operator and the operation input by the second operator is generated (step S106). On the other hand, when the control information is generated based on the second operation information and the control information is generated based on the first operation information before that, the comparison image generation unit 357 generates the second operator's image data of a second comparison image showing a comparison result between the operation input by the first operator and the operation input by the first operator. The communication control unit 358 then transmits the image data of the first comparison image to the first HMD 10, and transmits the image data of the second comparison image to the second HMD 50 (step S107).

<シーケンス図(その2)>
図8は、ロボット遠隔操作制御システム1における処理の他の例を示すシーケンス図である。ここでは、第1操作者による遠隔操作と第2操作者による遠隔操作とが同じタイミングでなされる例であって、操作情報に基づいてロボット100を制御する例について説明する。同じタイミングには、同時に限られず、数秒間の時間差があるものも含まれる。
<Sequence diagram (Part 2)>
FIG. 8 is a sequence diagram showing another example of processing in the robot remote control system 1. As shown in FIG. Here, an example will be described in which the remote operation by the first operator and the remote operation by the second operator are performed at the same timing, and the robot 100 is controlled based on the operation information. The same timing is not limited to simultaneous, and includes those with a time difference of several seconds.

まず、第1コントローラ20は、第1操作者から入力された操作に基づいて第1操作情報を生成し(ステップS21)、第1端末装置40を介して第1操作情報をロボット遠隔操作制御装置300に送信する(ステップS22)。同じタイミングで、第2コントローラ60は、第2操作者から入力された操作に基づいて第2操作情報を生成し(ステップS23)、第2端末装置80を介して第2操作情報をロボット遠隔操作制御装置300に送信する(ステップS24)。 First, the first controller 20 generates first operation information based on the operation input by the first operator (step S21), and transmits the first operation information via the first terminal device 40 to the robot remote control device. 300 (step S22). At the same timing, the second controller 60 generates the second operation information based on the operation input by the second operator (step S23), and transmits the second operation information via the second terminal device 80 to the remote robot. It is transmitted to the control device 300 (step S24).

次いで、ロボット遠隔操作制御装置300は、受信した第1操作情報と第2操作情報に基づいて、第1操作者による遠隔操作の内容と第2操作者による遠隔操作の内容とを合成した制御情報を生成し(ステップS25)、ロボット100に送信する(ステップS26)。ロボット100は、受信した制御情報に基づいて、ロボットアーム150などを動作させる(ステップS27)。 Next, based on the received first operation information and second operation information, the robot remote operation control device 300 generates control information that combines the content of the remote operation by the first operator and the content of the remote operation by the second operator. is generated (step S25) and transmitted to the robot 100 (step S26). The robot 100 operates the robot arm 150 and the like based on the received control information (step S27).

次いで、ロボット遠隔操作制御装置300は、ステップS25において生成した制御情報に基づいて、第2フィードバック情報を生成し(ステップS28)、生成した第2フィードバック情報を、第2端末装置80を介して第2コントローラ60に送信する(ステップS29)。第2コントローラ60は、受信したフィードバック情報に基づいて、ステップS21における第1操作者の遠隔操作によるロボット100の動作を再現する(ステップS30)。 Next, the robot remote control device 300 generates second feedback information based on the control information generated in step S25 (step S28), and transmits the generated second feedback information to the second terminal device 80 via the second terminal device 80. 2 to the controller 60 (step S29). The second controller 60 reproduces the motion of the robot 100 remotely controlled by the first operator in step S21 based on the received feedback information (step S30).

また、ロボット遠隔操作制御装置300は、ステップS25において生成した制御情報に基づいて、第1フィードバック情報を生成し(ステップS31)、生成した第1フィードバック情報を、第1端末装置40を介して第1コントローラ20に送信する(ステップS32)。第1コントローラ20は、受信したフィードバック情報に基づいて、ステップS23における第2操作者の遠隔操作によるロボット100の動作を再現する(ステップS33)。 Further, the robot remote control device 300 generates first feedback information based on the control information generated in step S25 (step S31), and transmits the generated first feedback information to the first terminal device 40 via the first terminal device 40. 1 controller 20 (step S32). The first controller 20 reproduces the motion of the robot 100 remotely controlled by the second operator in step S23 based on the received feedback information (step S33).

<フローチャート(その2)>
図9は、ロボット遠隔操作制御装置300による処理の他の例を示すフローチャートである。ここでは、第1操作者による遠隔操作と第2操作者による遠隔操作とが同じタイミングでなされる例であって、操作情報に基づいてロボット100を制御する例について説明する。また、意図推定部352とロボット操作決定部353による処理や、ロボット状態画像生成部356による処理を省略している。
<Flowchart (Part 2)>
FIG. 9 is a flowchart showing another example of processing by the robot remote control device 300. FIG. Here, an example will be described in which the remote operation by the first operator and the remote operation by the second operator are performed at the same timing, and the robot 100 is controlled based on the operation information. Also, processing by the intention estimation unit 352 and the robot operation determination unit 353 and processing by the robot state image generation unit 356 are omitted.

まず、情報取得部351は、第1操作情報および第2操作情報を取得したか否かを判定する(ステップS201)。第1操作情報および第2操作情報を取得した場合、制御情報生成部354は、取得された第1操作情報および第2操作情報に基づいて、第1操作者による遠隔操作の内容と第2操作者による遠隔操作の内容とを合成した制御情報を生成し(ステップS202)、生成した制御情報をロボット100に送信する(ステップS203)。 First, the information acquisition unit 351 determines whether or not the first operation information and the second operation information have been acquired (step S201). When the first operation information and the second operation information are acquired, the control information generation unit 354 generates the content of the remote operation by the first operator and the second operation based on the acquired first operation information and the second operation information. Control information is generated by synthesizing the details of the remote operation by the operator (step S202), and the generated control information is transmitted to the robot 100 (step S203).

次いで、フィードバック情報生成部355は、ステップS202において生成された制御情報に基づいて第1フィードバック情報および第2フィードバック情報を生成する(ステップS204)。そして、通信制御部358は、第1フィードバック情報を第1コントローラ20に送信し、第2フィードバック情報を第2コントローラ60に送信する(ステップS205)。 Next, feedback information generator 355 generates first feedback information and second feedback information based on the control information generated in step S202 (step S204). The communication control unit 358 then transmits the first feedback information to the first controller 20 and the second feedback information to the second controller 60 (step S205).

次いで、比較画像生成部357は、ステップS201において取得した第1操作情報と第2操作情報とに基づいて比較画像の画像データを生成する(ステップS206)。そして、通信制御部358は、生成した比較画像の画像データを第1HMD10および第2HMD50に送信する(ステップS207)。 Next, the comparison image generator 357 generates image data of a comparison image based on the first operation information and the second operation information acquired in step S201 (step S206). The communication control unit 358 then transmits the generated image data of the comparison image to the first HMD 10 and the second HMD 50 (step S207).

上述した実施形態によれば、現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムにおいて、遠隔操作対象に対する操作を受け付ける第1コントローラ20を介して第1操作者により入力された操作を示す第1操作情報と、遠隔操作対象に対する操作を受け付ける第2コントローラ60を介して第2操作者により入力された操作を示す第2操作情報と、を取得する情報取得部351と、情報取得部351が取得した第1操作情報と第2操作情報とに基づいて、遠隔操作対象を動作させる制御情報を生成する制御情報生成部354と、制御情報に基づいて、遠隔操作対象の動作内容を第1コントローラ20にフィードバックする第1フィードバック情報を生成し、遠隔操作対象の動作内容を第2コントローラ60にフィードバックする第2フィードバック情報を生成するフィードバック情報生成部355と、を備えることにより、同一の遠隔操作対象に対する他の操作者による操作を体感することができる。 According to the above-described embodiment, in a remote operation control system in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world, the first controller 20 receives an operation for the remote operation target. Acquire first operation information indicating an operation input by one operator and second operation information indicating an operation input by a second operator via a second controller 60 that receives an operation for a remote operation target. Based on the information acquisition unit 351, the first operation information and the second operation information acquired by the information acquisition unit 351, a control information generation unit 354 that generates control information for operating the remote operation target, and based on the control information: a feedback information generation unit 355 that generates first feedback information for feeding back the details of the operation of the remote-controlled object to the first controller 20 and generates second feedback information for feeding back the details of the operation of the remote-controlled object to the second controller 60; , it is possible to experience the operation of the same remote-operated object by another operator.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムにおいて、
遠隔操作対象に対する操作を受け付ける第1コントローラ20を介して第1操作者により入力された操作を示す第1操作情報と、遠隔操作対象に対する操作を受け付ける第2コントローラ60を介して第2操作者により入力された操作を示す第2操作情報と、を取得させ、
取得した第1操作情報と第2操作情報とに基づいて、遠隔操作対象を動作させる制御情報を生成させ、
制御情報に基づいて、遠隔操作対象の動作内容を第1コントローラ20にフィードバックする第1フィードバック情報を生成し、遠隔操作対象の動作内容を第2コントローラ60にフィードバックする第2フィードバック情報を生成させる、
ように構成されている、遠隔操作制御システム。
The embodiment described above can be expressed as follows.
a storage device storing a program;
a hardware processor;
By the hardware processor executing the program stored in the storage device,
In a remote operation control system in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world,
First operation information indicating an operation input by the first operator via the first controller 20 that receives an operation on the remotely operated target, and input by the second operator via the second controller 60 that accepts an operation on the remotely operated target: obtaining second operation information indicating the input operation;
generating control information for operating a remote operation target based on the acquired first operation information and second operation information;
Based on the control information, generate first feedback information that feeds back the action content of the remote-controlled target to the first controller 20, and generate second feedback information that feeds back the action content of the remote-controlled target to the second controller 60;
A remote operation control system configured to:

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.

例えば、ロボット遠隔操作制御装置300の一部はロボット100に搭載されていてもよい。例えば、処理部350や記憶部340の機能をロボット100が実行してもよい。 For example, part of the robot remote control device 300 may be mounted on the robot 100 . For example, the robot 100 may perform the functions of the processing unit 350 and the storage unit 340 .

1…遠隔操作制御システム
10…第1HMD
20…第1コントローラ
30…第1環境センサ
40…第1端末装置
50…第2HMD
60…第2コントローラ
70…第2環境センサ
80…第2端末装置
100…ロボット
200…第3環境センサ
300…ロボット遠隔操作制御装置
351…情報取得部
352…意図推定部
353…ロボット操作決定部
354…制御情報生成部
355…フィードバック情報生成部
356…ロボット状態画像生成部
357…比較画像生成部
358…通信制御部
1... Remote operation control system 10... First HMD
20... First controller 30... First environment sensor 40... First terminal device 50... Second HMD
60... Second controller 70... Second environment sensor 80... Second terminal device 100... Robot 200... Third environment sensor 300... Robot remote control device 351... Information acquisition unit 352... Intention estimation unit 353... Robot operation determination unit 354 ... control information generation unit 355 ... feedback information generation unit 356 ... robot state image generation unit 357 ... comparison image generation unit 358 ... communication control unit

Claims (8)

現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御システムにおいて、
前記遠隔操作対象に対する操作を受け付ける第1コントローラを介して第1操作者により入力された操作を示す第1操作情報と、前記遠隔操作対象に対する操作を受け付ける第2コントローラを介して第2操作者により入力された操作を示す第2操作情報と、を取得する情報取得部と、
前記情報取得部が取得した前記第1操作情報と前記第2操作情報とに基づいて、前記遠隔操作対象を動作させる制御情報を生成する制御情報生成部と、
前記制御情報に基づいて、前記遠隔操作対象の動作内容を前記第1コントローラにフィードバックする第1フィードバック情報を生成し、前記遠隔操作対象の動作内容を前記第2コントローラにフィードバックする第2フィードバック情報を生成するフィードバック情報生成部と、
を備える遠隔操作制御システム。
In a remote operation control system in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world,
first operation information indicating an operation input by a first operator through a first controller that accepts an operation on the remote operation target; and by a second operator through a second controller that accepts an operation on the remote operation target an information acquisition unit that acquires second operation information indicating an input operation;
a control information generation unit that generates control information for operating the remote operation target based on the first operation information and the second operation information acquired by the information acquisition unit;
Based on the control information, first feedback information is generated for feeding back the operation content of the remote-controlled object to the first controller, and second feedback information is generated for feeding back the operation content of the remote-controlled object to the second controller. a feedback information generator that generates;
A remote operation control system.
前記フィードバック情報生成部は、
前記第1操作者により入力された操作に基づく前記遠隔操作対象の動作に基づいて、前記第1操作者による操作内容を、前記第2コントローラを介して前記第2操作者に伝達するための第1フィードバック情報を生成し、
前記第2操作者により入力された操作に基づく前記遠隔操作対象の動作に基づいて、前記第2操作者による操作内容を、前記第1コントローラを介して前記第1操作者に伝達するための第2フィードバック情報を生成する、
請求項1に記載の遠隔操作制御システム。
The feedback information generation unit
A second controller for transmitting the operation content of the first operator to the second operator via the second controller based on the action of the remote-operated object based on the operation input by the first operator. 1 generate feedback information;
a second operator for transmitting the operation content of the second operator to the first operator via the first controller based on the action of the remote-operated object based on the operation input by the second operator; 2 generate feedback information;
The remote operation control system according to claim 1.
前記第1操作者のための第1表示部、あるいは、前記第2操作者のための第2表示部に表示させる画像データであって、前記第1操作者により入力された操作と前記第2操作者により入力された操作との比較結果を示す比較画像を生成する比較画像生成部と、をさらに備える、
請求項1あるいは2に記載の遠隔操作制御システム。
image data to be displayed on a first display unit for the first operator or a second display unit for the second operator, wherein the operation input by the first operator and the second A comparison image generation unit that generates a comparison image showing a comparison result with the operation input by the operator,
3. The remote operation control system according to claim 1 or 2.
前記制御情報生成部は、前記第1操作者による遠隔操作の内容と前記第2操作者による遠隔操作の内容とを合成した結果に基づいて、前記制御情報を生成する、
請求項1から3のうちいずれか一項に記載の遠隔操作制御システム。
The control information generation unit generates the control information based on a result of synthesizing the content of the remote operation by the first operator and the content of the remote operation by the second operator.
The remote operation control system according to any one of claims 1 to 3.
前記制御情報生成部は、前記第1操作者による遠隔操作の内容と前記第2操作者による遠隔操作の内容とを合成する際に、前記第1操作者に比べて前記第2操作者の操作を優先させた前記制御情報を生成する、
請求項4に記載の遠隔操作制御システム。
The control information generation unit is configured to, when synthesizing the contents of the remote operation by the first operator and the contents of the remote operation by the second operator, the operation of the second operator compared to the first operator. generating the control information prioritizing
The remote operation control system according to claim 4.
前記フィードバック情報生成部は、
前記遠隔操作対象に搭載されたセンサによる検出結果に基づいて、前記遠隔操作対象側において得られる感覚あるいは感触を、前記第1コントローラを介して前記第1操作者に伝達するための第3フィードバック情報を生成し、
前記遠隔操作対象に搭載されたセンサによる検出結果に基づいて、前記遠隔操作対象側において得られる感覚あるいは感触を、前記第2コントローラを介して前記第2操作者に伝達するための第4フィードバック情報を生成する、
請求項1から5のうちいずれか一項に記載の遠隔操作制御システム。
The feedback information generation unit
third feedback information for transmitting a sensation or feeling obtained on the side of the remote-operated target to the first operator via the first controller, based on a detection result by a sensor mounted on the remote-operated target; to generate
Fourth feedback information for transmitting a sensation or feeling obtained on the side of the remotely operated object to the second operator via the second controller based on the detection result by the sensor mounted on the remote operated object. to generate
The remote operation control system according to any one of claims 1 to 5.
コンピュータが、
現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御において、
前記遠隔操作対象に対する操作を受け付ける第1コントローラを介して第1操作者により入力された操作を示す第1操作情報と、前記遠隔操作対象に対する操作を受け付ける第2コントローラを介して第2操作者により入力された操作を示す第2操作情報と、を取得し、
取得された前記第1操作情報と前記第2操作情報とに基づいて、前記遠隔操作対象を動作させる制御情報を生成し、
前記制御情報に基づいて、前記遠隔操作対象の動作内容を前記第1コントローラにフィードバックする第1フィードバック情報を生成し、前記遠隔操作対象の動作内容を前記第2コントローラにフィードバックする第2フィードバック情報を生成する、
遠隔操作制御方法。
the computer
In remote operation control in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world,
first operation information indicating an operation input by a first operator through a first controller that accepts an operation on the remote operation target; and by a second operator through a second controller that accepts an operation on the remote operation target Acquiring second operation information indicating the input operation,
generating control information for operating the remote control target based on the acquired first operation information and the second operation information;
Based on the control information, first feedback information is generated for feeding back the operation content of the remote-controlled object to the first controller, and second feedback information is generated for feeding back the operation content of the remote-controlled object to the second controller. generate,
Remote operation control method.
現実の物体あるいは仮想世界の仮想物体である遠隔操作対象を操作者が遠隔操作する遠隔操作制御において、
コンピュータに、
前記遠隔操作対象に対する操作を受け付ける第1コントローラを介して第1操作者により入力された操作を示す第1操作情報と、前記遠隔操作対象に対する操作を受け付ける第2コントローラを介して第2操作者により入力された操作を示す第2操作情報と、を取得させ、
取得された前記第1操作情報と前記第2操作情報とに基づいて、前記遠隔操作対象を動作させる制御情報を生成させ、
前記制御情報に基づいて、前記遠隔操作対象の動作内容を前記第1コントローラにフィードバックする第1フィードバック情報を生成し、前記遠隔操作対象の動作内容を前記第2コントローラにフィードバックする第2フィードバック情報を生成させる、
プログラム。
In remote operation control in which an operator remotely operates a remote operation target, which is a real object or a virtual object in a virtual world,
to the computer,
first operation information indicating an operation input by a first operator through a first controller that accepts an operation on the remote operation target; and by a second operator through a second controller that accepts an operation on the remote operation target obtaining second operation information indicating the input operation;
generating control information for operating the remote control target based on the acquired first operation information and the second operation information;
Based on the control information, first feedback information is generated for feeding back the operation content of the remote-controlled object to the first controller, and second feedback information is generated for feeding back the operation content of the remote-controlled object to the second controller. generate,
program.
JP2021069234A 2021-04-15 2021-04-15 Remote operation control system, remote operation control method, and program Pending JP2022164028A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021069234A JP2022164028A (en) 2021-04-15 2021-04-15 Remote operation control system, remote operation control method, and program
CN202311388284.1A CN117336337A (en) 2021-04-15 2022-03-01 Remote operation system and method and storage medium
CN202210195963.6A CN115225682B (en) 2021-04-15 2022-03-01 Management server, remote operation system, remote operation method, and storage medium
US17/720,271 US20220331967A1 (en) 2021-04-15 2022-04-13 Management server, remote operation system, remote operation method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021069234A JP2022164028A (en) 2021-04-15 2021-04-15 Remote operation control system, remote operation control method, and program

Publications (1)

Publication Number Publication Date
JP2022164028A true JP2022164028A (en) 2022-10-27

Family

ID=83742759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021069234A Pending JP2022164028A (en) 2021-04-15 2021-04-15 Remote operation control system, remote operation control method, and program

Country Status (1)

Country Link
JP (1) JP2022164028A (en)

Similar Documents

Publication Publication Date Title
JP6586834B2 (en) Work support method, work support program, and work support system
WO2015180497A1 (en) Motion collection and feedback method and system based on stereoscopic vision
US9613505B2 (en) Object detection and localized extremity guidance
WO2013149586A1 (en) Wrist-mounting gesture control system and method
CN111527461B (en) Information processing device, information processing method, and program
KR102452924B1 (en) Force-sense visualization apparatus, robot, and force-sense visualization program
CN112106004A (en) Information processing apparatus, information processing method, and program
WO2019087495A1 (en) Information processing device, information processing method, and program
CA3161710A1 (en) Proxy controller suit with optional dual range kinematics
JP2022164028A (en) Remote operation control system, remote operation control method, and program
CN110543234B (en) Information processing apparatus and non-transitory computer readable medium
US20220331967A1 (en) Management server, remote operation system, remote operation method, and storage medium
US20190099895A1 (en) Robot control system, robot control method and user apparatus for robot control system
JP2022157119A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
JP2022157123A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
US20220314449A1 (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method, and non-transitory computer readable medium
JP2022157127A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
US20230353860A1 (en) System, imaging apparatus, information processing apparatus, information processing method, and information processing program
JP2022157110A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
JP2022155623A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
JP2022157101A (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method and program
WO2022220048A1 (en) System, information processing method, and information processing program
JP2022164029A (en) Information providing server, information providing system, information providing method, and program
JP2022162703A (en) System, information processing method, and information processing program
JP2023008347A (en) Attachment device and body motion supporting system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128