JP2015157323A - Remote control device, remote control system, method and program of remote control - Google Patents

Remote control device, remote control system, method and program of remote control Download PDF

Info

Publication number
JP2015157323A
JP2015157323A JP2014032088A JP2014032088A JP2015157323A JP 2015157323 A JP2015157323 A JP 2015157323A JP 2014032088 A JP2014032088 A JP 2014032088A JP 2014032088 A JP2014032088 A JP 2014032088A JP 2015157323 A JP2015157323 A JP 2015157323A
Authority
JP
Japan
Prior art keywords
force
remote control
mounting member
unit
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014032088A
Other languages
Japanese (ja)
Inventor
一仁 村田
Kazuhito Murata
一仁 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014032088A priority Critical patent/JP2015157323A/en
Publication of JP2015157323A publication Critical patent/JP2015157323A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a remote control device, a remote control system, and a method and program of remote control which can reduce manufacturing cost and improve maneuverability.SOLUTION: A remote control device 10 includes: a display unit 20 which displays an image of a camera 61 of a transfer device 60 on a screen; a mounting member 13; a position detection unit 30 which detects a position of the mounting member in a real space; a transmission member 12 which transmits tensile force; a drive unit 11 which generates the tensile force; an information processing unit 40 which generates a control object 101 and a user object 102 in a virtual space, calculates external force when the user object imparts external force to the control object 101, and specifies a change of the control object; a remote control unit 41 which indicates movement so as to bring a similar change to a transfer device; and a control unit 14 which generates initial force to the drive unit 11 and increases or reduces the initial force so as to transmit reaction force on the external force to an operator as a sense of force.

Description

本発明は、移動装置を遠隔操縦するための遠隔操縦装置、これを用いた遠隔操縦システム、遠隔操縦方法、及びこれらを実現するためのプログラムに関する。   The present invention relates to a remote control device for remotely controlling a mobile device, a remote control system using the same, a remote control method, and a program for realizing them.

近年、危険な環境下において、人の代わりに作業を行う、作業ロボットが注目を集めている。通常、このような作業ロボットは、遠隔からの操縦を可能とするため、テレビカメラを備えている。このため、操縦者は、モニターに映ったテレビカメラの映像を見ながら、作業ロボットを遠隔操縦することになる。   In recent years, work robots that perform work on behalf of people in a dangerous environment have attracted attention. Usually, such a working robot is equipped with a television camera in order to enable remote control. For this reason, the operator remotely controls the work robot while watching the image of the television camera displayed on the monitor.

また、この場合において、操縦者に現場の臨場感をフィードバックできれば、操縦者における操作精度を高めることが可能となる。このため、例えば、特許文献1は、操縦者が使用するコントロールレバーに、ロボットの受ける反力をフィードバックすることが可能な、遠隔操縦システムを提案している。   Further, in this case, if the realism of the site can be fed back to the pilot, it is possible to improve the operation accuracy of the pilot. For this reason, for example, Patent Document 1 proposes a remote control system capable of feeding back a reaction force received by a robot to a control lever used by a pilot.

また、この特許文献1に開示された遠隔操縦システムでは、ロボットには、2つのテレビカメラが左右に並べて搭載され、操縦室では、2つのカメラの映像を合成することで得られた三次元画像が表示される。このため、操縦者は、視覚的な臨場感も感じることができるので、操作精度のいっそうの向上が図られる。   In the remote control system disclosed in Patent Document 1, two TV cameras are mounted side by side on the robot, and in the cockpit, a three-dimensional image obtained by combining the images of the two cameras. Is displayed. For this reason, the operator can also feel a visual sense of reality, so that the operation accuracy can be further improved.

特開平6−65949号公報Japanese Unexamined Patent Publication No. 6-65949

ところで、上記特許文献1に開示された遠隔操縦システムを用いれば、操作者は現場の臨場感を感じることができ、精度の高い操作を行うことができると考えられるが、操縦のための装置が大掛かりとなる。このため、上記特許文献1に開示された遠隔操縦システムには、製造コストが非常に高いという問題がある。また、操縦のための装置を移動させることが難しいため、装置とロボットとの通信を確保することができない現場では、作業ロボットを利用できないという問題もある。   By the way, if the remote control system disclosed in Patent Document 1 is used, it is considered that the operator can feel a sense of reality at the site and can perform highly accurate operations. Become a big deal. For this reason, the remote control system disclosed in Patent Document 1 has a problem that the manufacturing cost is very high. In addition, since it is difficult to move the device for steering, there is also a problem that the work robot cannot be used at a site where communication between the device and the robot cannot be ensured.

[発明の目的]
本発明の目的の一例は、上記問題を解消し、製造コストの低減と機動性の向上とを図り得る、遠隔操縦装置、遠隔操縦システム、遠隔操縦方法及びプログラムを提供することにある。
[Object of invention]
An object of the present invention is to provide a remote control device, a remote control system, a remote control method, and a program capable of solving the above-described problems and reducing the manufacturing cost and improving the mobility.

上記目的を達成するため、本発明の一側面における遠隔操縦装置は移動装置を遠隔から操縦するための遠隔操縦装置であって、
前記移動装置に取り付けられたカメラからの映像を、画面上に表示させる、表示部と、
操縦者に装着される装着部材と、
前記装着部材の実空間での位置を検出する、位置検出部と、
当該遠隔操縦装置から、前記装着部材へと伸びて、前記装着部材に引っ張り方向の力を伝達する伝達部材と、
前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、
仮想空間に、前記移動装置に対応する第1のオブジェクトと、前記装着部材に相当する第2のオブジェクトとを作成し、これらを、前記カメラからの映像に重ね合わせ、更に、検出された前記装着部材の位置に応じて、前記第2のオブジェクトを移動させ、前記第2のオブジェクトが前記第1のオブジェクトに外力を与えた場合は、前記外力を算出し、そして、算出した前記外力によって前記第1のオブジェクトに生じる変化を特定する、情報処理部と、
前記情報処理部によって特定された変化と同様の変化が、前記移動装置に生じるように、前記移動装置に対して動作を指示する、遠隔操縦部と、
予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力に対する反力が、前記操縦者に提示される力覚として、前記装着部材を介して前記操縦者に伝達されるように、前記駆動部における前記初期力を増加又は減少させる、制御部と、
を備えている、ことを特徴とする。
In order to achieve the above object, a remote control device according to one aspect of the present invention is a remote control device for remotely controlling a mobile device,
A display unit for displaying an image from a camera attached to the mobile device on a screen;
A mounting member to be mounted on the operator;
A position detector for detecting the position of the mounting member in real space;
A transmission member extending from the remote control device to the mounting member and transmitting a force in a pulling direction to the mounting member;
A drive unit that generates a force in the pulling direction and applies the force to the transmission member;
A first object corresponding to the moving device and a second object corresponding to the mounting member are created in a virtual space, and these are superimposed on an image from the camera, and the detected mounting When the second object is moved according to the position of the member and the second object gives an external force to the first object, the external force is calculated, and the calculated external force is used to calculate the first force. An information processing unit for identifying a change occurring in one object;
A remote control unit for instructing the mobile device to operate so that a change similar to the change specified by the information processing unit occurs in the mobile device;
The driving unit generates in advance a force in the pulling direction having a set magnitude as an initial force, and a reaction force against the external force calculated by the information processing unit is a force presented to the operator. As a sense, a control unit that increases or decreases the initial force in the drive unit so as to be transmitted to the operator via the mounting member;
It is characterized by having.

上記目的を達成するため、本発明の一側面における遠隔操縦システムは、移動装置と、それを遠隔から操縦するための遠隔操縦装置とを備え、
前記移動装置は、前方を撮影するカメラを備え、
前記遠隔操縦装置は、
前記移動装置に取り付けられた前記カメラからの映像を、画面上に表示させる、表示部と、
操縦者に装着される装着部材と、
前記装着部材の実空間での位置を検出する、位置検出部と、
当該遠隔操縦装置から、前記装着部材へと伸びて、前記装着部材に引っ張り方向の力を伝達する伝達部材と、
前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、
仮想空間に、前記移動装置に対応する第1のオブジェクトと、前記装着部材に相当する第2のオブジェクトとを作成し、これらを、前記カメラからの映像に重ね合わせ、更に、検出された前記装着部材の位置に応じて、前記第2のオブジェクトを移動させ、前記第2のオブジェクトが前記第1のオブジェクトに外力を与えた場合は、前記外力を算出し、そして、算出した前記外力によって前記第1のオブジェクトに生じる変化を特定する、情報処理部と、
前記情報処理部によって特定された変化と同様の変化が、前記移動装置に生じるように、前記移動装置に対して動作を指示する、遠隔操縦部と、
予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力に対する反力が、前記操縦者に提示される力覚として、前記装着部材を介して前記操縦者に伝達されるように、前記駆動部における前記初期力を増加又は減少させる、制御部と、
を備えている、ことを特徴とする。
In order to achieve the above object, a remote control system according to an aspect of the present invention includes a mobile device and a remote control device for remotely controlling the mobile device.
The moving device includes a camera for photographing the front,
The remote control device includes:
A display unit for displaying an image from the camera attached to the moving device on a screen;
A mounting member to be mounted on the operator;
A position detector for detecting the position of the mounting member in real space;
A transmission member extending from the remote control device to the mounting member and transmitting a force in a pulling direction to the mounting member;
A drive unit that generates a force in the pulling direction and applies the force to the transmission member;
A first object corresponding to the moving device and a second object corresponding to the mounting member are created in a virtual space, and these are superimposed on an image from the camera, and the detected mounting When the second object is moved according to the position of the member and the second object gives an external force to the first object, the external force is calculated, and the calculated external force is used to calculate the first force. An information processing unit for identifying a change occurring in one object;
A remote control unit for instructing the mobile device to operate so that a change similar to the change specified by the information processing unit occurs in the mobile device;
The driving unit generates in advance a force in the pulling direction having a set magnitude as an initial force, and a reaction force against the external force calculated by the information processing unit is a force presented to the operator. As a sense, a control unit that increases or decreases the initial force in the drive unit so as to be transmitted to the operator via the mounting member;
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における遠隔操縦方法は、遠隔操縦の対象となる移動装置に取り付けられたカメラからの映像を、画面上に表示させる、表示部と、操縦者に装着される装着部材と、前記装着部材の実空間での位置を検出する、位置検出部と、前記装着部材へと伸びて、前記装着部材に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、コンピュータと、を備える遠隔操縦装置を用いた、遠隔操縦方法であって、
前記コンピュータによって実行される、
(a)仮想空間に、前記移動装置に対応する第1のオブジェクトと、前記装着部材に相当する第2のオブジェクトとを作成し、これらを、前記カメラからの映像に重ね合わせる、ステップと、
(b)検出された前記装着部材の位置に応じて、前記第2のオブジェクトを移動させ、前記第2のオブジェクトが前記第1のオブジェクトに外力を与えた場合は、前記外力を算出する、ステップと、
(c)算出した前記外力によって前記第1のオブジェクトに生じる変化を特定する、ステップと、
(d)前記(c)のステップで特定された変化と同様の変化が、前記移動装置に生じるように、前記移動装置に対して動作を指示する、ステップと、
(e)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記(b)のステップで算出された前記外力に対する反力が、前記操縦者に提示される力覚として、前記装着部材を介して前記操縦者に伝達されるように、前記駆動部における前記初期力を増加又は減少させる、ステップと、
を有する、ことを特徴とする。
In order to achieve the above object, a remote control method according to one aspect of the present invention includes a display unit that displays an image from a camera attached to a mobile device that is a target of remote control on a screen, and a driver. A mounting member to be mounted on, a position detection unit that detects a position of the mounting member in real space, a transmission member that extends to the mounting member and transmits a force in a pulling direction to the mounting member, A remote control method using a remote control device including a drive unit that generates a force in a pulling direction and applies the force to the transmission member, and a computer,
Executed by the computer,
(A) creating a first object corresponding to the moving device and a second object corresponding to the mounting member in a virtual space, and superimposing these on a video from the camera;
(B) moving the second object according to the detected position of the mounting member, and calculating the external force when the second object applies an external force to the first object, When,
(C) identifying a change that occurs in the first object by the calculated external force;
(D) instructing the mobile device to perform an operation such that a change similar to the change identified in step (c) occurs in the mobile device;
(E) A force in the pulling direction having a set magnitude is generated as an initial force in advance in the drive unit, and a reaction force against the external force calculated in the step (b) Increasing or decreasing the initial force in the drive unit to be transmitted to the operator via the mounting member as a force sensation presented to
It is characterized by having.

また、上記目的を達成するため、本発明の一側面におけるプログラムは、遠隔操縦の対象となる移動装置に取り付けられたカメラからの映像を、画面上に表示させる、表示部と、操縦者に装着される装着部材と、前記装着部材の実空間での位置を検出する、位置検出部と、前記装着部材へと伸びて、前記装着部材に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、コンピュータと、を備える遠隔操縦装置において、
前記コンピュータに、
(a)仮想空間に、前記移動装置に対応する第1のオブジェクトと、前記装着部材に相当する第2のオブジェクトとを作成し、これらを、前記カメラからの映像に重ね合わせる、ステップと、
(b)検出された前記装着部材の位置に応じて、前記第2のオブジェクトを移動させ、前記第2のオブジェクトが前記第1のオブジェクトに外力を与えた場合は、前記外力を算出する、ステップと、
(c)算出した前記外力によって前記第1のオブジェクトに生じる変化を特定する、ステップと、
(d)前記(c)のステップで特定された変化と同様の変化が、前記移動装置に生じるように、前記移動装置に対して動作を指示する、ステップと、
(e)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記(b)のステップで算出された前記外力に対する反力が、前記操縦者に提示される力覚として、前記装着部材を介して前記操縦者に伝達されるように、前記駆動部における前記初期力を増加又は減少させる、ステップと、
を実行させることを特徴とする。
In order to achieve the above object, a program according to one aspect of the present invention is provided with a display unit that displays a video from a camera attached to a mobile device to be remotely controlled on a screen, and is attached to a driver. A mounting member, a position detection unit that detects a position of the mounting member in real space, a transmission member that extends to the mounting member and transmits a force in a pulling direction to the mounting member, and the pulling direction In a remote control device comprising: a drive unit that generates the force of and applies the force to the transmission member; and a computer,
In the computer,
(A) creating a first object corresponding to the moving device and a second object corresponding to the mounting member in a virtual space, and superimposing these on a video from the camera;
(B) moving the second object according to the detected position of the mounting member, and calculating the external force when the second object applies an external force to the first object, When,
(C) identifying a change that occurs in the first object by the calculated external force;
(D) instructing the mobile device to perform an operation such that a change similar to the change identified in step (c) occurs in the mobile device;
(E) A force in the pulling direction having a set magnitude is generated as an initial force in advance in the drive unit, and a reaction force against the external force calculated in the step (b) Increasing or decreasing the initial force in the drive unit to be transmitted to the operator via the mounting member as a force sensation presented to
Is executed.

以上のように、本発明によれば、製造コストの低減と機動性の向上とを図ることができる。   As described above, according to the present invention, it is possible to reduce the manufacturing cost and improve the mobility.

図1は、本発明の実施の形態1における遠隔操縦システムの概略構成を俯瞰的に示す図である。FIG. 1 is a view showing a schematic configuration of a remote control system according to Embodiment 1 of the present invention. 図2は、本発明の実施の形態1における遠隔操縦装置の各構成部品を示す分解斜視図である。FIG. 2 is an exploded perspective view showing each component of the remote control device according to the first embodiment of the present invention. 図3は、本発明の実施の形態1における遠隔操縦システム及び遠隔操縦装置の構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of the remote control system and the remote control device according to the first embodiment of the present invention. 図4は、本発明の実施の形態1における遠隔操縦装置の動作を示すフロー図である。FIG. 4 is a flowchart showing the operation of the remote control device in the first embodiment of the present invention. 図5は、図4に示したステップS101を説明するための図である。FIG. 5 is a diagram for explaining step S101 shown in FIG. 図6は、図4に示したステップS107を説明するための図である。FIG. 6 is a diagram for explaining step S107 shown in FIG. 図7(a)は、引張力の算出処理を説明するための図であり、図7(b)は、引張力の算出処理に用いられる座標軸を示す図である。FIG. 7A is a diagram for explaining a tensile force calculation process, and FIG. 7B is a diagram illustrating coordinate axes used for the tensile force calculation process. 図8は、提示力の再設定処理を説明するための図である。FIG. 8 is a diagram for explaining the presentation power resetting process. 図9は、本発明の実施の形態1における遠隔操縦装置の他の例を示す斜視図である。FIG. 9 is a perspective view showing another example of the remote control device in the first embodiment of the present invention. 図10は、本発明の実施の形態2における遠隔操縦システムの概略構成を俯瞰的に示す図である。FIG. 10 is a diagram showing a schematic configuration of the remote control system according to the second embodiment of the present invention. 図11は、本発明の実施の形態2における遠隔操縦装置の各構成部品を示す分解斜視図である。FIG. 11 is an exploded perspective view showing each component of the remote control device according to the second embodiment of the present invention. 図12は、本発明の実施の形態2における遠隔操縦システム及び遠隔操縦装置の構成を示すブロック図である。FIG. 12 is a block diagram showing the configurations of the remote control system and the remote control device in the second embodiment of the present invention. 図13は、本発明の実施の形態2における遠隔操縦装置の動作を示すフロー図である。FIG. 13 is a flowchart showing the operation of the remote control device in the second embodiment of the present invention. 図14は、本発明の実施の形態3における遠隔操縦システムの概略構成を俯瞰的に示す図である。FIG. 14 is a diagram showing a schematic configuration of the remote control system according to the third embodiment of the present invention.

(実施の形態1)
以下、本発明の実施の形態1における、遠隔操縦装置、遠隔操縦システム、遠隔操縦方法、及びプログラムについて、図1〜図9を参照しながら説明する。
(Embodiment 1)
Hereinafter, a remote control device, a remote control system, a remote control method, and a program according to Embodiment 1 of the present invention will be described with reference to FIGS.

[システム構成、装置構成]
最初に、図1及び図2を用いて、本実施の形態1における遠隔操縦装置及び遠隔操縦システムの構成を説明する。図1は、本発明の実施の形態1における遠隔操縦システムの概略構成を俯瞰的に示す図である。図2は、本発明の実施の形態1における遠隔操縦装置の各構成部品を示す分解斜視図である。
[System configuration, device configuration]
First, the configuration of the remote control device and the remote control system in the first embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a view showing a schematic configuration of a remote control system according to Embodiment 1 of the present invention. FIG. 2 is an exploded perspective view showing each component of the remote control device according to the first embodiment of the present invention.

まず、図1を用いて、本実施の形態1における遠隔操縦システムの概略構成について説明する。図1に示すように、本実施の形態1における遠隔操縦システム100は、移動装置60と、それを遠隔から操縦するための遠隔操縦装置10とを備えている。   First, the schematic configuration of the remote control system according to the first embodiment will be described with reference to FIG. As shown in FIG. 1, a remote control system 100 according to the first embodiment includes a moving device 60 and a remote control device 10 for operating the mobile device 60 from a remote location.

本実施の形態1では、移動装置60は、作業用のロボットであり、複数の関節を有する作業用アーム64と、その後方から、自身と前方の状況とを撮影するカメラ61とを備えている。また、移動装置60は、カメラ61が出力する映像データを遠隔操縦装置10へと送信する。   In the first embodiment, the moving device 60 is a working robot, and includes a working arm 64 having a plurality of joints, and a camera 61 that captures itself and the situation in front from the rear. . In addition, the moving device 60 transmits the video data output from the camera 61 to the remote control device 10.

遠隔操縦装置10は、移動装置60のコントローラとしての機能に加え、操縦者200に対して力覚を提示する機能も有している。従って、操縦者200は、遠隔操縦装置10を用いることで、移動装置60の状態を表す力覚を感じながら、移動装置60を操縦することができる。   The remote control device 10 has a function of presenting a sense of force to the operator 200 in addition to the function of the mobile device 60 as a controller. Therefore, the pilot 200 can use the remote control device 10 to operate the mobile device 60 while feeling a sense of force representing the state of the mobile device 60.

具体的には、遠隔操縦装置10は、操縦者200に装着される装着部材13を備えている。また、遠隔操縦装置10は、移動装置60に取り付けられたカメラ61からの映像を表示画面21上に表示させる。更に、遠隔操縦装置10は、仮想空間内に、移動装置60に対応するオブジェクト(以下「操縦用オブジェクト」と表記する。)101と、操縦者200に装着される装着部材13に相当するオブジェクト(以下「ユーザオブジェクト」と表記する。)102と、を作成する。   Specifically, the remote control device 10 includes a mounting member 13 that is mounted on the operator 200. In addition, the remote control device 10 displays an image from the camera 61 attached to the moving device 60 on the display screen 21. Furthermore, the remote control device 10 has an object (hereinafter, referred to as “control object”) 101 corresponding to the moving device 60 and an object corresponding to the mounting member 13 attached to the operator 200 in the virtual space ( (Hereinafter referred to as “user object”) 102.

そして、遠隔操縦装置10は、操縦用オブジェクト101とユーザオブジェクト102とを、カメラ61からの映像に重ね合わせる。図1において、70は、実空間に存在する物体である。また、本実施の形態では、操縦用オブジェクト101はリング状に形成され、画面上の移動装置60を囲むように配置されている。ユーザオブジェクト102は、球状に形成されている。なお、操縦用オブジェクト101及びユーザオブジェクト102の形状は特に限定されるものではない。   Then, the remote control device 10 superimposes the control object 101 and the user object 102 on the video from the camera 61. In FIG. 1, reference numeral 70 denotes an object existing in the real space. In the present embodiment, the steering object 101 is formed in a ring shape and is arranged so as to surround the moving device 60 on the screen. The user object 102 is formed in a spherical shape. The shapes of the steering object 101 and the user object 102 are not particularly limited.

また、遠隔操縦装置10は、装着部材13の位置を検出し、検出した位置に応じて、仮想空間内で、ユーザオブジェクト102を移動させる。このとき、ユーザオブジェクト102が、移動体オブジェクト101に接触等して外力を与えると、遠隔操縦装置10は、この外力を算出し、算出した外力によって操縦用オブジェクト101に生じた変化を特定する。   In addition, the remote control device 10 detects the position of the mounting member 13 and moves the user object 102 in the virtual space according to the detected position. At this time, when the user object 102 applies an external force by contacting the moving object 101 or the like, the remote control device 10 calculates the external force and identifies a change that has occurred in the control object 101 due to the calculated external force.

そして、遠隔操縦装置10は、操縦用オブジェクト101に生じた変化を特定すると、この変化と同様の変化が、移動装置60に生じるように、移動装置60に対して動作を指示する。例えば、ユーザオブジェクト102によって、操縦用オブジェクト101が前方に押し出された場合は、遠隔操縦装置10は、移動装置60を前進させる。また、ユーザオブジェクト102によって、操縦用オブジェクト101が右又は左へと回転させられた場合は、遠隔操縦装置10は、移動装置60を右又は左に旋回させる。加えて、遠隔操縦装置10は、算出した外力に対する反力がユーザに伝達されるように、装着部材13を介して、操縦者200に力覚を提示する。   When the remote control device 10 identifies a change that has occurred in the control object 101, the remote control device 10 instructs the movement device 60 to perform a change similar to this change in the movement device 60. For example, when the steering object 101 is pushed forward by the user object 102, the remote control device 10 advances the moving device 60. When the steering object 101 is rotated right or left by the user object 102, the remote control device 10 turns the moving device 60 to the right or left. In addition, the remote control device 10 presents a force sense to the operator 200 via the mounting member 13 so that the reaction force against the calculated external force is transmitted to the user.

つまり、操縦者200は、装着部材13を装着し、これを装着した指によって、表示画面21上の操縦用オブジェクト101を動かすだけで、移動装置60を遠隔操縦することができる。また、このとき、操縦者200には、操縦用オブジェクト101からの反力が力覚として提示されるため、操縦者200は、移動装置60がどちらに進もうとしているのかを感覚で知ることができる。従って、遠隔操縦装置10によれば、ジョイスティック等の従来からの遠隔操縦装置を用いる場合に比べて、操作性の向上が図られることになる。なお、具体的な構成及び処理については、後述する。   That is, the operator 200 can remotely control the moving device 60 by simply mounting the mounting member 13 and moving the steering object 101 on the display screen 21 with a finger wearing the mounting member 13. At this time, since the reaction force from the steering object 101 is presented to the pilot 200 as a force sense, the pilot 200 can know to which direction the moving device 60 is going. it can. Therefore, according to the remote control device 10, the operability is improved as compared with the case where a conventional remote control device such as a joystick is used. The specific configuration and processing will be described later.

続いて、図2を用いて、遠隔操縦装置10の内部構成について説明する。図2に示すように、遠隔操縦装置10は、まず、装着部材13と、表示部20と、位置検出部30と、情報処理部40と、遠隔操縦部41とを備えている。   Next, the internal configuration of the remote control device 10 will be described with reference to FIG. As shown in FIG. 2, the remote control device 10 first includes a mounting member 13, a display unit 20, a position detection unit 30, an information processing unit 40, and a remote control unit 41.

このうち、位置検出部30は、操縦者200(図1参照)に装着されている装着部材13の位置を検出する。表示部20は、液晶表示パネル、有機ELパネルといった薄型の表示パネルであり、移動装置60のカメラ61(図1参照)からの映像を表示画面21に表示する。   Among these, the position detection unit 30 detects the position of the mounting member 13 mounted on the operator 200 (see FIG. 1). The display unit 20 is a thin display panel such as a liquid crystal display panel or an organic EL panel, and displays an image from the camera 61 (see FIG. 1) of the moving device 60 on the display screen 21.

情報処理部40は、仮想空間を構築し、構築した仮想空間内に、操縦用オブジェクト101(図1参照)と、ユーザオブジェクト102(図1参照)とを作成し、これらをカメラ61からの映像に重ね合わせる。更に、情報処理部40は、装着部材13の位置に応じて、ユーザオブジェクト102を移動させる。そして、ユーザオブジェクト102が操縦用オブジェクト101に外力を与えた場合は、その外力を算出し、算出した外力によって移動用オブジェクト101に生じた変化を特定する。   The information processing unit 40 constructs a virtual space, creates a steering object 101 (see FIG. 1) and a user object 102 (see FIG. 1) in the constructed virtual space, and displays these images from the camera 61. To overlay. Furthermore, the information processing unit 40 moves the user object 102 according to the position of the mounting member 13. When the user object 102 applies an external force to the steering object 101, the external force is calculated, and a change that has occurred in the moving object 101 due to the calculated external force is specified.

遠隔操縦部41は、情報処理部40によって移動装置オブジェクトに生じた変化が特定されると、この特定された変化と同様の変化が、移動装置60(図1参照)に生じるように、移動装置60に対して動作を指示する。   When the information processing unit 40 identifies a change that has occurred in the mobile device object, the remote control unit 41 causes the mobile device 60 (see FIG. 1) to generate a change similar to the specified change. 60 is instructed to operate.

また、図2に示すように、遠隔操縦装置10は、更に、伝達部材12と、駆動部11と、制御部14も備えている。伝達部材12は、遠隔操縦装置10から装着部材13へと伸びて、装着部材13に引っ張り方向の力(以下、「引張力」と表記する。)を伝達する部材である。また、駆動部11は、引張力を発生させ、それを伝達部材12に与えている。   As shown in FIG. 2, the remote control device 10 further includes a transmission member 12, a drive unit 11, and a control unit 14. The transmission member 12 is a member that extends from the remote control device 10 to the mounting member 13 and transmits a force in the pulling direction (hereinafter referred to as “tensile force”) to the mounting member 13. The drive unit 11 generates a tensile force and applies it to the transmission member 12.

制御部14は、駆動部11に、予め、設定された大きさの引張力を初期力として発生させる。そして、制御部14は、情報処理部40によって特定された外力に対する反力が、力覚として、装着部材13を介して操縦者200に伝達されるように、駆動部11における初期力を増加又は減少させる。つまり、遠隔操縦装置10は、装着部材13を装着している操縦者200の指に、伝達部材12を介して引っ張り方向の力を伝達することによって力覚を提示する。   The control unit 14 causes the drive unit 11 to generate a tensile force having a preset size as an initial force. And the control part 14 increases the initial force in the drive part 11, or the reaction force with respect to the external force specified by the information processing part 40 is transmitted to the operator 200 via the mounting member 13 as a force sense. Decrease. That is, the remote control device 10 presents a sense of force by transmitting a force in the pulling direction to the finger of the operator 200 wearing the mounting member 13 via the transmission member 12.

このように、遠隔操縦装置10によれば、従来のような大掛かりな構成とすることなく、操縦者200に力覚を提示することが可能となるため、製造コストの低減と機動性の向上とを図ることが可能となる。なお、本発明でいう「力覚」とは、操縦者が感じる、反発力、抵抗力、外力、感触、等を意味する。   As described above, according to the remote control device 10, it is possible to present a sense of force to the operator 200 without using a large-scale configuration as in the related art, thereby reducing manufacturing costs and improving maneuverability. Can be achieved. The “force sensation” in the present invention means a repulsive force, a resistance force, an external force, a touch, etc. felt by the operator.

ここで、本実施の形態1における遠隔操縦装置10の構成について更に具体的に説明する。図2に示すように、遠隔操縦装置10は、更に、操縦者側から順に、枠状に形成されたカバー50と、表示部20と、箱状の筐体51とを備えている。加えて、遠隔操縦装置10は、移動装置60との間で無線での通信を行うための通信部42も備えている。   Here, the configuration of the remote control device 10 according to the first embodiment will be described more specifically. As shown in FIG. 2, the remote control device 10 further includes a cover 50 formed in a frame shape, a display unit 20, and a box-shaped housing 51 in order from the operator side. In addition, the remote control device 10 also includes a communication unit 42 for performing wireless communication with the mobile device 60.

カバー50は、表示部20の表示画面21が露出するように、筐体51の開口部分に取り付けられる。上述した、駆動部11、制御部14、位置検出部30、情報処理部40、遠隔操縦部41、及び通信部42は、表示部20の背面側となる筐体51の内部に配置されている。また、図2に示すように、本実施の形態1では、3本の伝達部材12が用いられており、これに対応して3つの駆動部11が配置されている。   The cover 50 is attached to the opening portion of the housing 51 so that the display screen 21 of the display unit 20 is exposed. The drive unit 11, the control unit 14, the position detection unit 30, the information processing unit 40, the remote control unit 41, and the communication unit 42 described above are disposed inside the housing 51 that is the back side of the display unit 20. . As shown in FIG. 2, in the first embodiment, three transmission members 12 are used, and three drive units 11 are arranged corresponding to this.

本実施の形態1では、伝達部材12それぞれは、遠隔操縦装置10の背面側の異なる位置から、操縦者200に装着される装着部材13へと伸びる紐状の部材、例えば、ワイヤーである。また、各伝達部材12の先端は、装着部材13に固定されている。更に、装着部材13は、本実施の形態1では、操縦者200の指に装着可能なリング状に形成されている。   In the first embodiment, each of the transmission members 12 is a string-like member that extends from a different position on the back side of the remote control device 10 to the mounting member 13 that is mounted on the operator 200, for example, a wire. The tip of each transmission member 12 is fixed to the mounting member 13. Furthermore, the mounting member 13 is formed in a ring shape that can be mounted on the finger of the operator 200 in the first embodiment.

また、本実施の形態1では、各駆動部11は、プーリ15が軸に取り付けられたモータであり、対応する伝達部材12をプーリ15で巻き取ることによって、対応する伝達部材12に、引っ張り方向の力を与えている。伝達部材12の一端はプーリ15に固定されている。   Moreover, in this Embodiment 1, each drive part 11 is a motor with which the pulley 15 was attached to the axis | shaft, and by winding up the corresponding transmission member 12 with the pulley 15, it pulls to a corresponding transmission member 12 in a pulling direction. Giving the power of. One end of the transmission member 12 is fixed to the pulley 15.

更に、筐体51の底面には、伝達部材12毎に、通し穴16が設けられており、各伝達部材12は、通し穴16を経由して、遠隔操縦装置10の背面側へと伸びる。なお、各通し穴16の位置は、特に限定されないが、後述するように、力覚の提示範囲は各通し穴16の位置によって決定される(図8の領域X参照)。よって、各通し穴16の位置は、求められる提示範囲を考慮した上で決定される。   Furthermore, through holes 16 are provided on the bottom surface of the casing 51 for each transmission member 12, and each transmission member 12 extends to the back side of the remote control device 10 via the through hole 16. The position of each through hole 16 is not particularly limited, but as described later, the force sense presentation range is determined by the position of each through hole 16 (see region X in FIG. 8). Therefore, the position of each through hole 16 is determined in consideration of the required presentation range.

このように、本実施の形態1においては、3本の伝達部材12によって、装着部材13が引っ張られることによって、操縦者200の指に力覚が提示される(図1参照)。つまり、各駆動部11が伝達部材13に与える引張力の合力によって、力覚が提示される。   As described above, in the first embodiment, the mounting member 13 is pulled by the three transmission members 12, and a force sense is presented to the finger of the operator 200 (see FIG. 1). That is, the sense of force is presented by the resultant force of the tensile force that each driving unit 11 applies to the transmission member 13.

また、本実施の形態1では、駆動部材12による引張力の伝達方向は、プーリ15及び通し穴16の位置によって、自由に設定できる。更に、伝達部材12の通し穴16から装着部材13までの距離は、プーリ15での巻き取り量によって、自由に設定できる。従って、操縦者が指を動かすことのできる範囲を大きくできるので、広い範囲での3次元的な力覚の提示が可能となる。更に、伝達部材12として、軽量な紐状の部材が用いられているので、操縦者は、指を動かす際に、機械的な抵抗などを感じ難いといえる。   In the first embodiment, the transmission direction of the tensile force by the driving member 12 can be freely set by the positions of the pulley 15 and the through hole 16. Furthermore, the distance from the through hole 16 of the transmission member 12 to the mounting member 13 can be freely set by the amount of winding by the pulley 15. Accordingly, since the range in which the operator can move the finger can be increased, three-dimensional force sense can be presented in a wide range. Furthermore, since a lightweight string-like member is used as the transmission member 12, it can be said that the operator hardly feels mechanical resistance or the like when moving the finger.

また、本実施の形態1では、位置検出部30は、駆動部11毎に、その軸に設けられたエンコーダである。このため、位置検出部30は、装着部材13の位置を検出するためのデータ(以下、「位置検出データ」と表記する。)として、モータの軸の回転数を特定するデータを、情報処理部40に出力する。   In the first embodiment, the position detection unit 30 is an encoder provided on the shaft of each drive unit 11. For this reason, the position detection unit 30 uses, as the data for detecting the position of the mounting member 13 (hereinafter referred to as “position detection data”), data specifying the rotation speed of the motor shaft as information processing unit. Output to 40.

また、本実施の形態1では、制御部14、情報処理部40、及び遠隔操縦部41は、それぞれ、マイコン等のコンピュータによって実現されている。また、それぞれは、別々のコンピュータによって実現されていても良いし、同一のコンピュータによって実現されていても良い。   Moreover, in this Embodiment 1, the control part 14, the information processing part 40, and the remote control part 41 are each implement | achieved by computers, such as a microcomputer. Moreover, each may be implement | achieved by the separate computer and may be implement | achieved by the same computer.

続いて、図3を用いて、遠隔操縦システム100及び遠隔操縦装置10でやり取りされるデータについて説明する。図3は、本発明の実施の形態1における遠隔操縦システム及び遠隔操縦装置の構成を示すブロック図である。なお、以下の説明では、適宜図1及び図2を参酌する。   Next, data exchanged between the remote control system 100 and the remote control device 10 will be described with reference to FIG. FIG. 3 is a block diagram showing a configuration of the remote control system and the remote control device according to the first embodiment of the present invention. In the following description, FIGS. 1 and 2 are referred to as appropriate.

図3に示すように、遠隔操縦装置10は、駆動部11と、伝達部材12と、装着部材13と、制御部14と、表示部20と、位置検出部30と、情報処理部40と、遠隔操縦部41と、通信部42とを備えている。このうち、表示部20、遠隔操縦部41、通信部42及び制御部14は、情報処理部40に接続されている。また、制御部14は、駆動部(モータ)11に接続されている。   As shown in FIG. 3, the remote control device 10 includes a drive unit 11, a transmission member 12, a mounting member 13, a control unit 14, a display unit 20, a position detection unit 30, an information processing unit 40, A remote control unit 41 and a communication unit 42 are provided. Among these, the display unit 20, the remote control unit 41, the communication unit 42, and the control unit 14 are connected to the information processing unit 40. The control unit 14 is connected to a drive unit (motor) 11.

通信部42は、移動装置60から送信されてくる映像データを受信し、これを表示部20に出力する。これにより、表示部20の表示画面21上には、移動装置60のカメラ61で撮影された映像、即ち、移動装置60の前面の映像が表示される(図1参照)。   The communication unit 42 receives the video data transmitted from the mobile device 60 and outputs it to the display unit 20. Thereby, on the display screen 21 of the display part 20, the image | video image | photographed with the camera 61 of the moving apparatus 60, ie, the image | video of the front surface of the moving apparatus 60, is displayed (refer FIG. 1).

操縦者200(図1参照)が、装着部材13を装着した指を動かすと、各位置検出部30が、位置検出データを情報処理部40に出力する。情報処理部40は、位置検出データが出力されてくると、まず、予め登録されている、伝達部材12の全長、プーリ15の直径、プーリ15から通し穴16までの距離等に基づいて、各伝達部材12の通し穴16から装着部材13までの長さを算出する。次に、情報処理部40は、後述するように、算出された各伝達部材12の長さに基づいて、装着部材13の位置、即ち、予め設定された原点(以下「操作原点」と表記する。)を基準とした座標を算出する。   When the operator 200 (see FIG. 1) moves the finger wearing the mounting member 13, each position detection unit 30 outputs position detection data to the information processing unit 40. When the position detection data is output, the information processing unit 40 first registers each of the transmission members 12 based on the total length of the transmission member 12, the diameter of the pulley 15, the distance from the pulley 15 to the through hole 16, and the like. The length from the through hole 16 of the transmission member 12 to the mounting member 13 is calculated. Next, as will be described later, the information processing unit 40 describes the position of the mounting member 13 based on the calculated length of each transmission member 12, that is, a preset origin (hereinafter referred to as “operation origin”). )) As a reference.

また、情報処理部40は、メモリ空間に仮想空間を構築すると共に、仮想空間内に、操縦用オブジェクト101とユーザオブジェクト102とを作成する。図1に示したように、操縦用オブジェクト101はリング状に形成されている。また、本実施の形態1では、この操縦用オブジェクト101及びユーザオブジェクト102それぞれには、仮想の質量に加え、表面における仮想の摩擦係数も設定される。よって、操縦者200は、ユーザオブジェクト102を操縦用オブジェクト101に接触させることによって、操縦用オブジェクト101を動かすことができ、これを操作することができる。   In addition, the information processing unit 40 constructs a virtual space in the memory space, and creates a steering object 101 and a user object 102 in the virtual space. As shown in FIG. 1, the steering object 101 is formed in a ring shape. In the first embodiment, in addition to the virtual mass, a virtual friction coefficient on the surface is set for each of the steering object 101 and the user object 102. Accordingly, the pilot 200 can move the steering object 101 by operating the user object 102 by bringing the user object 102 into contact with the steering object 101.

また、情報処理部40は、装着部材13の位置に応じて、ユーザオブジェクト102を仮想空間に配置するため、仮想空間内に、上述の操作原点に対応する点(以下「対応原点」と表記する。)を設定している。従って、情報処理部40は、装着部材13の座標を算出すると、これを、設定した対応原点に適用して、ユーザオブジェクト102の位置(座標)を算出し、算出した位置に、ユーザオブジェクト102を配置する。   Further, since the information processing unit 40 arranges the user object 102 in the virtual space according to the position of the mounting member 13, a point corresponding to the operation origin described above (hereinafter referred to as “corresponding origin”) in the virtual space. .) Is set. Accordingly, when the information processing unit 40 calculates the coordinates of the mounting member 13, it applies this to the set corresponding origin, calculates the position (coordinates) of the user object 102, and places the user object 102 at the calculated position. Deploy.

更に、情報処理部40は、カメラの映像と重ね合わされたときに、移動装置60が、リング状の操縦用オブジェクト101に囲まれるように(図1参照)、操縦用オブジェクト101を、仮想空間に配置する。   Further, the information processing unit 40 places the maneuvering object 101 in the virtual space so that the moving device 60 is surrounded by the ring-shaped maneuvering object 101 when superimposed on the video of the camera (see FIG. 1). Deploy.

また、情報処理部40は、操縦用オブジェクト101とユーザオブジェクト102とを、カメラ61の映像に重ね合わせるため、仮想空間の内部を、予め設定された投影面に投影して、各オブジェクトを表示するための表示データを作成し、これを表示部20に出力する。   The information processing unit 40 displays each object by projecting the inside of the virtual space onto a preset projection plane in order to superimpose the steering object 101 and the user object 102 on the video of the camera 61. Display data is generated and output to the display unit 20.

更に、情報処理部40は、操縦用オブジェクト101の位置と、ユーザオブジェクト102の位置とを比較し、両者が接触しているかどうかを判定する。そして、判定の結果、接触している場合は、情報処理部40は、ユーザオブジェクト102の現在の位置とそれ以前に算出した位置とから、ユーザオブジェクト102の動きを特定し、特定した動きから、操縦用オブジェクト101に加えられた外力を算出する。   Further, the information processing unit 40 compares the position of the steering object 101 with the position of the user object 102 and determines whether or not they are in contact with each other. And as a result of determination, when it is in contact, the information processing unit 40 identifies the movement of the user object 102 from the current position of the user object 102 and the position calculated before that, and from the identified movement, The external force applied to the steering object 101 is calculated.

また、本実施の形態1では、操縦用オブジェクト101に対しては、予め、基準となる位置(初期位置)と向き(初期状態)とが設定されているのが良い。この場合、情報処理部40は、ユーザオブジェクト102によって、操縦用オブジェクト101の位置及び向きの一方又は両方が大きく変化する程、外力の値を大きく算出する。なお、操縦用オブジェクト101とユーザオブジェクト102との接触が解除された場合は、情報処理部40は、操縦用オブジェクト101の位置と向きとを初期位置及び初期状態とする。   In the first embodiment, it is preferable that a reference position (initial position) and orientation (initial state) are set in advance for the steering object 101. In this case, the information processing unit 40 calculates the value of the external force as the user object 102 greatly changes one or both of the position and orientation of the steering object 101. Note that when the contact between the steering object 101 and the user object 102 is released, the information processing unit 40 sets the position and orientation of the steering object 101 to the initial position and the initial state.

例えば、情報処理部40が、ユーザオブジェクト102が操縦用オブジェクト101に接触していると判定し、その動きが、操縦用オブジェクト101を右又は左に回転させる動きであると特定したとする。この場合、情報処理部40は、回転角度が大きい程、値が大きくなるように外力を算出する。   For example, it is assumed that the information processing unit 40 determines that the user object 102 is in contact with the steering object 101 and specifies that the movement is a movement that rotates the steering object 101 right or left. In this case, the information processing unit 40 calculates the external force so that the value increases as the rotation angle increases.

また、情報処理部40は、算出した外力によって操縦用オブジェクト101に生じる変化を特定し、操縦用オブジェクト101において、特定した変化を反映させる。具体的には、情報処理部40は、変化として、外力によって動いた操縦用オブジェクト101の移動方向と、この移動方向への加速度とを特定する。そして、情報処理部40は、操縦用オブジェクト101を、特定した移動方向に、特定した加速度で動かして、変化を反映させる。また、情報処理部40は、反映後の操縦用オブジェクト101を表示する表示データを作成し、これを表示部20に出力する。   In addition, the information processing unit 40 identifies a change that occurs in the steering object 101 by the calculated external force, and reflects the specified change in the steering object 101. Specifically, the information processing unit 40 specifies the movement direction of the steering object 101 moved by an external force and the acceleration in the movement direction as changes. Then, the information processing unit 40 moves the steering object 101 in the specified movement direction with the specified acceleration to reflect the change. Further, the information processing unit 40 creates display data for displaying the control object 101 after reflection, and outputs the display data to the display unit 20.

例えば、上述したように、ユーザオブジェクト102の動きが、操縦用オブジェクト101を右又は左に回転させる動きであるとする。この場合、情報処理部40は、仮想空間内で操縦用オブジェクト101を回転させ、更に、回転後の操縦用オブジェクト101を表示するための表示データを表示部20に出力する。   For example, as described above, it is assumed that the movement of the user object 102 is a movement that rotates the steering object 101 to the right or left. In this case, the information processing unit 40 rotates the steering object 101 in the virtual space, and further outputs display data for displaying the rotated steering object 101 to the display unit 20.

加えて、情報処理部40は、特定した変化が移動装置60においても反映されるようにするため、特定した変化を通知するための操縦用データを作成し、これを遠隔操縦部41に出力する。具体的には、情報処理部40は、移動装置60を、特定した移動方向に、特定した加速度で移動させるため、そのことを指示する操縦用データを作成する。   In addition, the information processing unit 40 creates steering data for notifying the specified change and outputs this to the remote control unit 41 so that the specified change is reflected also in the mobile device 60. . Specifically, in order to move the moving device 60 in the specified moving direction at the specified acceleration, the information processing unit 40 creates steering data that instructs that.

続いて、情報処理部40は、算出された外力に対する反力を求め、求めた反力を特定するデータを制御部14に出力する。この反力が、操縦者200に提示すべき力覚に相当することから、反力を以下において「提示力」と表記し、提示力を特定するデータを「提示力データ」と表記する。   Subsequently, the information processing unit 40 obtains a reaction force against the calculated external force and outputs data specifying the obtained reaction force to the control unit 14. Since this reaction force corresponds to a force sense to be presented to the operator 200, the reaction force is hereinafter referred to as “presentation force”, and data specifying the presentation force is referred to as “presentation force data”.

遠隔操縦部41は、情報処理部40から操縦用データが出力されてくると、操縦用データが通知する内容に応じて、移動装置60に実行させる命令を作成する。例えば、上述のように、右又は左への回転が通知されている場合は、遠隔操縦部41は、移動装置60を右又は左へと旋回させるための命令を作成する。   When the control data is output from the information processing unit 40, the remote control unit 41 creates a command to be executed by the mobile device 60 according to the content notified by the control data. For example, as described above, when the rotation to the right or left is notified, the remote control unit 41 creates a command for turning the moving device 60 to the right or left.

通信部42は、遠隔操縦部41が作成した命令を、無線通信によって移動装置60に送信する。また、通信部42としては、例えば、既存の無線通信用の通信デバイスを用いることができる。本実施の形態1において利用可能な通信規格としては、例えば、無線LAN(Local Area Network)で規格されている通信規格、Bluetooth(登録商標)で規格されている通信規格等が挙げられる。   The communication unit 42 transmits the command created by the remote control unit 41 to the mobile device 60 by wireless communication. For example, an existing wireless communication device can be used as the communication unit 42. Examples of communication standards that can be used in the first embodiment include a communication standard that is standardized by a wireless local area network (LAN), a communication standard that is standardized by Bluetooth (registered trademark), and the like.

制御部14は、情報処理部40から提示データが出力されてくると、提示データによって特定される反力が、力覚として、操縦者200に伝達されるように、駆動部11における初期力を増加又は減少させる。   When the presentation data is output from the information processing unit 40, the control unit 14 uses the initial force in the drive unit 11 so that the reaction force specified by the presentation data is transmitted to the operator 200 as a force sense. Increase or decrease.

具体的には、制御部14は、力覚を伝達するため、各駆動部11が出力すべき引張力を算出する。そして、制御部14は、各駆動部11に目的の引張力を発揮させる制御データ、例えば、駆動部11として機能するモータを駆動するためのパルス信号を、電源回路(図示せず)を用いて生成し、これを制御データとして各駆動部11に出力する。これにより、各駆動部(モータ)11は、計算された引張力で伝達部材12を引っ張り、操縦者200の指先には、目的の力覚が提示される。   Specifically, the control unit 14 calculates the tensile force that each driving unit 11 should output in order to transmit a force sense. And the control part 14 uses the power supply circuit (not shown) for the control data which makes each drive part 11 exhibit the target tensile force, for example, the pulse signal for driving the motor which functions as the drive part 11 It produces | generates and outputs this to each drive part 11 as control data. Thereby, each drive part (motor) 11 pulls the transmission member 12 with the calculated tensile force, and the target force sense is presented to the fingertip of the operator 200.

図3に示すように、本実施の形態1では、移動装置60は、図1に示したカメラ61に加えて、動力部62と、通信部63を備えている。このうち、通信部63は、カメラ61の映像データを、遠隔制御装置10へと送信すると共に、遠隔制御装置10から送信されてきた命令を受信し、これを動力部62に出力する。通信部63としても、上述した通信部42と同様に、既存の無線通信用の通信デバイスを用いることができ、更に、上述した通信規格が用いられる。   As illustrated in FIG. 3, in the first embodiment, the moving device 60 includes a power unit 62 and a communication unit 63 in addition to the camera 61 illustrated in FIG. 1. Among these, the communication unit 63 transmits the video data of the camera 61 to the remote control device 10, receives a command transmitted from the remote control device 10, and outputs it to the power unit 62. Similarly to the communication unit 42 described above, an existing communication device for wireless communication can be used as the communication unit 63, and further, the communication standard described above is used.

動力部62は、例えば、動力源と、その制御ユニットとで構成される。また、動力源としては、車輪又はクローラを駆動するための電動機が挙げられる。なお、本実施の形態1において、動力部62の構成は上述の例に限定されず、移動装置の態様に応じて決定される。   The power unit 62 includes, for example, a power source and its control unit. Moreover, the electric motor for driving a wheel or a crawler is mentioned as a motive power source. In the first embodiment, the configuration of the power unit 62 is not limited to the above example, and is determined according to the mode of the moving device.

[装置動作]
次に、本発明の実施の形態1における遠隔操縦装置10の動作について図4を用いて説明する。図4は、本発明の実施の形態1における遠隔操縦装置の動作を示すフロー図である。なお、以下の説明においては、適宜図1〜図3を参酌する。
[Device operation]
Next, the operation of the remote control device 10 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of the remote control device in the first embodiment of the present invention. In the following description, FIGS. 1 to 3 are referred to as appropriate.

まず、前提として、移動装置60から、カメラ61で撮影された映像の映像データが遠隔操縦装置10へと送信されており、遠隔操縦装置10の表示画面21には、カメラ61で撮影された映像が表示されているとする。また、遠隔操縦装置10において、情報処理部40は、操縦オブジェクト101とユーザオブジェクト102とを構築し、これらを仮想空間内に配置すると共に、表示画面21に、これらの映像も重ねて表示させているとする。   First, as a premise, video data of a video shot by the camera 61 is transmitted from the mobile device 60 to the remote control device 10, and a video shot by the camera 61 is displayed on the display screen 21 of the remote control device 10. Is displayed. In the remote control device 10, the information processing unit 40 constructs the control object 101 and the user object 102, arranges them in the virtual space, and displays these images on the display screen 21 in a superimposed manner. Suppose that

最初に、操縦者200が、遠隔操縦装置10の背面の空間において、移動装置60を操縦するため、装着部材13が装着された指を動かすと、これにより、図3に示したように、位置検出部30それぞれは、位置検出データを、情報処理部40に出力する。   First, when the operator 200 moves the finger on which the mounting member 13 is mounted in order to control the moving device 60 in the space behind the remote control device 10, this causes the position as shown in FIG. 3. Each of the detection units 30 outputs position detection data to the information processing unit 40.

次に、図4に示すように、情報処理部40は、出力されてきた位置検出データに基づいて、各伝達部材12の通し穴16から装着部材13までの長さを算出し、更に、算出された各伝達部材12の長さに基づいて、装着部材13の位置(座標)を算出する(S101)。   Next, as shown in FIG. 4, the information processing unit 40 calculates the length from the through hole 16 of each transmission member 12 to the mounting member 13 based on the output position detection data, and further calculates The position (coordinates) of the mounting member 13 is calculated based on the lengths of the transmission members 12 (S101).

また、ステップS101では、情報処理部40は、装着部材13の位置と仮想空間に設定された対応原点とから、ユーザオブジェクト102の仮想空間での位置(座標)を算出し、算出した位置に、ユーザオブジェクト102を配置する。   In step S101, the information processing unit 40 calculates the position (coordinates) of the user object 102 in the virtual space from the position of the mounting member 13 and the corresponding origin set in the virtual space, and at the calculated position, A user object 102 is arranged.

次に、情報処理部40は、操縦用オブジェクト101の位置と、ステップS101で算出したユーザオブジェクト102の位置とを比較し、両者が接触しているかどうかを判定する(ステップS102)。   Next, the information processing unit 40 compares the position of the steering object 101 with the position of the user object 102 calculated in step S101, and determines whether or not they are in contact (step S102).

ステップS102の判定の結果、両者が接触していない場合は、情報処理部40は、次に装着部材13の位置が変わるまで待機状態となり、装着部材13の位置が変わると、再度ステップS101を実行する。   If the result of determination in step S102 is that they are not in contact with each other, the information processing unit 40 is in a standby state until the position of the mounting member 13 changes, and when the position of the mounting member 13 changes, executes step S101 again. To do.

一方、ステップS102の判定の結果、両者が接触している場合は、情報処理部40は、ユーザオブジェクト102の現在の位置とそれ以前に算出した位置とから、ユーザオブジェクト102の動きを特定する。更に、情報処理部40は、特定した動きから、操縦用オブジェクト101に加えられた外力を算出すると共に、この外力によって操縦用オブジェクト101に生じる変化を特定する(ステップS103)。   On the other hand, if both are in contact as a result of the determination in step S102, the information processing unit 40 identifies the movement of the user object 102 from the current position of the user object 102 and the position calculated before that. Further, the information processing unit 40 calculates an external force applied to the steering object 101 from the specified movement, and specifies a change that occurs in the steering object 101 due to the external force (step S103).

次に、情報処理部40は、ステップS103で算出された外力に対する反力を求め、求めた反力を特定する提示力データを作成する(ステップS104)。また、ステップS104では、情報処理部40は、提示力データを制御部14に出力する。   Next, the information processing unit 40 obtains a reaction force against the external force calculated in step S103, and creates presentation force data for specifying the obtained reaction force (step S104). In step S <b> 104, the information processing unit 40 outputs presentation force data to the control unit 14.

次に、情報処理部40は、操縦用オブジェクト101において、特定した変化を反映させ、更に、反映後の操縦用オブジェクト101を表示する表示データを作成し、これを表示部20に出力する(ステップS105)。   Next, the information processing unit 40 reflects the specified change in the steering object 101, further creates display data for displaying the reflected steering object 101, and outputs the display data to the display unit 20 (step). S105).

次に、情報処理部40は、ステップS103で特定した変化を通知する操縦用データを作成し、これを遠隔操縦部41に出力する。これにより、遠隔操縦部41は、操縦用データが通知する内容に応じて、移動装置60に実行させる命令を作成し、通信部42に、作成した命令を送信させる(ステップS106)。そして、ステップS106が実行されると、移動装置60は、受信した命令に応じた動作を実行する。   Next, the information processing unit 40 creates steering data for notifying the change specified in step S <b> 103, and outputs this to the remote control unit 41. Thereby, the remote control unit 41 creates a command to be executed by the mobile device 60 according to the content notified by the steering data, and causes the communication unit 42 to transmit the created command (step S106). When step S106 is executed, the mobile device 60 executes an operation according to the received command.

次に、制御部14は、ステップS104で作成された提示力データを受け取ると、提示力データで特定される提示力を提示する上で各駆動部11が出力すべき引張力を算出する(ステップS107)。また、ステップS107では、制御部14は、更に、各駆動部11によって、算出された引張力が発生するように制御データを生成し、これを各駆動部11に出力する。   Next, when receiving the presentation force data created in step S104, the control unit 14 calculates the tensile force that each driving unit 11 should output when presenting the presentation force specified by the presentation force data (step). S107). Further, in step S <b> 107, the control unit 14 further generates control data so that the calculated tensile force is generated by each drive unit 11, and outputs this to each drive unit 11.

ステップS107が実行されると、遠隔操縦装置10において、各駆動部11を構成するモータは、出力されてきた制御データに応じて回転して伝達部材12を引っ張り、操縦者200の指先に、装着部材13を介して力覚を提示する(ステップS108)。   When step S <b> 107 is executed, in the remote control device 10, the motors constituting each drive unit 11 rotate according to the output control data and pull the transmission member 12, and are attached to the fingertip of the operator 200. A sense of force is presented through the member 13 (step S108).

そして、ステップS101〜S108は、繰り返し実行されるので、操縦者200は、ある位置から別の位置まで指を動かして、操縦用オブジェクト101を操作すると、その間、連続して、反力に応じた力覚の提示を受けることができる。   Since steps S101 to S108 are repeatedly executed, the operator 200 moves the finger from one position to another position and operates the maneuvering object 101, and continuously responds to the reaction force. You can receive a sense of force.

また、本実施の形態1では、上述したように、ステップS103において、情報処理部40は、操縦用オブジェクト101の位置及び向きの一方又は両方が大きく変化する程、外力の値を大きく算出することができる。この場合、操縦者200は、現在行っている操作を力覚によって認識することができるので、操作性がいっそう向上することになる。   In the first embodiment, as described above, in step S103, the information processing unit 40 calculates the value of the external force to be larger as one or both of the position and orientation of the steering object 101 change greatly. Can do. In this case, since the operator 200 can recognize the currently performed operation by a force sense, the operability is further improved.

ここで、図4に示したステップS101及びステップS107それぞれについて、図5〜図8を用いて更に詳細に説明する。   Here, each of step S101 and step S107 shown in FIG. 4 will be described in more detail with reference to FIGS.

[ステップS101]
まず、図5を用いて、図4に示したステップS101における装着部材の位置の算出処理について説明する。図5は、図4に示したステップS101を説明するための図である。ステップS101の算出処理では、上述したように、遠隔操縦装置10の背面側において、伝達部材12の先端が接続されている装着部材13の位置が、伝達部材12の長さによって特定される。伝達部材12の長さは、位置検出部30によって特定される。
[Step S101]
First, the calculation process of the position of the mounting member in step S101 shown in FIG. 4 will be described with reference to FIG. FIG. 5 is a diagram for explaining step S101 shown in FIG. In the calculation process of step S <b> 101, as described above, the position of the mounting member 13 to which the distal end of the transmission member 12 is connected is specified by the length of the transmission member 12 on the back side of the remote control device 10. The length of the transmission member 12 is specified by the position detection unit 30.

具体的には、図5に示すように、各伝達部材12の通し穴16から装着部材13までの長さを、それぞれ、l、l、lとし、表示画面の水平方向において隣り合う通し穴間の間隔をwとし、表示画面の垂直方向において隣り合う通し穴間の間隔をhとする。この場合、情報処理部40は、l、l、l、w、及びhを用いて、装着部材13の座標(x、y、z)を幾何的に算出する。 Specifically, as shown in FIG. 5, the lengths from the through hole 16 to the mounting member 13 of each transmission member 12 are respectively l 1 , l 2 , and l 3 and are adjacent in the horizontal direction of the display screen. The interval between through holes is set to w, and the interval between adjacent through holes in the vertical direction of the display screen is set to h. In this case, the information processing unit 40 geometrically calculates the coordinates (x, y, z) of the mounting member 13 using l 1 , l 2 , l 3 , w, and h.

[ステップS107]
次に、図6及び図7を用いて、図4に示したステップS107における引張力の算出処理及び制御データの生成処理について説明する。
[Step S107]
Next, the tensile force calculation process and the control data generation process in step S107 shown in FIG. 4 will be described with reference to FIGS.

図6は、図4に示したステップS107を説明するための図である。図6に示すように、目的の提示力Fを提示するために必要となる各伝達部材12の引張力を、それぞれ、τ、τ、τとすると、提示力Fは、基本的には、引張力τ、τ、及びτの合力に相当する。 FIG. 6 is a diagram for explaining step S107 shown in FIG. As shown in FIG. 6, when the tensile force of each transmission member 12 required to present the desired presentation force F is τ 1 , τ 2 , and τ 3 , respectively, the presentation force F is basically Corresponds to the resultant force of the tensile forces τ 1 , τ 2 , and τ 3 .

そして、提示力Fが、外部から遠隔操縦装置10に向かう方向の力である場合には、提示力Fの方向は、引張力τ〜τの合力の方向と一致する。しかし、図6に示すように、提示力Fが遠隔操縦装置10から離れる方向の力である場合には、伝達部材12は、紐状の部材であり、遠隔操縦装置10側へと引っ張る方向の力しか伝達できないため、力覚の提示ができなくなる可能性がある。 When the presentation force F is a force in a direction toward the remote control device 10 from the outside, the direction of the presentation force F matches the direction of the resultant force of the tensile forces τ 1 to τ 3 . However, as shown in FIG. 6, when the presentation force F is a force in a direction away from the remote control device 10, the transmission member 12 is a string-like member and is pulled in the direction of being pulled toward the remote control device 10. Since only force can be transmitted, there is a possibility that force sense cannot be presented.

そのため、本実施の形態1では、制御部14は、上述したように、力覚を提示しない場合において、予め、操縦者200の指(装着部材13)に一定の力を常に初期力Fとして提示する。そして、制御部14は、提示力Fが、遠隔操縦装置10から離れる方向の力である場合は、初期力Fを緩めることにより、遠隔操縦装置10から離れる方向への力覚を提示している。 Therefore, in the first embodiment, as described above, the control unit 14 always uses a constant force as the initial force F 0 in advance on the finger (the mounting member 13) of the pilot 200 when the force sense is not presented. Present. Then, the control unit 14, the presentation force F, when the direction of the force away from the remote control device 10, by loosening the initial force F 0, presents a force sense in a direction away from the remote control apparatus 10 Yes.

一般に、ヒトの触感覚には、その時間特性として、順応と呼ばれる現象がある。順応は、ヒトに一定の刺激を提示し続けると、刺激に対する感度が低下する現象である。つまり、ヒトの皮膚は、圧力に対してきわめて順応しやすく、指輪及び腕時計を装着した場合、その装着感は失われやすい。   In general, human tactile sensation has a phenomenon called adaptation as its time characteristic. Adaptation is a phenomenon in which sensitivity to a stimulus decreases when a constant stimulus continues to be presented to a human. That is, human skin is very adaptable to pressure, and when a ring and a wristwatch are worn, the feeling of wearing is easily lost.

また、重力に対しても同様であり、ヒトは、普段、その力を意識することはない。例えば、電車に乗っている際の加速時又は減速時において、ヒトには、その慣性力と重力との合力が力として加わっているが、電車に乗っているヒトは、合力を感じず、移動方向への慣性力のみを感じる。   The same is true for gravity, and humans are not usually aware of their power. For example, when accelerating or decelerating while riding a train, the human being is applied with the resultant force of inertia and gravity as a force, but the human being on the train does not feel the resultant force and moves Feel only the inertial force in the direction.

このように、本実施の形態1では、ヒトの順応性が利用され、初期力Fを増加又は減少させることによって、遠隔操縦装置10に向かう方向の力覚と離れる方向の力覚との提示が可能となっている。 As described above, in the first embodiment, human adaptability is used, and the initial force F 0 is increased or decreased to present the sense of force toward the remote control device 10 and the sense of force away from the remote control device 10. Is possible.

続いて、図7を用いて、伝達部材12に与える引張力τ〜τの算出処理について具体的に説明する。図7(a)は、引張力の算出処理を説明するための図であり、図7(b)は、引張力の算出処理に用いられる座標軸を示す図である。 Subsequently, a calculation process of the tensile forces τ 1 to τ 3 applied to the transmission member 12 will be specifically described with reference to FIG. FIG. 7A is a diagram for explaining a tensile force calculation process, and FIG. 7B is a diagram illustrating coordinate axes used for the tensile force calculation process.

図7(a)及び図7(b)において、引張力τ〜τは、初期力Fを発生させるために必要となる引張力を除いた引張力であり、初期力Fに対して加算又は減算させる引張力である。また、図7(a)及び図7(b)において、座標軸の原点は、各伝達部材12の先端の位置とする。更に、x軸は表示画面の水平方向に平行な軸、y軸は表示画面の垂直方向に平行な軸、z軸は表示画面の法線に平行な軸とする。図7(b)において、単位ベクトルrの座標を、(r,ψ,θ)とする。この場合、引張力τ〜τは、目的の提示力を発揮するためには、下記の数1の関係を満たす必要がある。 7A and 7B, the tensile forces τ 1 to τ 3 are tensile forces excluding the tensile force necessary to generate the initial force F 0, and are equal to the initial force F 0. This is the tensile force that is added or subtracted. In FIG. 7A and FIG. 7B, the origin of the coordinate axes is the position of the tip of each transmission member 12. Furthermore, the x axis is an axis parallel to the horizontal direction of the display screen, the y axis is an axis parallel to the vertical direction of the display screen, and the z axis is an axis parallel to the normal line of the display screen. In FIG. 7B, the coordinates of the unit vector r are (r, ψ i , θ i ). In this case, the tensile forces τ 1 to τ 3 need to satisfy the relationship of the following formula 1 in order to exhibit the desired presentation force.

Figure 2015157323
Figure 2015157323

また、上記数1において、伝達部材12の引張力τ〜τはスカラー量であり、引張力τ〜τの方向ベクトルΦは、数2によって表わされる。 In the above formula 1, the tensile forces τ 1 to τ 3 of the transmission member 12 are scalar quantities, and the direction vector Φ i of the tensile forces τ 1 to τ 3 is expressed by the formula 2.

Figure 2015157323
Figure 2015157323

制御部14は、上記数1及び数2を用いることで、引張力τ〜τを算出することができる。また、上記数1に示すように、目的の提示力Fは、各伝達部材12の引張力から初期力Fを減算することによって得られている。このため、提示力Fが、遠隔操縦装置10から離れる方向(−z方向)の、初期力Fを超える力でない限りは、遠隔操縦装置10から離れる方向(−z方向)においても力覚の提示が可能となる。 The control unit 14 can calculate the tensile forces τ 1 to τ 3 by using the above formulas 1 and 2. Further, as shown in Equation 1, the target presentation force F is obtained by subtracting the initial force F 0 from the tensile force of each transmission member 12. For this reason, unless the presentation force F is a force that exceeds the initial force F 0 in the direction away from the remote control device 10 (−z direction), the force sense is also applied in the direction away from the remote control device 10 (−z direction). Presentation is possible.

なお、各伝達部材12の引張力の条件として、引張力τ、τ、τは、引っ張る方向にしか力を提示できないため、これらは必ず正の値をとる。また、各引張力の最低値をτminとした場合は、下記の数3が成立する。 Note that the tensile forces τ 1 , τ 2 , and τ 3 as the conditions of the tensile force of each transmission member 12 can only present a force in the pulling direction, and therefore always take positive values. Further, when the minimum value of each tensile force is τ min , the following formula 3 is established.

Figure 2015157323
Figure 2015157323

ところで、伝達部材12は、引っ張り方向の力しか伝達できないため、引張力τ、τ、τの合力によって、提示すべき力覚を提示できない状況が発生することがある(図8参照)。具体的には、装着部材13が、表示画面の法線に平行な方向(z軸方向)において、隣接する通し穴16を直線で結んで得られる領域(図8の領域X参照)と重ならない位置にある場合は、上記数1では、目的の提示力Fを算出できなくなる可能性がある。このような場合、本実施の形態1では、制御部14は、提示すべき力覚(提示力F)を設定し直し、設定し直した提示力Frが提示されるように、初期力Fを増加又は減少させる。以下に、上記再設定処理について具体的に説明する。 By the way, since the transmission member 12 can transmit only the force in the pulling direction, there may occur a situation where the force sense to be presented cannot be presented due to the resultant force of the tensile forces τ 1 , τ 2 , τ 3 (see FIG. 8). . Specifically, the mounting member 13 does not overlap with a region (see region X in FIG. 8) obtained by connecting adjacent through holes 16 with a straight line in a direction parallel to the normal line of the display screen (z-axis direction). If it is in the position, there is a possibility that the target presentation force F cannot be calculated in the above equation (1). In such a case, in the first embodiment, the control unit 14 resets the force sense (presentation force F) to be presented and the initial force F 0 so that the reset presentation force Fr is presented. Increase or decrease. The resetting process will be specifically described below.

図8は、提示力の再設定処理を説明するための図である。図8に示すように、例えば、装着部材13の位置(x、y、z)が、隣接する通し穴16を直線で結んで得られる領域Xとz軸方向において重ならない位置にある場合を想定する。   FIG. 8 is a diagram for explaining the presentation power resetting process. As shown in FIG. 8, for example, it is assumed that the position (x, y, z) of the mounting member 13 is in a position that does not overlap in the z-axis direction with a region X obtained by connecting adjacent through holes 16 with a straight line. To do.

図8に示す場合において、提示力Fのx軸方向の成分が正でない限り、各伝達部材12の張力をどのように設定しても、上記数1及び数2によって提示力Fを算出することは不可能である。一方、このような状況であっても、操縦者は、指を領域Xとz軸方向において重なる位置に移動させることはできる。従って、制御部14は、このような場合において、上記数1及び数2によって、引張力τ、τ、τを算出できるように、提示力Frを再設定する。 In the case shown in FIG. 8, as long as the component of the presentation force F in the x-axis direction is not positive, the presentation force F is calculated by the above formulas 1 and 2 regardless of how the tension of each transmission member 12 is set. Is impossible. On the other hand, even in such a situation, the pilot can move the finger to a position overlapping the region X in the z-axis direction. Therefore, in such a case, the control unit 14 resets the presentation force Fr so that the tensile forces τ 1 , τ 2 , and τ 3 can be calculated by the above formulas 1 and 2.

図8の例では、実際に、引張力τ、τ、及びτによって引っ張りたい方向は、提示力Fと初期力Fとの合力の方向である。しかし、この方向は、各伝達部材12の合力によって引っ張ることができる方向ではない。このため、制御部14は、提示力Fと初期力Fとの合力に最も近い力を、新たな提示力Frとして再設定する。 In the example of FIG. 8, the direction in which the tensile forces τ 1 , τ 2 , and τ 3 are actually pulled is the resultant force direction of the presentation force F and the initial force F 0 . However, this direction is not a direction that can be pulled by the resultant force of each transmission member 12. Therefore, the control unit 14, the closest force resultant force of the presentation force F and the initial force F 0, is re-set as the new presentation force Fr.

図8の例では、引張力τと引張力τとで発生させる提示力Frが、元の提示力Fと初期力Fとの合力に近くなる。そこで、制御部14は、引張力τと引張力τとを発生させる2本の伝達部材12によって作られる面に、元の提示力Fと初期力Fとの合力を回転射影することで、新しい提示力Frを再設定する。 In the example of FIG. 8, the presentation force Fr generated by the tensile force τ 1 and the tensile force τ 2 is close to the resultant force of the original presentation force F and the initial force F 0 . Therefore, the control unit 14 rotationally projects the resultant force of the original presentation force F and the initial force F 0 on the surface created by the two transmission members 12 that generate the tensile force τ 1 and the tensile force τ 2. Then, the new presentation force Fr is reset.

具体的には、引張力τと引張力τとを発生させる2本の伝達部材12によって作られる面への射影ベクトルVは、下記の数4によって表すことができる。下記の数4において変数「a」は、図8に示すように、回転射影を行なった場合の回転角度ωを最も小さくする位置、即ち、領域Xの表示画面の垂直方向における辺上の位置を割合で表わしている(0<a<1)。また、Φは通し穴16を基準にしたτの方向ベクトルである。Φは通し穴16を基準にしたτの方向ベクトルである。Φ及びΦは、上述の数2から求められる。 Specifically, the projection vector V onto the surface created by the two transmission members 12 that generate the tensile force τ 1 and the tensile force τ 2 can be expressed by the following equation (4). As shown in FIG. 8, the variable “a” in the following equation 4 represents the position on the side in the vertical direction of the display screen of the region X, that is, the position where the rotation angle ω when rotating projection is minimized. Expressed as a percentage (0 <a <1). Φ 1 is a direction vector of τ 1 with reference to the through hole 16. Φ 2 is a direction vector of τ 2 with respect to the through hole 16. Φ 1 and Φ 2 are obtained from the above-mentioned formula 2.

Figure 2015157323
Figure 2015157323

従って、制御部14は、下記数5を用いて、射影ベクトルVと元の提示力F及び初期力Fの合力との内積を、最も小さくする射影ベクトルを算出する。そして、制御部14は、算出した射影ベクトルを、下記の数6に適用して、新たな提示力Frを算出する。その後、制御部14は、新たな提示力Frを用いて、各伝達部材12の引張力τ、τ、τを算出し、これらが発生するように制御データを生成し、各駆動部11に出力する。 Accordingly, the control unit 14 uses the following equation 5, the inner product of the resultant force of the projection vector V and the original presentation force F and the initial force F 0, calculates a projection vector be minimized. Then, the control unit 14 calculates a new presentation force Fr by applying the calculated projection vector to the following Expression 6. Thereafter, the control unit 14 calculates the tensile forces τ 1 , τ 2 , and τ 3 of each transmission member 12 using the new presentation force Fr, generates control data so that these are generated, and generates each drive unit. 11 is output.

Figure 2015157323
Figure 2015157323

Figure 2015157323
Figure 2015157323

[実施の形態1における変形例]
上述した例では、伝達部材12は三本であるが、本実施の形態1では、伝達部材12の数は特に限定されるものではない。伝達部材12の数は、遠隔操縦装置10を大型化させない範囲で設定されていれば良い。
[Modification in Embodiment 1]
In the example described above, there are three transmission members 12, but in the first embodiment, the number of transmission members 12 is not particularly limited. The number of the transmission members 12 should just be set in the range which does not enlarge the remote control apparatus 10. FIG.

上述した例では、駆動部11としてモータが用いられているが、本実施の形態1では、駆動部はモータに限定されない。駆動部11は、駆動部材を引っ張ることが可能なアクチュエータであれば良く、駆動部11としては、他に、伸張動作を行なう人工筋肉アクチュエータ、繊維状の形状記憶合金アクチュエータ、などが挙げられる。   In the example described above, a motor is used as the drive unit 11. However, in the first embodiment, the drive unit is not limited to a motor. The drive unit 11 may be an actuator that can pull the drive member. Examples of the drive unit 11 include an artificial muscle actuator that performs an extension operation, and a fibrous shape memory alloy actuator.

また、上述した例では、位置検出部30として、伝達部材の長さを特定するエンコーダが用いられているが、本実施の形態1では、位置検出部30は、エンコーダ以外であっても良い。例えば、位置検出部30としては、遠隔操縦装置の背面に設置されたカメラを用いることができる。この場合は、装着部材13の位置が光学的に検出される。また、位置検出部30として、遠隔操縦装置の背面に設置された磁気センサを用いることができる。この場合は、磁気を発する材料で装着部材13を形成することによって、装着部材13の位置検出が可能となる。   Moreover, in the example mentioned above, the encoder which specifies the length of a transmission member is used as the position detection part 30, However, In this Embodiment 1, the position detection part 30 may be other than an encoder. For example, as the position detection unit 30, a camera installed on the back of the remote control device can be used. In this case, the position of the mounting member 13 is optically detected. Further, a magnetic sensor installed on the back surface of the remote control device can be used as the position detection unit 30. In this case, the position of the mounting member 13 can be detected by forming the mounting member 13 from a material that generates magnetism.

また、上述した例では、図5に示したように、伝達部材12を引張し始める位置である通し穴16の位置は、縦方向をh、横方向をwとした直角三角形の頂点位置に設定されているが、本実施の形態1において、通し穴16の位置は特に限定されるものではない。また、全ての通し穴は、同一平面内に配置されていなくても良い。通し穴16の位置は、遠隔操縦装置10の厚みが許す範囲で適宜設定される。   Further, in the above-described example, as shown in FIG. 5, the position of the through hole 16, which is the position where the transmission member 12 starts to be pulled, is set at the apex position of a right triangle with the vertical direction being h and the horizontal direction being w. However, in the first embodiment, the position of the through hole 16 is not particularly limited. Further, all the through holes may not be arranged in the same plane. The position of the through hole 16 is appropriately set within the range allowed by the thickness of the remote control device 10.

また、上述した例では、遠隔操縦装置10の背面側を操作空間にして、力覚が提示されているが、本実施の形態1では、遠隔操縦装置10の表示画面側の空間が操作空間となっていても良い。但し、この場合は、初期力Fの方向は、z軸において負の方向となる(図6及び7(a)参照)。 In the example described above, the sense of force is presented with the back side of the remote control device 10 as the operation space, but in the first embodiment, the space on the display screen side of the remote control device 10 is the operation space. It may be. However, in this case, the direction of the initial force F 0 is a negative direction in the z-axis (see FIGS. 6 and 7 (a)).

上述した例では、遠隔操縦装置は、タブレット状に形成されているが、本実施の形態1は、これに限定されるものではない。遠隔操縦装置は、例えば、操縦者の顔面に装着されるヘッドマウントディスプレイに組み込まれていても良い。この場合、操縦者は、ヘッドマウントディスプレイ内側の表示パネルに映し出されているコンテンツを見ながら、ヘッドマウントディスプレイの前方で、装着部材を装着した指を動かすことで、触った感覚を感じることができる。   In the example described above, the remote control device is formed in a tablet shape, but the first embodiment is not limited to this. The remote control device may be incorporated in, for example, a head mounted display that is attached to the face of the operator. In this case, the operator can feel the touch feeling by moving the finger wearing the mounting member in front of the head mounted display while viewing the content displayed on the display panel inside the head mounted display. .

また、図9は、本発明の実施の形態1における遠隔操縦装置の他の例を示す斜視図である。図9に示すように、本実施の形態1では、遠隔操縦装置10を構成している筐体51には、装着部材13を収容するための凹部18と、伝達部材12を収容するための溝19とが形成されているのが好ましい。図9に示す態様とした場合は、操縦者において、遠隔操縦装置10の持ち運びが容易なものとなる。   FIG. 9 is a perspective view showing another example of the remote control device according to Embodiment 1 of the present invention. As shown in FIG. 9, in the first embodiment, the housing 51 constituting the remote control device 10 has a recess 18 for housing the mounting member 13 and a groove for housing the transmission member 12. 19 is preferably formed. In the case shown in FIG. 9, it is easy for the operator to carry the remote control device 10.

また、図1に示したように、上述の例では、移動装置60の具体例として、作業用のロボットが例示されているが、本実施の形態1では、移動装置60は特に限定されることはない。移動装置60は、ロボット以外、例えば、車両、飛行機、ヘリコプター、船舶、又はこれらの模型であっても良い。   As shown in FIG. 1, in the above example, a working robot is illustrated as a specific example of the moving device 60. However, in the first embodiment, the moving device 60 is particularly limited. There is no. The moving device 60 may be a vehicle, an airplane, a helicopter, a ship, or a model thereof other than the robot.

更に、本実施の形態1は、移動装置60が、外部との接触を検知する接触センサを搭載し、検出された接触を特定するデータを遠隔操縦装置10に送信する、態様であっても良い。この場合、情報処理部40は、送信されてきたデータに基づいて、移動装置60が外部から受けた力を算出し、更に、この算出した力に対応する力を、操縦用オブジェクト101に与える。この場合、操縦用オブジェクト101に与えられた力は、ユーザオブジェクト102が受ける反力に加味されるので、操縦者200は、移動装置60が外部から受けた力も力覚として感じることができる。   Further, the first embodiment may be an aspect in which the moving device 60 is equipped with a contact sensor that detects contact with the outside, and transmits data specifying the detected contact to the remote control device 10. . In this case, the information processing unit 40 calculates a force received from the outside by the mobile device 60 based on the transmitted data, and further gives the steering object 101 a force corresponding to the calculated force. In this case, since the force applied to the steering object 101 is added to the reaction force received by the user object 102, the pilot 200 can also feel the force received from the outside by the moving device 60 as a force sense.

[プログラム]
ここで、遠隔操縦装置10を実現するためのプログラムについて説明する。本実施の形態1においては、プログラムは、コンピュータに、図4に示すステップS101〜S107を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における遠隔操縦装置10を実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、遠隔操縦部41、情報処理部40、及び制御部14として機能し、処理を行なう。
[program]
Here, a program for realizing the remote control device 10 will be described. In the first embodiment, the program may be any program that causes a computer to execute steps S101 to S107 shown in FIG. By installing and executing this program on a computer, the remote control device 10 according to the first embodiment can be realized. In this case, a central processing unit (CPU) of the computer functions as the remote control unit 41, the information processing unit 40, and the control unit 14, and performs processing.

また、遠隔操縦装置10を実現可能なコンピュータは、特に限定されず、上述したマイコンであっても良いし、汎用のパーソナルコンピュータであっても良い。更に、遠隔操縦装置10を実現可能なコンピュータは、携帯電話、スマートフォン、又はタブレット型の遠隔操縦装置に備えられているコンピュータであっても良い。   Moreover, the computer which can implement | achieve the remote control apparatus 10 is not specifically limited, The microcomputer mentioned above may be sufficient and a general purpose personal computer may be sufficient. Further, the computer capable of realizing the remote control device 10 may be a computer provided in a mobile phone, a smartphone, or a tablet-type remote control device.

また、本実施の形態1におけるプログラムは、コンピュータで読み取り可能な記録媒体に記録された状態で提供されても良いし、インターネットを介して送信されても良い。なお、記録媒体の具体例としては、CF(Compact Flash)及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。   Further, the program according to the first embodiment may be provided in a state of being recorded on a computer-readable recording medium, or may be transmitted via the Internet. Specific examples of the recording medium include general-purpose semiconductor storage devices such as CF (Compact Flash) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD-ROM (Compact Disk Read). An optical storage medium such as “Only Memory”.

[実施の形態1における効果]
以上のように、本実施の形態1では、操縦者は、遠隔操縦装置の表示画面に映し出される映像を見ながら、装着部材13を装着した指で、表示画面上の操縦用オブジェクトを動かすことで、移動装置を遠隔操縦することができる。また、このとき、操縦者には、操縦用オブジェクトからの反力が力覚として伝達されるので、操縦者は、移動装置がどちらに進もうとしているのかを感覚で知ることができる。従って、遠隔操縦装置10によれば、ジョイスティック等の従来からの遠隔操縦装置を用いる場合に比べて、操作性の向上が図られることになる。
[Effect in Embodiment 1]
As described above, in the first embodiment, the operator moves the steering object on the display screen with the finger wearing the mounting member 13 while watching the video displayed on the display screen of the remote control device. The mobile device can be remotely controlled. At this time, since the reaction force from the steering object is transmitted to the pilot as a force sense, the pilot can know to which direction the moving device is going. Therefore, according to the remote control device 10, the operability is improved as compared with the case where a conventional remote control device such as a joystick is used.

例えば、ジョイスティックによって作業用のロボットを操縦する場合は、車両を操縦する場合と異なり、前後方向、左右方向、及び上下方向に動かすために、2本のジョイスティックが必要となり、思い通りに動かすためには、慣れが必要となる。しかし、本実施の形態1では、操縦者は指一本で簡単に操縦できるので、思い通り動かすために慣れは必要なく、操作性の向上が図られる。   For example, when manipulating a working robot with a joystick, unlike in the case of maneuvering a vehicle, two joysticks are required to move in the front-rear direction, the left-right direction, and the up-down direction. , Familiarity is required. However, in the first embodiment, the operator can easily operate with one finger, so that he / she does not need to get used to moving it as he wishes, and the operability is improved.

また、本実施の形態1では、操縦者は、力覚によって、操縦用オブジェクトの元の位置及び状態を知ることができるので、この点からも操作性の向上が図られる。更に、本実施の形態1では、十分に大きな操作範囲が確保でき、二次元的に広いだけでなく、奥行き方向も含めた広い範囲での三次元的な力覚の提示が可能となる。   Further, in the first embodiment, since the driver can know the original position and state of the steering object by force sense, the operability can be improved also from this point. Further, in the first embodiment, a sufficiently large operation range can be secured, and not only two-dimensionally wide but also three-dimensional force sense can be presented in a wide range including the depth direction.

また、本実施の形態1では、力覚の発生は、ヒトの知覚特性を考慮して行なわれているため、発生した力覚は、操縦者にとって違和感のないものとなる。更に、伝達部材の長さを確保することで、操縦者は指を大きく動かすことができ、この点からも、力覚は、操縦者にとって違和感のないものとなる。   Further, in the first embodiment, the force sensation is generated in consideration of human perceptual characteristics, so that the generated force sensation is not uncomfortable for the driver. Furthermore, by securing the length of the transmission member, the operator can move his / her finger greatly. From this point, the sense of force is not uncomfortable for the operator.

また、伝達部材として紐状の部材等を用いることができるので、操縦装置及び操縦システムの複雑化を抑制できる。更に、モータ等を空間的に配置する必要がないので、遠隔操縦装置の大型化も抑制される。このため、本実施の形態1によれば、製造コストの低減と機動性の向上とを図ることが可能となる。   Moreover, since a string-like member or the like can be used as the transmission member, it is possible to suppress complication of the control device and the control system. Furthermore, since it is not necessary to arrange a motor etc. spatially, the enlargement of the remote control device is also suppressed. For this reason, according to this Embodiment 1, it becomes possible to aim at reduction of manufacturing cost and improvement of mobility.

(実施の形態2)
次に本発明の実施の形態2における、遠隔操縦装置、及び遠隔操縦システムについて、図10〜図13を参照しながら説明する。
(Embodiment 2)
Next, a remote control device and a remote control system in Embodiment 2 of the present invention will be described with reference to FIGS.

[システム構成、装置構成]
最初に、図10及び図11を用いて、本実施の形態2における遠隔操縦装置及び遠隔操縦システムの構成を説明する。図10は、本発明の実施の形態2における遠隔操縦システムの概略構成を俯瞰的に示す図である。図11は、本発明の実施の形態2における遠隔操縦装置の各構成部品を示す分解斜視図である。
[System configuration, device configuration]
First, the configuration of the remote control device and the remote control system according to the second embodiment will be described with reference to FIGS. 10 and 11. FIG. 10 is a diagram showing a schematic configuration of the remote control system according to the second embodiment of the present invention. FIG. 11 is an exploded perspective view showing each component of the remote control device according to the second embodiment of the present invention.

図10に示すように、本実施の形態2における遠隔操縦システム110は、実施の形態1と同様に、移動装置60と、それを遠隔から操縦するための遠隔操縦装置80とを備えている。但し、本実施の形態2では、遠隔操縦装置80は、実施の形態1と異なり、装着部材13に加え、別の装着部材81も備えている。また、装着部材13と装着部材81は、それぞれ、操縦者200の別々の指に装着される。更に、遠隔操縦装置80は、装着部材13に相当するユーザオブジェクト102に加え、装着部材81に相当するユーザオブジェクト103も作成し、これについても仮想空間内に配置し、カメラ61からの映像に重ね合わせる。   As shown in FIG. 10, the remote control system 110 according to the second embodiment includes a moving device 60 and a remote control device 80 for remotely controlling the mobile device 60 as in the first embodiment. However, in the second embodiment, unlike the first embodiment, the remote control device 80 includes another mounting member 81 in addition to the mounting member 13. Further, the mounting member 13 and the mounting member 81 are mounted on separate fingers of the operator 200, respectively. In addition to the user object 102 corresponding to the mounting member 13, the remote control device 80 also creates a user object 103 corresponding to the mounting member 81, which is also placed in the virtual space and superimposed on the video from the camera 61. Match.

また、遠隔操縦装置80は、装着部材13と同様に、装着部材81の位置も検出し、検出した位置に応じて、仮想空間内で、ユーザオブジェクト103を移動させることもできる。このため、本実施の形態2では、操縦者200は、2本の指によるユーザオブジェクト102及び103の操作によって、操縦用オブジェクト101を掴むことができ、その状態で、操縦用オブジェクト101を回転させたり、前後に動かしたりすることができる。   Similarly to the mounting member 13, the remote control device 80 also detects the position of the mounting member 81, and can move the user object 103 in the virtual space according to the detected position. For this reason, in the second embodiment, the pilot 200 can grasp the steering object 101 by operating the user objects 102 and 103 with two fingers, and in this state, rotates the steering object 101. Or move back and forth.

そして、遠隔操縦装置80は、このときに操縦用オブジェクト101に与えられた外力を算出し、この外力によって操縦用オブジェクト101に生じた変化を特定する。また、遠隔操縦装置80は、特定した変化と同様の変化が、移動装置60に生じるように、移動装置60に対して動作を指示すると共に、操縦者200に、外力の反力を力覚として提示する。   Then, the remote control device 80 calculates the external force applied to the control object 101 at this time, and identifies the change caused in the control object 101 by this external force. In addition, the remote control device 80 instructs the moving device 60 so that a change similar to the specified change occurs in the moving device 60, and also gives the operator 200 the reaction force of the external force as a force sense. Present.

このように、本実施の形態2においても、実施の形態1と同様に、操縦用オブジェクト101を動かすことで、移動装置60を遠隔操縦することができるが、本実施の形態2では、更に、これを掴むことができるので、よりいっそう操作性が向上することになる。   As described above, in the second embodiment, as in the first embodiment, the moving device 60 can be remotely controlled by moving the steering object 101. However, in the second embodiment, further, Since this can be grasped, the operability is further improved.

続いて、図11を用いて、遠隔操縦装置80の内部構成について説明する。なお、本実施の形態2は、装着部材81が備えられている点と、これに伴う機構及び処理の増加の点とで、実施の形態1と相違しているが、他の点は、実施の形態1と同様である。よって、以降においては、実施の形態1との相違点を中心に説明する。   Next, the internal configuration of the remote control device 80 will be described with reference to FIG. The second embodiment is different from the first embodiment in that the mounting member 81 is provided and the mechanism and processing increase associated therewith, but the other points are different from the first embodiment. This is the same as the first embodiment. Therefore, hereinafter, the description will focus on differences from the first embodiment.

図11に示すように、遠隔操縦装置80は、図2に示した遠隔操縦装置10の構成に加えて、装着部材81と、伝達部材82と、駆動部83とを更に備えている。このうち、伝達部材82は、遠隔操縦装置80から、装着部材81へと伸びて、装着部材81に引張力を伝達する。駆動部83は、引張力を発生させて、それを伝達部材82に与える。このように、本実施の形態2では、装着部材81には、装着部材13とは別のルートで引張力が与えられる。   As shown in FIG. 11, the remote control device 80 further includes a mounting member 81, a transmission member 82, and a drive unit 83 in addition to the configuration of the remote control device 10 shown in FIG. 2. Among these, the transmission member 82 extends from the remote control device 80 to the mounting member 81 and transmits a tensile force to the mounting member 81. The drive unit 83 generates a tensile force and gives it to the transmission member 82. As described above, in the second embodiment, the mounting member 81 is given a tensile force by a route different from that of the mounting member 13.

但し、本実施の形態2においても、伝達部材82としては、操縦者200に装着される装着部材81へと伸びる紐状の部材、例えば、ワイヤーが用いられる。また、駆動部83も、駆動部11と同様に、プーリ15が軸に取り付けられたモータであり、対応する伝達部材82をプーリ15で巻き取ることによって、対応する伝達部材82に、引張力を与えている。更に、伝達部材82の一端はプーリ15に固定されている。   However, also in the second embodiment, as the transmission member 82, a string-like member that extends to the attachment member 81 attached to the operator 200, for example, a wire is used. Similarly to the drive unit 11, the drive unit 83 is also a motor in which the pulley 15 is attached to the shaft. By winding the corresponding transmission member 82 with the pulley 15, a tensile force is applied to the corresponding transmission member 82. Giving. Further, one end of the transmission member 82 is fixed to the pulley 15.

更に、筐体51の底面には、各伝達部材82毎にも、通し穴16が設けられている。よって、各伝達部材82も、伝達部材12と同様に、通し穴16を経由して、遠隔操縦装置80の背面側へと伸びる。なお、各通し穴16の位置も、特に限定されないが、後述するように、装着部材81による力覚の提示範囲も、対応する通し穴16の位置によって決定される(図8の領域X参照)。よって、伝達部材82を通すための各通し穴16の位置も、求められる提示範囲を考慮した上で決定される。   Further, through holes 16 are provided on the bottom surface of the casing 51 for each transmission member 82. Therefore, each transmission member 82 also extends to the back side of the remote control device 80 via the through hole 16 in the same manner as the transmission member 12. Although the position of each through hole 16 is not particularly limited, as described later, the force sense presentation range by the mounting member 81 is also determined by the position of the corresponding through hole 16 (see region X in FIG. 8). . Therefore, the position of each through hole 16 for passing the transmission member 82 is also determined in consideration of the required presentation range.

また、本実施の形態2においては、位置検出部30は、各駆動部83にも設けられている。駆動部83に設けられた位置検出部30は、装着部材81の位置を検出するための位置検出データを、情報処理部40に出力する。   In the second embodiment, the position detection unit 30 is also provided in each drive unit 83. The position detection unit 30 provided in the drive unit 83 outputs position detection data for detecting the position of the mounting member 81 to the information processing unit 40.

続いて、図12を用いて、本実施の形態2における遠隔操縦システム110及び遠隔操縦装置80でやり取りされるデータについて説明する。図12は、本発明の実施の形態2における遠隔操縦システム及び遠隔操縦装置の構成を示すブロック図である。なお、以下の説明では、適宜図10及び図11を参酌する。   Next, data exchanged between the remote control system 110 and the remote control device 80 according to the second embodiment will be described with reference to FIG. FIG. 12 is a block diagram showing the configurations of the remote control system and the remote control device in the second embodiment of the present invention. In the following description, FIGS. 10 and 11 are referred to as appropriate.

図11に示すように、遠隔操縦装置80は、図3に示された構成に加え、装着部材81と、伝達部材82と、駆動部83とを備えている。また、駆動部83も、駆動部11と同様に、制御部14に接続されている。   As shown in FIG. 11, the remote control device 80 includes a mounting member 81, a transmission member 82, and a drive unit 83 in addition to the configuration shown in FIG. 3. The drive unit 83 is also connected to the control unit 14 in the same manner as the drive unit 11.

情報処理部40は、実施の形態1と同様の処理を実行するが、これに加えて、装着部材81の増設に伴う新たな処理も実行する。以下に具体的に説明する。   The information processing unit 40 executes the same process as that of the first embodiment, but in addition to this, also executes a new process associated with the addition of the mounting member 81. This will be specifically described below.

例えば、操縦者200(図10参照)が、装着部材81を装着した指を動かしたとする。この場合、対応する位置検出部30が、位置検出データを情報処理部40に出力するので、情報処理部40は、装着部材81の位置を算出する。具体的には、情報処理部40は、まず、予め登録されている、伝達部材82の全長、プーリ15の直径、プーリ15から通し穴16までの距離等に基づいて、各伝達部材82の通し穴16から装着部材81までの長さを算出する。次に、情報処理部40は、算出された各伝達部材82の長さに基づいて、装着部材81の位置、即ち、操作原点を基準とした座標を算出する。   For example, it is assumed that the operator 200 (see FIG. 10) moves the finger on which the mounting member 81 is mounted. In this case, since the corresponding position detection unit 30 outputs the position detection data to the information processing unit 40, the information processing unit 40 calculates the position of the mounting member 81. Specifically, the information processing unit 40 first passes through each transmission member 82 based on the pre-registered total length of the transmission member 82, the diameter of the pulley 15, the distance from the pulley 15 to the through hole 16, and the like. The length from the hole 16 to the mounting member 81 is calculated. Next, the information processing section 40 calculates the position of the mounting member 81, that is, the coordinates based on the operation origin based on the calculated length of each transmission member 82.

また、情報処理部40は、メモリ空間に構築された仮想空間内に、装着部材81に相当するユーザオブジェクト103(図10参照)を作成する。そして、情報処理部40は、算出した装着部材81の座標を、仮想空間内に設定された対応原点に適用して、ユーザオブジェクト103の位置(座標)を算出し、算出した位置に、ユーザオブジェクト103を配置する。更に、情報処理部40は、操縦用オブジェクト101及びユーザオブジェクト102と共に、ユーザオブジェクト103も、カメラ61からの映像に重ね合わせる。   Further, the information processing unit 40 creates a user object 103 (see FIG. 10) corresponding to the mounting member 81 in a virtual space constructed in the memory space. Then, the information processing unit 40 applies the calculated coordinates of the mounting member 81 to the corresponding origin set in the virtual space, calculates the position (coordinates) of the user object 103, and sets the user object at the calculated position. 103 is arranged. Further, the information processing unit 40 superimposes the user object 103 on the video from the camera 61 together with the steering object 101 and the user object 102.

また、情報処理部40は、ユーザオブジェクト103が操縦用オブジェクト101に外力を与えた場合も、その外力を算出し、そして、算出した外力によって操縦用オブジェクト101に生じた変化を特定する。   In addition, even when the user object 103 applies an external force to the steering object 101, the information processing unit 40 calculates the external force and identifies a change that has occurred in the steering object 101 due to the calculated external force.

具体的には、本実施の形態2では、情報処理部40は、操縦用オブジェクト101の位置、ユーザオブジェクト102の位置、ユーザオブジェクト103の位置、それぞれを互いに比較する。そして、情報処理部40は、操縦用オブジェクト101がユーザオブジェクト102及び103によって掴まれた状態にあるかどうかを判定する。   Specifically, in the second embodiment, the information processing unit 40 compares the position of the steering object 101, the position of the user object 102, and the position of the user object 103 with each other. Then, the information processing unit 40 determines whether or not the steering object 101 is held by the user objects 102 and 103.

そして、判定の結果、掴まれた状態にある場合は、情報処理部40は、ユーザオブジェクト102及び103の現在の位置とそれ以前に算出した位置とから、ユーザオブジェクト102及び103の動きを特定する。更に、情報処理部40は、特定した両者の動きから、操縦用オブジェクト101に加えられた外力を算出し、それに生じた変化として、移動方向とこの移動方向への加速度とを特定する。   If the result of determination is that the user object is in a grasped state, the information processing unit 40 identifies the movement of the user objects 102 and 103 from the current position of the user objects 102 and 103 and the position calculated before that. . Furthermore, the information processing unit 40 calculates the external force applied to the steering object 101 from the identified movements, and identifies the movement direction and the acceleration in this movement direction as the change that has occurred.

また、情報処理部40は、操縦用オブジェクト101を、特定した移動方向に、特定した加速度で動かして、変化を反映させて、反映後の操縦用オブジェクト101を表示する表示データを作成し、これを表示部20に出力する。   In addition, the information processing unit 40 moves the steering object 101 in the specified movement direction with the specified acceleration, reflects the change, and creates display data for displaying the reflected steering object 101. Is output to the display unit 20.

更に、情報処理部40は、移動装置60を、特定した移動方向に、特定した加速度で移動させるため、そのことを指示する操縦用データを作成し、これを遠隔操縦部41に出力する。また、情報処理部40は、ユーザオブジェクト102及び103それぞれ毎に、反力を求め、各反力を特定する提示力データを制御部14に出力する。   Furthermore, in order to move the moving device 60 in the specified moving direction with the specified acceleration, the information processing unit 40 creates steering data instructing this and outputs this to the remote control unit 41. In addition, the information processing unit 40 obtains a reaction force for each of the user objects 102 and 103 and outputs presentation force data specifying each reaction force to the control unit 14.

制御部14は、本実施の形態では、駆動部11だけでなく、駆動部83にも、予め初期力を発生させておき、ユーザオブジェクト103における反力が、力覚として、装着部材81を介して操縦者200に伝達されるように、駆動部83初期力を増加又は減少させる。よって、本実施の形態2では、操縦者200には、装着部材13及び装着部材81のいずれか又は両方を介して力覚が提示される。   In the present embodiment, the control unit 14 generates an initial force not only in the driving unit 11 but also in the driving unit 83 in advance, and the reaction force in the user object 103 is sensed as a force sense via the mounting member 81. The initial force of the drive unit 83 is increased or decreased so as to be transmitted to the operator 200. Therefore, in the second embodiment, a force sense is presented to the operator 200 via one or both of the mounting member 13 and the mounting member 81.

遠隔操縦部41は、実施の形態1と同様に、情報処理部40から操縦用データが出力されてくると、操縦用データが通知する内容に応じて、移動装置60に実行させる命令を作成する。また、通信部42は、実施の形態1と同様に、移動装置60から送信されてくる映像データの受信と、遠隔操縦部41が作成した命令の送信とを実行する。   Similarly to the first embodiment, when the steering data is output from the information processing unit 40, the remote control unit 41 creates a command to be executed by the mobile device 60 according to the content notified by the steering data. . Similarly to the first embodiment, the communication unit 42 receives video data transmitted from the mobile device 60 and transmits a command created by the remote control unit 41.

[装置動作]
次に、本発明の実施の形態2における遠隔操縦装置80の動作について図13を用いて説明する。図13は、本発明の実施の形態2における遠隔操縦装置の動作を示すフロー図である。なお、以下の説明においては、適宜図10〜図12を参酌する。
[Device operation]
Next, the operation of the remote control device 80 according to Embodiment 2 of the present invention will be described with reference to FIG. FIG. 13 is a flowchart showing the operation of the remote control device in the second embodiment of the present invention. In the following description, FIGS. 10 to 12 are referred to as appropriate.

まず、本実施の形態2においても、前提として、移動装置60から、カメラ61で撮影された映像の映像データが遠隔操縦装置80へと送信されており、遠隔操縦装置80の表示画面21には、カメラ61で撮影された映像が表示されているとする。また、遠隔操縦装置80において、情報処理部40は、操縦オブジェクト101、ユーザオブジェクト102、及びユーザオブジェクト103を構築し、これらを仮想空間内に配置すると共に、表示画面21に、これらの映像も重ねて表示させているとする。   First, also in the second embodiment, as a premise, video data of a video taken by the camera 61 is transmitted from the mobile device 60 to the remote control device 80, and the display screen 21 of the remote control device 80 is displayed on the display screen 21. Assume that an image captured by the camera 61 is displayed. In the remote control device 80, the information processing unit 40 constructs the control object 101, the user object 102, and the user object 103, arranges them in the virtual space, and superimposes these images on the display screen 21. Is displayed.

最初に、操縦者200が、遠隔操縦装置80の背面の空間において、移動装置60を操縦するため、装着部材13が装着された指と装着部材81が装着された指とを動かす。これにより、図12に示したように、位置検出部30それぞれは、位置検出データを、情報処理部40に出力する。   First, the pilot 200 moves the finger on which the mounting member 13 is mounted and the finger on which the mounting member 81 is mounted in order to control the moving device 60 in the space behind the remote control device 80. Thereby, as illustrated in FIG. 12, each of the position detection units 30 outputs the position detection data to the information processing unit 40.

次に、図13に示すように、情報処理部40は、出力されてきた位置検出データに基づいて、各伝達部材12の通し穴16から装着部材13までの長さを算出し、更に、算出された各伝達部材12の長さに基づいて、装着部材13の位置(座標)を算出する(S201)。また、ステップS201では、情報処理部40は、装着部材13と同様に、装置着部材81の位置(座標)も算出する。   Next, as shown in FIG. 13, the information processing unit 40 calculates the length from the through hole 16 of each transmission member 12 to the mounting member 13 based on the output position detection data, and further calculates The position (coordinates) of the mounting member 13 is calculated based on the lengths of the transmission members 12 (S201). In step S <b> 201, the information processing unit 40 also calculates the position (coordinates) of the device attachment member 81 in the same manner as the attachment member 13.

更に、ステップS201では、情報処理部40は、装着部材13及び81の位置と仮想空間に設定された対応原点とから、ユーザオブジェクト102及び103の仮想空間での位置(座標)を算出し、算出した位置に、ユーザオブジェクト102及び103を配置する。   In step S201, the information processing unit 40 calculates the positions (coordinates) of the user objects 102 and 103 in the virtual space from the positions of the mounting members 13 and 81 and the corresponding origin set in the virtual space. The user objects 102 and 103 are placed at the positions.

次に、情報処理部40は、操縦用オブジェクト101の位置と、ステップS201で算出したユーザオブジェクト102及び103の位置とを比較し、操縦用オブジェクト101がユーザオブジェクト102及び103によって掴まれた状態にあるかどうかを判定する(ステップS202)。   Next, the information processing unit 40 compares the position of the steering object 101 with the positions of the user objects 102 and 103 calculated in step S <b> 201, so that the steering object 101 is held by the user objects 102 and 103. It is determined whether or not there is (step S202).

ステップS202の判定の結果、操縦用オブジェクト101が掴まれた状態にない場合は、情報処理部40は、次に装着部材13及び81の位置が変わるまで待機状態となり、装着部材13及び81の位置が変わると、再度ステップS201を実行する。   If the result of the determination in step S202 is that the steering object 101 is not in a gripped state, the information processing unit 40 is in a standby state until the position of the mounting members 13 and 81 changes next, and the position of the mounting members 13 and 81 If changed, step S201 is executed again.

一方、ステップS202の判定の結果、操縦用オブジェクト101が掴まれた状態にある場合は、情報処理部40は、ユーザオブジェクト102の現在の位置とそれ以前に算出した位置とから、ユーザオブジェクト102及び103の動きを特定する。更に、情報処理部40は、特定した動きから、操縦用オブジェクト101に加えられた外力を算出すると共に、この外力によって操縦用オブジェクト101に生じる変化を特定する(ステップS203)。   On the other hand, if the result of determination in step S202 is that the steering object 101 has been grabbed, the information processing unit 40 calculates the user object 102 and the user object 102 from the current position of the user object 102 and the previously calculated position. The movement of 103 is specified. Further, the information processing unit 40 calculates an external force applied to the steering object 101 from the specified movement, and specifies a change that occurs in the steering object 101 due to the external force (step S203).

次に、情報処理部40は、ユーザオブジェクト102及び103それぞれについて、ステップS203で算出された外力に対する反力を求め、求めた各反力を特定する提示力データを作成する(ステップ204)。また、ステップS204では、情報処理部40は、提示力データを制御部14に出力する。   Next, the information processing unit 40 obtains reaction force against the external force calculated in step S203 for each of the user objects 102 and 103, and creates presentation force data for specifying each obtained reaction force (step 204). In step S <b> 204, the information processing unit 40 outputs presentation force data to the control unit 14.

次に、情報処理部40は、操縦用オブジェクト101において、特定した変化を反映させ、更に、反映後の操縦用オブジェクト101を表示する表示データを作成し、これを表示部20に出力する(ステップS205)。   Next, the information processing unit 40 reflects the specified change in the steering object 101, further creates display data for displaying the reflected steering object 101, and outputs the display data to the display unit 20 (step). S205).

次に、情報処理部40は、ステップS203で特定した変化を通知する操縦用データを作成し、これを遠隔操縦部41に出力する。これにより、遠隔操縦部41は、操縦用データが通知する内容に応じて、移動装置60に実行させる命令を作成し、通信部42に、作成した命令を送信させる(ステップS206)。そして、ステップS206が実行されると、移動装置60は、受信した命令に応じた動作を実行する。   Next, the information processing unit 40 creates steering data for notifying the change specified in step S203 and outputs this to the remote control unit 41. Thereby, the remote control unit 41 creates a command to be executed by the mobile device 60 according to the content notified by the steering data, and causes the communication unit 42 to transmit the created command (step S206). When step S206 is executed, the mobile device 60 executes an operation according to the received command.

次に、制御部14は、ステップS204で作成された提示力データを受け取ると、駆動部11それぞれが出力すべき引張力と、駆動部83それぞれが出力すべき引張力とを算出する(ステップS207)。また、ステップS207では、制御部14は、更に、各駆動部11に引張力を発生させる制御データと、各駆動部83に引張力を発生させる制御データとを生成し、これらを各駆動部に出力する。   Next, when receiving the presentation force data created in step S204, the control unit 14 calculates the tensile force that each of the driving units 11 should output and the tensile force that each of the driving units 83 should output (step S207). ). In step S207, the control unit 14 further generates control data for causing each driving unit 11 to generate a tensile force and control data for causing each driving unit 83 to generate a tensile force. Output.

ステップS207が実行されると、遠隔操縦装置10において、各駆動部11及び83を構成する各モータは、制御データに応じて回転して、対応する伝達部材を引っ張り、操縦者200の指先に、装着部材13及び81を介して力覚を提示する(ステップS208)。   When step S207 is executed, in the remote control device 10, each motor constituting each drive unit 11 and 83 rotates according to the control data, pulls the corresponding transmission member, and at the fingertip of the operator 200, A sense of force is presented through the mounting members 13 and 81 (step S208).

そして、ステップS201〜S208は、繰り返し実行されるので、操縦者200は、2本の指を動かして、ユーザオブジェクト102及び103によって操縦用オブジェクト101を掴んで、これを動かすことで、移動装置60を操作することができる。その間、操縦者200は、連続して、2本の指において力覚の提示を受けることができる。   Since steps S201 to S208 are repeatedly executed, the operator 200 moves two fingers, grasps the maneuvering object 101 by the user objects 102 and 103, and moves it to move the moving device 60. Can be operated. Meanwhile, the pilot 200 can continuously receive a force sense presentation with two fingers.

また、本実施の形態2でも、実施の形態1と同様に、情報処理部40は、操縦用オブジェクト101の位置及び向きの一方又は両方が大きく変化する程、外力の値を大きく算出することができる。この場合、操縦者200は、現在行っている操作を力覚によって認識することができるので、操作性がいっそう向上することになる。   Also in the second embodiment, as in the first embodiment, the information processing unit 40 can calculate the value of the external force to be larger as one or both of the position and orientation of the steering object 101 change greatly. it can. In this case, since the operator 200 can recognize the currently performed operation by a force sense, the operability is further improved.

[プログラム]
ここで、遠隔操縦装置80を実現するためのプログラムについて説明する。本実施の形態2においては、プログラムは、コンピュータに、図13に示すステップS201〜S207を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における遠隔操縦装置80を実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、遠隔操縦部41、情報処理部40、及び制御部14として機能し、処理を行なう。
[program]
Here, a program for realizing the remote control device 80 will be described. In the second embodiment, the program may be any program that causes a computer to execute steps S201 to S207 shown in FIG. The remote control device 80 according to the second embodiment can be realized by installing and executing this program on a computer. In this case, a central processing unit (CPU) of the computer functions as the remote control unit 41, the information processing unit 40, and the control unit 14, and performs processing.

また、本実施の形態2においても、遠隔操縦装置80を実現可能なコンピュータは、実施の形態1と同様に、特に限定されず、上述したマイコンであっても良いし、汎用のパーソナルコンピュータであっても良い。遠隔操縦装置80を実現可能なコンピュータも、携帯電話、スマートフォン、又はタブレット型の遠隔操縦装置に備えられているコンピュータであっても良い。   Also in the second embodiment, the computer capable of realizing the remote control device 80 is not particularly limited as in the first embodiment, and may be the above-described microcomputer or a general-purpose personal computer. May be. The computer capable of realizing the remote control device 80 may also be a computer provided in a mobile phone, a smartphone, or a tablet-type remote control device.

また、本実施の形態2におけるプログラムも、実施の形態1と同様に、コンピュータで読み取り可能な記録媒体に記録された状態で提供されても良いし、インターネットを介して送信されても良い。   Further, the program according to the second embodiment may be provided in a state of being recorded on a computer-readable recording medium as in the first embodiment, or may be transmitted via the Internet.

[実施の形態2における効果]
以上のように本実施の形態2では、移動装置の操縦は、2本の指で移動装置を掴み、その状態で移動装置を種々の方向に動かすような感覚で行うことができる。たとえて言うならば、子供が車のおもちゃを手で掴んで遊ぶときのような感覚である。このため、実施の形態2によれば、実施の形態1に比べていっそうの操作性の向上が図られる。また、本実施の形態2においても、実施の形態1で述べた効果は全て得ることが可能である。更に、本実施の形態2に対しても、実施の形態1で述べた変形例を適用することができる。
[Effects of Embodiment 2]
As described above, in the second embodiment, the mobile device can be operated as if the mobile device is gripped with two fingers and the mobile device is moved in various directions in that state. For example, it feels like a child holding a car toy and playing. For this reason, according to the second embodiment, the operability can be improved much more than in the first embodiment. Also in the second embodiment, all the effects described in the first embodiment can be obtained. Furthermore, the modification described in the first embodiment can be applied to the second embodiment.

(実施の形態3)
次に本発明の実施の形態3における、遠隔操縦装置、及び遠隔操縦システムについて、図14を参照しながら説明する。図14は、本発明の実施の形態3における遠隔操縦システムの概略構成を俯瞰的に示す図である。
(Embodiment 3)
Next, a remote control device and a remote control system in Embodiment 3 of the present invention will be described with reference to FIG. FIG. 14 is a diagram showing a schematic configuration of the remote control system according to the third embodiment of the present invention.

図14に示すように、本実施の形態3における遠隔操縦システム120は、実施の形態1及び2と同様に、移動装置60と、それを遠隔から操縦するための遠隔操縦装置90とを備えている。   As shown in FIG. 14, the remote control system 120 according to the third embodiment includes a moving device 60 and a remote control device 90 for remotely controlling the same, as in the first and second embodiments. Yes.

但し、本実施の形態3では、移動装置60は、作業用アーム64の先端付近にもカメラ65を備えている。また、遠隔操縦装置90は、実施の形態2において図10〜図13に示した遠隔操縦装置80と同様の機能及び構成を備えているが、以下に示すように、遠隔操縦装置80に備えられていない新たな機能を備えている。   However, in the third embodiment, the moving device 60 includes the camera 65 near the tip of the working arm 64. The remote control device 90 has the same function and configuration as the remote control device 80 shown in FIGS. 10 to 13 in the second embodiment, but is provided in the remote control device 80 as described below. Has no new features.

具体的には、遠隔操縦装置90は、カメラ61からの映像と、カメラ65からの映像とを切替えて、表示画面21に表示することができる。カメラ61からの映像が表示される場合は、図10に示したように、遠隔操縦装置90の前方の景色と移動装置60の一部とが表示される。一方、カメラ65からの映像が表示される場合は、図14に示すように、作業用アーム64の前方の景色と作業アーム64の一部とが表示される。   Specifically, the remote control device 90 can switch the video from the camera 61 and the video from the camera 65 and display them on the display screen 21. When the image from the camera 61 is displayed, as shown in FIG. 10, the scenery in front of the remote control device 90 and a part of the moving device 60 are displayed. On the other hand, when an image from the camera 65 is displayed, a scene in front of the working arm 64 and a part of the working arm 64 are displayed as shown in FIG.

また、本実施の形態3では、図14に示すように、遠隔操縦装置90の情報処理部(図12参照)は、カメラ65からの映像が表示される場合に、作業用アーム64に対応するオブジェクト(以下「アーム操縦用オブジェクト」)104を作成する。そして、情報処理部は、操縦用オブジェクト101の代わりに、リング状のアーム操縦用オブジェクト104を仮想空間内に配置し、これをユーザオブジェクト102及び103と共に、カメラ65からの映像に重ね合わせる。また、このとき、情報処理部は、表示画面21において、作業用アーム64がアーム操縦用オブジェクト104に囲まれるように、アーム操縦用オブジェクト104を配置する。   In the third embodiment, as shown in FIG. 14, the information processing unit (see FIG. 12) of the remote control device 90 corresponds to the work arm 64 when the image from the camera 65 is displayed. An object (hereinafter referred to as “arm steering object”) 104 is created. Then, the information processing unit arranges the ring-shaped arm steering object 104 in the virtual space instead of the steering object 101 and superimposes it on the video from the camera 65 together with the user objects 102 and 103. At this time, the information processing unit arranges the arm steering object 104 on the display screen 21 so that the work arm 64 is surrounded by the arm steering object 104.

また、情報処理部は、アーム操縦用オブジェクト104の位置についても、ユーザオブジェクト102及び103によって掴まれた状態にあるかどうかを判定する。そして、判定の結果、掴まれた状態にある場合は、情報処理部は、実施の形態2で述べたように、ユーザオブジェクト102及び103の動きを特定し、特定した両者の動きから、アーム操縦用オブジェクト104に加えられた外力を算出する。更に、情報処理部は、外力によって生じた変化として、アーム操縦用オブジェクト104における移動方向とこの移動方向への加速度とを特定する。   In addition, the information processing unit determines whether the position of the arm steering object 104 is also grasped by the user objects 102 and 103. If the result of the determination is that the user is in the gripped state, the information processing unit identifies the movements of the user objects 102 and 103 as described in the second embodiment, and the arm maneuvering is performed based on the identified movements. An external force applied to the object 104 is calculated. Furthermore, the information processing unit specifies the moving direction of the arm steering object 104 and the acceleration in the moving direction as a change caused by the external force.

また、情報処理部は、アーム操縦用オブジェクト104を、特定した移動方向に、特定した加速度で動かして、変化を反映させて、反映後のアーム操縦用オブジェクト104を表示する表示データを作成し、これを表示部20に出力する。   Further, the information processing unit creates display data for displaying the arm steering object 104 after reflection by moving the arm steering object 104 in the specified moving direction with the specified acceleration to reflect the change. This is output to the display unit 20.

更に、情報処理部は、作業用アーム64を、特定した移動方向に、特定した加速度で移動させるため、そのことを指示する操縦用データを作成し、これを遠隔操縦部(図12参照)に出力する。また、情報処理部は、ユーザオブジェクト102及び103それぞれ毎に、反力を求め、各反力を特定する提示力データを制御部(図12参照)に出力する。   Furthermore, in order to move the work arm 64 in the specified movement direction with the specified acceleration, the information processing unit creates control data for instructing this, and sends this to the remote control unit (see FIG. 12). Output. Further, the information processing unit obtains a reaction force for each of the user objects 102 and 103, and outputs presentation force data specifying each reaction force to the control unit (see FIG. 12).

制御部は、実施の形態2と同様に、駆動部11及び83に予め初期力を発生させ、ユーザオブジェクト102及び103における反力が、力覚として、操縦者200に伝達されるように、初期力を増加又は減少させる。   As in the second embodiment, the control unit causes the driving units 11 and 83 to generate an initial force in advance, so that the reaction force in the user objects 102 and 103 is transmitted to the operator 200 as a force sense. Increase or decrease the force.

遠隔操縦部(図12参照)は、情報処理部から操縦用データが出力されてくると、作業用アーム64に、情報処理部が特定した変化と同様の変化が生じるように、移動装置60に対して動作を指示する。具体的には、遠隔操縦部は、操縦用データが通知する内容に応じて、作業用アームに実行させる命令を作成する。   When the steering data is output from the information processing unit, the remote control unit (see FIG. 12) causes the mobile device 60 to change the work arm 64 in a manner similar to the change specified by the information processing unit. Instruct the operation. Specifically, the remote control unit creates a command to be executed by the work arm according to the content notified by the control data.

例えば、操縦者200が、アーム操縦用オブジェクト104が前後方向又は左右方向に動かしたとすると、遠隔操縦部は、作業用アーム64の先端部分が、指示された方向へと動くように、関節毎に、最適な回転角度を算出する。そして、遠隔操縦部は、算出された各関節の回転角度を指示する命令を作成する。なお、回転角度の算出は、逆運動学問題を解くことによって可能となる。   For example, when the pilot 200 moves the arm steering object 104 in the front-rear direction or the left-right direction, the remote control unit moves the tip part of the work arm 64 in the indicated direction for each joint. Calculate the optimum rotation angle. Then, the remote control unit creates a command for instructing the calculated rotation angle of each joint. Note that the rotation angle can be calculated by solving an inverse kinematics problem.

以上のように、本実施の形態3によれば、操縦者200は、作業用アーム64の操縦も、2本の指で作業用アーム64を掴み、その状態で作業用アーム64を種々の方向に動かすような感覚で行うことができ、作業用アーム64の操作性も向上することになる。また、本実施の形態2においても、実施の形態1で述べた効果は全て得ることが可能である。更に、本実施の形態2に対しても、実施の形態1で述べた変形例を適用することができる。   As described above, according to the third embodiment, the operator 200 also controls the work arm 64 by holding the work arm 64 with two fingers, and in this state, moves the work arm 64 in various directions. Thus, the operability of the work arm 64 is improved. Also in the second embodiment, all the effects described in the first embodiment can be obtained. Furthermore, the modification described in the first embodiment can be applied to the second embodiment.

また、本実施の形態3における遠隔操縦装置90の動作も、実施の形態2において図13に示した各ステップに沿って行われる。従って、本実施の形態3におけるプログラムも、コンピュータに、図13に示すステップS201〜S207を実行させるプログラムであれば良い。但し、作業アーム64のカメラ65からの映像が表示画面21に表示される場合は、処理対象が、操縦オブジェクト101(図10)ではなく、アーム操縦用オブジェクト104(図14参照)となる。   Further, the operation of the remote control device 90 in the third embodiment is also performed along the steps shown in FIG. 13 in the second embodiment. Therefore, the program in the third embodiment may be a program that causes a computer to execute steps S201 to S207 shown in FIG. However, when the video from the camera 65 of the work arm 64 is displayed on the display screen 21, the processing target is not the steering object 101 (FIG. 10) but the arm steering object 104 (see FIG. 14).

また、図14に示した例では、カメラ61からの映像と、カメラ65からの映像とは、切替によって別々に表示画面21に表示されているが、本実施の形態3はこの例に限定されない。本実施の形態3は、カメラ61からの映像と、カメラ65からの映像とが、表示画面21上に一緒に表示される態様であっても良い。この場合、操縦者200は、画面を切替えることなく、移動装置60自体と作業用アーム64とを操縦することができる。   In the example shown in FIG. 14, the video from the camera 61 and the video from the camera 65 are displayed separately on the display screen 21 by switching, but the third embodiment is not limited to this example. . The third embodiment may be an aspect in which the video from the camera 61 and the video from the camera 65 are displayed together on the display screen 21. In this case, the operator 200 can maneuver the moving device 60 itself and the work arm 64 without switching the screen.

以上のように、本発明によれば、遠隔操縦装置及び遠隔システムにおいて、製造コストの低減と機動性の向上とを図ることができる。よって、本発明は、遠隔操縦が求められる各種分野、例えば、作業用ロボット、レスキューロボット等に有用である。   As described above, according to the present invention, it is possible to reduce the manufacturing cost and improve the mobility in the remote control device and the remote system. Therefore, the present invention is useful in various fields that require remote control, for example, work robots, rescue robots, and the like.

10 遠隔操縦装置(実施の形態1)
11 駆動部
12 伝達部材
13 装着部材
14 制御部
15 プーリ
16 通し穴
18 装着部材収納用の凹部
19 伝達部材収納用の凹部
20 表示部
21 表示画面
30 位置検出部
40 情報処理部
41 遠隔操縦部
42 通信部
50 カバー
51 筐体
60 移動装置
61 カメラ
62 動力部
63 通信部
64 作業用アーム
65 カメラ
70 実空間に存在する物体
80 遠隔操縦装置(実施の形態2)
81 装着部材
82 伝達部材
83 駆動部
90 遠隔操縦装置(実施の形態3)
100 遠隔操縦システム(実施の形態1)
101 操縦用オブジェクト
102、103 ユーザオブジェクト
104 アーム操縦用オブジェクト
110 遠隔操縦システム(実施の形態2)
120 遠隔操縦システム(実施の形態3)
200 操縦者
10. Remote control device (Embodiment 1)
DESCRIPTION OF SYMBOLS 11 Drive part 12 Transmission member 13 Mounting member 14 Control part 15 Pulley 16 Through-hole 18 Recessed part for storing a mounting member 19 Recessed part for storing a transmission member 20 Display part 21 Display screen 30 Position detection part 40 Information processing part 41 Remote control part 42 Communication unit 50 Cover 51 Housing 60 Moving device 61 Camera 62 Power unit 63 Communication unit 64 Working arm 65 Camera 70 Object existing in real space 80 Remote control device (Embodiment 2)
81 Mounting member 82 Transmission member 83 Drive unit 90 Remote control device (Embodiment 3)
100 Remote control system (Embodiment 1)
101 Steering Object 102, 103 User Object 104 Arm Steering Object 110 Remote Steering System (Embodiment 2)
120 Remote control system (Embodiment 3)
200 Pilot

Claims (12)

移動装置を遠隔から操縦するための遠隔操縦装置であって、
前記移動装置に取り付けられたカメラからの映像を、画面上に表示させる、表示部と、
操縦者に装着される装着部材と、
前記装着部材の実空間での位置を検出する、位置検出部と、
当該遠隔操縦装置から、前記装着部材へと伸びて、前記装着部材に引っ張り方向の力を伝達する伝達部材と、
前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、
仮想空間に、前記移動装置に対応する第1のオブジェクトと、前記装着部材に相当する第2のオブジェクトとを作成し、これらを、前記カメラからの映像に重ね合わせ、更に、検出された前記装着部材の位置に応じて、前記第2のオブジェクトを移動させ、前記第2のオブジェクトが前記第1のオブジェクトに外力を与えた場合は、前記外力を算出し、そして、算出した前記外力によって前記第1のオブジェクトに生じる変化を特定する、情報処理部と、
前記情報処理部によって特定された変化と同様の変化が、前記移動装置に生じるように、前記移動装置に対して動作を指示する、遠隔操縦部と、
予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力に対する反力が、前記操縦者に提示される力覚として、前記装着部材を介して前記操縦者に伝達されるように、前記駆動部における前記初期力を増加又は減少させる、制御部と、
を備えている、ことを特徴とする遠隔操縦装置。
A remote control device for remotely controlling a mobile device,
A display unit for displaying an image from a camera attached to the mobile device on a screen;
A mounting member to be mounted on the operator;
A position detector for detecting the position of the mounting member in real space;
A transmission member extending from the remote control device to the mounting member and transmitting a force in a pulling direction to the mounting member;
A drive unit that generates a force in the pulling direction and applies the force to the transmission member;
A first object corresponding to the moving device and a second object corresponding to the mounting member are created in a virtual space, and these are superimposed on an image from the camera, and the detected mounting When the second object is moved according to the position of the member and the second object gives an external force to the first object, the external force is calculated, and the calculated external force is used to calculate the first force. An information processing unit for identifying a change occurring in one object;
A remote control unit for instructing the mobile device to operate so that a change similar to the change specified by the information processing unit occurs in the mobile device;
The driving unit generates in advance a force in the pulling direction having a set magnitude as an initial force, and a reaction force against the external force calculated by the information processing unit is a force presented to the operator. As a sense, a control unit that increases or decreases the initial force in the drive unit so as to be transmitted to the operator via the mounting member;
A remote control device characterized by comprising:
前記装着部材が、前記操縦者の一の指に装着されており、
当該遠隔操縦装置は、前記一の指とは別の指に装着される第2の装着部材と、当該遠隔操縦装置から、前記第2の装着部材へと伸びて、前記第2の装着部材に引っ張り方向の力を伝達する第2の伝達部材と、引っ張り方向の力を発生させて、それを前記第2の伝達部材に与える第2の駆動部と、を更に備え、
前記情報処理部は、前記仮想空間に、前記第2の装着部材に相当する第3のオブジェクトを作成し、これを前記第1のオブジェクト及び前記第2のオブジェクトと共に、前記カメラからの映像に重ね合わせ、更に、検出された前記第2の装着部材の位置に応じて、前記第3のオブジェクトを移動させ、前記第2のオブジェクト及び前記第3のオブジェクトの一方又は両方が前記第1のオブジェクトに外力を与えた場合は、前記外力を算出し、そして、算出した前記外力によって前記第1のオブジェクトに生じた変化を特定し、
前記制御部は、予め、前記第2の駆動部にも、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力に対する反力が、前記力覚として、前記装着部材及び前記第2の装着部材の一方又は両方を介して前記操縦者に伝達されるように、前記駆動部及び前記第2の駆動部の一方又は両方における前記初期力を増加又は減少させる、請求項1に記載の遠隔操縦装置。
The mounting member is mounted on one finger of the pilot;
The remote control device includes a second mounting member mounted on a finger different from the one finger, and extends from the remote control device to the second mounting member, to the second mounting member. A second transmission member that transmits a force in the pulling direction; and a second drive unit that generates a force in the pulling direction and applies the force to the second transmission member;
The information processing unit creates a third object corresponding to the second mounting member in the virtual space, and superimposes the third object on the video from the camera together with the first object and the second object. In addition, the third object is moved according to the detected position of the second mounting member, and one or both of the second object and the third object are changed to the first object. When an external force is applied, the external force is calculated, and a change caused in the first object by the calculated external force is specified,
The control unit causes the second driving unit to generate a force in the pulling direction having a set magnitude as an initial force in advance, and a reaction force against the external force calculated by the information processing unit is generated. The initial force in one or both of the drive unit and the second drive unit is transmitted as the force sensation to the operator via one or both of the mounting member and the second mounting member. 2. A remote control device according to claim 1, which increases or decreases the force.
前記操縦者が、前記装着部材と前記第2の装着部材とを操作して、前記第2のオブジェクトと前記第3のオブジェクトとによって、前記第1のオブジェクトを挟み込み、その状態で、前記第1のオブジェクトを動かした場合に、
前記情報処理部が、前記第1のオブジェクトに生じる変化として、前記第1のオブジェクトの移動方向と前記移動方向への加速度とを特定し、
前記遠隔操縦部が、前記移動装置が、特定された加速度で、特定された移動方向へと移動するように、前記移動装置に対して動作を指示する、
請求項2に記載の遠隔操縦装置。
The operator operates the mounting member and the second mounting member to sandwich the first object between the second object and the third object, and in this state, the first object If you move the object of
The information processing unit specifies a moving direction of the first object and an acceleration in the moving direction as a change occurring in the first object,
The remote control unit instructs the mobile device to operate so that the mobile device moves in the specified moving direction at the specified acceleration;
The remote control device according to claim 2.
前記移動装置が、複数の関節を有する作業用アームを備えたロボットであり、
前記情報処理部が、更に、前記作業用アームに対応する、第4のオブジェクトを作成し、これを前記カメラからの映像に重ね合わせ、そして、前記操縦者が、前記装着部材と前記第2の装着部材とを操作して、前記第2のオブジェクトと前記第3のオブジェクトとによって、前記第4のオブジェクトを動かした場合に、前記第4のオブジェクトに生じた変化を特定し、
前記遠隔操縦部が、前記作業用アームに、特定された変化と同様の変化が生じるように、前記移動装置に対して動作を指示する、
請求項2または3に記載の遠隔操縦装置。
The moving device is a robot including a working arm having a plurality of joints;
The information processing unit further creates a fourth object corresponding to the working arm, superimposes the fourth object on the video from the camera, and the operator moves the mounting member and the second object. When the fourth object is moved by the second object and the third object by operating a mounting member, the change that has occurred in the fourth object is specified,
The remote control unit instructs the mobile device to operate so that a change similar to the specified change occurs in the working arm;
The remote control device according to claim 2 or 3.
当該遠隔操縦装置が、タブレット状の筐体を更に備え、
前記伝達部材及び前記第2の伝達部材は、それぞれ、前記筐体の背面側における異なる位置から前記接続部材へと伸びる複数の紐状の部材で構成され、
前記駆動部は、前記伝達部材を構成する前記複数の紐状の部材それぞれを巻き取ることによって、これらに前記引っ張り方向の力を与え、
前記第2の駆動部は、前記第2の伝達部材を構成する前記複数の紐状の部材それぞれを巻き取ることによって、これらに前記引っ張り方向の力を与え、
前記制御部は、前記駆動部が前記複数の紐状の部材に与える前記引っ張り方向の力の合力と、前記第2の駆動部が前記複数の紐状の部材に与える前記引っ張り方向の力の合力とを、前記力覚として、前記操縦者に伝達する、
請求項2〜4のいずれかに記載の遠隔操縦装置。
The remote control device further includes a tablet-like housing,
The transmission member and the second transmission member are each composed of a plurality of string-like members extending from different positions on the back side of the housing to the connection member,
The driving unit applies a force in the pulling direction to each of the plurality of string-like members constituting the transmission member,
The second driving unit applies a force in the pulling direction to each of the plurality of string-shaped members constituting the second transmission member,
The controller includes a resultant force of the pulling direction force applied to the plurality of string-like members by the driving unit and a resultant force of the pulling direction force applied to the plurality of string-like members by the second driving unit. To the pilot as the force sense,
The remote control device according to any one of claims 2 to 4.
移動装置と、それを遠隔から操縦するための遠隔操縦装置とを備え、
前記移動装置は、前方を撮影するカメラを備え、
前記遠隔操縦装置は、
前記移動装置に取り付けられた前記カメラからの映像を、画面上に表示させる、表示部と、
操縦者に装着される装着部材と、
前記装着部材の実空間での位置を検出する、位置検出部と、
当該遠隔操縦装置から、前記装着部材へと伸びて、前記装着部材に引っ張り方向の力を伝達する伝達部材と、
前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、
仮想空間に、前記移動装置に対応する第1のオブジェクトと、前記装着部材に相当する第2のオブジェクトとを作成し、これらを、前記カメラからの映像に重ね合わせ、更に、検出された前記装着部材の位置に応じて、前記第2のオブジェクトを移動させ、前記第2のオブジェクトが前記第1のオブジェクトに外力を与えた場合は、前記外力を算出し、そして、算出した前記外力によって前記第1のオブジェクトに生じる変化を特定する、情報処理部と、
前記情報処理部によって特定された変化と同様の変化が、前記移動装置に生じるように、前記移動装置に対して動作を指示する、遠隔操縦部と、
予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力に対する反力が、前記操縦者に提示される力覚として、前記装着部材を介して前記操縦者に伝達されるように、前記駆動部における前記初期力を増加又は減少させる、制御部と、
を備えている、ことを特徴とする遠隔操縦システム。
A mobile device and a remote control device for remotely controlling the mobile device,
The moving device includes a camera for photographing the front,
The remote control device includes:
A display unit for displaying an image from the camera attached to the moving device on a screen;
A mounting member to be mounted on the operator;
A position detector for detecting the position of the mounting member in real space;
A transmission member extending from the remote control device to the mounting member and transmitting a force in a pulling direction to the mounting member;
A drive unit that generates a force in the pulling direction and applies the force to the transmission member;
A first object corresponding to the moving device and a second object corresponding to the mounting member are created in a virtual space, and these are superimposed on an image from the camera, and the detected mounting When the second object is moved according to the position of the member and the second object gives an external force to the first object, the external force is calculated, and the calculated external force is used to calculate the first force. An information processing unit for identifying a change occurring in one object;
A remote control unit for instructing the mobile device to operate so that a change similar to the change specified by the information processing unit occurs in the mobile device;
The driving unit generates in advance a force in the pulling direction having a set magnitude as an initial force, and a reaction force against the external force calculated by the information processing unit is a force presented to the operator. As a sense, a control unit that increases or decreases the initial force in the drive unit so as to be transmitted to the operator via the mounting member;
A remote control system characterized by comprising:
前記装着部材が、前記操縦者の一の指に装着されており、
前記遠隔操縦装置は、前記一の指とは別の指に装着される第2の装着部材と、当該遠隔操縦装置から、前記第2の装着部材へと伸びて、前記第2の装着部材に引っ張り方向の力を伝達する第2の伝達部材と、引っ張り方向の力を発生させて、それを前記第2の伝達部材に与える第2の駆動部と、を更に備え、
前記情報処理部は、前記仮想空間に、前記第2の装着部材に相当する第3のオブジェクトを作成し、これを前記第1のオブジェクト及び前記第2のオブジェクトと共に、前記カメラからの映像に重ね合わせ、更に、検出された前記第2の装着部材の位置に応じて、前記第3のオブジェクトを移動させ、前記第2のオブジェクト及び前記第3のオブジェクトの一方又は両方が前記第1のオブジェクトに外力を与えた場合は、前記外力を算出し、そして、算出した前記外力によって前記第1のオブジェクトに生じた変化を特定し、
前記制御部は、予め、前記第2の駆動部にも、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力に対する反力が、前記力覚として、前記装着部材及び前記第2の装着部材の一方又は両方を介して前記操縦者に伝達されるように、前記駆動部及び前記第2の駆動部の一方又は両方における前記初期力を増加又は減少させる、請求項6に記載の遠隔操縦システム。
The mounting member is mounted on one finger of the pilot;
The remote control device extends from the remote control device to the second mounting member, and is attached to the second mounting member. The second mounting member is mounted on a finger different from the one finger. A second transmission member that transmits a force in the pulling direction; and a second drive unit that generates a force in the pulling direction and applies the force to the second transmission member;
The information processing unit creates a third object corresponding to the second mounting member in the virtual space, and superimposes the third object on the video from the camera together with the first object and the second object. In addition, the third object is moved according to the detected position of the second mounting member, and one or both of the second object and the third object are changed to the first object. When an external force is applied, the external force is calculated, and a change caused in the first object by the calculated external force is specified,
The control unit causes the second driving unit to generate a force in the pulling direction having a set magnitude as an initial force in advance, and a reaction force against the external force calculated by the information processing unit is generated. The initial force in one or both of the drive unit and the second drive unit is transmitted as the force sensation to the operator via one or both of the mounting member and the second mounting member. The remote control system of claim 6, wherein the force is increased or decreased.
前記操縦者が、前記装着部材と前記第2の装着部材とを操作して、前記第2のオブジェクトと前記第3のオブジェクトとによって、前記第1のオブジェクトを挟み込み、その状態で、前記第1のオブジェクトを動かした場合に、
前記情報処理部が、前記第1のオブジェクトに生じる変化として、前記第1のオブジェクトの移動方向と前記移動方向への加速度とを特定し、
前記遠隔操縦部が、前記移動装置が、特定された加速度で、特定された移動方向へと移動するように、前記移動装置に対して動作を指示する、
請求項7に記載の遠隔操縦システム。
The operator operates the mounting member and the second mounting member to sandwich the first object between the second object and the third object, and in this state, the first object If you move the object of
The information processing unit specifies a moving direction of the first object and an acceleration in the moving direction as a change occurring in the first object,
The remote control unit instructs the mobile device to operate so that the mobile device moves in the specified moving direction at the specified acceleration;
The remote control system according to claim 7.
前記移動装置が、複数の関節を有する作業用アームを備え、
前記情報処理部が、更に、前記作業用アームに対応する、第4のオブジェクトを作成し、これを前記カメラからの映像に重ね合わせ、そして、前記操縦者が、前記装着部材と前記第2の装着部材とを操作して、前記第2のオブジェクトと前記第3のオブジェクトとによって、前記第4のオブジェクトを動かした場合に、前記第4のオブジェクトに生じた変化を特定し、
前記遠隔操縦部が、前記作業用アームに、特定された変化と同様の変化が生じるように、前記移動装置に対して動作を指示する、
請求項7または8に記載の遠隔操縦システム。
The moving device includes a working arm having a plurality of joints;
The information processing unit further creates a fourth object corresponding to the working arm, superimposes the fourth object on the video from the camera, and the operator moves the mounting member and the second object. When the fourth object is moved by the second object and the third object by operating a mounting member, the change that has occurred in the fourth object is specified,
The remote control unit instructs the mobile device to operate so that a change similar to the specified change occurs in the working arm;
The remote control system according to claim 7 or 8.
前記遠隔操縦装置が、タブレット状の筐体を更に備え、
前記伝達部材及び前記第2の伝達部材は、それぞれ、前記筐体の背面側における異なる位置から前記接続部材へと伸びる複数の紐状の部材で構成され、
前記駆動部は、前記伝達部材を構成する前記複数の紐状の部材それぞれを巻き取ることによって、これらに前記引っ張り方向の力を与え、
前記第2の駆動部は、前記第2の伝達部材を構成する前記複数の紐状の部材それぞれを巻き取ることによって、これらに前記引っ張り方向の力を与え、
前記制御部は、前記駆動部が前記複数の紐状の部材に与える前記引っ張り方向の力の合力と、前記第2の駆動部が前記複数の紐状の部材に与える前記引っ張り方向の力の合力とを、前記力覚として、前記操縦者に伝達する、
請求項7〜9のいずれかに記載の遠隔操縦システム。
The remote control device further includes a tablet-like housing,
The transmission member and the second transmission member are each composed of a plurality of string-like members extending from different positions on the back side of the housing to the connection member,
The driving unit applies a force in the pulling direction to each of the plurality of string-like members constituting the transmission member,
The second driving unit applies a force in the pulling direction to each of the plurality of string-shaped members constituting the second transmission member,
The controller includes a resultant force of the pulling direction force applied to the plurality of string-like members by the driving unit and a resultant force of the pulling direction force applied to the plurality of string-like members by the second driving unit. To the pilot as the force sense,
The remote control system according to any one of claims 7 to 9.
遠隔操縦の対象となる移動装置に取り付けられたカメラからの映像を、画面上に表示させる、表示部と、操縦者に装着される装着部材と、前記装着部材の実空間での位置を検出する、位置検出部と、前記装着部材へと伸びて、前記装着部材に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、コンピュータと、を備える遠隔操縦装置を用いた、遠隔操縦方法であって、
前記コンピュータによって実行される、
(a)仮想空間に、前記移動装置に対応する第1のオブジェクトと、前記装着部材に相当する第2のオブジェクトとを作成し、これらを、前記カメラからの映像に重ね合わせる、ステップと、
(b)検出された前記装着部材の位置に応じて、前記第2のオブジェクトを移動させ、前記第2のオブジェクトが前記第1のオブジェクトに外力を与えた場合は、前記外力を算出する、ステップと、
(c)算出した前記外力によって前記第1のオブジェクトに生じる変化を特定する、ステップと、
(d)前記(c)のステップで特定された変化と同様の変化が、前記移動装置に生じるように、前記移動装置に対して動作を指示する、ステップと、
(e)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記(b)のステップで算出された前記外力に対する反力が、前記操縦者に提示される力覚として、前記装着部材を介して前記操縦者に伝達されるように、前記駆動部における前記初期力を増加又は減少させる、ステップと、
を有する、ことを特徴とする遠隔操縦方法。
Displaying an image from a camera attached to a mobile device to be remotely controlled on a screen, detecting a display unit, a mounting member mounted on a pilot, and a position of the mounting member in real space A position detection unit; a transmission member that extends to the mounting member to transmit a force in the pulling direction to the mounting member; a drive unit that generates the force in the pulling direction and applies the force to the transmission member; and a computer A remote control method using a remote control device comprising:
Executed by the computer,
(A) creating a first object corresponding to the moving device and a second object corresponding to the mounting member in a virtual space, and superimposing these on a video from the camera;
(B) moving the second object according to the detected position of the mounting member, and calculating the external force when the second object applies an external force to the first object, When,
(C) identifying a change that occurs in the first object by the calculated external force;
(D) instructing the mobile device to perform an operation such that a change similar to the change identified in step (c) occurs in the mobile device;
(E) A force in the pulling direction having a set magnitude is generated as an initial force in advance in the drive unit, and a reaction force against the external force calculated in the step (b) Increasing or decreasing the initial force in the drive unit to be transmitted to the operator via the mounting member as a force sensation presented to
A remote control method comprising:
前記遠隔操縦装置は、遠隔操縦の対象となる移動装置に取り付けられたカメラからの映像を、画面上に表示させる、表示部と、操縦者に装着される装着部材と、前記装着部材の実空間での位置を検出する、位置検出部と、前記装着部材へと伸びて、前記装着部材に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、コンピュータと、を備える遠隔操縦装置において、
前記コンピュータに、
(a)仮想空間に、前記移動装置に対応する第1のオブジェクトと、前記装着部材に相当する第2のオブジェクトとを作成し、これらを、前記カメラからの映像に重ね合わせる、ステップと、
(b)検出された前記装着部材の位置に応じて、前記第2のオブジェクトを移動させ、前記第2のオブジェクトが前記第1のオブジェクトに外力を与えた場合は、前記外力を算出する、ステップと、
(c)算出した前記外力によって前記第1のオブジェクトに生じる変化を特定する、ステップと、
(d)前記(c)のステップで特定された変化と同様の変化が、前記移動装置に生じるように、前記移動装置に対して動作を指示する、ステップと、
(e)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記(b)のステップで算出された前記外力に対する反力が、前記操縦者に提示される力覚として、前記装着部材を介して前記操縦者に伝達されるように、前記駆動部における前記初期力を増加又は減少させる、ステップと、
を実行させる、プログラム。
The remote control device includes a display unit that displays an image from a camera attached to a mobile device that is a target of remote control on a screen, a mounting member that is mounted on a pilot, and a real space of the mounting member. A position detection unit that detects a position at the position, a transmission member that extends to the mounting member and transmits a force in the pulling direction to the mounting member, and generates a force in the pulling direction, which is transmitted to the transmission member In a remote control device comprising a drive unit for giving and a computer,
In the computer,
(A) creating a first object corresponding to the moving device and a second object corresponding to the mounting member in a virtual space, and superimposing these on a video from the camera;
(B) moving the second object according to the detected position of the mounting member, and calculating the external force when the second object applies an external force to the first object, When,
(C) identifying a change that occurs in the first object by the calculated external force;
(D) instructing the mobile device to perform an operation such that a change similar to the change identified in step (c) occurs in the mobile device;
(E) A force in the pulling direction having a set magnitude is generated as an initial force in advance in the drive unit, and a reaction force against the external force calculated in the step (b) Increasing or decreasing the initial force in the drive unit to be transmitted to the operator via the mounting member as a force sensation presented to
A program that executes
JP2014032088A 2014-02-21 2014-02-21 Remote control device, remote control system, method and program of remote control Pending JP2015157323A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014032088A JP2015157323A (en) 2014-02-21 2014-02-21 Remote control device, remote control system, method and program of remote control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014032088A JP2015157323A (en) 2014-02-21 2014-02-21 Remote control device, remote control system, method and program of remote control

Publications (1)

Publication Number Publication Date
JP2015157323A true JP2015157323A (en) 2015-09-03

Family

ID=54181790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032088A Pending JP2015157323A (en) 2014-02-21 2014-02-21 Remote control device, remote control system, method and program of remote control

Country Status (1)

Country Link
JP (1) JP2015157323A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105364934A (en) * 2015-11-30 2016-03-02 山东建筑大学 Remote operation control system and method of hydraulic mechanical arm
JP7339776B2 (en) 2019-05-28 2023-09-06 川崎重工業株式会社 Control system, machine system and control method
JP7339806B2 (en) 2019-08-05 2023-09-06 川崎重工業株式会社 Control system, robot system and control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105364934A (en) * 2015-11-30 2016-03-02 山东建筑大学 Remote operation control system and method of hydraulic mechanical arm
JP7339776B2 (en) 2019-05-28 2023-09-06 川崎重工業株式会社 Control system, machine system and control method
JP7339806B2 (en) 2019-08-05 2023-09-06 川崎重工業株式会社 Control system, robot system and control method

Similar Documents

Publication Publication Date Title
JP6642432B2 (en) Information processing apparatus, information processing method, and image display system
JP6538961B2 (en) Control device
US9884248B2 (en) Display control method for head-mounted display (HMD) and image generation device
JP5246672B2 (en) Robot system
CN103877726B (en) A kind of virtual reality components system
JP6601402B2 (en) Control device, control method and program
US11609428B2 (en) Information processing apparatus and information processing method
US9332219B2 (en) Telepresence device
US20210069894A1 (en) Remote control system, information processing method, and non-transitory computer-readable recording medium
US10771707B2 (en) Information processing device and information processing method
JP2016024707A (en) Tactile sense presentation device and inner force sense presentation system
JP2022184958A (en) animation production system
JP2015157323A (en) Remote control device, remote control system, method and program of remote control
JP2015134384A (en) Remote control device and remote control system
WO2021261595A1 (en) Vr training system for aircraft, vr training method for aircraft, and vr training program for aircraft
WO2020209167A1 (en) Information processing device, information processing method, and program
JP6341096B2 (en) Haptic sensation presentation device, information terminal, haptic presentation method, and computer-readable recording medium
JPH08257948A (en) Remote control device for robot
WO2021002116A1 (en) Information processing device, information processing method, and program
JP6133344B2 (en) User interface display method and program for display on head mounted display
JP6428629B2 (en) Tactile sensation presentation device, information terminal, haptic presentation method, and program
JP3834606B2 (en) Remote control device for mobile manipulator
JPWO2022124398A5 (en)
TW201944365A (en) A method to enhance first-person-view experience
WO2023021757A1 (en) Information processing device, information processing method, and program