JP2023125011A - Remote control system and remote control program - Google Patents

Remote control system and remote control program Download PDF

Info

Publication number
JP2023125011A
JP2023125011A JP2022028915A JP2022028915A JP2023125011A JP 2023125011 A JP2023125011 A JP 2023125011A JP 2022028915 A JP2022028915 A JP 2022028915A JP 2022028915 A JP2022028915 A JP 2022028915A JP 2023125011 A JP2023125011 A JP 2023125011A
Authority
JP
Japan
Prior art keywords
image
input
moving body
remote control
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022028915A
Other languages
Japanese (ja)
Inventor
憲昭 朝本
Kensho Asamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2022028915A priority Critical patent/JP2023125011A/en
Publication of JP2023125011A publication Critical patent/JP2023125011A/en
Pending legal-status Critical Current

Links

Abstract

To provide a remote control system for realizing remote control without requiring position information of a moving object.SOLUTION: A remote control system comprises: a moving object 300; and an operation terminal 100 for remotely controlling the moving object 300 by wireless communication. The moving object 300 has an imaging unit that captures an image around the moving object 300 in an omnidirectional area and the operation terminal 100 has a control unit 102 which causes a display unit to display a first image corresponding to a viewing direction input from an input unit in at least a part of the omnidirectional area imaged by the imaging unit and causes the display unit to display a direction of the first image in the omnidirectional area, a first mark for indicating a traveling direction of the moving object 300, and a second mark for indicating a movement target direction of the moving object 300 while superimposing on the first image.SELECTED DRAWING: Figure 1

Description

本発明は、遠隔操作システム、および遠隔操作プログラムに関する。 The present invention relates to a remote control system and a remote control program.

遠隔操作システムにおいて、ユーザー(遠隔操作者)は、無人の移動体を遠隔操作する。遠隔操作システムにおいては、たとえば、ユーザーは、カメラを搭載した無人の移動体を遠隔操作することによって、遠隔地の画像を見られる。特に、カメラを自由に移動させて撮像できる遠隔操作システムにおいては、ユーザーは、現場に居るような感覚で遠隔地の様子を見ることができる。このため、このような遠隔操作システムは、たとえば、テレプレゼンスに利用される。 In a remote control system, a user (remote operator) remotely controls an unmanned mobile object. In a remote control system, for example, a user can view images of a remote location by remotely controlling an unmanned moving body equipped with a camera. In particular, in a remote control system in which the camera can be freely moved to capture images, the user can view the situation at a remote location as if he or she were actually there. Therefore, such a remote control system is used for telepresence, for example.

遠隔操作システムにおいて、ユーザーは、移動体に搭載されたカメラによって撮像された画像だけを頼りに、移動体を操作する。このため、遠隔操作システムにおいては、ユーザーが実際に現場に居て、移動体の動きを直接目で見ながら操作する場合と違って、ユーザーが意図する場所に移動体を移動させることが難しい。 In a remote control system, a user operates a moving object relying only on images captured by a camera mounted on the moving object. For this reason, in a remote control system, it is difficult for the user to move the moving object to the location intended by the user, unlike when the user is actually at the site and operates the moving object while directly observing the movement of the moving object.

たとえば、ユーザーが、カメラによって撮像された画像を見ながら移動体を左に曲がらせる操作を行う場合、遠隔操作システムでは、画像に少し遅延があるため、どの程度曲がらせる操作をすれば良いかがわかりづらいことがある。また、ユーザーが、移動体を直進させる操作を行う場合、遠隔操作システムでは、画像の向きと移動体の向きが一致していないと、移動体が斜め方向に進んでしまうこともある。このように、遠隔操作システムにおいては、ユーザーが見ている画像の向きと移動体の向きの関係、または画像の遅延や操作の遅延などのために、遠隔にある移動体の動きをユーザーがリアルタイムに体感できない。 For example, when a user attempts to make a moving object turn to the left while looking at an image captured by a camera, the remote control system will not be able to determine how far to turn the object because there is a slight delay in the image. Sometimes it's hard to understand. Furthermore, when the user performs an operation to cause the moving object to move straight, in the remote control system, if the orientation of the image and the orientation of the moving object do not match, the moving object may move diagonally. In this way, in a remote control system, the user is unable to monitor the movement of a remote moving object in real time due to the relationship between the orientation of the image the user is viewing and the orientation of the moving object, or due to image delay or operation delay. I can't feel it.

従来、遠隔操作を容易にするために、様々な技術開発が行われている。たとえば、特許文献1の技術は、移動体の移動位置を画面上で指定して移動体を移動させている。この技術は、画面上の位置情報と移動体の位置情報とを合わせるために、画像座標系から世界座標系に変換して移動位置を決めている。 Conventionally, various technological developments have been made to facilitate remote control. For example, in the technique disclosed in Patent Document 1, the moving position of the moving object is specified on the screen and the moving object is moved. This technology determines the moving position by converting from the image coordinate system to the world coordinate system in order to match the position information on the screen with the position information of the moving object.

また、特許文献2の技術は、オーバーヘッドディスプレイ上に移動させるロボットを表示し、ポイントアンドクリック装置によって、移動位置を指定して移動体を移動させている。 Furthermore, the technique disclosed in Patent Document 2 displays a robot to be moved on an overhead display, and uses a point-and-click device to specify a moving position and move the moving object.

特開2011-170844号公報Japanese Patent Application Publication No. 2011-170844 特表2003-532218号公報Special Publication No. 2003-532218

特許文献1の技術は、移動体の世界座標系での位置情報を取得する必要がある。このため、この技術では、取得した位置精度が高くないと、移動体を意図した位置に正確に移動させることができないという問題がある。 The technique disclosed in Patent Document 1 requires acquiring position information of a moving body in a world coordinate system. Therefore, this technique has a problem in that unless the acquired position accuracy is high, the moving object cannot be accurately moved to the intended position.

特許文献2の技術は、画面上の座標とロボットが存在する現実の座標とを関連付ける必要がある。このため、この技術においても、ロボットの位置情報を取得する必要がある。したがって、この技術は、特許文献1同様に、取得した位置精度が高くないと、ロボットを意図した位置に正確に移動させることができないという問題がある。 The technique disclosed in Patent Document 2 requires that the coordinates on the screen be associated with the actual coordinates where the robot exists. Therefore, in this technique as well, it is necessary to acquire the position information of the robot. Therefore, similar to Patent Document 1, this technique has a problem in that unless the acquired positional accuracy is high, the robot cannot be accurately moved to the intended position.

そこで、本発明の目的は、移動体の位置情報を必要とせずに、移動体の遠隔操作を実現するための遠隔操作システム、および遠隔操作プログラムを提供することである。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a remote control system and a remote control program for realizing remote control of a moving body without requiring position information of the moving body.

本発明の上記目的は、下記の手段によって達成される。 The above object of the present invention is achieved by the following means.

(1)移動体と、
前記移動体を無線通信によって遠隔操作するための操作端末と、
を有する遠隔操作システムであって、
前記移動体は、前記移動体の周囲を全方位領域にわたり撮像する撮像部を有し、
前記操作端末は、
入力部と、
表示部と、
前記撮像部によって撮像された前記全方位領域の少なくとも一部の領域であって、前記入力部から入力された視線方向に対応した第1画像を前記表示部に表示させるとともに、
前記全方位領域における前記第1画像の方向、前記移動体の進行方向を示す第1マーク、および前記移動体の移動目標方向を示す第2マークを前記第1画像に重畳させて前記表示部に表示させる制御部と、
を有する、遠隔操作システム。
(1) A moving object,
an operation terminal for remotely controlling the mobile object via wireless communication;
A remote control system having
The mobile body has an imaging unit that captures images around the mobile body in all directions,
The operation terminal is
an input section;
A display section;
Displaying on the display unit a first image that is at least a part of the omnidirectional area imaged by the imaging unit and that corresponds to the viewing direction input from the input unit;
A first mark indicating the direction of the first image in the omnidirectional area, a traveling direction of the moving body, and a second mark indicating a movement target direction of the moving body are superimposed on the first image and displayed on the display unit. A control unit to display,
A remote control system with

(2)前記操作端末は、加速度および角速度を検出するセンサーを有し、
前記制御部は、前記センサーからの出力に基づいて、前記移動体の移動を制御する、上記(1)に記載の遠隔操作システム。
(2) The operation terminal has a sensor that detects acceleration and angular velocity,
The remote control system according to (1) above, wherein the control unit controls movement of the mobile body based on the output from the sensor.

(3)前記制御部は、前記入力部からの前記移動体を移動させるための入力と、前記センサーによって検出された加速度および角速度に基づいて、前記移動体の移動を制御する、上記(2)に記載の遠隔操作システム。 (3) The control unit controls the movement of the moving body based on the input for moving the moving body from the input unit and the acceleration and angular velocity detected by the sensor, as described in (2) above. The remote control system described in .

(4)前記制御部は、前記入力部から入力された第1入力と、前記第1入力の後に前記センサーによって検出された加速度および角速度に基づいて、前記視線方向を移動させる、上記(3)に記載の遠隔操作システム。 (4) The control unit moves the line of sight based on a first input input from the input unit and an acceleration and an angular velocity detected by the sensor after the first input, (3) above. The remote control system described in .

(5)前記制御部は、前記入力部から入力された第2入力に基づいて、前記第2マークを前記表示部の画面中央に移動させる、上記(3)または(4)に記載の遠隔操作システム。 (5) The remote control unit according to (3) or (4) above, wherein the control unit moves the second mark to the center of the screen of the display unit based on a second input input from the input unit. system.

(6)前記制御部は、前記入力部から入力された第3入力に基づいて、前記移動体の移動速度を制御する、上記(3)~(5)のいずれか一つに記載の遠隔操作システム。 (6) The remote control unit according to any one of (3) to (5) above, wherein the control unit controls the moving speed of the moving body based on a third input input from the input unit. system.

(7)前記制御部は、前記入力部から入力された第4入力に基づいて、前記移動体の移動方向を反転させる、上記(3)~(6)のいずれか一つに記載の遠隔操作システム。 (7) The remote control unit according to any one of (3) to (6) above, wherein the control unit reverses the moving direction of the moving body based on a fourth input input from the input unit. system.

(8)前記制御部は、前記入力部から入力された第5入力に基づいて、前記第1画像をズームインまたはズームアウトさせる、上記(3)~(7)のいずれか一つに記載の遠隔操作システム。 (8) The controller according to any one of (3) to (7) above zooms in or zooms out the first image based on a fifth input input from the input unit. operation system.

(9)前記第1画像は、前記移動体側で切り出されて、前記移動体から前記操作端末へ送信される、上記(1)~(8)のいずれか一つに記載の遠隔操作システム。 (9) The remote control system according to any one of (1) to (8) above, wherein the first image is cut out on the movable body side and transmitted from the movable body to the operating terminal.

(10)前記制御部は、前記第1画像に加え、前記移動体の移動目標方向の領域および前記第1画像と異なる領域を含む第2画像を前記表示部に表示する、上記(1)~(9)のいずれか一つに記載の遠隔操作システム。 (10) In addition to the first image, the control unit displays, on the display unit, a second image including an area in the movement target direction of the moving object and an area different from the first image. The remote control system according to any one of (9).

(11)前記制御部は、前記第2画像に示される領域の人および/または物体を検知する、上記(10)に記載の遠隔操作システム。 (11) The remote control system according to (10), wherein the control unit detects a person and/or an object in the area shown in the second image.

(12)前記第2画像は、前記移動体側で切り出されて、前記操作端末へ送信される、上記(10)または(11)に記載の遠隔操作システム。 (12) The remote control system according to (10) or (11), wherein the second image is cut out on the mobile body side and transmitted to the operating terminal.

(13)全方位領域にわたり撮像する撮像部を有する移動体と、無線通信によって接続された操作端末から、当該移動体を遠隔操作するための遠隔操作プログラムであって、
前記撮像部によって撮像された前記全方位領域の少なくとも一部の領域であって、入力された視線方向に対応した第1画像を表示させ段階(a)と、
前記全方位領域における前記第1画像の方向、前記移動体の進行方向を示す第1マーク、および前記移動体の移動目標方向を示す第2マークを前記第1画像に重畳させて表示させる段階(b)と、
をコンピューターに実行させるための遠隔操作プログラム。
(13) A remote control program for remotely controlling a mobile body having an imaging unit that captures images in all directions from an operation terminal connected to the mobile body by wireless communication,
displaying a first image of at least a part of the omnidirectional area imaged by the imaging unit and corresponding to the input line-of-sight direction;
Displaying a direction of the first image in the omnidirectional area, a first mark indicating the traveling direction of the moving body, and a second mark indicating the target direction of movement of the moving body, superimposed on the first image ( b) and
A remote control program that allows a computer to execute

(14)前記操作端末は、加速度および角速度を検出するセンサーを有し、
前記センサーからの出力に基づいて、前記移動体の移動を制御する段階(c)をさらに有する、上記(13)に記載の遠隔操作プログラム。
(14) The operation terminal has a sensor that detects acceleration and angular velocity,
The remote control program according to (13) above, further comprising the step (c) of controlling movement of the mobile body based on the output from the sensor.

(15)前記段階(c)は、前記移動体を移動させるための入力と、前記センサーによって検出された加速度および角速度に基づいて、前記移動体の移動を制御する、上記(14)に記載の遠隔操作プログラム。 (15) The step (c) according to the above (14), wherein the movement of the moving body is controlled based on the input for moving the moving body and the acceleration and angular velocity detected by the sensor. Remote control program.

(16)前記段階(c)は、第1入力と、前記第1入力の後に前記センサーによって検出された加速度および角速度に基づいて、前記視線方向を移動させる、上記(15)に記載の遠隔操作プログラム。 (16) The remote control according to (15), wherein the step (c) moves the line of sight based on a first input and an acceleration and an angular velocity detected by the sensor after the first input. program.

(17)前記段階(c)は、第2入力に基づいて、前記第2マークを前記第1画像が表示されている画面中央に移動させる、上記(14)~(16)のいずれか一つに記載の遠隔操作プログラム。 (17) The step (c) is one of any one of (14) to (16) above, wherein the second mark is moved to the center of the screen where the first image is displayed, based on a second input. The remote control program described in .

(18)前記段階(c)は、第3入力に基づいて、前記移動体の移動速度を制御する、上記(14)~(17)のいずれか一つに記載の遠隔操作プログラム。 (18) The remote control program according to any one of (14) to (17), wherein the step (c) controls the moving speed of the moving object based on the third input.

(19)前記段階(c)は、第4入力に基づいて、前記移動体の移動方向を反転させる、上記(14)~(18)のいずれか一つに記載の遠隔操作プログラム。 (19) The remote control program according to any one of (14) to (18), wherein the step (c) reverses the moving direction of the moving body based on the fourth input.

(20)前記段階(c)は、第5入力に基づいて、前記第1画像をズームインまたはズームアウトさせる、上記(14)~(19)のいずれか一つに記載の遠隔操作プログラム。 (20) The remote control program according to any one of (14) to (19), wherein the step (c) zooms in or zooms out the first image based on a fifth input.

(21)前記移動体側で切り出された前記第1画像を前記移動体から受信する段階(d)を有する、上記(13)~(20)のいずれか一つに記載の遠隔操作プログラム。 (21) The remote control program according to any one of (13) to (20) above, comprising the step (d) of receiving the first image cut out by the moving body from the moving body.

(22)前記第1画像に加え、前記移動体の移動目標方向の領域、および前記第1画像とは異なる領域を含む第2画像を表示する段階(e)を有する、上記(13)~(19)のいずれか一つに記載の遠隔操作プログラム。 (22) The step (e) of displaying, in addition to the first image, a second image including an area in the movement target direction of the moving body and an area different from the first image, (13) to ( 19) The remote control program according to any one of 19).

(23)前記第2画像に示される領域の人および/または物体を検知する段階(f)をさらに有する、上記(22)に記載の遠隔操作プログラム。 (23) The remote control program according to (22) above, further comprising the step (f) of detecting a person and/or an object in the area shown in the second image.

(24)前記移動体側で切り出された前記第2画像を前記移動体から受信する段階(g)を有する、上記(22)または(23)に記載の遠隔操作プログラム。 (24) The remote control program according to (22) or (23) above, comprising the step (g) of receiving the second image cut out by the moving body from the moving body.

遠隔操作システムの移動体は、全方位を撮像する撮像部を有する。これにより、遠隔操作者は、移動体を移動させる際に、見たい方向を自由に見て操作できる。このため、遠隔操作者は、移動させたい方向を見ながら、移動体を操作することができる。したがって、移動体の位置情報を必要とせずに、移動体の遠隔操作を実現できる。 The mobile body of the remote control system has an imaging unit that captures images in all directions. This allows the remote operator to freely view and operate the moving object in any desired direction when moving the moving object. Therefore, the remote operator can operate the mobile object while looking in the desired direction. Therefore, remote control of a moving object can be realized without requiring position information of the moving object.

実施形態に係る遠隔操作システムを説明するための概略図である。FIG. 1 is a schematic diagram for explaining a remote control system according to an embodiment. 操作端末の構成を説明するためのブロック図である。FIG. 2 is a block diagram for explaining the configuration of an operating terminal. 操作端末を横位置で使用した場合に、操作端末自身の回転を説明するための概略図である。FIG. 3 is a schematic diagram for explaining the rotation of the operating terminal itself when the operating terminal is used in a horizontal position. 操作端末を縦位置で使用した場合に、操作端末自身の回転を説明するための概略図である。FIG. 2 is a schematic diagram for explaining the rotation of the operating terminal itself when the operating terminal is used in a vertical position. 操作表示部に表示された表示画像例1を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining example 1 of a display image displayed on an operation display unit. 操作表示部に表示された表示画像例2を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining example 2 of a display image displayed on the operation display section. 操作表示部に表示された表示画像例3を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining display image example 3 displayed on the operation display unit. 画面内におけるレティクルの垂直方向の位置を説明するための説明図である。FIG. 2 is an explanatory diagram for explaining the vertical position of a reticle within a screen. 画面内におけるレティクルの垂直方向の位置を説明するための説明図である。FIG. 2 is an explanatory diagram for explaining the vertical position of a reticle within a screen. 全方位カメラによって撮像された撮像画像例1を説明するための説明図である。FIG. 2 is an explanatory diagram for explaining example 1 of a captured image captured by an omnidirectional camera. 全方位カメラによって撮像された撮像画像例2を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining example 2 of a captured image captured by an omnidirectional camera. 全方位カメラによって撮像された撮像画像例3を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining example 3 of a captured image captured by an omnidirectional camera. 視線方向Lの変更操作について説明するための説明図である。FIG. 6 is an explanatory diagram for explaining an operation for changing the viewing direction L; レティクル方向Rの変更操作について説明するための説明図である。FIG. 6 is an explanatory diagram for explaining an operation for changing the reticle direction R; 移動体の加速・減速の操作について説明するための説明図である。FIG. 3 is an explanatory diagram for explaining operations for accelerating and decelerating a moving body. 移動体の他の加速・減速の操作について説明するための説明図である。FIG. 7 is an explanatory diagram for explaining other acceleration/deceleration operations of a moving body. 移動体の移動方向を反転させる操作について説明するための説明図である。FIG. 3 is an explanatory diagram for explaining an operation for reversing the moving direction of a moving body. 移動体の移動方向が反転されたときの全方位画像を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining an omnidirectional image when the moving direction of a moving object is reversed. ズーム操作について説明するための説明図である。FIG. 3 is an explanatory diagram for explaining a zoom operation. 他のズーム操作について説明するための説明図である。FIG. 7 is an explanatory diagram for explaining another zoom operation. 衝突検知について説明するための説明図である。FIG. 3 is an explanatory diagram for explaining collision detection. 移動制御に関するベクトル図である。It is a vector diagram regarding movement control. 移動体が傾斜した場合を説明するためのベクトル図である。FIG. 3 is a vector diagram for explaining a case where a moving body is tilted. 移動体の向きが変わった場合を説明するためのベクトル図である。FIG. 3 is a vector diagram for explaining a case where the direction of a moving body changes. 移動体の向きが変わった場合を説明するためのベクトル図である。FIG. 3 is a vector diagram for explaining a case where the direction of a moving body changes. 回転動作手順を示すフローチャートである。It is a flow chart showing a rotation operation procedure. 視線方向Lの移動制御手順を示すフローチャートである。7 is a flowchart showing a movement control procedure in the line-of-sight direction L. FIG. レティクル方向Rの移動制御手順を示すフローチャートである。7 is a flowchart showing a movement control procedure in the reticle direction R. FIG.

以下、図面を参照して、本発明の実施形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Embodiments of the present invention will be described in detail below with reference to the drawings. In addition, in the description of the drawings, the same elements are given the same reference numerals, and redundant description will be omitted. Furthermore, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios.

図1は、実施形態に係る遠隔操作システムを説明するための概略図である。 FIG. 1 is a schematic diagram for explaining a remote control system according to an embodiment.

実施形態1に係る遠隔操作システム1は、図1に示すように、操作端末100、移動体300を有する。操作端末100と移動体300とはネットワーク200によって接続される。操作端末100は、ネットワーク200を介した無線通信によって移動体300と接続される。 The remote control system 1 according to the first embodiment includes an operating terminal 100 and a mobile object 300, as shown in FIG. The operating terminal 100 and the mobile object 300 are connected through a network 200. The operation terminal 100 is connected to the mobile body 300 by wireless communication via the network 200.

以下、各部の詳細を説明する。 The details of each part will be explained below.

図2は、操作端末100の構成を説明するためのブロック図である。 FIG. 2 is a block diagram for explaining the configuration of the operating terminal 100.

操作端末100は、図2に示すように、通信部101、制御部102、記憶部103、センサー104、および操作表示部105を有する。 As shown in FIG. 2, the operation terminal 100 includes a communication section 101, a control section 102, a storage section 103, a sensor 104, and an operation display section 105.

通信部101は、ネットワーク200を介して、移動体300と無線通信する。通信部101は、ネットワーク200の無線基地局やアクセスポイント(いずれも不図示)に対応して、5GやIEEE802.11(たとえばWiFi)などの無線通信規格によるインターフェースを有する。通信部101は、複数の無線通信規格に対応させて、複数のインターフェースを有していてもよい。また、通信部101は、接続する可能性のある無線通信局やアクセスポイントに対応したアンテナ(不図示)なども有する。なお、使用される無線通信規格は、操作端末100の通信部101と通信可能であれば、5GやIEEE802.11に限定されない。 Communication unit 101 wirelessly communicates with mobile object 300 via network 200 . The communication unit 101 has an interface based on a wireless communication standard such as 5G or IEEE802.11 (for example, WiFi) corresponding to a wireless base station or an access point (both not shown) of the network 200. The communication unit 101 may have a plurality of interfaces corresponding to a plurality of wireless communication standards. The communication unit 101 also includes antennas (not shown) corresponding to wireless communication stations and access points to which it may connect. Note that the wireless communication standard used is not limited to 5G or IEEE802.11 as long as communication with the communication unit 101 of the operating terminal 100 is possible.

通信部101は、移動体300からの画像データ、移動体300の現在の移動方向、および現在の移動速度を受信し、制御部102へ出力する。また、通信部101は、制御部102から出力された移動体300を制御するための制御信号を移動体300へ送信する。制御信号は、移動体300を移動させるための情報を有する。 The communication unit 101 receives image data from the moving body 300, the current moving direction and the current moving speed of the moving body 300, and outputs the received information to the control unit 102. Furthermore, the communication unit 101 transmits a control signal for controlling the mobile body 300 output from the control unit 102 to the mobile body 300. The control signal includes information for moving the mobile body 300.

制御部102は、コンピューターである。制御部102は、後述する遠隔操作のためのプログラムを実行することによって、移動体300の移動を制御する。 Control unit 102 is a computer. The control unit 102 controls the movement of the mobile object 300 by executing a program for remote control, which will be described later.

制御部102は、周知のコンピューターと同様に、演算素子となるCPU(Central Processing Unit)、記憶部103となるROM(Read Only Memory)およびRAM(Random Access Memory)などを有する。 The control unit 102 includes, like a well-known computer, a CPU (Central Processing Unit) serving as an arithmetic element, a ROM (Read Only Memory) serving as the storage unit 103, a RAM (Random Access Memory), and the like.

また、制御部102は、ROM、RAMの他にも、記憶部103を有する。記憶部103は、たとえば、eMMC(embedded MultiMediaCard)、SSD(Solid State Drive)、HDD(Hard Disk Drive)などの不揮発性記憶装置である。また、記憶部103は、メモリーカードなどの可搬式の記憶媒体であってもよい。 Furthermore, the control unit 102 includes a storage unit 103 in addition to the ROM and RAM. The storage unit 103 is, for example, a nonvolatile storage device such as an embedded MultiMediaCard (eMMC), a solid state drive (SSD), or a hard disk drive (HDD). Furthermore, the storage unit 103 may be a portable storage medium such as a memory card.

センサー104は、たとえば、加速度センサーおよび角速度センサー(ジャイロセンサー)である。センサー104は、検出した加速度と角速度の値を制御部102へ出力する。制御部102は、検出された加速度と角速度の値から、操作端末100自身の回転方向と回転量(回転角度)を取得する。 The sensor 104 is, for example, an acceleration sensor and an angular velocity sensor (gyro sensor). The sensor 104 outputs the detected acceleration and angular velocity values to the control unit 102. The control unit 102 obtains the rotation direction and rotation amount (rotation angle) of the operating terminal 100 itself from the detected acceleration and angular velocity values.

図3は、操作端末100を横位置で使用する場合に、操作端末100自身の回転を説明するための概略図である。図4は、操作端末100を縦位置で使用する場合に、操作端末100自身の回転を説明するための概略図である。ここでは、操作端末100としてスマートフォンを使用する場合を例に説明する。 FIG. 3 is a schematic diagram for explaining the rotation of the operating terminal 100 itself when the operating terminal 100 is used in a horizontal position. FIG. 4 is a schematic diagram for explaining the rotation of the operating terminal 100 itself when the operating terminal 100 is used in a vertical position. Here, a case where a smartphone is used as the operation terminal 100 will be described as an example.

スマートフォン(操作端末100)を横位置で使用する場合、操作端末100自身の回転は、図3に示すように、スマートフォンの長辺の中心を通る回転軸AXに対する回転である。一方、スマートフォン(操作端末100)を縦位置で使用する場合、操作端末100自身の回転は、図4に示すように、スマートフォンの短辺の通心を通る回転軸AXに対する回転である。回転軸AXは、いずれも垂線(水平線に対して垂直な線)である。 When the smartphone (operation terminal 100) is used in the horizontal position, the rotation of the operation terminal 100 itself is rotation about the rotation axis AX passing through the center of the long side of the smartphone, as shown in FIG. On the other hand, when the smartphone (operation terminal 100) is used in a vertical position, the rotation of the operation terminal 100 itself is rotation about the rotation axis AX passing through the center of the short side of the smartphone, as shown in FIG. The rotation axes AX are all perpendicular lines (lines perpendicular to the horizontal line).

操作表示部105は、入力部および表示部である。操作表示部105は、たとえば、タッチパネル式のディスプレイであり、各種情報を表示するとともに、ユーザーからの各種入力を受け付ける。操作表示部105には、移動体300に搭載されている全方位カメラ320によって撮像された画像が表示される。表示される画像は、全方位画像のなかの一部の領域の画像である。また、操作表示部105は、操作表示部105に遠隔操作者(ユーザー)がタッチすることによって、移動体300を制御するための指示の入力を受け付ける。 The operation display section 105 is an input section and a display section. The operation display unit 105 is, for example, a touch panel display, and displays various information and receives various inputs from the user. An image captured by an omnidirectional camera 320 mounted on the moving object 300 is displayed on the operation display section 105. The displayed image is an image of a part of the omnidirectional image. Further, the operation display unit 105 receives input of an instruction for controlling the mobile body 300 by a remote operator (user) touching the operation display unit 105 .

このような各部の機能を有する操作端末100は、たとえば、スマートフォンやタブレットコンピューターなどである。操作端末100は、その他のパーソナルコンピューター(PC)や、専用のコントローラーなどであってもよい。 The operation terminal 100 having the functions of each part as described above is, for example, a smartphone, a tablet computer, or the like. The operation terminal 100 may be another personal computer (PC), a dedicated controller, or the like.

ネットワーク200は、5G通信回線によるネットワーク200、無線ローカルエリアネットワーク(LAN)などである。ネットワーク200は、操作端末100および移動体300が無線通信によって接続するための無線基地局やアクセスポイントを有する。これらネットワーク200は、さらにインターネットに接続されていてもよい。 The network 200 is a network 200 using a 5G communication line, a wireless local area network (LAN), or the like. The network 200 includes a wireless base station and an access point to which the operation terminal 100 and the mobile object 300 are connected via wireless communication. These networks 200 may further be connected to the Internet.

なお、本実施形態では、ネットワーク200を介した無線通信によって、操作端末100と移動体300とを接続することとしたが、操作端末100と移動体300とは、直接、無線通信によって接続されてもよい。 Note that in this embodiment, the operation terminal 100 and the mobile object 300 are connected by wireless communication via the network 200, but the operation terminal 100 and the mobile object 300 are not directly connected by wireless communication. Good too.

移動体300は、移動体本体310、全方位カメラ320、および移動体制御端末330を有する。移動体300は、たとえば、遠隔操作(無線操縦などとも称される)によって地上を走行するロボットカーである。また、移動体300は、たとえば、空中ドローン、水中または水上ドローンなどであってもよい。本実施形態においては、移動体300としてロボットカーを例に説明する。 The mobile body 300 includes a mobile body main body 310, an omnidirectional camera 320, and a mobile body control terminal 330. The mobile object 300 is, for example, a robot car that travels on the ground by remote control (also referred to as radio control or the like). Furthermore, the mobile object 300 may be, for example, an aerial drone, an underwater or waterborne drone, or the like. In this embodiment, a robot car will be described as an example of the moving object 300.

本実施形態において、移動体本体310は、モーター、車輪などを含む駆動機構および操舵機構などを有する。また、移動体本体310には、加速度センサーおよびジャイロセンサー(いずれも不図示)が備えられている。加速度センサーおよびジャイロセンサーは、移動体300の移動方向および移動速度を検出する。なお、加速度センサーおよびジャイロセンサーは、移動体制御端末330や全方位カメラ320に備えられていてもよい。 In this embodiment, the mobile body 310 has a drive mechanism including a motor, wheels, etc., a steering mechanism, and the like. The mobile body 310 is also equipped with an acceleration sensor and a gyro sensor (both not shown). The acceleration sensor and the gyro sensor detect the moving direction and moving speed of the moving body 300. Note that the acceleration sensor and the gyro sensor may be included in the mobile control terminal 330 and the omnidirectional camera 320.

全方位カメラ320は、撮像部である。全方位カメラ320は、360度カメラとも称されている。全方位カメラ320は、全球的に撮像する。全方位カメラ320によって撮像された画像は、動画像である。なお、ロボットカーやその他の地上を走行する移動体300、水上ドローンなどにおいては、移動体本体310から上方の半球的部分だけを撮像する全方位カメラ320が用いられてもよい。 The omnidirectional camera 320 is an imaging unit. The omnidirectional camera 320 is also called a 360 degree camera. The omnidirectional camera 320 captures images globally. The image captured by the omnidirectional camera 320 is a moving image. Note that in a robot car, other moving objects 300 that travel on the ground, water drones, and the like, an omnidirectional camera 320 that images only a hemispherical portion above the moving object main body 310 may be used.

また、移動体制御端末330は、操作端末100から制御信号を受信し、制御信号に含まれる指示に従って、移動体300を制御する。移動体制御端末330は、移動体制御用のコンピューターである。制御信号は、操作端末100に入力された視線方向、移動体300を移動させるための方向、および指示速度などの情報を有する。移動体制御端末330は、制御信号に基づき、全方位カメラ320を制御する。移動体制御端末330は、制御信号に基づき、移動体本体310の駆動機構および操舵機構を制御して、操作端末100から入力された方向、速度により移動体300を移動させる。 Furthermore, the mobile object control terminal 330 receives a control signal from the operation terminal 100 and controls the mobile object 300 according to instructions included in the control signal. Mobile object control terminal 330 is a computer for controlling a mobile object. The control signal includes information such as the line-of-sight direction input to the operation terminal 100, the direction for moving the mobile object 300, and the instructed speed. Mobile control terminal 330 controls omnidirectional camera 320 based on the control signal. The mobile body control terminal 330 controls the drive mechanism and steering mechanism of the mobile body main body 310 based on the control signal, and moves the mobile body 300 according to the direction and speed input from the operating terminal 100.

また、移動体制御端末330は、ネットワーク200を介して、操作端末100と無線通信する。移動体制御端末330は、ネットワーク200の無線基地局やアクセスポイント(いずれも不図示)に対応して、5GやIEEE802.11規格(たとえばWiFi)などの無線通信規格によるインターフェースを有する。複数の無線通信規格に対応させて、複数のインターフェースを有していてもよい。また、移動体制御端末330は、接続する可能性のある無線通信局やアクセスポイントに対応したアンテナ(不図示)なども有する。なお、使用される無線通信規格は、操作端末100の通信部101と通信可能であれば、5GやIEEE802.11に限定されない。 Furthermore, the mobile control terminal 330 wirelessly communicates with the operation terminal 100 via the network 200. The mobile control terminal 330 has an interface based on a wireless communication standard such as 5G or the IEEE 802.11 standard (for example, WiFi), corresponding to a wireless base station or an access point (both not shown) of the network 200. It may have a plurality of interfaces corresponding to a plurality of wireless communication standards. The mobile control terminal 330 also has an antenna (not shown) corresponding to a wireless communication station or access point to which it may connect. Note that the wireless communication standard used is not limited to 5G or IEEE802.11 as long as communication with the communication unit 101 of the operating terminal 100 is possible.

移動体制御端末330は、全方位カメラ320によって撮像された全方位領域のなかの一部の領域を切り出す。移動体制御端末330は、切り出した領域の画像を画像データとして、操作端末100へ送信する。移動体制御端末330は、移動体300の移動方向、および移動速度を操作端末100へ送信する。 The mobile control terminal 330 cuts out a part of the omnidirectional area imaged by the omnidirectional camera 320. Mobile object control terminal 330 transmits the image of the cut out area to operation terminal 100 as image data. Mobile object control terminal 330 transmits the moving direction and moving speed of mobile object 300 to operation terminal 100.

次に、操作例を説明する。ここでは、操作端末100としてスマートフォンを用いた例を説明する。 Next, an example of operation will be explained. Here, an example will be described in which a smartphone is used as the operation terminal 100.

移動体300からは、全方位カメラ320によって撮像された画像が、リアルタイムに、スマートフォンへ送信される。遠隔操作者は、遠隔にある移動体300に搭載された全方位カメラ320によって撮像された画像をスマートフォンの画面を通して見ることができる。そして、遠隔操作者は、スマートフォンを操作することによって、移動体300の移動を制御できる。 From the mobile object 300, images captured by the omnidirectional camera 320 are transmitted to the smartphone in real time. The remote operator can view the image captured by the omnidirectional camera 320 mounted on the remote mobile object 300 through the screen of the smartphone. Then, the remote operator can control the movement of the mobile object 300 by operating the smartphone.

移動体300は、ロボットカーである。ロボットカーの移動方向は、前後左右の水平方向だけである。また、ロボットカーにおいて、進行方向を変える動作は、車輪などの駆動系の構成によって異なる。進行方向を変えるための構成としては、たとえば、通常の車両のように、前輪の角度が変化することによって、左(または右)へ徐々に曲がる構成が採用され得る。また、進行方向を変えるための構成として、メカナムホイールのように、その場で回転して車体を進行方向に向けてから前進させる構成も採用され得る。また、進行方向を変えるための構成として、メカナムホイールのように、斜め方向に直進させる構成も採用され得る。 Mobile object 300 is a robot car. The robot car can only move in horizontal directions, front, back, left, and right. Furthermore, in a robot car, the operation of changing the direction of travel differs depending on the configuration of the drive system such as wheels. As a configuration for changing the traveling direction, for example, a configuration that gradually turns left (or right) by changing the angle of the front wheels like a normal vehicle can be adopted. Further, as a configuration for changing the traveling direction, a configuration such as a mecanum wheel that rotates on the spot to direct the vehicle body in the traveling direction and then moves forward may be adopted. Moreover, as a structure for changing the traveling direction, a structure that allows the vehicle to move straight in an oblique direction, such as a mecanum wheel, may be adopted.

ここでは、特に説明がない限り、通常の車両と同様の方法によって進行方向を変える移動体300を例に説明する。 Here, unless otherwise specified, a moving object 300 that changes its traveling direction in the same manner as a normal vehicle will be described as an example.

図5は、操作表示部105に表示された表示画像例1を説明するための説明図である。 FIG. 5 is an explanatory diagram for explaining display image example 1 displayed on the operation display section 105.

操作表示部105には、図5に示すように、全方位カメラ320によって撮像された全方位領域の画像のなかの一部の領域の画像が表示される。この画像は第1画像である。全方位領域の画像は、球体を内側から見た球面の画像である(後述)。このため、全方位領域の画像のなかの一部の画像も、湾曲している。そこで、操作端末100では、選択なかた一部の領域の湾曲した画像を平面となるように補正する。操作端末100の操作表示部105には、補正された画像が表示される。 As shown in FIG. 5, the operation display unit 105 displays an image of a part of the omnidirectional area imaged by the omnidirectional camera 320. This image is the first image. The omnidirectional area image is a spherical image viewed from the inside of the sphere (described later). Therefore, some of the images in the omnidirectional area are also curved. Therefore, the operating terminal 100 corrects the curved image of the selected area so that it becomes flat. The corrected image is displayed on the operation display section 105 of the operation terminal 100.

操作表示部105には、全方位カメラ320からの画像の一部の領域の画像とともに、前方マーク、レティクル(reticle)、方向バー、およびスピードメーターが表示される。 The operation display unit 105 displays an image of a partial area of the image from the omnidirectional camera 320, as well as a forward mark, a reticle, a direction bar, and a speedometer.

図5に示した表示画面例1では、画面中央が視線方向となる。 In display screen example 1 shown in FIG. 5, the center of the screen is the viewing direction.

前方マークは、移動体300の現在の向き(前方方向)を示す第1マークである。表示画面例1において、前方マークは、画面中央に表示されている。前方マークは、方向バー上を移動する。前方マークは、視線方向(画面中央)に対して移動体300がどちらの方向にどの程度向いているかを示している。 The forward mark is a first mark indicating the current direction (forward direction) of the moving body 300. In display screen example 1, the forward mark is displayed at the center of the screen. The forward mark moves on the direction bar. The front mark indicates which direction and how much the moving body 300 faces with respect to the viewing direction (the center of the screen).

レティクルは、移動目標方向を示す第2マークである。表示画面例1においては、画面中央にレティクルが表示され、かつ、前方マークも、画面中央方向を示して表示される。移動体300は、レティクルが指す方向、すなわち、視線方向と同じ方向に前進する。移動体300の前進、移動体300の加速・減速の操作方法については、後述する。 The reticle is a second mark indicating the moving target direction. In display screen example 1, a reticle is displayed at the center of the screen, and a forward mark is also displayed pointing toward the center of the screen. The moving body 300 moves forward in the direction pointed by the reticle, that is, in the same direction as the viewing direction. The operating method for moving the moving body 300 forward and accelerating/decelerating the moving body 300 will be described later.

方向バーは、方向を分かり易く表示するための目安である。 The direction bar is a guide for displaying the direction in an easy-to-understand manner.

スピードメーターは、移動体300の現在の速度を示している。なお、スピードメーターは、グラフィカルな図形を用いて表示されているが、これに代えて、または追加で、実際の速度が数値によって表示されてもよい。 The speedometer indicates the current speed of the moving object 300. Note that although the speedometer is displayed using a graphical figure, the actual speed may be displayed numerically instead of or in addition to this.

図6は、操作表示部105に表示された表示画像例2を説明するための説明図である。 FIG. 6 is an explanatory diagram for explaining display image example 2 displayed on the operation display section 105.

図6に示した表示画像例2は、移動体300の視線方向を変えた場合を示している。視線方向を変えた場合、画面内において、レティクルの位置が移動する。たとえば、視線をやや右上方向へ移した場合、画面に表示されている画像は、その方向に移動する。一方、レティクルは、図6に示すように、視線方向である画面中央からやや左下に移動する。また、図6に示すように、前方マークは、レティクルよりも右側にあることから、移動体300は、指示した移動方向に対して、現在右側を向いていることがわかる。そして、前進の指示入力によって、移動体300は、レティクルで示された方向へ、左へ曲がりながら進むことになる。 Display image example 2 shown in FIG. 6 shows a case where the viewing direction of the moving body 300 is changed. When you change the line of sight, the position of the reticle moves within the screen. For example, if you shift your line of sight slightly to the upper right, the image displayed on the screen will move in that direction. On the other hand, as shown in FIG. 6, the reticle moves slightly to the lower left from the center of the screen, which is the viewing direction. Further, as shown in FIG. 6, since the front mark is on the right side of the reticle, it can be seen that the moving body 300 is currently facing to the right with respect to the instructed movement direction. Then, by inputting a forward instruction, the moving body 300 moves in the direction indicated by the reticle while turning to the left.

操作表示部105に表示されている画像は、全方位領域(360度)の画像の一部である。前方マークが方向バーの中央部分に位置している場合(図5の場合)、移動体300は、視線方向と同じ方向に移動している。また、前方マークが方向バーの右側に位置している場合(図6の場合)、移動体300は、視線方向よりも右方向に移動している。 The image displayed on the operation display unit 105 is part of an omnidirectional (360 degree) image. When the front mark is located at the center of the direction bar (in the case of FIG. 5), the moving body 300 is moving in the same direction as the viewing direction. Furthermore, when the forward mark is located on the right side of the direction bar (in the case of FIG. 6), the moving body 300 is moving to the right of the line of sight.

図7は、操作表示部105に表示された表示画像例3を説明するための説明図である。 FIG. 7 is an explanatory diagram for explaining display image example 3 displayed on the operation display section 105.

図7に示した表示画像例3は、操作表示部105の画面に移動目標が収まらない場合を示している。このような画面は、たとえば、画面に表示される画像の範囲を超えて移動方向を変更しようとする場合に発生する。このような場合、レティクルは、図7に示すように、画面の端に半分だけ表示される。なお、画面に表示される画像の範囲を超えて移動方向を変更しようとする場合の表示方法は、図7に示すような方法に限定されない。たとえば、レティクルの色を変えて表示したり、また、レティクルの表示を消したりすることによって、画面に表示される画像の範囲を超えて移動方向を変更していることが示されてもよい。さらに、画面に表示される画像の範囲を超えて移動方向を変更しようとしている旨の警告表示などが行われてもよい。 Display image example 3 shown in FIG. 7 shows a case where the moving target does not fit on the screen of the operation display unit 105. Such a screen occurs, for example, when attempting to change the moving direction beyond the range of the image displayed on the screen. In such a case, the reticle is only half displayed at the edge of the screen, as shown in FIG. Note that the display method when attempting to change the moving direction beyond the range of the image displayed on the screen is not limited to the method shown in FIG. 7. For example, changing the color of the reticle or disappearing the reticle may indicate that the direction of movement has changed beyond the range of the image displayed on the screen. Furthermore, a warning may be displayed to the effect that the moving direction is about to be changed beyond the range of the image displayed on the screen.

また、前方マークが、操作表示部105の画面に収まらない場合もある。このような場合、前方マークは、方向バーの端に表示される。また、このような場合に、前方マークは、色を変えて表示されてもよい。また、このような場合、前方マークの表示に加えて、警告が表示されてもよい。 Further, the forward mark may not fit on the screen of the operation display unit 105 in some cases. In such cases, the forward mark will be displayed at the end of the direction bar. Further, in such a case, the forward mark may be displayed in a different color. Further, in such a case, a warning may be displayed in addition to displaying the forward mark.

画面内におけるレティクルの垂直方向の位置について説明する。図8および9は、画面内におけるレティクルの垂直方向の位置を説明するための説明図である。 The vertical position of the reticle within the screen will be explained. 8 and 9 are explanatory diagrams for explaining the vertical position of the reticle within the screen.

移動体300が平地を走行中、移動体300の真正面(進行方向)と視線方向L(後述)が同じ場合、レティクルは、画面内の垂直方向中心に位置する。 When the moving object 300 is running on flat ground and the line of sight direction L (described later) is the same as the direction directly in front of the moving object 300 (progressing direction), the reticle is located at the center of the screen in the vertical direction.

一方、たとえば、移動体300が坂道を上っていて、移動体300の真正面(進行方向)と視線方向Lが同じ場合、図8に示すように、視線方向Lは、上向きとなる。レティクルが指す垂直方向は、水準線(平地と平行な線)と同じである。したがって、レティクルは、画面の垂直方向中央よりも下に位置する。 On the other hand, for example, if the moving body 300 is climbing a slope and the line of sight direction L is the same as the front (progressing direction) of the moving body 300, the line of sight direction L is upward, as shown in FIG. The vertical direction the reticle points is the same as the level line (a line parallel to the ground). Therefore, the reticle is located below the vertical center of the screen.

逆に、移動体300が坂道を下っていて、移動体300の真正面(進行方向)と視線方向Lが同じ場合、図9に示すように、視線方向Lは、下向きとなる。レティクルが指す垂直方向は、水準線(平地と平行な線)と同じである。したがって、レティクルは、画面の垂直方向中央より上に位置する。 Conversely, when the moving body 300 is going down a slope and the line of sight direction L is the same as the direction directly in front of the moving body 300 (progressing direction), the line of sight direction L is downward, as shown in FIG. The vertical direction the reticle points is the same as the level line (a line parallel to the ground). Therefore, the reticle is located above the vertical center of the screen.

ただし、3次元的に移動する空中ドローンや水中ドローンでは、レティクルを平地と平行な方向(水準線)に固定するという制限をなくしてもよい。そして、3次元的に移動する空中ドローンや水中ドローンでは、レティクルの画面内の位置が、垂直方向中央よりも上にあれば上昇の指示、中央よりも下にあれば下降の指示などとして処理されてもよい。 However, for aerial drones and underwater drones that move three-dimensionally, the restriction of fixing the reticle in a direction parallel to the level ground (level line) may be eliminated. For aerial and underwater drones that move three-dimensionally, if the reticle's position on the screen is above the vertical center, it is processed as an instruction to ascend, and if it is below the center, it is processed as an instruction to descend. It's okay.

次に、全方位カメラ320によって撮像された画像について説明する。 Next, an image captured by the omnidirectional camera 320 will be described.

図10は、全方位カメラ320によって撮像された撮像画像例1を説明するための説明図である。図11は、全方位カメラ320によって撮像された撮像画像例2を説明するための説明図である。 FIG. 10 is an explanatory diagram for explaining example 1 of the captured image captured by the omnidirectional camera 320. FIG. 11 is an explanatory diagram for explaining example 2 of the captured image captured by the omnidirectional camera 320.

図10および11に示した撮像画像例1および2は、全方位カメラ320によって撮像された画像を、内側(球の中心点)から見た仮想的な球面として示している。図10および11に示すように、球の中心点から見て、方向L(Line Of Sight)は、遠隔操作者が見ている視線方向を示し、方向F(Forward)は移動体300の進行方向(前方)を示し、方向R(Reticle)は移動体300を移動させたい方向、すなわちレティクルで指した移動目標方向を示している。以下、それぞれの方向は、視線方向L、進行方向F、およびレティクル方向Rと称する。これらの方向の情報は、制御部102において、記憶部103に内部パラメータとして記憶される。 Captured image examples 1 and 2 shown in FIGS. 10 and 11 show images captured by the omnidirectional camera 320 as virtual spherical surfaces viewed from the inside (center point of the sphere). As shown in FIGS. 10 and 11, when viewed from the center point of the sphere, the direction L (Line Of Sight) indicates the line of sight direction of the remote operator, and the direction F (Forward) indicates the direction of movement of the moving object 300. (forward), and the direction R (Reticle) indicates the direction in which the moving body 300 is desired to be moved, that is, the movement target direction indicated by the reticle. Hereinafter, the respective directions will be referred to as the line-of-sight direction L, the traveling direction F, and the reticle direction R. Information on these directions is stored in the storage unit 103 in the control unit 102 as internal parameters.

図10に示した撮像画像例1において、領域A1は、図5に示した表示画面例1として表示される領域である。領域A1は、移動体300側で所定の範囲に切り出されて、操作端末100へ送信される。 In captured image example 1 shown in FIG. 10, area A1 is an area displayed as display screen example 1 shown in FIG. Area A1 is cut out into a predetermined range on the mobile body 300 side and transmitted to the operation terminal 100.

図10において、視線方向L、進行方向F、およびレティクル方向Rは、すべて同じ方向となっている。本実施形態では、視線方向L、進行方向F、およびレティクル方向Rがすべて同じ方向となっている状態を初期状態とする。 In FIG. 10, the viewing direction L, the traveling direction F, and the reticle direction R are all the same direction. In this embodiment, the initial state is a state in which the viewing direction L, the traveling direction F, and the reticle direction R are all in the same direction.

一方、図11に示した撮像画像例2において、領域A2は、図6に示した表示画面例2として表示される領域である。この領域A2は、領域A1同様に、移動体300側で所定の範囲に切り出されて、操作端末100へ送信される。 On the other hand, in the captured image example 2 shown in FIG. 11, area A2 is an area displayed as the display screen example 2 shown in FIG. Similar to area A1, this area A2 is cut out into a predetermined range on the mobile body 300 side and transmitted to the operation terminal 100.

図11において、視線方向Lは、遠隔操作者によって変更された方向を指し、進行方向Fはその時に移動体300が進行している方向を指し、レティクル方向Rはその時の移動目標の方向を指している。 In FIG. 11, the viewing direction L indicates the direction changed by the remote operator, the traveling direction F indicates the direction in which the moving object 300 is traveling at that time, and the reticle direction R indicates the direction of the moving target at that time. ing.

なお、全方位領域の画像(図10~12)内において、レティクル方向Rの垂直方向の位置は、常に平地と平行な位置にあるため、面H上となる。 Note that in the images of the omnidirectional area (FIGS. 10 to 12), the vertical position of the reticle direction R is always parallel to the flat ground, so it is on the plane H.

図10および11に示したように、全方位領域の画像は、全体が球面である。このため、操作表示部105に表示される画像は、そのままだと湾曲した画像となる。そこで、本実施形態では、操作表示部105に画像を表示させる際に、視線方向Lの直線と球面とが交わる点を中心Oとして、中心Oから所定の範囲の領域A1およびA2を平坦化して表示させる。平坦化は、操作端末100の制御部102によって実行される。 As shown in FIGS. 10 and 11, the image of the omnidirectional area is entirely spherical. Therefore, the image displayed on the operation display section 105 will be a curved image if left as is. Therefore, in the present embodiment, when displaying an image on the operation display unit 105, the areas A1 and A2 within a predetermined range from the center O are flattened, with the point where the straight line in the line of sight direction L intersects with the spherical surface as the center O. Display. The flattening is executed by the control unit 102 of the operation terminal 100.

領域A1およびA2の範囲(中心Oから所定の範囲)は、その方向が異なるのみで、同じ大きさである。領域A1およびA2の範囲は、操作表示部105の画面サイズや形状、解像度、画像の歪み補正の許容レベルに応じて、あらかじめ決められている。 The ranges of areas A1 and A2 (a predetermined range from center O) are the same in size, but differ in direction. The ranges of areas A1 and A2 are determined in advance according to the screen size and shape of the operation display unit 105, the resolution, and the permissible level of image distortion correction.

進行方向Fの直線は、常に平地と並行な面H上にある。 A straight line in the traveling direction F is always on a plane H parallel to the flat ground.

操作表示部105に表示される方向バーは、撮像画像例1の球面の経線方向における領域A1範囲を示している。 The direction bar displayed on the operation display unit 105 indicates the area A1 range in the meridian direction of the spherical surface of the captured image example 1.

操作表示部105に表示される前方マークは、進行方向Fの直線が球面と交わる点を、経線に沿って動かし、領域A1内の方向バーと交わる位置に表示される。 The forward mark displayed on the operation display section 105 is displayed at a position where the point where the straight line in the traveling direction F intersects with the spherical surface is moved along the meridian and intersects with the direction bar in the area A1.

レティクル方向Rの直線は、常に平地と平行な面H上にある。レティクル方向Rの直線が球面と交わる点Pは、レティクルの位置、すなわち、移動目標の方向を指している。これら前方マークおよびレティクルの表示は、領域A2においても同様である。 A straight line in the reticle direction R is always on a plane H parallel to the flat ground. A point P where a straight line in the reticle direction R intersects with the spherical surface indicates the position of the reticle, that is, the direction of the moving target. The display of these front marks and reticles is the same in area A2.

ここで、操作表示部105に表示される視線方向の画像内に、前方マークおよびレティクルが収まらない場合を説明する。 Here, a case will be described in which the forward mark and reticle do not fit within the line-of-sight image displayed on the operation display unit 105.

図12は、全方位カメラ320によって撮像された撮像画像例3を説明するための説明図である。撮像画像例3は、視線方向の画面(画像)内に、前方マークおよびレティクルが収まらない場合を示している。なお、撮像画像例3においても、視線方向L、進行方向F、およびレティクル方向Rの定義は、撮像画像例1および2と同様である。 FIG. 12 is an explanatory diagram for explaining example 3 of the captured image captured by the omnidirectional camera 320. Captured image example 3 shows a case where the front mark and reticle do not fit within the screen (image) in the viewing direction. Note that in the third captured image example as well, the definitions of the line-of-sight direction L, the traveling direction F, and the reticle direction R are the same as in the captured image examples 1 and 2.

移動体300の進行方向Fが、視線方向の画像として切り出された領域A3の範囲から外れる場合、進行方向Fの直線が球面と交わる点を経線に沿って動かすと、方向バーと交わらない。このような状態となった場合、操作表示部105に表示される前方マークは、領域A3内の方向バーの端に表示される。したがって、進行方向Fの直線が球面と交わる点を経線に沿って動かしたときの当該点が領域A3よりも右に外れている場合、前方マークは方向バー右端に、当該点が領域A3よりも左に外れている場合、前方マークは方向バーの左端に、表示される。 When the traveling direction F of the moving object 300 is outside the range of the area A3 cut out as the image in the line-of-sight direction, if the point where the straight line in the traveling direction F intersects with the spherical surface is moved along the meridian, it will not intersect with the direction bar. In such a state, the forward mark displayed on the operation display section 105 is displayed at the end of the direction bar within the area A3. Therefore, if the point where the straight line in the traveling direction F intersects with the spherical surface is moved along the meridian and the point is to the right of area A3, the forward mark will be at the right end of the direction bar, and the point will be further to the right than area A3. If you are off to the left, the forward mark will be displayed at the left end of the direction bar.

レティクルも、前方マークと同様に、画像の範囲から外れる場合がある。移動目標の点Pが、領域A3の範囲外にある場合、レティクルは、図12に示すように、領域A3の左端が面Hに交わる位置に表示される。 The reticle, like the forward mark, may also fall out of the image. When the moving target point P is outside the range of area A3, the reticle is displayed at a position where the left end of area A3 intersects surface H, as shown in FIG.

視線方向L、進行方向F、およびレティクル方向Rの指定の仕方としては、ベクトル座標が使用される。たとえば、座標系を全方位カメラ320に固定し、移動体300の真正面の方向を座標軸xに固定することにより、進行方向Fは、平地に対する移動体300の傾きだけで表すことができ、計算を省略できる。視線方向Lとレティクル方向Rは、移動体300の回転量を随時計測して、固定されている進行方向Fのベクトル座標に対して、計測した回転量を反映させることによって算出される。 Vector coordinates are used to specify the viewing direction L, the traveling direction F, and the reticle direction R. For example, by fixing the coordinate system to the omnidirectional camera 320 and fixing the direction directly in front of the moving body 300 to the coordinate axis x, the traveling direction F can be expressed only by the inclination of the moving body 300 with respect to the flat ground, and the calculation is Can be omitted. The line-of-sight direction L and the reticle direction R are calculated by measuring the amount of rotation of the moving body 300 at any time and reflecting the measured amount of rotation on the fixed vector coordinates of the traveling direction F.

回転量の計測方法としては、移動体300に搭載されているジャイロセンサーおよび加速度センサーなどによって移動体300の向きの変化を直接計測する。また、回転量の計測方法としては、LiDAR(Light Detection And Ranging)などで使用されるTOF(Time Of Flight)センサー104による物体検知、または画像認識AIによる物体検知を行って、その検知情報から算出してもよい。 As a method for measuring the amount of rotation, a change in the orientation of the moving body 300 is directly measured using a gyro sensor, an acceleration sensor, or the like mounted on the moving body 300. In addition, the rotation amount can be measured by detecting an object using a TOF (Time of Flight) sensor 104 used in LiDAR (Light Detection and Ranging), or by image recognition AI, and calculating from the detected information. You may.

以上のようにして、全方位カメラ320によって撮像された全方位領域の画像から切り出された一部の領域の画像上における前方マークおよびレティクルの位置と、全方位カメラ320によって撮像された画像に関する物理的な方向である視線方向L、進行方向F、およびレティクル方向Rが関係付けられる。 As described above, the positions of the front mark and the reticle on the image of a part of the area cut out from the image of the omnidirectional area captured by the omnidirectional camera 320, and the physics related to the image captured by the omnidirectional camera 320 are explained. The line-of-sight direction L, the traveling direction F, and the reticle direction R are related to each other.

次に、視線方向Lの変更操作について説明する。 Next, an operation for changing the viewing direction L will be explained.

図13は、視線方向Lの変更操作について説明するための説明図である。 FIG. 13 is an explanatory diagram for explaining an operation for changing the viewing direction L.

前述のように初期状態において、視線方向Lと進行方向Fは、一致している。つまり、初期状態において、視線方向Lは、平地と平行な面H上で、移動体300の進行方向Fと同じ方向を向いている。 As described above, in the initial state, the viewing direction L and the traveling direction F match. That is, in the initial state, the viewing direction L points in the same direction as the traveling direction F of the moving body 300 on a plane H parallel to the flat ground.

視線方向Lの変更は、この初期状態から、第1入力を行いつつ、操作端末100を回転させることによって行われる。第1入力は、たとえば、図13に示すように、操作表示部105の画面(スマートフォンの画面、以下単に「画面」とも称する)への1本の指によるタッチによって行われる。 The viewing direction L is changed from this initial state by rotating the operating terminal 100 while performing the first input. The first input is performed, for example, by touching the screen of the operation display unit 105 (smartphone screen, hereinafter also simply referred to as "screen") with one finger, as shown in FIG. 13 .

まず、第1入力として、画面が1本の指でタッチされると、制御部102は、画面ロックを実行する。ここで、画面ロックとは、操作端末100(スマートフォン)の動きに合わせて視線方向Lを変更できる状態である。この状態のまま、操作端末100が回転される。回転についてはすでに説明したとおりである。 First, when the screen is touched with one finger as a first input, the control unit 102 executes screen lock. Here, the screen lock is a state in which the viewing direction L can be changed according to the movement of the operating terminal 100 (smartphone). Operating terminal 100 is rotated in this state. The rotation has already been explained.

操作端末100には、加速度センサーとジャイロセンサーが搭載されている。加速度センサーとジャイロセンサーからは、操作端末100の回転方向と回転量が制御部102に出力される。制御部102は、画面が1本の指でタッチされた瞬間からの回転量を計測する。そして、制御部102は、計測した回転量を、視線方向Lの回転量として、移動体300へ送信する。移動体300は、図10および11に示した全方位画像である球面上の中心Oを移動させる。中心Oの動きに連動して、たとえば、領域A1が、領域A2へ移動する(正確には、画像の切り出し位置が変わる)。制御部102は、この移動によって更新された領域A2を移動体300から受信する。制御部102は、受信した領域A2の画像を平坦化してリアルタイムに操作表示部105に表示する。 The operation terminal 100 is equipped with an acceleration sensor and a gyro sensor. The acceleration sensor and the gyro sensor output the rotation direction and rotation amount of the operation terminal 100 to the control unit 102. The control unit 102 measures the amount of rotation from the moment the screen is touched with one finger. Then, the control unit 102 transmits the measured amount of rotation to the moving body 300 as the amount of rotation in the line-of-sight direction L. The moving body 300 moves the center O on the spherical surface that is the omnidirectional image shown in FIGS. 10 and 11. In conjunction with the movement of the center O, for example, area A1 moves to area A2 (more precisely, the cutting position of the image changes). The control unit 102 receives the area A2 updated by this movement from the mobile object 300. The control unit 102 flattens the received image of the area A2 and displays it on the operation display unit 105 in real time.

図13に戻り説明する。画面が1本の指でタッチされた状態から、スマートフォンを右方向へスライド(回転)させると、移動体300の進行方向に対して右側の画像が表示される。これにより、操作表示部105に表示されている画像は、スライド(回転)前の状態からスライド(回転)後の画像へと移って行く。このとき、進行方向Fとレティクル方向Rは、変化しない。このため、操作表示部105の画像内では、前方マークとレティクルは、左側に移動することになる。 Returning to FIG. 13, explanation will be given. When the smartphone is slid (rotated) to the right from a state in which the screen is touched with one finger, an image on the right side with respect to the traveling direction of the mobile object 300 is displayed. As a result, the image displayed on the operation display section 105 shifts from the state before sliding (rotation) to the image after sliding (rotation). At this time, the traveling direction F and the reticle direction R do not change. Therefore, the front mark and reticle move to the left in the image on the operation display unit 105.

なお、全方位カメラ320によって撮像された画像に含まれない部分は、操作表示部105においてブランクとして表示される。具体的には、たとえば、ロボットカーなどでは、移動体本体310の下方は、撮像されない。このため、操作端末100を下方に傾けた場合、全方位画像として撮像されていない部分を見る方向に、中心Oが移動する。このよう場合、移動体本体310から下方の範囲は、そもそも画像が取得されていないので、操作表示部105に表示される画像は、一部ブランクとして表示される。 Note that portions that are not included in the image captured by the omnidirectional camera 320 are displayed as blanks on the operation display section 105. Specifically, for example, in a robot car or the like, the area below the mobile body 310 is not imaged. Therefore, when the operating terminal 100 is tilted downward, the center O moves in the direction in which the portion that is not captured as an omnidirectional image is viewed. In such a case, since no images have been acquired in the area below the mobile body 310, part of the image displayed on the operation display unit 105 is displayed as blank.

次に、レティクル方向Rの変更操作について説明する。 Next, an operation for changing the reticle direction R will be explained.

図14は、レティクル方向Rの変更操作について説明するための説明図である。 FIG. 14 is an explanatory diagram for explaining an operation for changing the reticle direction R.

前述のように初期状態において、レティクル方向Rと進行方向Fは、一致している。つまり、初期状態において、レティクル方向Rは、移動体300の進行方向Fと同じ方向を向いている。 As described above, in the initial state, the reticle direction R and the traveling direction F match. That is, in the initial state, the reticle direction R faces the same direction as the traveling direction F of the moving body 300.

レティクル方向Rの変更は、この初期状態から、第2入力を行いつつ、操作端末100を回転させることによって行われる。第2入力は、たとえば、図14に示すように、画面への2本の指によるタッチによって行われる。 The reticle direction R is changed from this initial state by rotating the operating terminal 100 while performing the second input. The second input is performed, for example, by touching the screen with two fingers, as shown in FIG.

まず、第2入力として、画面が2本の指でタッチされると、制御部102は、画面ロックを実行する。ここで、画面ロックとは、操作端末100自身の動きに合わせてレティクル方向Rを変更できる状態である。この時、制御部102は、画面ロックと同時に、レティクル方向Rの水平方向を視線方向Lに設定し、一致させる。この状態で、制御部102は、視線方向Lと常に同じ水平方向を指した状態でレティクル方向Rも動かせるようにする。レティクル方向Rの垂直方向は、常に平地と平行である。 First, when the screen is touched with two fingers as a second input, the control unit 102 executes screen lock. Here, the screen lock is a state in which the reticle direction R can be changed in accordance with the movement of the operating terminal 100 itself. At this time, simultaneously with the screen lock, the control unit 102 sets the horizontal direction of the reticle direction R to the line-of-sight direction L so that they match. In this state, the control unit 102 also allows the reticle direction R to be moved while always pointing in the same horizontal direction as the line-of-sight direction L. The vertical direction of the reticle direction R is always parallel to the flat ground.

この状態で操作端末100が回転させられると、視線方向Lは、前述した視線方向Lの操作同様に変化して、領域A1の範囲が変化する。一方、レティクル方向Rの水平方向は、常に中央を指し、相対的に領域A1の画像に対して移動することになる。レティクル方向Rの垂直方向は、平地と平行な方向を指している。この時、前方マークは、操作端末100の回転量に応じて移動する。 When the operation terminal 100 is rotated in this state, the line-of-sight direction L changes similarly to the above-described operation of the line-of-sight direction L, and the range of the area A1 changes. On the other hand, the horizontal direction of the reticle direction R always points to the center and moves relative to the image in area A1. The vertical direction of the reticle direction R points to a direction parallel to the flat ground. At this time, the front mark moves according to the amount of rotation of the operating terminal 100.

これは、たとえば、図14に示すように、画面が2本の指でタッチされた状態で、操作端末100が右方向へスライド(回転)されると、操作表示部105に表示されている画像は、右側に移動する。この時、レティクルは、常に画面の水平方向の中央に位置する。つまり、操作表示部105に移っている画像は、操作端末100のスライド(回転)に伴って移動(画像が流れる)するが、レティクルは画面中央から動かない。レティクルの垂直方向の位置は視線方向Lと同時位置であり、その時見ている領域の画像の位置に依存する。これにより、レティクルは、移動させた画像の方向に移動することになる。この時、前方マークは、画面の左側に表示される。 For example, as shown in FIG. 14, when the operating terminal 100 is slid (rotated) to the right while the screen is touched with two fingers, the image displayed on the operating display unit 105 is moves to the right. At this time, the reticle is always located at the horizontal center of the screen. In other words, the image being moved to the operation display section 105 moves (the image flows) as the operation terminal 100 slides (rotates), but the reticle does not move from the center of the screen. The vertical position of the reticle is coincident with the viewing direction L and depends on the position of the image of the area currently being viewed. This causes the reticle to move in the direction of the moved image. At this time, the forward mark is displayed on the left side of the screen.

そして、移動体300は、前進する際に、レティクル方向Rで示された方向、つまり右側にカーブするように移動する。この移動に伴い、前方マークは、画面上で、レティクルへ近づくように中央方向へ移動する。 When the moving body 300 moves forward, it moves in the direction indicated by the reticle direction R, that is, curves to the right. Along with this movement, the front mark moves toward the center on the screen so as to approach the reticle.

このようなレティクル方向Rの変更の操作は、移動体300の移動中も行うことができる。したがって、遠隔操作者は、車両のハンドル操作を行う感覚で、操作端末100の向きを変えるだけで、移動体300を左右方向へ曲がらせながら前進させることができる。また、この操作によって、遠隔操作者は、進みたい方向を画面中央に捉えるように操作端末100を動かすだけで、進行方向の微妙な操作を簡単に行うことができる。 Such an operation for changing the reticle direction R can be performed even while the moving body 300 is moving. Therefore, the remote operator can move the moving body 300 forward while turning left and right, just by changing the direction of the operating terminal 100, just as if he were operating the steering wheel of a vehicle. Moreover, by this operation, the remote operator can easily perform delicate operations on the direction of travel by simply moving the operating terminal 100 so that the desired direction is captured in the center of the screen.

制御部102は、操作表示部105の画面から指が離された瞬間に、画面ロックとレティクルの連動を解除する。画面ロックとレティクルの連動が解除されると、移動体300の移動に伴って、カメラからの画像は変化するが、視線方向Lおよびレティクル方向Rは、変化しない。そして、次に画面が2本の指でタッチされると、制御部102は、タッチされた瞬間の操作端末100の向きの画像のまま、前回指を離した瞬間の視線方向Lとレティクル方向Rの位置を表示させて、画面ロックの状態にする。 The control unit 102 releases the interlock between the screen lock and the reticle at the moment when the finger is removed from the screen of the operation display unit 105. When the link between the screen lock and the reticle is released, the image from the camera changes as the moving object 300 moves, but the line-of-sight direction L and the reticle direction R do not change. Then, when the screen is next touched with two fingers, the control unit 102 maintains the image of the orientation of the operating terminal 100 at the moment of touch, the line of sight direction L and the reticle direction R at the moment when the fingers were previously removed. Display the location of and lock the screen.

次に、移動体300の加速・減速の操作について説明する。 Next, operations for accelerating and decelerating the moving body 300 will be explained.

移動体300の加速・減速は、第3入力によって行われる。 Acceleration/deceleration of the moving body 300 is performed by the third input.

図15は、移動体300の加速・減速の操作について説明するための説明図である。 FIG. 15 is an explanatory diagram for explaining operations for accelerating and decelerating the moving body 300.

第3入力は、たとえば、画面を1本の指でタッチしたままスライドさせる動作(ドラッグ)によって行われる。 The third input is performed, for example, by touching and sliding the screen with one finger (drag).

図15に示すように、画面の上方へドラッグされると、制御部102は、移動体300を加速するための指示(制御信号)を送信する。なお、移動体300が停止している状態において、画面の上方へドラッグされると、移動体300は発進(前進)する。 As shown in FIG. 15, when the moving body 300 is dragged upward on the screen, the control unit 102 transmits an instruction (control signal) to accelerate the moving body 300. Note that when the moving body 300 is stopped and dragged upward on the screen, the moving body 300 starts (moves forward).

逆に、画面の下方へドラッグされると、制御部102は、移動体300を減速するための指示(制御信号)を送信する。なお、移動体300が低速で移動している状態において、画面の下方へドラッグされると、移動体300は停止する。 Conversely, when dragged downward on the screen, the control unit 102 transmits an instruction (control signal) to decelerate the moving body 300. Note that when the moving object 300 is moving at a low speed and is dragged downward on the screen, the moving object 300 stops.

加速・減速の操作は、上述のように、1本の指を使用する以外にも、様々な方法によって実行される。他の加速・減速の操作は、たとえば、第3入力として、2本の指を使用して実行される。 Acceleration/deceleration operations can be performed in various ways other than using one finger, as described above. Other acceleration/deceleration operations are performed using, for example, two fingers as the third input.

図16は、移動体300の他の加速・減速の操作について説明するための説明図である。 FIG. 16 is an explanatory diagram for explaining other acceleration/deceleration operations of the moving body 300.

他の加速・減速の操作は、図16に示すように、画面が2本の指でタッチされた状態で、1本の指を画面の上方または下方へ移動させること(ドラッグ)によって実行される。画面の上方へドラッグされると、制御部102は、移動体300を加速するための指示(制御信号)を送信する。なお、移動体300が停止している状態において、ドラッグされると、移動体300は発進(前進)する。逆に、画面の下方へドラッグされると、制御部102は、移動体300を減速するための指示(制御信号)を送信する。なお、移動体300が低速で移動している状態において、画面の下方へドラッグされると、移動体300は停止する。 Other acceleration/deceleration operations are performed by moving (dragging) one finger up or down the screen while the screen is touched with two fingers, as shown in Figure 16. . When dragged upward on the screen, the control unit 102 transmits an instruction (control signal) to accelerate the moving body 300. Note that when the moving object 300 is dragged while it is stopped, the moving object 300 starts (moves forward). Conversely, when dragged downward on the screen, the control unit 102 transmits an instruction (control signal) to decelerate the moving body 300. Note that when the moving object 300 is moving at a low speed and is dragged downward on the screen, the moving object 300 stops.

加速・減速の操作は、これら以外にも様々な方法によって実行される。図示しないが、たとえば、ドラッグする量(指をはじめにタッチした位置からの移動量)によって、スピードを指定できるようにしてもよい。また、たとえば、スマートフォンを持った状態で上側を遠隔操作者から離れる方向に傾けることで前進および加速の操作が実行され、スマートフォンを持った状態で上側を遠隔操作者に近づける方向に傾けることで減速および停止の操作が実行されてもよい。その他にも、たとえば画面上に、前進、停止、後退、加速、減速などのアイコンを表示しておき、それらがタッチされることで、対応する操作が実行されてもよい。 Acceleration/deceleration operations are performed by various methods other than these. Although not shown, the speed may be specified, for example, by the amount of dragging (the amount of movement from the position where the finger first touched). Also, for example, while holding the smartphone, tilt the top side away from the remote operator to perform forward and acceleration operations, while holding the smartphone and tilt the top side towards the remote operator to decelerate. and stop operations may be performed. In addition, for example, icons such as forward, stop, backward, acceleration, and deceleration may be displayed on the screen, and when these icons are touched, the corresponding operation may be executed.

次に、移動体300の移動方向を反転させる操作について説明する。 Next, an operation for reversing the moving direction of the moving body 300 will be described.

移動体300の移動方向の反転は、第4入力によって行われる。 Reversal of the moving direction of the moving body 300 is performed by the fourth input.

図17は、移動体300の移動方向を反転させる操作について説明するための説明図である。図18は、移動体300の移動方向が反転されたときの全方位画像を説明するための説明図である。 FIG. 17 is an explanatory diagram for explaining an operation for reversing the moving direction of the moving body 300. FIG. 18 is an explanatory diagram for explaining an omnidirectional image when the moving direction of the moving body 300 is reversed.

第4入力は、たとえば、図17に示すように、画面が1本の指でタッチされた状態で、指が画面上方または下方へ高速で移動されて指が画面から離れる動作(フリック)によって行われる。 For example, as shown in FIG. 17, the fourth input is performed by touching the screen with one finger and moving the finger upward or downward at high speed to move the finger away from the screen (flick). be exposed.

フリックされると、制御部102は、移動体300の進行方向を180度反転させるための制御信号を送信する。このとき、表示される画像は、以下のように変更される。反転後の全方位の画像は、図18に示すように、球面の中心点Cを含み、進行方向Fと垂直に交わる面Sに対して180度反転させた方向を進行方向F’とすると、この進行方向F’が移動体300の新たな前方となる。つまり、移動体300に前後の区別がある場合、反転後の移動体300は、後方が前になり、バックして進むようになる。 When flicked, the control unit 102 transmits a control signal for reversing the traveling direction of the moving body 300 by 180 degrees. At this time, the displayed image is changed as follows. As shown in FIG. 18, the omnidirectional image after inversion includes the center point C of the spherical surface, and if the direction inverted 180 degrees with respect to the plane S that intersects perpendicularly to the direction of movement F is the direction of movement F', This traveling direction F' becomes the new front of the moving body 300. In other words, when the moving body 300 has a front and rear distinction, the moving body 300 after reversal becomes forward with the rear facing forward and moves backward.

そして制御部102は、面Sに対して領域Aを鏡面対称にした領域A’を平坦化して操作表示部105に表示する。この時、中心Oは、中心O’に移り、視線方向Lは、視線方向L’の方向を向くことになる。また、表示されているレティクル方向Rは、遠隔操作者によって、レティクル方向Rの移動操作が行われるまで、変化しない。制御部102は、レティクル方向Rと領域A’の位置関係を計算し直して新たな位置にレティクルを表示する。 Then, the control unit 102 flattens the area A' in which the area A is mirror-symmetrical with respect to the surface S, and displays it on the operation display unit 105. At this time, the center O moves to the center O', and the viewing direction L points in the direction of the viewing direction L'. Further, the displayed reticle direction R does not change until a movement operation of the reticle direction R is performed by the remote operator. The control unit 102 recalculates the positional relationship between the reticle direction R and the area A' and displays the reticle at a new position.

また、移動体300が移動しているときに、フリックされた場合、制御部102は、移動体300を減速して停止させる。なお、レティクルが領域A内にあるときに、フリックされた場合、レティクルの位置は、新たな領域A’の範囲外になる。図18において、たとえば、領域A内でレティクルが左下方にあった場合、フリックによって反転させる操作が実行された後、レティクルは、領域A’の右端(下方)に移動する。この状態で前進を行うと、移動体300は、右向きにUターンする形で進行する。通常、フリックされた後は、レティクルの位置(すなわち、移動目標の方向)を設定し直してから移動体300を前進させる。 Further, when the moving body 300 is moved and is flicked, the control unit 102 decelerates the moving body 300 and stops the moving body 300. Note that if the reticle is flicked while it is within the area A, the position of the reticle will be outside the new area A'. In FIG. 18, for example, if the reticle is located at the lower left in area A, after the reversal operation is performed by flicking, the reticle moves to the right end (lower side) of area A'. When moving forward in this state, the moving body 300 proceeds in a U-turn to the right. Normally, after being flicked, the position of the reticle (that is, the direction of the moving target) is reset, and then the moving body 300 is moved forward.

次に、ズーム操作について説明する。 Next, the zoom operation will be explained.

ズーム操作は、第5入力によって行われる。 A zoom operation is performed by the fifth input.

図19は、ズーム操作について説明するための説明図である。 FIG. 19 is an explanatory diagram for explaining the zoom operation.

第5入力は、たとえば、図19に示すように、画面にタッチしながら、狭められている指の間隔を広げる動作(ピンチアウト)、または、画面にタッチしながら、広げられている指の間隔を狭める動作(ピンチイン)によって行われる。 The fifth input is, for example, as shown in FIG. 19, the action of widening the distance between fingers that are narrowed while touching the screen (pinch out), or the action of widening the distance between fingers that are widened while touching the screen. This is done by a pinch-in action.

ピンチアウトされると、制御部102は、ピンチアウトされた位置を視線方向Lに定め、レティクル方向Rの水平方向を視線方向Lと一致させる。レティクル方向Rの垂直方向は、視線方向L、つまり領域Aとの位置関係で決まる。そして、制御部102は、ピンチアウト動作によって、指が広げられた量に応じて、操作表示部105の画面に映し出されている画像を拡大する(ズームイン)。また、制御部102は、ピンチアウトの指を離した瞬間の拡大画像を記憶部103に記憶させる。その後、制御部102は、操作表示部105の画面に映し出されている画像をピンチアウトされる前の拡大倍率の画像に戻す。続いて、制御部102は、受信している移動体300からの画像が、先ほど記憶したピンチアウト時の拡大倍率の画像と同等のサイズになるまで移動体300を前進させる。 When pinched out, the control unit 102 sets the pinched-out position in the line-of-sight direction L, and makes the horizontal direction of the reticle direction R coincide with the line-of-sight direction L. The vertical direction of the reticle direction R is determined by the line-of-sight direction L, that is, the positional relationship with the area A. Then, the control unit 102 enlarges the image displayed on the screen of the operation display unit 105 (zooms in) according to the amount by which the fingers are spread by the pinch-out operation. Further, the control unit 102 causes the storage unit 103 to store an enlarged image at the moment when the pinch-out finger is released. Thereafter, the control unit 102 returns the image displayed on the screen of the operation display unit 105 to the image at the enlargement magnification before being pinched out. Subsequently, the control unit 102 moves the moving object 300 forward until the image received from the moving object 300 becomes the same size as the image with the magnification magnification at the time of pinch-out stored earlier.

一方、ピンチインされると、制御部102は、ピンチインされた位置を視線方向Lに定め、レティクル方向Rの水平方向を視線方向Lと一致させる。レティクル方向Rの垂直方向は、視線方向L、つまり領域Aとの位置関係で決まる。そして、制御部102は、ピンチイン動作によって、指が狭められた量に応じて、操作表示部105の画面に映し出されている画像を縮小する(ズームアウト)。また、制御部102は、ピンチインの指を離した瞬間の縮小画像を記憶部103に記憶させる。その後、制御部102は、操作表示部105の画面に映し出されている画像をピンチインされる前の拡大倍率の画像に戻す。続いて、制御部102は、受信している移動体300からの画像が、先ほど記憶したピンチイン時の拡大倍率の画像と同等のサイズになるまで移動体300を後退させる。 On the other hand, when pinched in, the control unit 102 sets the pinched-in position in the line-of-sight direction L, and makes the horizontal direction of the reticle direction R coincide with the line-of-sight direction L. The vertical direction of the reticle direction R is determined by the line-of-sight direction L, that is, the positional relationship with the area A. Then, the control unit 102 reduces the image displayed on the screen of the operation display unit 105 (zooms out) according to the amount by which the finger is pinched by the pinch-in operation. Further, the control unit 102 causes the storage unit 103 to store the reduced image at the moment when the pinch-in finger is released. Thereafter, the control unit 102 returns the image displayed on the screen of the operation display unit 105 to the image at the enlargement magnification before being pinched in. Subsequently, the control unit 102 causes the moving object 300 to move backward until the image received from the moving object 300 becomes the same size as the image at the magnification magnification at the pinch-in time that was stored earlier.

ズーム操作は、上述のように、ピンチ操作以外にも、様々な方法によって実行される。他のズーム操作は、たとえば、第5入力として、1本の指を使用して実行される。 As described above, the zoom operation is performed by various methods other than the pinch operation. Other zoom operations are performed using one finger, for example as a fifth input.

図20は、他のズーム操作について説明するための説明図である。 FIG. 20 is an explanatory diagram for explaining another zoom operation.

他のズーム操作の第5入力は、たとえば、図20に示すように、1本の指での画面の長押しである。 A fifth input for another zoom operation is, for example, a long press on the screen with one finger, as shown in FIG.

長押しされると、制御部102は、長押しされた位置を視線方向Lに定め、レティクル方向Rの水平方向を視線方向Lと一致させる。レティクル方向Rの垂直方向は、視線方向L、つまり領域Aとの位置関係で決まる。そして、制御部102は、長押しされている間、移動体300を前進させ、長押しの指が画面から離されると、移動体300を停止させる。したがって、移動体300は、長押しされている間、その方向に進むことになる。このため、遠隔操作者からは、画像内に映っている物体が拡大されるように見える。 When pressed for a long time, the control unit 102 sets the long pressed position in the line-of-sight direction L, and makes the horizontal direction of the reticle direction R coincide with the line-of-sight direction L. The vertical direction of the reticle direction R is determined by the line-of-sight direction L, that is, the positional relationship with the area A. Then, the control unit 102 moves the moving body 300 forward while the finger is pressed for a long time, and stops the moving body 300 when the long-pressing finger is released from the screen. Therefore, the moving body 300 will move in that direction while the button is pressed for a long time. Therefore, to the remote operator, the object appearing in the image appears to be enlarged.

以上のようなズーム操作のうち、ピンチアウトまたは長押しによる操作は、たとえば、移動体300から遠方にあって見えづらいときに使用される。たとえば、遠隔操作者は、遠方の壁に書かれた文字が小さくて読みづらいような場合に、ズームインの操作を行うことで、画像が拡大されるだけでなく、移動体300を壁まで近づけることができる。これにより、遠隔操作者は、文字などを読み取りやすくなる。 Among the zoom operations described above, pinch-out or long-press operations are used, for example, when the moving object 300 is far away and difficult to see. For example, if the letters written on a far wall are small and difficult to read, the remote operator can perform a zoom-in operation to not only enlarge the image but also to move the mobile object 300 closer to the wall. I can do it. This makes it easier for the remote operator to read characters.

一方、ズームアウトの操作は、たとえば、移動体300の近くに物体があって、全体が見渡せないような場合に使用される。たとえば、遠隔操作者は、移動体300の近すぎて全体が見えない物体がある場合に、ズームアウトの操作を行うことで、画像が縮小されるだけでなく、移動体300を物体から遠ざけることができる。これにより、遠隔操作者は、物体の全体を見渡すことができるようになる。 On the other hand, the zoom-out operation is used, for example, when there is an object near the moving body 300 and the entire object cannot be seen. For example, if there is an object that is too close to the moving object 300 to be fully visible, the remote operator can perform a zoom-out operation to not only reduce the image but also move the moving object 300 away from the object. Can be done. This allows the remote operator to see the entire object.

このようなズーム操作の際には、たとえば、レティクルの色が変更されてもよい。たとえば、ズームインの場合には緑色、ズームアウトの場合には赤色などに変更されてもよい。もちろんどのような色が使用されてもよい。また、ズームイン中、ズームアウト中などのように、文字が表示されてもよい。 During such a zoom operation, for example, the color of the reticle may be changed. For example, the color may be changed to green when zooming in and red when zooming out. Of course, any color may be used. Further, characters may be displayed while zooming in, zooming out, etc.

なお、ズーム操作による移動中、何も操作をしなければレティクル方向Rは、変化しないが、移動体300が移動するに従って、全方位カメラ320で捉える対象を見ている方向も変化する。このため、ズームイン時に拡大した画像またはズームアウト時に縮小した画像と、移動後の画像は、完全には一致しない。また、ズームイン、ズームアウト時に移動する移動量(前進または後退する量)は、三角測量で計算したおおよその値となる。 Note that while moving by zooming, the reticle direction R does not change if no operation is performed, but as the moving body 300 moves, the direction in which the object to be captured by the omnidirectional camera 320 is viewed also changes. Therefore, the image enlarged when zooming in or the image reduced when zooming out does not completely match the image after movement. Furthermore, the amount of movement (amount of forward or backward movement) when zooming in or zooming out is an approximate value calculated by triangulation.

次に、衝突検知について説明する。 Next, collision detection will be explained.

図21は、衝突検知について説明するための説明図である。 FIG. 21 is an explanatory diagram for explaining collision detection.

衝突検知は、図21に示すように、操作表示部105に、領域Aの表示に加えて、移動体300がこれから進もうとしているレティクル方向Rを中心とした領域Bの画像を表示して行われる。領域Bは、レティクル方向Rを中心とした所定の範囲である。領域Bは、領域Aとは異なる範囲を含む。この領域Bは、第2画像として操作表示部105に表示される。 As shown in FIG. 21, collision detection is performed by displaying on the operation display unit 105, in addition to displaying area A, an image of area B centered on the reticle direction R in which the moving object 300 is about to proceed. be exposed. Region B is a predetermined range centered on the reticle direction R. Region B includes a different range from region A. This area B is displayed on the operation display section 105 as a second image.

移動体300は、レティクル方向Rを中心として所定の範囲を切り出した領域Bを操作端末100へ送信する。制御部102は、受信した領域Bを平坦化し、操作表示部105に表示する。 The moving body 300 transmits a region B cut out from a predetermined range centered on the reticle direction R to the operating terminal 100. The control unit 102 flattens the received area B and displays it on the operation display unit 105.

遠隔操作者は、移動体300がこれから進行する方向の画像を見られる。このため、遠隔操作者は、移動体300がこれから進行する方向に人および/または物体が存在しないか、または、人および/または物体が移動してこないかなどの安全確認をしながら操作できる。 The remote operator can view an image of the direction in which the moving body 300 will move from now on. Therefore, the remote operator can operate the moving body 300 while checking safety, such as whether there are any people and/or objects in the direction in which the moving body 300 is moving, or whether people and/or objects are moving.

また、あらかじめ制御部102に人や物体を検知させるためのAIモデルを搭載して、領域Bの画像から人および/または物体を検知させてもよい。これにより、制御部102は、AIモデルによって、レティクル方向Rに人や物体が検知された場合、移動体300を停止させる。 Furthermore, an AI model for detecting people and objects may be installed in the control unit 102 in advance to detect people and/or objects from the image of area B. Thereby, the control unit 102 stops the moving body 300 when a person or object is detected in the reticle direction R by the AI model.

また、LiDARなどで使用されるTOFセンサーを搭載し、このようなセンサーに、レティクル方向Rの情報を通知して、その方向の物体検知を行わせてもよい。これにより、制御部102は、センサーによって、レティクル方向Rに人や物体が検知された場合、移動体300を停止させる。 Furthermore, a TOF sensor used in LiDAR or the like may be installed, and such a sensor may be notified of information on the reticle direction R to detect objects in that direction. Thereby, the control unit 102 stops the moving body 300 when a person or object is detected in the reticle direction R by the sensor.

このように、領域Aだけでなく、これから移動する方向の、領域Aよりも狭い範囲となる領域Bを設定し、操作表示部105に表示することで、遠隔操作者は、これから移動する先の人や物体を検知しやすくなる。また、このような領域Bを設定することで、AIやTOFセンサーなどによって、人や物体を検知させる場合に、検知範囲が絞られた少ないデータ量のなかから人や物体を検知させることができる。このため、少ない処理能力であっても、精度の高い検知と、それによる衝突回避動作を高速に行わせることができる。 In this way, by setting not only area A but also area B, which is narrower than area A in the direction in which the remote operator will move from now on, and displaying it on the operation display section 105, the remote operator can It becomes easier to detect people and objects. In addition, by setting such a region B, when detecting people or objects using AI or TOF sensors, it is possible to detect people or objects from a small amount of data with a narrowed detection range. . Therefore, even with a small processing capacity, highly accurate detection and the resulting collision avoidance operation can be performed at high speed.

なお、上述した領域Bは、領域Aよりもその範囲を狭くしたが、これに限定されず、領域Bは、領域Aと同じ広さであってもよいし、領域Aより広くてもよい。また、この領域Bの表示(第2画像)はなくてもよい。 Note that although the area B mentioned above has a narrower range than the area A, the range is not limited to this, and the area B may be the same size as the area A or may be wider than the area A. Further, the display of this area B (second image) may not be displayed.

次に、移動制御の詳細について説明する。 Next, details of movement control will be explained.

図22は、移動制御に関するベクトル図である。図22は、3次元座標系を示している。 FIG. 22 is a vector diagram regarding movement control. FIG. 22 shows a three-dimensional coordinate system.

移動制御に関するベクトルは、すでに説明したように、視線方向L、進行方向F、およびレティクル方向Rである。これらの各方向は、図22に示すように、極座標系のベクトルによって表すことができる。ここでは、ベクトルの方向だけが必要である。したがって、各方向は、ベクトルの長さrを定数として、偏角Θとφの関数であるベクトルP(Θ,φ)によって表すことができる。 Vectors related to movement control are the line-of-sight direction L, the traveling direction F, and the reticle direction R, as described above. Each of these directions can be represented by a vector in a polar coordinate system, as shown in FIG. Here, only the direction of the vector is needed. Therefore, each direction can be represented by a vector P(Θ, φ) that is a function of argument angles Θ and φ, with the vector length r as a constant.

初期状態では、視線方向L、進行方向F、およびレティクル方向Rは一致しており、Θ=C0、φ=0として、視線方向L、進行方向F、およびレティクル方向Rは、すべてベクトルP0(C0,0)とする。ここで、C0は、平地に対する移動体300の傾きの初期値である。移動体300の傾きは、移動体300に搭載された加速度センサーとジャイロセンサーによって取得することができる。なお、この座標系は、移動体300に搭載されている全方位カメラ320に固定された座標であり、移動体300の真正面を座標軸xに固定する。進行方向Fは、常にφ=0で、Θは平地に対する移動体300の傾きになる。 In the initial state, the line-of-sight direction L, the traveling direction F, and the reticle direction R are the same, and with Θ=C0 and φ=0, the line-of-sight direction L, the traveling direction F, and the reticle direction R are all based on the vector P0 (C0 ,0). Here, C0 is the initial value of the inclination of the moving body 300 with respect to the flat ground. The inclination of the moving body 300 can be acquired by an acceleration sensor and a gyro sensor mounted on the moving body 300. Note that this coordinate system is a coordinate fixed to the omnidirectional camera 320 mounted on the moving body 300, and the point directly in front of the moving body 300 is fixed to the coordinate axis x. The traveling direction F is always φ=0, and Θ is the inclination of the moving body 300 with respect to the flat ground.

図23は、移動体300が傾斜した場合を説明するためのベクトル図である。 FIG. 23 is a vector diagram for explaining a case where the moving body 300 is tilted.

たとえば、移動体300が傾斜角αの坂道にあり、視線方向Lの偏角ΘがΘLの場合、視線方向Lは、平地(図23中のG(水平面))を基準にした仰角90°-ΘL+αの方向を見ていることになる。この場合、移動体300が坂道を移動して傾斜角αが変化しても、視線方向Lやレティクル方向Rの移動操作をしない限り、偏角Θは、変化させない。したがって、傾斜角αが変わっても全方位カメラ320によって撮像された画像の球面上の座標系は、変化せず、そこに写っている画像の方が変化することになる。つまり、図22と23を比較すればわかるとおり、移動体300の座標系内におけるベクトルP(Θ,φ)は、移動体300が傾いても変化しないことを意味する。ただし、レティクル方向Rは、常に平地Gと水平な方向を指している。このため、レティクル方向Rは、移動体300の移動による傾斜の垂直成分に相当する分の偏角Θによって補正される。レティクル方向Rの補正は、移動体制御端末330によって行われる。 For example, if the moving body 300 is on a slope with an inclination angle α and the declination angle Θ of the line of sight direction L is ΘL, the line of sight direction L has an elevation angle of 90° with respect to the flat ground (G (horizontal plane) in FIG. 23). This means that you are looking in the direction of ΘL+α. In this case, even if the moving body 300 moves on a slope and the inclination angle α changes, the declination angle Θ does not change unless a movement operation in the line-of-sight direction L or the reticle direction R is performed. Therefore, even if the inclination angle α changes, the coordinate system on the spherical surface of the image captured by the omnidirectional camera 320 does not change, but the image captured there changes. In other words, as can be seen by comparing FIGS. 22 and 23, this means that the vector P (Θ, φ) in the coordinate system of the moving body 300 does not change even if the moving body 300 is tilted. However, the reticle direction R always points in a direction parallel to the flat ground G. Therefore, the reticle direction R is corrected by the deflection angle Θ corresponding to the vertical component of the inclination due to the movement of the moving body 300. Correction of the reticle direction R is performed by the mobile object control terminal 330.

一方、偏角φは、移動体300の回転(方位角の変化)に合わせて、逐一、値を更新する。図24および25は、移動体300の向きが変わった場合を説明するためのベクトル図である。図24および25は、図22に示した3次元座標系のうち、x-y2次元座標を示している。 On the other hand, the value of the declination angle φ is updated one by one in accordance with the rotation (change in azimuth) of the moving body 300. 24 and 25 are vector diagrams for explaining a case where the direction of the moving body 300 changes. 24 and 25 show xy two-dimensional coordinates of the three-dimensional coordinate system shown in FIG. 22.

たとえば、移動体300が、図24に示すように、偏角φ1の状態から、図25に示すように、方位角の変位ω=βだけ回転したとすると、その時の偏角φ2は、下記(1)式で表される。 For example, if the moving body 300 rotates by an azimuth displacement ω=β as shown in FIG. 25 from a state where the declination angle φ1 is as shown in FIG. 24, the declination angle φ2 at that time is as follows ( 1) It is expressed by the formula.

φ2=φ1-β (1)
ここで、方位角の変位ωは、移動体300に搭載された加速度センサーとジャイロセンサーによって取得される。
φ2=φ1-β (1)
Here, the azimuth displacement ω is obtained by an acceleration sensor and a gyro sensor mounted on the moving body 300.

したがって、視線方向Lやレティクル方向Rの変更操作をしていない場合、移動体300の垂直方向の動きに対しては、画像が上下するが、水平方向には、ほぼ一定の方向の画像が表示されることになる。 Therefore, if the line of sight direction L or the reticle direction R is not changed, the image moves up and down with respect to the movement of the moving object 300 in the vertical direction, but in the horizontal direction, the image is displayed in an almost constant direction. will be done.

次に、移動体300の回転制御について説明する。 Next, rotation control of the moving body 300 will be explained.

視線方向Lのベクトル座標はL(ΘL,φL)、レティクル方向Rのベクトル座標はR(ΘR,φR)で表される。また、移動体300の方位角の変位はωとする。これらの値は、移動体制御端末330(コンピューター)で管理される。初期状態では、ΘL=0,φL=0,ΘR=0,φR=0である。ωは、移動体300の加速度センサーとジャイロセンサーから取得する値(前回の取得時からの変位)であり、一定周期で更新される。また、この更新と同時にφLとφRも更新する。したがって、更新されるφLおよびφRは、下記(2)および(3)式となる。 Vector coordinates in the line-of-sight direction L are represented by L (ΘL, φL), and vector coordinates in the reticle direction R are represented by R (ΘR, φR). Further, the azimuth displacement of the moving body 300 is assumed to be ω. These values are managed by mobile control terminal 330 (computer). In the initial state, ΘL=0, φL=0, ΘR=0, φR=0. ω is a value (displacement from the previous acquisition time) acquired from the acceleration sensor and gyro sensor of the moving body 300, and is updated at a constant cycle. Additionally, φL and φR are also updated at the same time as this update. Therefore, φL and φR to be updated become the following equations (2) and (3).

φL=φL-ω (2)
φR=φR-ω (3)
また、φRが0でない場合、φRを0に近づけるように移動体300を曲がらせる(あるいは回転させる)。これは、移動体300をレティクル方向Rへ曲がらせる動作となる。φRをどれくらいの速さでどのように0へ近づけるかに関しては、移動体300の機械的な制御の性能に依存する。
φL=φL−ω (2)
φR=φR−ω (3)
Further, if φR is not 0, the moving body 300 is bent (or rotated) so that φR approaches 0. This is an operation that causes the moving body 300 to bend in the reticle direction R. How fast and how φR approaches 0 depends on the mechanical control performance of the moving body 300.

図26は、回転動作手順を示すフローチャートである。制御部102は、この回転制御手順に沿って作成されたプログラムを実行する。 FIG. 26 is a flowchart showing the rotation operation procedure. The control unit 102 executes a program created according to this rotation control procedure.

まず、制御部102は、ΘL=0,φL=0,ΘR=0,φR=0とし、ωをリセットする(S101)。 First, the control unit 102 sets ΘL=0, φL=0, ΘR=0, φR=0, and resets ω (S101).

続いて、制御部102は、ωを取得し、φL=φL-ω、および、φR=φR-ωを算出する(S102)。 Next, the control unit 102 obtains ω and calculates φL=φL−ω and φR=φR−ω (S102).

続いて、制御部102は、φR>0であるか否かを判断する(S103)。φR>0の場合(S103:YES)、続いて、制御部102は、移動体300を左に曲がらせるための制御信号を移動体300へ送信する(S104)。 Subsequently, the control unit 102 determines whether φR>0 (S103). If φR>0 (S103: YES), then the control unit 102 transmits to the mobile body 300 a control signal for causing the mobile body 300 to turn left (S104).

操作端末100から送信された制御信号は、移動体制御端末330によって受信され、そこで直接解釈されて、移動体300が制御される。この時、制御信号には、回転以外の指示が含まれていてもよい。たとえは、制御信号には、加速・減速などの指示が含まれる。移動体制御端末330は、それらの指示を実行する(以下の処理においても同様である)。 The control signal transmitted from the operation terminal 100 is received by the mobile object control terminal 330, and is directly interpreted there to control the mobile object 300. At this time, the control signal may include instructions other than rotation. For example, the control signal includes instructions such as acceleration and deceleration. The mobile control terminal 330 executes these instructions (the same applies to the following processing).

その後、制御部102は、処理終了か否かを判断する(S107)。処理終了ではない場合(S107:NO)、制御部102は、S101へ戻り、処理を継続する。これにより、移動体300の操作が継続して実行される。一方、処理終了の場合(S107:YES)、制御部102は、処理を終了する。なお、処理終了は、たとえばユーザーからの終了指示である。 After that, the control unit 102 determines whether or not the process is finished (S107). If the process has not ended (S107: NO), the control unit 102 returns to S101 and continues the process. As a result, the operation of the mobile body 300 is continued. On the other hand, if the process is to end (S107: YES), the control unit 102 ends the process. Note that the end of the process is, for example, an end instruction from the user.

S103のステップにおいて、φR>0ではない場合(S103:NO)、φR<0であるか否かを判断する(S105)。φR<0の場合(S105:YES)、続いて、制御部102は、移動体300を右に曲がらせるための制御信号を移動体300へ送信する(S106)。 In step S103, if φR>0 is not satisfied (S103: NO), it is determined whether φR<0 or not (S105). If φR<0 (S105: YES), then the control unit 102 transmits a control signal to the mobile body 300 for causing the mobile body 300 to turn to the right (S106).

その後、制御部102は、処理終了か否かを判断する(S107)。また、S105のステップにおいて、φR<0ではない場合(S105:YES)も制御部102は、処理終了か否かを判断する(S107)。処理終了ではない場合(S107:NO)、制御部102は、S101へ戻り、処理を継続する。これにより、移動体300の操作が継続して実行される。一方、処理終了の場合(S107:YES)、制御部102は、処理を終了する。なお、処理終了は、たとえばユーザーからの終了指示である。 After that, the control unit 102 determines whether or not the process is finished (S107). Furthermore, in the step S105, if φR<0 is not satisfied (S105: YES), the control unit 102 also determines whether the process is finished (S107). If the process has not ended (S107: NO), the control unit 102 returns to S101 and continues the process. As a result, the operation of the mobile body 300 is continued. On the other hand, if the process is to end (S107: YES), the control unit 102 ends the process. Note that the end of the process is, for example, an end instruction from the user.

次に、視線方向Lの移動制御について説明する。 Next, movement control in the viewing direction L will be explained.

すでに説明したように、操作端末100(スマートフォン)の向きを変えると、操作端末100内の加速度センサーとジャイロセンサーにより、操作端末100がどの方向に、どれだけ回転させたかが検出される。その量は、偏角Θとφで表せるので、その量をそのまま全方位カメラ320の視点方向の回転量に反映させる。 As already explained, when the orientation of the operating terminal 100 (smartphone) is changed, the acceleration sensor and gyro sensor within the operating terminal 100 detect in which direction and by how much the operating terminal 100 has been rotated. Since the amount can be expressed by the declination angle Θ and φ, the amount is directly reflected in the amount of rotation in the viewpoint direction of the omnidirectional camera 320.

具体的には、1本の指でタッチされた瞬間からの変位角Θd,φdを操作端末100から移動体300に送信する。一定時間後、前回送信した時点からの変位角Θd,φdを移動体300に送信する。以後、1本の指を離すまでの間、短い周期でこの動作を繰り返す。 Specifically, the displacement angles Θd and φd from the moment of touch with one finger are transmitted from the operation terminal 100 to the mobile body 300. After a certain period of time, the displacement angles Θd and φd from the time of the previous transmission are transmitted to the moving body 300. After that, this operation is repeated at short intervals until one finger is released.

移動体制御端末330では、変位角Θd,φdを受信して、視線方向Lの座標L(ΘL,φL)を下記(4)および(5)式により算出して更新する。 The mobile object control terminal 330 receives the displacement angles Θd and φd, and calculates and updates the coordinates L (ΘL, φL) in the line-of-sight direction L using equations (4) and (5) below.

ΘL=ΘL+Θd (4)
φL=φL+φd (5)
そして、移動体制御端末330は、座標L(ΘL,φL)(すなわち視線方向L)を中心とする所定の範囲の領域Aを切り出して、操作端末100へ送信する。制御部102は、領域Aを平坦化して表示する。
ΘL=ΘL+Θd (4)
φL=φL+φd (5)
Then, the mobile object control terminal 330 cuts out a region A within a predetermined range centered on the coordinates L (ΘL, φL) (that is, the line-of-sight direction L) and transmits it to the operation terminal 100. The control unit 102 flattens area A and displays it.

図27は、視線方向Lの移動制御手順を示すフローチャートである。制御部102は、この視線方向Lの移動制御手順に沿って作成されたプログラムを実行する。 FIG. 27 is a flowchart showing a movement control procedure in the line-of-sight direction L. The control unit 102 executes a program created in accordance with the movement control procedure in the line-of-sight direction L.

まず、制御部102は、1本指で操作表示部105がタッチされたか否かを判断する(S201)。1本指で操作表示部105がタッチされた場合(S201:YES)、続いて、制御部102は、1本指で操作表示部105がタッチされたことを認識し、偏角Θおよびφをリセットする(S202)。 First, the control unit 102 determines whether the operation display unit 105 is touched with one finger (S201). When the operation display unit 105 is touched with one finger (S201: YES), the control unit 102 recognizes that the operation display unit 105 is touched with one finger, and calculates the declination angles Θ and φ. Reset (S202).

続いて、制御部102は、1本指で操作表示部105がタッチされたままか否かを判断する(S203)。1本指で操作表示部105がタッチされたままの場合(S203:YES)、続いて、制御部102は、Θdおよびφdを取得し、移動体300へ送信する(S204)。 Subsequently, the control unit 102 determines whether or not the operation display unit 105 is still being touched with one finger (S203). If the operation display unit 105 is still touched with one finger (S203: YES), then the control unit 102 acquires Θd and φd and transmits them to the mobile object 300 (S204).

Θdおよびφdを受信した移動体300側では、ΘL=ΘL+Θd,φL=φL+φdとし、新たな領域Aを操作端末100へ送信する(S205)。このS205のステップは、移動体制御端末330での処理である。 Upon receiving Θd and φd, the mobile body 300 side sets ΘL=ΘL+Θd, φL=φL+φd, and transmits a new area A to the operating terminal 100 (S205). This step S205 is a process performed by the mobile control terminal 330.

新たな領域Aを受信した制御部102は、受信した領域Aを平坦化して操作表示部105に表示する(S206)。 The control unit 102 that has received the new area A flattens the received area A and displays it on the operation display unit 105 (S206).

その後、制御部102は、処理終了か否かを判断する(S207)。また、S201のステップにおいて、1本指で操作表示部105がタッチされていない場合(S201:NO)、S203のステップにおいて、操作表示部105から指が離れた場合(S203:NO)も、制御部102は、処理終了か否かを判断する(S207)。処理終了ではない場合(S207:NO)、制御部102は、S201へ戻り、処理を継続する。これにより、移動体300の操作が継続して実行される。一方、処理終了の場合(S207:YES)、制御部102は、処理を終了する。なお、処理終了は、たとえばユーザーからの終了指示である。 After that, the control unit 102 determines whether or not the process is finished (S207). Also, in the step S201, if the operation display unit 105 is not touched with one finger (S201: NO), and in the step S203, if the finger is removed from the operation display unit 105 (S203: NO), the control The unit 102 determines whether the processing is finished (S207). If the process has not ended (S207: NO), the control unit 102 returns to S201 and continues the process. As a result, the operation of the mobile body 300 is continued. On the other hand, if the process is to end (S207: YES), the control unit 102 ends the process. Note that the end of the process is, for example, an end instruction from the user.

なお、上述した移動体300の回転制御と、視線方向Lの移動制御は、同時進行で行われる。視線方向Lを変える操作中にも、移動体300は回転する。このため、全方位カメラ320で撮像された画像は、変化する可能性がある。また、全方位カメラ320で撮像された画像は、操作表示部105に表示されるまでに遅延時間がある。これらを考慮して、座標更新処理は、遠隔操作者に違和感を与えない程度に小さな頻度で行うことが好ましい。 Note that the rotation control of the mobile body 300 and the movement control in the viewing direction L are performed simultaneously. The moving body 300 also rotates during the operation of changing the viewing direction L. Therefore, the image captured by the omnidirectional camera 320 may change. Furthermore, there is a delay time before the image captured by the omnidirectional camera 320 is displayed on the operation display section 105. Taking these into consideration, it is preferable that the coordinate update process be performed at a low frequency that does not give a sense of discomfort to the remote operator.

次に、レティクル方向Rの移動制御について説明する。 Next, movement control in the reticle direction R will be explained.

レティクル方向Rは、視線方向Lの場合と同様に、偏角Θ、φで表され、操作端末100の回転量がレティクル方向Rの回転量に反映される。 Similar to the line-of-sight direction L, the reticle direction R is represented by the declination angles Θ and φ, and the amount of rotation of the operating terminal 100 is reflected in the amount of rotation in the reticle direction R.

具体的には、まず、操作端末100は、操作表示部105が、2本の指でタッチされた瞬間に、タッチされたことを移動体300に送信する。移動体制御端末330は、視線方向Lとレティクル方向Rの座標を一致させる。すなわち、移動体制御端末330は、各座標を、下記(6)および(7)式のとおり設定する。 Specifically, first, the operation terminal 100 transmits to the moving body 300 that the operation display unit 105 has been touched with two fingers. The mobile object control terminal 330 matches the coordinates of the line-of-sight direction L and the reticle direction R. That is, the mobile control terminal 330 sets each coordinate as shown in equations (6) and (7) below.

ΘR=ΘL (6)
φR=φL (7)
以降、制御部102は、端末装置の回転に伴い、変位角Θd,φdを算出して、移動体300に送信し続ける。2本の指が操作表示部105から離されると、操作端末100は、それを移動体300に送信する。移動体制御端末330は、座標L(ΘL,φL)と座標R(ΘR,φR)を、下記(8)~(11)式のとおり算出して、同時に更新する。
ΘR=ΘL (6)
φR=φL (7)
Thereafter, the control unit 102 continues to calculate the displacement angles Θd and φd and transmit them to the mobile object 300 as the terminal device rotates. When the two fingers are removed from the operation display unit 105, the operation terminal 100 transmits this to the mobile object 300. The mobile object control terminal 330 calculates the coordinates L (ΘL, φL) and the coordinates R (ΘR, φR) according to the following equations (8) to (11) and updates them at the same time.

ΘL=ΘL+Θd (8)
ΘR=C (9)
φL=φL+φd (10)
φR=φL (11)
式中、Cは、レティクル方向Rを平地に平行な面Hに一致させるために必要な回転量である。この回転量Cは、移動体300が平地と平行な面からどの方向にどれだけ傾いているかを示している。移動体300が平地と平行な面からどの方向にどれだけ傾いているかは、たとえば、移動体300のジャイロセンサーによって測定される。
ΘL=ΘL+Θd (8)
ΘR=C (9)
φL=φL+φd (10)
φR=φL (11)
In the formula, C is the amount of rotation required to align the reticle direction R with a plane H parallel to the flat ground. The amount of rotation C indicates in which direction and how much the moving body 300 is tilted from a plane parallel to the flat ground. The direction and how much the moving body 300 is tilted from a plane parallel to the flat ground is measured by, for example, a gyro sensor of the moving body 300.

これにより、視線方向Lを平地と平行な面H上に射影した方向が、レティクル方向Rとなる。なお、移動体300が平地と平行であれば、C=90°である。 As a result, the direction in which the line-of-sight direction L is projected onto the plane H parallel to the flat ground becomes the reticle direction R. Note that if the moving body 300 is parallel to the flat ground, C=90°.

そして、移動体制御端末330は、座標L(ΘL,φL)(すなわち視線方向L)を中心とする所定の範囲の領域Aを切り出して、操作端末100へ送信する。制御部102は、領域Aを平坦化して表示する。また、制御部102は、レティクルを画面中央に表示する。 Then, the mobile object control terminal 330 cuts out a region A within a predetermined range centered on the coordinates L (ΘL, φL) (that is, the line-of-sight direction L) and transmits it to the operation terminal 100. The control unit 102 flattens area A and displays it. Further, the control unit 102 displays the reticle at the center of the screen.

図28は、レティクル方向Rの移動制御手順を示すフローチャートである。制御部102は、このレティクル方向Rの移動制御手順に沿って作成されたプログラムを実行する。 FIG. 28 is a flowchart showing a movement control procedure in the reticle direction R. The control unit 102 executes a program created in accordance with this reticle direction R movement control procedure.

まず、制御部102は、2本指で操作表示部105がタッチされたか否かを判断する(S301)。2本指で操作表示部105がタッチされた場合(S201:YES)、続いて、制御部102は、2本指で操作表示部105がタッチされたことを認識し、ΘR=ΘLおよびφR=φLを移動体300へ送信する(S302)。 First, the control unit 102 determines whether or not the operation display unit 105 is touched with two fingers (S301). When the operation display unit 105 is touched with two fingers (S201: YES), the control unit 102 subsequently recognizes that the operation display unit 105 is touched with two fingers, and sets ΘR=ΘL and φR= φL is transmitted to the mobile body 300 (S302).

続いて、制御部102は、2本指で操作表示部105がタッチされたままであるか否かを判断する(S303)。2本指で操作表示部105がタッチされたままである場合(S303:YES)、続いて、制御部102は、Θdおよびφdを取得し、移動体300へ送信する(S304)。 Subsequently, the control unit 102 determines whether or not the operation display unit 105 is still being touched with two fingers (S303). If the operation display unit 105 is still being touched with two fingers (S303: YES), then the control unit 102 acquires Θd and φd and transmits them to the mobile object 300 (S304).

Θdおよびφdを受信した移動体300は、ΘL=ΘL+Θd,φL=φL+φd、ΘR=C,φR=φLとして各値を算出し、新たな領域Aを操作端末100へ送信する(S305)。このS305のステップは、移動体制御端末330において実行される処理である。 The mobile object 300 that has received Θd and φd calculates each value as ΘL=ΘL+Θd, φL=φL+φd, ΘR=C, φR=φL, and transmits a new area A to the operation terminal 100 (S305). This step S305 is a process executed in the mobile control terminal 330.

新たな領域Aを受信した制御部102は、受信した領域Aを平坦化して操作表示部105に表示するとともに、レティクルを画面中央に表示する(S306)。 The control unit 102 that has received the new area A flattens the received area A and displays it on the operation display unit 105, and also displays the reticle at the center of the screen (S306).

その後、制御部102は、処理終了か否かを判断する(S307)。また、S301のステップにおいて、2本指で操作表示部105がタッチされていない場合(S301:NO)、S303のステップにおいて、操作表示部105から指が離れた場合も(S303:NO)、制御部102は、処理終了か否かを判断する(S307)。処理終了ではない場合(S307:NO)、制御部102は、S301へ戻り、処理を継続する。これにより、移動体300の操作が継続して実行される。一方、処理終了の場合(S307:YES)、制御部102は、処理を終了する。なお、処理終了は、たとえばユーザーからの終了指示である。 After that, the control unit 102 determines whether or not the process is finished (S307). In addition, in the step S301, if the operation display unit 105 is not touched with two fingers (S301: NO), and in the step S303, if the fingers are removed from the operation display unit 105 (S303: NO), the control The unit 102 determines whether the process is finished (S307). If the process has not ended (S307: NO), the control unit 102 returns to S301 and continues the process. As a result, the operation of the mobile body 300 is continued. On the other hand, if the process is to end (S307: YES), the control unit 102 ends the process. Note that the end of the process is, for example, an end instruction from the user.

以上説明した本実施形態によれば、以下の効果を奏する。 According to this embodiment described above, the following effects are achieved.

本実施形態の遠隔操作システムにおいて、移動体300は、全方位を撮像する全方位カメラ320を有する。これにより、遠隔操作者は、移動体300を移動させる際に、見たい方向を自由に見て操作できる。したがって、本実施形態では、移動体300の位置情報を必要としない。これにより、遠隔操作者は、移動させたい方向を見ながら、移動体300を操作することができる。また、本実施形態は、遠隔操作者が見たい方向を見ようとするとき、移動体300の方向変更や、カメラの撮影方向の変更などといった、物理的な撮像方向変更のための動作を必要としない。このため、本実施形態では、撮影方向変更のための動作遅延が発生しない。 In the remote control system of this embodiment, the mobile object 300 has an omnidirectional camera 320 that captures images in all directions. Thereby, the remote operator can freely view and operate the desired direction when moving the moving body 300. Therefore, in this embodiment, position information of the mobile object 300 is not required. Thereby, the remote operator can operate the moving body 300 while looking in the desired direction. Furthermore, in this embodiment, when the remote operator wants to look in the desired direction, it is not necessary to physically change the imaging direction, such as changing the direction of the moving object 300 or changing the shooting direction of the camera. do not. Therefore, in this embodiment, no operation delay occurs for changing the photographing direction.

また、本実施形態は、複雑な経路を移動させたい場合でも、ポイントアンドクリック装置を使用して、複数のポイントを経路として指定する必要がない。 Furthermore, in this embodiment, even when it is desired to move along a complicated route, there is no need to use a point-and-click device to specify multiple points as the route.

また、本実施形態は、移動体300側で、全方位を撮像した画像のなかから、操作端末100に表示させる領域を切り出して、操作端末100へ送信することとした。このため、送信されるデータ容量が少なくなるので、無線通信にかかるデータの遅延も少なくすることができる。 Furthermore, in the present embodiment, an area to be displayed on the operating terminal 100 is cut out from an image captured in all directions on the moving body 300 side, and is transmitted to the operating terminal 100. Therefore, since the amount of data to be transmitted is reduced, data delay associated with wireless communication can also be reduced.

以上、本発明の実施形態を説明したが、本発明は、上述した実施形態に限定されない。 Although the embodiments of the present invention have been described above, the present invention is not limited to the embodiments described above.

上述した実施形態では、操作端末100として、スマートフォンを使用することを前提に説明したが、加速度センサーとジャイロセンサーが搭載された操作部(操作コントローラ)とディスプレイが分離された操作端末100が使用されてもよい。 The above-described embodiment has been described on the assumption that a smartphone is used as the operation terminal 100, but the operation terminal 100 in which the operation unit (operation controller) equipped with an acceleration sensor and a gyro sensor and the display are separated is used. It's okay.

また、上述した実施形態では、操作表示部105の画面上でのタッチ操作と操作端末100自身の回転だけで操作を実現した。しかし、操作端末100として、ゲームコントローラのような操作部を用意して、複数のボタン操作を受け付けることによって、より精度の高い操作が実現されてもよい。また、操作端末100は、スマートフォンのタッチ操作に相当する操作ができる操作部と、加速度センサーとジャイロセンサーが搭載されたXRグラスに分離されて実現されてもよい。つまり、遠隔操作者がスマートフォンを手で動かす代わりに、XRグラスを装着した遠隔操作者が、頭を動かすことによって、視線方向やレティクル方向を指定できるようにしてもよい。なお、XRグラスとは、VR(Virtual Reality)、AR(Augmented Reality)、およびMR(Mixed Reality)などを実現する高機能眼鏡のことである。 Further, in the above-described embodiment, the operation was realized only by a touch operation on the screen of the operation display unit 105 and rotation of the operation terminal 100 itself. However, a more precise operation may be realized by providing an operation unit such as a game controller as the operation terminal 100 and accepting a plurality of button operations. Further, the operation terminal 100 may be realized by being separated into an operation section that can perform operations equivalent to touch operations on a smartphone, and XR glasses equipped with an acceleration sensor and a gyro sensor. That is, instead of the remote operator moving the smartphone by hand, the remote operator wearing XR glasses may be able to specify the viewing direction or reticle direction by moving his head. Note that XR glasses are high-performance glasses that realize VR (Virtual Reality), AR (Augmented Reality), MR (Mixed Reality), and the like.

また、撮像部は、全方位カメラ320の代わりに、たとえば、広角カメラを移動体300の前後左右に取り付けて、全方位の画像を撮像し、その画像を結合することで、全方位画像を得てもよい。 In addition, the imaging unit obtains an omnidirectional image by attaching wide-angle cameras to the front, rear, left, and right sides of the moving body 300 instead of the omnidirectional camera 320, capturing omnidirectional images, and combining the images. It's okay.

また、上述した実施形態におけるタッチ、ドラッグ、フリックなどの入力動作は、たとえば、画面タッチを伴わないジェスチャー操作としてもよい。また逆に、これら入力動作は、これら入力動作に対応するボタンやアイコンなどを画面上に表示させて、それらへのタッチによる操作としてもよい。 Furthermore, the input operations such as touch, drag, and flick in the embodiments described above may be, for example, gesture operations that do not involve touching the screen. Conversely, these input operations may be performed by displaying buttons, icons, etc. corresponding to these input operations on the screen and touching them.

また、移動体300の移動について、通常の車両のように、前輪の角度が変化することによって、進行方向が変化する(曲がる)形態を示したが、メカナムホイールによって進行方向が変化する形態にも適用され得る。メカナムホイールのように、その場で回転して車体を進行方向に向けてから前進させる場合、レティクル方向Rの変更操作をしたときに、移動体300は、その場で回転して、進行方向Fをレティクル方向Rとすぐに一致させることができる。また、メカナムホイールのように、斜め方向に直進させる構成の場合、任意の方向に移動できるので、進行方向Fは、常にレティクル方向Rと一致しているとみなすことができる。また、この場合、移動体300は、真横方向の移動も可能であるので、真横方向の移動を示すスマートフォンのタッチ入力動作が追加されてもよい。たとえば、スマートフォン上で指を左(右)方向へドラッグすることによって、左(右)方向へ移動体300が水平移動するように構成され得る。 Furthermore, regarding the movement of the mobile object 300, a mode in which the direction of movement changes (turns) by changing the angle of the front wheels like a normal vehicle is shown, but a mode in which the direction of movement changes by using mecanum wheels is also shown. may also be applied. When the vehicle body is rotated on the spot to point in the traveling direction and then moved forward like a mecanum wheel, when the reticle direction R is changed, the moving body 300 rotates on the spot and moves in the traveling direction. F can be made to coincide with the reticle direction R immediately. Further, in the case of a structure such as a mecanum wheel that moves straight in an oblique direction, the moving direction F can be considered to always match the reticle direction R because it can be moved in any direction. Furthermore, in this case, since the mobile object 300 can also move in the lateral direction, a touch input operation of the smartphone indicating movement in the lateral direction may be added. For example, the moving body 300 may be configured to move horizontally to the left (right) by dragging a finger in the left (right) direction on the smartphone.

また、上述した実施形態では、移動体300側において全方位領域のなかから一部の領域の画像を切り出し、その画像データを操作端末100へ送信する形態について説明したが、これに限定されない。たとえば、移動体300は、全方位領域すべての画像データを操作端末100へ送信し、操作端末100が、一部の領域を切り出してもよい。このようにした場合、移動体300は、画像の切り出しを行う必要がなくなる。このような場合、たとえば、移動体300は、移動速度や移動方向を操作端末100へ送信し、全方位カメラ320は、全方位領域の画像データを操作端末100へ直接送信してもよい。 Further, in the above-described embodiment, a mode has been described in which an image of a part of the omnidirectional area is cut out on the mobile body 300 side and the image data is transmitted to the operation terminal 100, but the present invention is not limited to this. For example, the moving body 300 may transmit image data of all omnidirectional areas to the operation terminal 100, and the operation terminal 100 may cut out a part of the area. In this case, the moving body 300 does not need to cut out the image. In such a case, for example, the moving body 300 may transmit the moving speed and direction to the operating terminal 100, and the omnidirectional camera 320 may directly transmit image data of an omnidirectional area to the operating terminal 100.

また、本発明に係るプログラムは、専用のハードウェア回路によって実現することも可能である。また、このプログラムは、USB(Universal Serial Bus)メモリーやDVD(Digital Versatile Disc)-ROM(Read Only Memory)などのコンピューター読み取り可能な記録媒体によって提供したり、記録媒体によらず、インターネットなどのネットワーク200を介してオンラインで提供したりすることも可能である。オンラインで提供される場合、このプログラムは、ネットワーク200に接続されたコンピューター内の磁気ディスクなどの記録媒体に記録される。 Moreover, the program according to the present invention can also be realized by a dedicated hardware circuit. In addition, this program may be provided on a computer-readable recording medium such as a USB (Universal Serial Bus) memory, a DVD (Digital Versatile Disc) or a ROM (Read Only Memory), or may be provided over a network such as the Internet regardless of the recording medium. It is also possible to provide the information online via 200. When provided online, this program is recorded on a recording medium such as a magnetic disk in a computer connected to the network 200.

また、本発明は、特許請求の範囲に記載された構成に基づき様々な改変が可能であり、それらについても本発明の範疇である。 Further, the present invention can be modified in various ways based on the configuration described in the claims, and these are also within the scope of the present invention.

1 遠隔操作システム、
100 操作端末、
101 通信部、
102 制御部、
103 記憶部、
104 センサー、
105 操作表示部、
200 ネットワーク、
300 移動体、
310 移動体本体、
320 全方位カメラ、
330 移動体制御端末。
1 remote control system,
100 operation terminal,
101 Communications Department,
102 control unit,
103 storage unit,
104 sensor,
105 operation display section,
200 network,
300 mobile object,
310 mobile body,
320 omnidirectional camera,
330 Mobile control terminal.

Claims (24)

移動体と、
前記移動体を無線通信によって遠隔操作するための操作端末と、
を有する遠隔操作システムであって、
前記移動体は、前記移動体の周囲を全方位領域にわたり撮像する撮像部を有し、
前記操作端末は、
入力部と、
表示部と、
前記撮像部によって撮像された前記全方位領域の少なくとも一部の領域であって、前記入力部から入力された視線方向に対応した第1画像を前記表示部に表示させるとともに、前記全方位領域における前記第1画像の方向、前記移動体の進行方向を示す第1マーク、および前記移動体の移動目標方向を示す第2マークを前記第1画像に重畳させて前記表示部に表示させる制御部と、
を有する、遠隔操作システム。
A moving object,
an operation terminal for remotely controlling the mobile object via wireless communication;
A remote control system having
The mobile body has an imaging unit that captures images around the mobile body in all directions,
The operation terminal is
an input section;
A display section;
Displaying on the display unit a first image that is at least a part of the omnidirectional area imaged by the imaging unit and that corresponds to the viewing direction input from the input unit; a control unit for superimposing a direction of the first image, a first mark indicating a traveling direction of the moving body, and a second mark indicating a movement target direction of the moving body on the first image and displaying the same on the display unit; ,
A remote control system with
前記操作端末は、加速度および角速度を検出するセンサーを有し、
前記制御部は、前記センサーからの出力に基づいて、前記移動体の移動を制御する、請求項1に記載の遠隔操作システム。
The operation terminal has a sensor that detects acceleration and angular velocity,
The remote control system according to claim 1, wherein the control unit controls movement of the mobile body based on the output from the sensor.
前記制御部は、前記入力部からの前記移動体を移動させるための入力と、前記センサーによって検出された加速度および角速度に基づいて、前記移動体の移動を制御する、請求項2に記載の遠隔操作システム。 The remote controller according to claim 2, wherein the control unit controls movement of the moving body based on an input for moving the moving body from the input unit and acceleration and angular velocity detected by the sensor. operation system. 前記制御部は、前記入力部から入力された第1入力と、前記第1入力の後に前記センサーによって検出された加速度および角速度に基づいて、前記視線方向を移動させる、請求項3に記載の遠隔操作システム。 The remote controller according to claim 3, wherein the control unit moves the viewing direction based on a first input input from the input unit and an acceleration and an angular velocity detected by the sensor after the first input. operation system. 前記制御部は、前記入力部から入力された第2入力に基づいて、前記第2マークを前記表示部の画面中央に移動させる、請求項3または4に記載の遠隔操作システム。 The remote control system according to claim 3 or 4, wherein the control unit moves the second mark to the center of the screen of the display unit based on a second input input from the input unit. 前記制御部は、前記入力部から入力された第3入力に基づいて、前記移動体の移動速度を制御する、請求項3~5のいずれか一つに記載の遠隔操作システム。 The remote control system according to any one of claims 3 to 5, wherein the control unit controls the moving speed of the moving body based on a third input input from the input unit. 前記制御部は、前記入力部から入力された第4入力に基づいて、前記移動体の移動方向を反転させる、請求項3~6のいずれか一つに記載の遠隔操作システム。 The remote control system according to any one of claims 3 to 6, wherein the control unit reverses the moving direction of the moving body based on a fourth input input from the input unit. 前記制御部は、前記入力部から入力された第5入力に基づいて、前記第1画像をズームインまたはズームアウトさせる、請求項3~7のいずれか一つに記載の遠隔操作システム。 The remote control system according to any one of claims 3 to 7, wherein the control unit zooms in or zooms out the first image based on a fifth input input from the input unit. 前記第1画像は、前記移動体側で切り出されて、前記移動体から前記操作端末へ送信される、請求項1~8のいずれか一つに記載の遠隔操作システム。 The remote control system according to any one of claims 1 to 8, wherein the first image is cut out on the moving body side and transmitted from the moving body to the operating terminal. 前記制御部は、前記第1画像に加え、前記移動体の移動目標方向の領域および前記第1画像と異なる領域を含む第2画像を前記表示部に表示する、請求項1~9のいずれか一つに記載の遠隔操作システム。 Any one of claims 1 to 9, wherein the control unit displays, in addition to the first image, a second image on the display unit that includes an area in a movement target direction of the moving body and an area different from the first image. Remote control system described in one. 前記制御部は、前記第2画像に示される領域の人および/または物体を検知する、請求項10に記載の遠隔操作システム。 The remote control system according to claim 10, wherein the control unit detects a person and/or an object in the area shown in the second image. 前記第2画像は、前記移動体側で切り出されて、前記操作端末へ送信される、請求項10または11に記載の遠隔操作システム。 The remote control system according to claim 10 or 11, wherein the second image is cut out on the moving object side and transmitted to the operating terminal. 全方位領域にわたり撮像する撮像部を有する移動体と、無線通信によって接続された操作端末から、当該移動体を遠隔操作するための遠隔操作プログラムであって、
前記撮像部によって撮像された前記全方位領域の少なくとも一部の領域であって、入力された視線方向に対応した第1画像を表示させ段階(a)と、
前記全方位領域における前記第1画像の方向、前記移動体の進行方向を示す第1マーク、および前記移動体の移動目標方向を示す第2マークを前記第1画像に重畳させて表示させる段階(b)と、
をコンピューターに実行させるための遠隔操作プログラム。
A remote control program for remotely controlling a mobile body having an imaging unit that captures images in all directions from an operation terminal connected by wireless communication, the program comprising:
displaying a first image of at least a part of the omnidirectional area imaged by the imaging unit and corresponding to the input line-of-sight direction;
Displaying a direction of the first image in the omnidirectional area, a first mark indicating the traveling direction of the moving body, and a second mark indicating the target direction of movement of the moving body, superimposed on the first image ( b) and
A remote control program that allows a computer to execute
前記操作端末は、加速度および角速度を検出するセンサーを有し、
前記センサーからの出力に基づいて、前記移動体の移動を制御する段階(c)をさらに有する、請求項13に記載の遠隔操作プログラム。
The operation terminal has a sensor that detects acceleration and angular velocity,
The remote control program according to claim 13, further comprising the step (c) of controlling movement of the mobile body based on the output from the sensor.
前記段階(c)は、前記移動体を移動させるための入力と、前記センサーによって検出された加速度および角速度に基づいて、前記移動体の移動を制御する、請求項14に記載の遠隔操作プログラム。 15. The remote control program according to claim 14, wherein said step (c) controls movement of said moving body based on an input for moving said moving body and acceleration and angular velocity detected by said sensor. 前記段階(c)は、第1入力と、前記第1入力の後に前記センサーによって検出された加速度および角速度に基づいて、前記視線方向を移動させる、請求項15に記載の遠隔操作プログラム。 16. The remote control program according to claim 15, wherein the step (c) moves the line of sight based on a first input and an acceleration and an angular velocity detected by the sensor after the first input. 前記段階(c)は、第2入力に基づいて、前記第2マークを前記第1画像が表示されている画面中央に移動させる、請求項14~16のいずれか一つに記載の遠隔操作プログラム。 The remote control program according to any one of claims 14 to 16, wherein the step (c) moves the second mark to the center of the screen where the first image is displayed based on a second input. . 前記段階(c)は、第3入力に基づいて、前記移動体の移動速度を制御する、請求項14~17のいずれか一つに記載の遠隔操作プログラム。 The remote control program according to any one of claims 14 to 17, wherein the step (c) controls the moving speed of the moving body based on a third input. 前記段階(c)は、第4入力に基づいて、前記移動体の移動方向を反転させる、請求項14~18のいずれか一つに記載の遠隔操作プログラム。 The remote control program according to any one of claims 14 to 18, wherein in the step (c), the moving direction of the moving body is reversed based on a fourth input. 前記段階(c)は、第5入力に基づいて、前記第1画像をズームインまたはズームアウトさせる、請求項14~19のいずれか一つに記載の遠隔操作プログラム。 The remote control program according to any one of claims 14 to 19, wherein said step (c) zooms in or zooms out said first image based on a fifth input. 前記移動体側で切り出された前記第1画像を前記移動体から受信する段階(d)を有する、請求項13~20のいずれか一つに記載の遠隔操作プログラム。 The remote control program according to any one of claims 13 to 20, further comprising a step (d) of receiving the first image cut out by the moving body from the moving body. 前記第1画像に加え、前記移動体の移動目標方向の領域、および前記第1画像とは異なる領域を含む第2画像を表示する段階(e)を有する、請求項13~19のいずれか一つに記載の遠隔操作プログラム。 20. The method according to claim 13, further comprising a step (e) of displaying, in addition to the first image, a second image including an area in a movement target direction of the moving body and an area different from the first image. The remote control program described in . 前記第2画像に示される領域の人および/または物体を検知する段階(f)をさらに有する、請求項22に記載の遠隔操作プログラム。 The remote control program according to claim 22, further comprising the step (f) of detecting a person and/or object in the area shown in the second image. 前記移動体側で切り出された前記第2画像を前記移動体から受信する段階(g)を有する、請求項22または23に記載の遠隔操作プログラム。 The remote control program according to claim 22 or 23, further comprising a step (g) of receiving the second image cut out by the moving body from the moving body.
JP2022028915A 2022-02-28 2022-02-28 Remote control system and remote control program Pending JP2023125011A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022028915A JP2023125011A (en) 2022-02-28 2022-02-28 Remote control system and remote control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022028915A JP2023125011A (en) 2022-02-28 2022-02-28 Remote control system and remote control program

Publications (1)

Publication Number Publication Date
JP2023125011A true JP2023125011A (en) 2023-09-07

Family

ID=87887784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022028915A Pending JP2023125011A (en) 2022-02-28 2022-02-28 Remote control system and remote control program

Country Status (1)

Country Link
JP (1) JP2023125011A (en)

Similar Documents

Publication Publication Date Title
US9001208B2 (en) Imaging sensor based multi-dimensional remote controller with multiple input mode
EP3378033B1 (en) Systems and methods for correcting erroneous depth information
JP5057936B2 (en) Bird&#39;s-eye image generation apparatus and method
US20180210442A1 (en) Systems and methods for controlling a vehicle using a mobile device
US10523871B2 (en) Imaging system and imaging control method with display of image with vertical alignment
US9001205B2 (en) System and methods for controlling a surveying device
JP6695049B2 (en) Display device and display control method
JP2020504872A (en) System and method for controlling vehicle movement
JP2014235596A (en) Information processing program, information processing system, information processing device, and information processing method
US11669173B2 (en) Direct three-dimensional pointing using light tracking and relative position detection
EP4057626A1 (en) Stereo camera apparatus having wide field of view, and depth image processing method using same
US10761596B2 (en) Image processing apparatus, image processing method, and program
JPWO2019038875A1 (en) Head mounted display
KR20180059366A (en) Method and device for zooming in or out on an image on a virtual reality device
JP6450226B2 (en) Camera control apparatus and program thereof
JP6855616B2 (en) Operating devices, mobile devices, and their control systems
JP6685742B2 (en) Operating device, moving device, and control system thereof
JP2023125011A (en) Remote control system and remote control program
CN111565898B (en) Operation guidance system
WO2019168061A1 (en) Information processing device, recording medium, head-mounted display, and information processing system
CN114115521B (en) Tracking Method and Tracking System
JP2015162886A (en) obstacle monitoring system and program
JP2005322071A (en) Indication operation recognition device, indication operation recognition method and indication operation recognition program
JP2021103410A (en) Mobile body and imaging system
KR20160094168A (en) Apparatus of controlling observation view of robot