JP2022146888A - Display system, communication system, display control method, and program - Google Patents

Display system, communication system, display control method, and program Download PDF

Info

Publication number
JP2022146888A
JP2022146888A JP2022021474A JP2022021474A JP2022146888A JP 2022146888 A JP2022146888 A JP 2022146888A JP 2022021474 A JP2022021474 A JP 2022021474A JP 2022021474 A JP2022021474 A JP 2022021474A JP 2022146888 A JP2022146888 A JP 2022146888A
Authority
JP
Japan
Prior art keywords
image
route
display
moving
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022021474A
Other languages
Japanese (ja)
Other versions
JP7447922B2 (en
Inventor
基継 室井
Mototsugu Muroi
祐希 坂村
Yuki Sakamura
華子 阪東
Hanako Bando
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2022146888A publication Critical patent/JP2022146888A/en
Priority to JP2024028880A priority Critical patent/JP2024063106A/en
Application granted granted Critical
Publication of JP7447922B2 publication Critical patent/JP7447922B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To allow users to appropriately grasp the movement state of a mobile body.SOLUTION: A display system for displaying an image captured by a mobile body 10 (10A, 10B, or 10C) moving within a predetermined base receives a captured image of the base transmitted from the mobile body 10 (10A, 10B, or 10C), and superimposes and displays a virtual route image 711, 713, or 715 on a movement route of the mobile body 10 (10A, 10B, or 10C) in the base shown in the received captured image.SELECTED DRAWING: Figure 13

Description

本開示内容は、表示システム、通信システム、表示制御方法およびプログラムに関する。 The present disclosure relates to display systems, communication systems, display control methods, and programs.

工場や倉庫等の拠点に設置され、拠点内を自律的に移動可能なロボットが知られている。このようなロボットは、例えば、点検ロボットやサービスロボットとして用いられ、作業者の代わりに拠点内の設備の点検等のタスクを行うことができる。 2. Description of the Related Art A robot that is installed in a base such as a factory or a warehouse and can move autonomously within the base is known. Such robots are used, for example, as inspection robots or service robots, and can perform tasks such as inspection of facilities in a base instead of workers.

また、ロボットの状態、拠点の状況または使用用途等に応じて、拠点内を自律的に移動可能なロボットを、遠隔地にいるユーザが手動で操作することが可能なシステムも知れている。例えば、特許文献1には、無人車両の自律走行と遠隔操縦を、測距データに基づく走行環境と遠隔操縦装置の通信環境との混成割合に基づき無人車両が自ら切り替えて結果をユーザに提示する内容が開示されている。また、特許文献2には、ユーザインターフェースを使用して、ロボットを所望の目的地まで手動的に駆動させたり、自律的に航行させたりする内容が開示されている。 A system is also known in which a user at a remote location can manually operate a robot that can autonomously move within a site according to the state of the robot, the situation of the site, the intended use, or the like. For example, in Patent Document 1, an unmanned vehicle automatically switches between autonomous driving and remote control based on the mixing ratio of the driving environment based on the distance measurement data and the communication environment of the remote control device, and presents the result to the user. Content is disclosed. Further, Patent Document 2 discloses the use of a user interface to manually drive a robot to a desired destination or autonomously navigate the robot.

特開2011-150516号公報JP 2011-150516 A 特表2014-503376号公報Japanese translation of PCT publication No. 2014-503376

しかしながら、従来の方法は、ロボット等の移動体の自律移動と手動操作をユーザが切り替えたい場合において、ユーザに移動体の移動状態を適切に把握させることが困難であるという課題があった。 However, the conventional method has a problem that it is difficult for the user to appropriately grasp the movement state of the moving body such as a robot when the user wants to switch between autonomous movement and manual operation of the moving body.

上述した課題を解決すべく、請求項1に係る発明は、所定の拠点内を移動する移動体によって撮影された画像を表示する表示システムであって、前記移動体から送信された、前記拠点が撮影された撮影画像を受信する受信手段と、受信された前記撮影画像に写る前記拠点における前記移動体の移動経路上に、仮想的な経路画像を重畳させて表示させる表示制御手段と、を備える表示システムである。 In order to solve the above-described problems, the invention according to claim 1 is a display system for displaying an image captured by a mobile object moving within a predetermined base, wherein the image transmitted from the mobile object is receiving means for receiving a photographed image; and display control means for superimposing and displaying a virtual route image on the movement route of the mobile object at the base shown in the received photographed image. display system.

本発明によれば、ユーザに移動体の移動状態を適切に把握させることができるという効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to let a user grasp|ascertain the movement state of a mobile body appropriately.

通信システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of a communication system. 移動体の構成の概略の一例を示す図である。It is a figure which shows an example of a schematic of a structure of a moving body. 移動体のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a mobile body. 表示装置のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a display apparatus. 通信システムの機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a communication system. 地図情報管理テーブルの一例を示す概念図である。4 is a conceptual diagram showing an example of a map information management table; FIG. 目的地系列管理テーブルの一例を示す概念図である。4 is a conceptual diagram showing an example of a destination sequence management table; FIG. 経路情報管理テーブルの一例を示す概念図である。4 is a conceptual diagram showing an example of a route information management table; FIG. 移動体の移動制御処理の一例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of movement control processing of a moving body; 移動体の移動開始までの処理の一例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of processing up to the start of movement of a moving body; 経路入力画面の一例を示す図である。It is a figure which shows an example of a route input screen. 経路入力画面の一例を示す図である。It is a figure which shows an example of a route input screen. 操作画面を用いた移動体の自律移動と手動操作の切替処理の一例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of switching processing between autonomous movement of a moving object and manual operation using an operation screen; 操作画面の一例を示す図である。It is a figure which shows an example of an operation screen. 操作画面の一例を示す図である。It is a figure which shows an example of an operation screen. 操作画面の一例を示す図である。It is a figure which shows an example of an operation screen. 操作画面の一例を示す図である。It is a figure which shows an example of an operation screen. 移動体における自律移動モードと手動操作モードの切替処理の一例を示すフローチャートである。4 is a flowchart showing an example of switching processing between an autonomous movement mode and a manual operation mode in a mobile body; 移動体の自律移動処理の一例を示すフローチャートである。It is a flowchart which shows an example of the autonomous movement process of a mobile body. 移動体の手動操作処理の一例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of manual operation processing of a moving body; 操作コマンド入力画面の一例を示す図である。It is a figure which shows an example of an operation command input screen. 操作画面の変形例1を示す図である。It is a figure which shows the modification 1 of an operation screen. 操作画面の変形例1を示す図である。It is a figure which shows the modification 1 of an operation screen. 操作画面の変形例2を示す図である。It is a figure which shows the modification 2 of an operation screen. 操作画面の変形例3を示す図である。It is a figure which shows the modification 3 of an operation screen. 操作画面の変形例4を示す図である。It is a figure which shows the modification 4 of an operation screen. 操作画面の変形例5を示す図である。FIG. 12 is a diagram showing a modification 5 of the operation screen; 操作画面の変形例6を示す図である。FIG. 12 is a diagram showing a modification 6 of the operation screen; 実施形態の変形例1に係る通信システムの機能構成の一例を示す図である。It is a figure showing an example of functional composition of a communications system concerning modification 1 of an embodiment. 実施形態の変形例1に係る操作画面を用いた移動体の自律移動と手動操作の切替処理の一例を示すシーケンス図である。FIG. 11 is a sequence diagram showing an example of switching processing between autonomous movement and manual operation of a moving body using an operation screen according to Modification 1 of the embodiment; 実施形態の変形例2に係る通信システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the communication system which concerns on the modification 2 of embodiment. 実施形態の変形例2に係る通信システムの機能構成の一例を示す図である。It is a figure which shows an example of a functional structure of the communication system which concerns on the modified example 2 of embodiment. 実施形態の変形例2に係る移動体の移動開始までの処理の一例を示すシーケンス図である。FIG. 11 is a sequence diagram showing an example of processing up to the start of movement of a moving object according to Modification 2 of the embodiment; 実施形態の変形例2に係る操作画面を用いた移動体の自律移動と手動操作の切替処理の一例を示すシーケンス図である。FIG. 11 is a sequence diagram showing an example of switching processing between autonomous movement and manual operation of a moving object using an operation screen according to Modification 2 of the embodiment; 通信システムの機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a communication system.

以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

●実施形態●
●システム構成
図1は、通信システムの全体構成の一例を示す図である。図1に示されている通信システム1は、所定の拠点内の移動する移動体10に対するユーザによる遠隔操作が可能なシステムである。
●Embodiment●
●System Configuration FIG. 1 is a diagram showing an example of the overall configuration of a communication system. A communication system 1 shown in FIG. 1 is a system that allows a user to remotely control a mobile object 10 that moves within a predetermined location.

通信システム1は、所定の拠点に位置する移動体10および表示装置50を含む。通信システム1を構成する移動体10および表示装置50は、通信ネットワーク100を介して通信することができる。通信ネットワーク100は、インターネット、移動体通信網、LAN(Local Area Network)等によって構築されている。なお、通信ネットワーク100には、有線通信だけでなく、3G(3rd Generation)、4G(4th Generation)、5G(5th Generation)、Wi-Fi(Wireless Fidelity)(登録商標)、WiMAX(Worldwide Interoperability for Microwave Access)またはLTE(Long Term Evolution)等の無線通信によるネットワークが含まれてもよい。 A communication system 1 includes a mobile unit 10 and a display device 50 located at a predetermined base. The mobile object 10 and the display device 50 that configure the communication system 1 can communicate via the communication network 100 . A communication network 100 is constructed by the Internet, a mobile communication network, a LAN (Local Area Network), or the like. The communication network 100 includes not only wired communication but also 3G (3rd Generation), 4G (4th Generation), 5G (5th Generation), Wi-Fi (Wireless Fidelity) (registered trademark), WiMAX (Worldwide Interoperability for Microwave). Access) or LTE (Long Term Evolution) or other wireless communication network may be included.

移動体10は、対象拠点に設置され、対象拠点内を自律移動可能なロボットである。この自律移動は、対象拠点内における過去に移動した経路を模倣学習(機械学習)し、模倣学習の結果を利用して自律的に対象拠点内を移動する動作を含む。また、自律移動は、予め設定された移動経路に従って自律的に対象拠点内を移動する動作またはライントレース等の技術を用いて自律的に対象拠点内を移動する動作であってもよい。さらに、移動体10は、遠隔地にいるユーザからの手動操作によっても移動可能である。すなわち、移動体10は、自律移動とユーザによる手動操作とを切り替えながら、対象拠点内を移動することができる。また、移動体10は、例えば、対象拠点内を移動しながら、点検、保守、運搬または軽作業等の所定のタスクを実行することができる。ここで、移動体10は、広義のロボットを意味し、自律移動とユーザによる遠隔操作による移動の双方の動作が可能なロボットであればよい。また、移動体10には、遠隔地からの操作により自動運転と手動操作を切り替えて走行可能な自動車も含まれる。さらに、移動体10には、ドローン、マルチコプタまたは無人飛行体等の飛行体も含まれる。 The moving body 10 is a robot that is installed at the target site and can move autonomously within the target site. This autonomous movement includes an action of performing imitation learning (machine learning) on the route traveled in the past within the target site and autonomously moving within the target site using the result of the imitation learning. Also, the autonomous movement may be an action of autonomously moving within the target site according to a preset movement route or an action of autonomously moving within the target site using a technique such as line tracing. Furthermore, the mobile object 10 can also be moved manually by a remote user. That is, the moving body 10 can move within the target site while switching between autonomous movement and manual operation by the user. In addition, the mobile body 10 can perform predetermined tasks such as inspection, maintenance, transportation, or light work while moving within the target site. Here, the moving body 10 means a robot in a broad sense, and may be a robot capable of both autonomous movement and movement by remote control by a user. The mobile body 10 also includes an automobile that can travel by switching between automatic operation and manual operation by remote operation. Furthermore, the mobile object 10 also includes flying objects such as drones, multicopters, and unmanned flying objects.

また、移動体10が設置される対象拠点は、例えば、事業所、工場、建設現場、変電所、農場、田畑、農園、耕地もしくは災害現場等の屋外の拠点、またはオフィス、学校、工場、倉庫、商業施設、病院もしくは介護施設等の屋内の拠点である。すなわち、対象拠点は、従来人手で行われていたタスクを移動体10に担わせたいニーズが存在する拠点であればよい。 In addition, the target site where the mobile object 10 is installed is, for example, an office, a factory, a construction site, a substation, a farm, a field, a plantation, a cultivated land, an outdoor site such as a disaster site, or an office, a school, a factory, a warehouse, or the like. , commercial facilities, hospitals or nursing homes. That is, the target site may be any site where there is a need for the mobile body 10 to perform tasks that have conventionally been performed manually.

表示装置50は、対象拠点とは異なる管理拠点に位置し、移動体10に対する所定の操作を行う操作者(ユーザ)が使用するノートPC(Personal Computer)等のコンピュータである。操作者は、オフィス等の管理拠点において、表示装置50に表示される操作画面を用いて、移動体10に対する移動操作、または所定のタスクを実行させるための操作等を行う。例えば、操作者は、表示装置50に表示された対象拠点の画像を見ながら、移動体10の遠隔操作を行う。 The display device 50 is a computer such as a notebook PC (Personal Computer) located at a management site different from the target site and used by an operator (user) who performs a predetermined operation on the mobile body 10 . The operator uses the operation screen displayed on the display device 50 at a management site such as an office to move the mobile object 10 or perform an operation for executing a predetermined task. For example, the operator remotely operates the moving body 10 while viewing the image of the target site displayed on the display device 50 .

なお、図1は、それぞれ一台の移動体10と表示装置50が通信ネットワーク100を介して接続されている例を示すが、表示装置50は、一つの対象拠点に位置する複数の移動体10と接続可能な構成であってもよいし、異なる対象拠点に位置する移動体10と接続可能な構成であってもよい。また、図1は、移動体10が設置された対象拠点とは異なる遠隔地の管理拠点に表示装置50が位置する例を示すが、表示装置50は、移動体10が設置された対象拠点内に位置する構成であってもよい。さらに、表示装置50は、ノートPCに限られず、例えば、デスクトップPC,タブレット端末、スマートフォンまたはウェアラブル端末等であってもよい。 Note that FIG. 1 shows an example in which one mobile body 10 and a display device 50 are connected via a communication network 100, but the display device 50 is connected to a plurality of mobile bodies 10 located at one target site. , or may be configured to be connectable to a moving body 10 located at a different target site. FIG. 1 shows an example in which the display device 50 is located at a remote management site different from the target site where the mobile unit 10 is installed. It may be a configuration located in. Furthermore, the display device 50 is not limited to a notebook PC, and may be, for example, a desktop PC, a tablet terminal, a smart phone, a wearable terminal, or the like.

従来、例えば、移動体が自律移動している際に障害物等によって走行不能になった場合に、操作者の手動操作により復帰動作を行って自律移動に戻す作業が行われていた。しかしながら、従来の操作者に提示される情報だけでは、手動操作から自律移動に復帰させるための切替判断を操作者が精度良く行うことが困難であった。また、手動操作の際の学習による自律移動を行う際に、天候または拠点内の建造物等の環境の変化によって、それまでの学習結果が適切に利用できない場合、再度学習を行うための手動操作への切替判断を操作者が行うことが困難であった。すなわち、移動体の自律移動と手動操作を操作者が切り替えたい場合において、従来の方法では、操作者が移動体の移動状態を適切に把握することが困難であった。また、これに伴い、操作者が適切な自律移動と手動操作の切り替えの判断を行うことが困難であった。 Conventionally, for example, when a mobile body becomes unable to travel due to an obstacle or the like while it is moving autonomously, an operator manually performs a recovery operation to return the mobile body to autonomous movement. However, it has been difficult for the operator to make an accurate switching judgment for returning from the manual operation to the autonomous movement only with the information presented to the conventional operator. In addition, when performing autonomous movement by learning during manual operation, if the learning results so far cannot be used appropriately due to changes in the environment such as weather or buildings in the base, manual operation for re-learning It was difficult for the operator to make a decision to switch to . In other words, when the operator wants to switch between autonomous movement and manual operation of the mobile body, it is difficult for the operator to appropriately grasp the movement state of the mobile body with the conventional method. In addition, along with this, it is difficult for the operator to appropriately determine whether to switch between autonomous movement and manual operation.

そこで、通信システム1は、移動体10を遠隔操作する操作者が使用する表示装置50に、移動体10によって撮影された撮影画像に写る対象拠点における移動体10の移動経路上に、仮想的な経路画像を重畳させて表示させることで、移動体10の移動状態を操作者に適切に把握させることができる。また、通信システム1は、表示装置50に表示させる操作画面を用いて、移動体10の自律移動と手動操作を相互に切り替えることができるので、自律移動と手動操作の切り替えの有無を容易に操作者に判断させることができるとともに、自律移動と手動操作を切り替える場合のユーザの操作性を向上させることができる。さらに、通信システム1は、手動操作を用いた自律移動の移動経路の学習を行うような移動体10に対しても、手動操作による学習の必要性を、操作者により適切に判断させることができる。 Therefore, the communication system 1 displays a virtual By superimposing and displaying the route image, the operator can appropriately grasp the movement state of the moving body 10 . In addition, since the communication system 1 can switch between the autonomous movement and the manual operation of the moving body 10 using the operation screen displayed on the display device 50, it is possible to easily operate whether or not to switch between the autonomous movement and the manual operation. In addition, it is possible to improve the operability of the user when switching between autonomous movement and manual operation. Furthermore, the communication system 1 can allow the operator to appropriately determine the necessity of learning by manual operation even for the mobile object 10 that learns the movement route of autonomous movement using manual operation. .

●移動体の構成
続いて、図2を用いて、移動体10の具体的な構成を説明する。図2は、移動体の構成の概略の一例を示す図である。なお、図2に示されている移動体10の構成は、必要に応じて構成要素が追加または削除されてもよい。
●Configuration of Moving Body Next, a specific configuration of the moving body 10 will be described with reference to FIG. FIG. 2 is a diagram showing an example of a schematic configuration of a moving body. Note that components may be added or deleted from the configuration of the moving body 10 shown in FIG. 2 as necessary.

図2に示されている移動体10は、移動体10の処理または動作を制御する制御装置30を備えた筐体11、撮影装置12、支持部材13、ディスプレイ14、移動体10を移動させるための移動機構15(15a,15b)、および移動体10に所定の作業(動作)を行わせるための可動アーム16を備える。このうち、筐体11には、移動体10の胴体部分に位置し、移動体10の処理もしくは動作を制御する制御装置30等が内蔵されている。 The mobile body 10 shown in FIG. and a movable arm 16 for causing the moving body 10 to perform a predetermined work (operation). Among them, the housing 11 is located in the body portion of the moving body 10 and incorporates the control device 30 and the like for controlling the processing or operation of the moving body 10 .

撮影装置12は、移動体10が設置された拠点に位置する人物、物体または風景等の被写体を撮影して撮影画像を取得する。撮影装置12は、デジタル一眼レフカメラ、またはコンパクトデジタルカメラ等の平面画像(詳細画像)を取得可能なデジタルカメラ(一般撮影装置)である。なお、撮影装置12によって取得される撮影画像は、動画であっても静止画であってもよく、動画と静止画の両方であってもよい。また、撮影装置12によって取得される撮影画像は、画像データとともに音声データを含んでもよい。さらに、撮影装置12は、全天球(360°)パノラマ画像を取得可能な広角撮影装置であってもよい。広角撮影装置は、例えば、被写体を撮影して全天球(パノラマ)画像の元になる二つの半球画像を得るための全天球撮影装置である。さらに、広角撮影装置は、例えば、所定値以上の画角を有する広角画像を取得可能な広角カメラまたはステレオカメラ等であってもよい。すなわち、広角撮影装置は、所定値より焦点距離の短いレンズを用いて撮影された画像(全天球画像、広角画像)を取得可能な撮影手段である。また、移動体10は、複数の撮影装置12を備える構成であってもよい。この場合、移動体10は、撮影装置12として、広角撮影装置と、広角撮影装置によって撮影された被写体の一部を撮影して詳細画像(平面画像)を取得可能な一般撮影装置の両方を備える構成であってもよい。 The photographing device 12 obtains a photographed image by photographing a subject such as a person, an object, or a landscape located at a base where the mobile body 10 is installed. The photographing device 12 is a digital camera (general photographing device) such as a digital single-lens reflex camera or a compact digital camera capable of acquiring a planar image (detailed image). Note that the captured image acquired by the imaging device 12 may be a moving image, a still image, or both a moving image and a still image. Also, the captured image acquired by the imaging device 12 may include audio data together with the image data. Furthermore, the imaging device 12 may be a wide-angle imaging device capable of acquiring an omnidirectional (360°) panoramic image. A wide-angle photographing device is, for example, a omnidirectional photographing device for photographing a subject and obtaining two hemispherical images that are the basis of a omnidirectional (panoramic) image. Furthermore, the wide-angle imaging device may be, for example, a wide-angle camera or a stereo camera capable of acquiring a wide-angle image having an angle of view equal to or larger than a predetermined value. That is, the wide-angle photographing device is photographing means capable of acquiring an image (omnidirectional image, wide-angle image) photographed using a lens having a focal length shorter than a predetermined value. Further, the moving body 10 may be configured to include a plurality of imaging devices 12 . In this case, the moving object 10 includes both a wide-angle imaging device and a general imaging device capable of acquiring a detailed image (planar image) by photographing a part of the subject photographed by the wide-angle imaging device as the imaging device 12. It may be a configuration.

支持部材13は、移動体10(筐体11)に撮影装置12を設置(固定)するための部材である。支持部材13は、筐体11に固定されたポール等であってもよいし、筐体11に固定された台座であってもよい。また、支持部材13には、撮影装置12の撮影方向(向き)や位置(高さ)を調整可能な可動式の部材であってもよい。 The support member 13 is a member for installing (fixing) the photographing device 12 on the moving body 10 (housing 11). The support member 13 may be a pole or the like fixed to the housing 11 or a pedestal fixed to the housing 11 . Further, the support member 13 may be a movable member capable of adjusting the photographing direction (orientation) and position (height) of the photographing device 12 .

移動機構15は、移動体10を移動させるユニットであり、車輪、走行モータ、走行エンコーダ、ステアリングモータ、およびステアリングエンコーダ等で構成される。移動体10の移動制御については、既存の技術であるため、詳細な説明は省略するが、移動体10は、例えば、操作者(表示装置50)からの走行指示を受信し、移動機構15は、受信した走行指示に基づいて移動体10を移動させる。なお、移動機構15は、二足歩行の足型や単輪のものであってもよい。また、移動体10の形状は、図2に示されているような車両型に限られず、例えば、二足歩行の人型、生物を模写した形態、特定のキャラクターを模写した形態等であってもよい。 The moving mechanism 15 is a unit that moves the moving body 10, and includes wheels, a traveling motor, a traveling encoder, a steering motor, a steering encoder, and the like. Regarding movement control of the moving body 10, since it is an existing technology, a detailed description will be omitted. , moves the moving body 10 based on the received travel instruction. The moving mechanism 15 may be a bipedal foot type or a single-wheel type. Further, the shape of the mobile body 10 is not limited to the vehicle type shown in FIG. good too.

可動アーム16は、移動体10の移動以外の付加的動作を可能とする動作手段を有している。図2に示されているように、可動アーム16には、例えば、可動アーム16の先端に部品等の物体を掴むためのハンドが動作手段として備えられている。移動体10は、可動アーム16を回転または変形させることによって、所定の作業(動作)を行うことができる。なお、移動体10は、上記構成のほかに、移動体10の周囲の情報を検知可能な各種センサを有していてもよい。各種センサは、例えば、気圧計、温度計、光度計、人感センサ、ガスセンサ、臭気センサまたは照度計等のセンサデバイスである。 The movable arm 16 has a motion means that enables additional motions other than the movement of the moving body 10 . As shown in FIG. 2, the movable arm 16 has, for example, a hand at the tip of the movable arm 16 for gripping an object such as a part as an operating means. By rotating or deforming the movable arm 16, the moving body 10 can perform a predetermined work (movement). In addition to the configuration described above, the moving body 10 may have various sensors capable of detecting information around the moving body 10 . Various sensors are sensor devices, such as a barometer, a thermometer, a photometer, a human sensor, a gas sensor, an odor sensor, or an illuminance meter, for example.

●ハードウエア構成
続いて、図3および図4を用いて、実施形態に係る通信システムを構成する装置または端末のハードウエア構成について説明する。なお、図3および図4に示されている装置または端末のハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。
●Hardware Configuration Next, the hardware configuration of the devices or terminals constituting the communication system according to the embodiment will be described with reference to FIGS. 3 and 4. FIG. Components may be added or deleted from the hardware configuration of the device or terminal shown in FIGS. 3 and 4 as necessary.

○移動体のハードウエア構成○
図3は、移動体のハードウエア構成の一例を示す図である。移動体10は、移動体10の処理または動作を制御する制御装置30を備える。制御装置30は、上述のように、移動体10の筐体11の内部に備えられている。なお、制御装置30は、移動体10の筐体11の外部に設けられてもよく、または移動体10とは別の装置として設けられていてもよい。
○Hardware configuration of moving body○
FIG. 3 is a diagram illustrating an example of a hardware configuration of a mobile object; The mobile 10 includes a controller 30 that controls the processing or operation of the mobile 10 . The control device 30 is provided inside the housing 11 of the moving body 10 as described above. Note that the control device 30 may be provided outside the housing 11 of the mobile body 10 or may be provided as a device separate from the mobile body 10 .

制御装置30は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、HDD(Hard Disk Drive)304、メディアI/F(Interface)305、入出力I/F306、音入出力I/F307、ネットワークI/F308、近距離通信回路309、近距離通信回路309のアンテナ309a、外部機器接続I/F311、およびバスライン310を備える。 The control device 30 includes a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, a RAM (Random Access Memory) 303, a HDD (Hard Disk Drive) 304, a media I/F (Interface) 305, an input/output I/ F 306 , sound input/output I/F 307 , network I/F 308 , short-range communication circuit 309 , antenna 309 a of the short-range communication circuit 309 , external device connection I/F 311 , and bus line 310 .

CPU301は、移動体10全体の制御を行う。CPU301は、ROM302またはHD(Hard Disk)304a等に格納された、プログラムもしくはデータをRAM303上に読み出し、処理を実行することで、移動体10の各機能を実現する演算装置である。 The CPU 301 controls the moving body 10 as a whole. The CPU 301 is an arithmetic unit that implements each function of the moving body 10 by reading programs or data stored in a ROM 302 or HD (Hard Disk) 304a or the like onto a RAM 303 and executing processing.

ROM302は、電源を切ってもプログラムまたはデータを保持することができる不揮発性のメモリである。RAM303は、CPU301のワークエリア等として用いられる揮発性のメモリである。HDD304は、CPU301の制御にしたがってHD304aに対する各種データの読み出し、または書き込みを制御する。HD304aは、プログラム等の各種データを記憶する。メディアI/F305は、USB(Universal Serial Bus)メモリ、メモリカード、光学ディスクまたはフラッシュメモリ等の記録メディア305aに対するデータの読み出しまたは書き込み(記憶)を制御する。 The ROM 302 is non-volatile memory that can retain programs or data even when the power is turned off. A RAM 303 is a volatile memory used as a work area or the like for the CPU 301 . The HDD 304 controls reading or writing of various data to the HD 304 a under the control of the CPU 301 . The HD 304a stores various data such as programs. A media I/F 305 controls reading or writing (storage) of data to a recording medium 305a such as a USB (Universal Serial Bus) memory, memory card, optical disk, or flash memory.

入出力I/F306は、文字、数値、各種指示等を各種外部機器等との間で入出力するためのインターフェースである。入出力I/F306は、LCD(Liquid Crystal Display)等のディスプレイ14に対するカーソル、メニュー、ウィンドウ、文字または画像等の各種情報の表示を制御する。なお、ディスプレイ14は、入力手段を備えたタッチパネルディスプレイであってもよい。また、入出力I/F306は、ディスプレイ14のほかに、例えば、マウス等のポインティングデバイス、キーボード等の入力手段が接続されていてもよい。音入出力I/F307は、CPU301の制御に従ってマイク307aおよびスピーカ307bとの間で音信号の入出力を処理する回路である。マイク307aは、CPU301の制御に従って音信号を入力する内蔵型の集音手段の一種である。スピーカ307bは、CPU301の制御に従って音信号を出力する再生手段の一種である。 The input/output I/F 306 is an interface for inputting/outputting characters, numerical values, various instructions, etc., to/from various external devices. The input/output I/F 306 controls display of various information such as cursors, menus, windows, characters, and images on a display 14 such as an LCD (Liquid Crystal Display). Note that the display 14 may be a touch panel display provided with input means. In addition to the display 14, the input/output I/F 306 may be connected to input means such as a pointing device such as a mouse and a keyboard. Sound input/output I/F 307 is a circuit for processing input/output of sound signals between microphone 307a and speaker 307b under the control of CPU 301 . The microphone 307a is a type of built-in sound collecting means for inputting sound signals under the control of the CPU 301 . The speaker 307b is a kind of reproduction means for outputting sound signals under the control of the CPU 301. FIG.

ネットワークI/F308は、通信ネットワーク100を経由して、他の機器または装置との通信(接続)を行う通信インターフェースである。ネットワークI/F308は、例えば、有線または無線LAN等の通信インターフェースである。近距離通信回路309は、NFC(Near Field communication)またはBluetooth(登録商標)等の通信回路である。外部機器接続I/F311は、制御装置30に他の装置を接続するためのインターフェースである。 A network I/F 308 is a communication interface that communicates (connects) with other devices or devices via the communication network 100 . A network I/F 308 is, for example, a communication interface such as a wired or wireless LAN. The short-range communication circuit 309 is a communication circuit such as NFC (Near Field communication) or Bluetooth (registered trademark). The external device connection I/F 311 is an interface for connecting other devices to the control device 30 .

バスライン310は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等であり、アドレス信号、データ信号、および各種制御信号等を伝送する。CPU301、ROM302、RAM303、HDD304、メディアI/F305、入出力I/F306、音入出力I/F307、ネットワークI/F308、近距離通信回路309、および外部機器接続I/F311は、バスライン310を介して相互に接続されている。 A bus line 310 is an address bus, a data bus, or the like for electrically connecting the components described above, and transmits an address signal, a data signal, various control signals, and the like. CPU 301 , ROM 302 , RAM 303 , HDD 304 , media I/F 305 , input/output I/F 306 , sound input/output I/F 307 , network I/F 308 , short-range communication circuit 309 , and external device connection I/F 311 connect bus line 310 . are connected to each other through

さらに、制御装置30には、外部機器接続I/F311を介して、駆動モータ101、アクチュエータ102、加速度・方位センサ103、GPS(Global Positioning System)センサ104、撮影装置12、バッテリ120および障害物検知センサ106が接続されている。 Furthermore, the control device 30 includes a drive motor 101, an actuator 102, an acceleration/direction sensor 103, a GPS (Global Positioning System) sensor 104, an imaging device 12, a battery 120, and an obstacle detection device via an external device connection I/F 311. A sensor 106 is connected.

駆動モータ101は、CPU301からの命令に基づき、移動機構15を回転駆動させて移動体10を地面に沿って移動させる。アクチュエータ102は、CPU301からの命令に基づき、可動アーム16を変形させる。加速度・方位センサ103は、地磁気を検知する電子磁気コンパス、ジャイロコンパスおよび加速度センサ等のセンサである。GPSセンサ104は、GPS衛星からGPS信号を受信する。バッテリ120は、移動体10の全体に必要な電力を供給するユニットである。なお、バッテリ120は、移動体10本体に内蔵されたもののほか、外部から補助的な電力供給の役割を担う外部バッテリを含んでもよい。障害物検知センサ106は、移動体10が移動する際における周囲の障害物を検知する検知センサである。障害物検知センサ106は、例えば、ステレオカメラ、もしくは光電変換素子が面状に配置されたエリアセンサを搭載したカメラ等の画像センサ、またはTOF(Time Of Flight)センサ、LIDAR(Light Detection and Ranging)センサ、レーダセンサ、レーザレンジファインダ、超音波センサ、デプスカメラもしくは深度センサ等の測距センサである。 The driving motor 101 rotates the moving mechanism 15 based on the command from the CPU 301 to move the moving body 10 along the ground. Actuator 102 deforms movable arm 16 based on a command from CPU 301 . The acceleration/azimuth sensor 103 is a sensor such as an electronic magnetic compass, a gyrocompass, an acceleration sensor, or the like that detects geomagnetism. GPS sensor 104 receives GPS signals from GPS satellites. The battery 120 is a unit that supplies necessary power to the entire mobile body 10 . In addition, the battery 120 may include an external battery that plays a role of supplementary power supply from the outside, in addition to the battery that is built in the main body of the mobile body 10 . The obstacle detection sensor 106 is a detection sensor that detects surrounding obstacles when the moving body 10 moves. The obstacle detection sensor 106 is, for example, a stereo camera, an image sensor such as a camera equipped with an area sensor in which photoelectric conversion elements are arranged in a plane, a TOF (Time Of Flight) sensor, or a LIDAR (Light Detection and Ranging) sensor. sensors, radar sensors, laser range finders, ultrasonic sensors, depth cameras or ranging sensors such as depth sensors.

○表示装置のハードウエア構成○
図4は、表示装置のハードウエア構成の一例を示す図である。表示装置50の各ハードウエア構成は、500番台の符号で示されている。表示装置50は、コンピュータによって構築されており、図4に示されているように、CPU501、ROM502、RAM503、HD504、HDDコントローラ505、ディスプレイ506、外部機器接続I/F507、ネットワークI/F508、バスライン510、キーボード511、ポインティングデバイス512、音入出力I/F513、マイク514、スピーカ515、カメラ516、DVD-RW(Digital Versatile Disk Rewritable)ドライブ517、およびメディアI/F519を備えている。
○Hardware configuration of the display device○
FIG. 4 is a diagram illustrating an example of a hardware configuration of a display device; Each hardware configuration of the display device 50 is indicated by a reference numeral in the 500s. The display device 50 is constructed by a computer, and as shown in FIG. Line 510 , keyboard 511 , pointing device 512 , sound input/output I/F 513 , microphone 514 , speaker 515 , camera 516 , DVD-RW (Digital Versatile Disk Rewritable) drive 517 , and media I/F 519 are provided.

これらのうち、CPU501は、表示装置50全体の動作を制御する。ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出しまたは書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、または画像等の各種情報を表示する。なお、ディスプレイ506は、入力手段を備えたタッチパネルディスプレイであってもよい。また、ディスプレイ506は、表示部の一例である。ディスプレイ506としての表示部は、表示装置50に接続された表示機能を備える外部装置であってもよい。この場合の表示部は、例えば、IWB(Interactive White Board:電子黒板)等の外部ディスプレイ、または外部装置として接続されたPJ(Projector:プロジェクタ)またはHUD(Head-Up Display)からの画像が投影される被投影部(例えば、管理拠点の天井もしくは壁、自動車のフロントガラス等)であってもよい。外部機器接続I/F507は、各種の外部機器を接続するためのインターフェースである。ネットワークI/F508は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。バスライン510は、図4に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスまたはデータバス等である。 Among these, the CPU 501 controls the operation of the entire display device 50 . The ROM 502 stores programs used to drive the CPU 501, such as an IPL (Initial Program Loader). A RAM 503 is used as a work area for the CPU 501 . The HD 504 stores various data such as programs. The HDD controller 505 controls reading or writing of various data to/from the HD 504 under the control of the CPU 501 . A display 506 displays various information such as cursors, menus, windows, characters, and images. Note that the display 506 may be a touch panel display provided with input means. Also, the display 506 is an example of a display unit. A display unit as the display 506 may be an external device connected to the display device 50 and having a display function. The display unit in this case projects an image from an external display such as an IWB (Interactive White Board), or a PJ (Projector) or HUD (Head-Up Display) connected as an external device. (For example, the ceiling or wall of a management base, the windshield of an automobile, etc.). The external device connection I/F 507 is an interface for connecting various external devices. A network I/F 508 is an interface for data communication using the communication network 100 . A bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG.

また、キーボード511は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択もしくは実行、処理対象の選択、またはカーソルの移動等を行う入力手段の一種である。なお、入力手段は、キーボード511およびポインティングデバイス512のみならず、タッチパネルまたは音声入力装置等であってもよい。また、キーボード511およびポインティングデバイス512等の入力手段は、表示装置50の外部のUI(User Interface)であってもよい。音入出力I/F513は、CPU501の制御に従ってマイク514およびスピーカ515との間で音信号の入出力を処理する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。スピーカ515は、音声信号を出力する内蔵型の出力手段の一種である。カメラ516は、被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、マイク514、スピーカ515およびカメラ516は、表示装置50の内蔵型ではなく、外付けの装置であってもよい。DVD-RWドライブ517は、着脱可能な記録媒体の一例としてのDVD-RW518に対する各種データの読み出しまたは書き込みを制御する。なお、着脱可能な記録媒体は、DVD-RWに限らず、DVD-RまたはBlu-ray(登録商標) Disc(ブルーレイディスク)等であってもよい。メディアI/F519は、フラッシュメモリ等の記録メディア521に対するデータの読み出しまたは書き込み(記憶)を制御する。 Also, the keyboard 511 is a kind of input means having a plurality of keys for inputting characters, numerical values, various instructions, and the like. A pointing device 512 is a type of input means for selecting or executing various instructions, selecting a processing target, moving a cursor, or the like. The input means may be not only the keyboard 511 and pointing device 512 but also a touch panel, voice input device, or the like. Input means such as the keyboard 511 and the pointing device 512 may be an external UI (User Interface) of the display device 50 . Sound input/output I/F 513 is a circuit that processes input/output of sound signals with microphone 514 and speaker 515 under the control of CPU 501 . The microphone 514 is a type of built-in sound collecting means for inputting sound. The speaker 515 is a type of built-in output means for outputting audio signals. The camera 516 is a type of built-in image capturing means that captures an image of a subject and obtains image data. Note that the microphone 514, the speaker 515, and the camera 516 may be external devices instead of built-in types of the display device 50. FIG. A DVD-RW drive 517 controls reading or writing of various data to a DVD-RW 518 as an example of a removable recording medium. Note that the detachable recording medium is not limited to the DVD-RW, and may be a DVD-R, a Blu-ray (registered trademark) Disc (Blu-ray Disc), or the like. A media I/F 519 controls reading or writing (storage) of data to a recording medium 521 such as a flash memory.

なお、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD-R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、Blu-ray Disc、SDカードまたはUSBメモリ等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内または国外へ提供されることができる。例えば、表示装置50は、本発明に係るプログラムが実行されることで本発明に係る表示制御方法を実現する。 Each of the above programs may be recorded in a computer-readable recording medium in an installable or executable format and distributed. Examples of recording media include CD-Rs (Compact Disc Recordable), DVDs (Digital Versatile Disks), Blu-ray Discs, SD cards, USB memories, and the like. Also, the recording medium can be provided domestically or internationally as a program product. For example, the display device 50 implements the display control method according to the present invention by executing the program according to the present invention.

●機能構成
続いて、図5乃至図8を用いて、実施形態に係る通信システムの機能構成について説明する。図5は、通信システムの機能構成の一例を示す図である。なお、図5は、図1に示されている装置または端末のうち、後述の処理または動作に関連しているものを示す。
●Functional Configuration Next, the functional configuration of the communication system according to the embodiment will be described with reference to FIGS. 5 to 8. FIG. FIG. 5 is a diagram illustrating an example of a functional configuration of a communication system; It should be noted that FIG. 5 shows the devices or terminals shown in FIG. 1 that are related to processing or operations described later.

○移動体(制御装置)の機能構成○
まず、図5を用いて、移動体10の処理または動作を制御する制御装置30の機能構成について説明する。制御装置30は、送受信部31、判断部32、撮影制御部33、状態検知部34、地図情報管理部35、目的地系列管理部36、自己位置推定部37、経路情報生成部38、経路情報管理部39、移動先設定部40、移動制御部41、モード設定部42、自律移動処理部43、手動操作処理部44、精度算出部45、画像生成部46、学習部47および記憶・読出部49を有している。これら各部は、図3に示されている各構成要素のいずれかが、RAM303上に展開された制御装置用プログラムに従ったCPU301からの命令によって動作することで実現される機能、または機能する手段である。また、制御装置30は、図3に示されているROM302、HD304aまたは記録メディア305aによって構築される記憶部3000を有している。
○ Functional configuration of moving body (control device) ○
First, with reference to FIG. 5, the functional configuration of the control device 30 that controls the processing or operation of the moving body 10 will be described. The control device 30 includes a transmission/reception unit 31, a determination unit 32, an imaging control unit 33, a state detection unit 34, a map information management unit 35, a destination series management unit 36, a self-position estimation unit 37, a route information generation unit 38, route information Management unit 39, destination setting unit 40, movement control unit 41, mode setting unit 42, autonomous movement processing unit 43, manual operation processing unit 44, accuracy calculation unit 45, image generation unit 46, learning unit 47, and storage/reading unit 49. Each of these units is a function realized by any of the components shown in FIG. is. The control device 30 also has a storage unit 3000 constructed by the ROM 302, HD 304a, or recording medium 305a shown in FIG.

送受信部31は、主に、ネットワークI/F308に対するCPU301の処理によって実現され、通信ネットワーク100を介して、他の装置または端末との間で各種データまたは情報の送受信を行う。 Transmitting/receiving unit 31 is mainly implemented by processing of CPU 301 for network I/F 308 , and transmits/receives various data or information to/from other devices or terminals via communication network 100 .

判断部32は、CPU301の処理によって実現され、各種判断を行う。撮影制御部33は、主に、外部機器接続I/F311に対するCPU301の処理によって実現され、撮影装置12に対する撮影処理を制御する。撮影制御部33は、例えば、撮影装置12に対する撮影処理を指示する。また、撮影制御部33は、例えば、撮影装置12による撮影処理で得られた撮影画像を取得する。 The determination unit 32 is realized by the processing of the CPU 301 and makes various determinations. The imaging control unit 33 is mainly realized by the processing of the CPU 301 for the external device connection I/F 311 and controls imaging processing for the imaging device 12 . The imaging control unit 33 instructs the imaging device 12 to perform imaging processing, for example. Further, the imaging control unit 33 acquires, for example, a captured image obtained by imaging processing by the imaging device 12 .

状態検知部34は、主に、外部機器接続I/F311に対するCPU301の処理によって実現され、各種センサを用いて移動体10または移動体10の周囲の状態を検知する。状態検知部34は、例えば、障害物検知センサ106等を用いて、移動体10の周囲に存在する物体(障害物)までの距離を計測し、距離データとして出力する。 The state detection unit 34 is mainly realized by the processing of the CPU 301 for the external device connection I/F 311, and detects the state of the moving body 10 or the surroundings of the moving body 10 using various sensors. The state detection unit 34 uses, for example, the obstacle detection sensor 106 or the like to measure the distance to an object (obstacle) existing around the moving body 10 and outputs it as distance data.

また、状態検知部34は、例えば、GPSセンサ104等を用いて、移動体10の位置を検知する。具体的には、状態検知部34は、GPSセンサ104等を用いて、地図情報管理DB3001に記憶されている環境地図上の位置を取得する。また、状態検知部34は、障害物検知センサ106等を用いて計測された距離データを用いて、SLAM(Simultaneous Localization and Mapping)を適用して環境地図との照合により位置を取得する構成であってもよい。ここで、SLAMは、自己位置推定と環境地図作成を同時に行うことが可能な技術である。 Also, the state detection unit 34 detects the position of the moving body 10 using, for example, the GPS sensor 104 or the like. Specifically, the state detection unit 34 acquires the position on the environment map stored in the map information management DB 3001 using the GPS sensor 104 or the like. Further, the state detection unit 34 uses distance data measured using the obstacle detection sensor 106 or the like, applies SLAM (Simultaneous Localization and Mapping), and acquires a position by matching with an environmental map. may Here, SLAM is a technology capable of simultaneously estimating self-location and creating an environment map.

さらに、状態検知部34は、例えば、加速度・方位センサ103等を用いて、移動体10が向いている方向を検知する。 Furthermore, the state detection unit 34 detects the direction in which the moving body 10 is facing, for example, using the acceleration/direction sensor 103 or the like.

地図情報管理部35は、主に、CPU301の処理によって実現され、地図情報管理DB3001を用いて、移動体10が設置された対象拠点の環境地図を示す地図情報を管理する。地図情報管理部35は、例えば、外部のサーバ等からダウンロードした環境地図、またはSLAMを適用して作成された環境地図を示す地図情報を管理する。 The map information management unit 35 is mainly realized by the processing of the CPU 301, and uses the map information management DB 3001 to manage map information indicating the environmental map of the target site where the moving body 10 is installed. The map information management unit 35 manages, for example, map information indicating an environment map downloaded from an external server or the like, or an environment map created by applying SLAM.

目的地系列管理部36は、主に、CPU301の処理によって実現され、目的地系列管理DB3002を用いて、移動体10の移動経路上の目的地系列を管理する。目的地系列は、移動体10の移動経路上の最終目的地(ゴール)と最終目的地までの複数のウェイポイント(サブゴール)を含む。目的地系列は、例えば、緯度経度等の地図上の位置(座標値)を示す位置情報によって特定されるデータである。目的地系列は、例えば、移動体10を遠隔操作して指定することで得られる。指定方法は、例えば、環境地図上からGUI(Graphical user Interface)等で指定してもよい。 The destination series management unit 36 is mainly realized by the processing of the CPU 301, and manages the destination series on the moving route of the moving body 10 using the destination series management DB 3002. FIG. The destination series includes a final destination (goal) on the movement route of the mobile object 10 and a plurality of waypoints (subgoals) to the final destination. The destination series is, for example, data specified by position information indicating positions (coordinate values) on a map such as latitude and longitude. The destination series can be obtained, for example, by remotely operating the moving body 10 and specifying it. The designation method may be, for example, a GUI (Graphical User Interface) or the like on the environment map.

自己位置推定部37は、主に、CPU301の処理によって実現され、状態検知部34で検知された位置情報および移動体10が向いている方向を示す方向情報に基づいて、移動体10の現在位置(自己位置)を推定する。自己位置推定部37は、例えば、現在位置(自己位置)の推定に、拡張カルマンフィルタ(EKF:Extended Kalman Filter)等の手法を用いる。 The self-position estimating unit 37 is mainly realized by the processing of the CPU 301, and calculates the current position of the moving object 10 based on the position information detected by the state detection unit 34 and the direction information indicating the direction in which the moving object 10 is facing. (Self-location) is estimated. The self-position estimation unit 37 uses, for example, a method such as an extended Kalman filter (EKF) to estimate the current position (self-position).

経路情報生成部38は、主に、CPU301の処理によって実現され、移動体10の移動経路を示す経路情報を生成する。経路情報生成部38は、自己位置推定部37によって推定された移動体10の現在位置(自己位置)および目的地系列管理部36で管理されている目的地系列を用いて、最終目的地(ゴール)および複数のウェイポイント(サブゴール)を設定し、現在位置から最終目的地までの経路を示す経路情報を生成する。経路情報の生成方法は、例えば、現在位置から最終目的地までの各ウェイポイントを直線で結ぶ、または撮影画像もしくは状態検知部34によって得られる障害物の情報を用いて、障害物を回避しつつ移動時間を最小にする方法等を用いる。 The route information generation unit 38 is mainly realized by the processing of the CPU 301 and generates route information indicating the moving route of the moving body 10 . The route information generating unit 38 uses the current position (self-position) of the mobile object 10 estimated by the self-position estimating unit 37 and the destination series managed by the destination series managing unit 36 to determine the final destination (goal ) and multiple waypoints (subgoals) to generate route information indicating the route from the current position to the final destination. The method of generating the route information includes, for example, connecting the waypoints from the current position to the final destination with a straight line, or using information about the obstacles obtained by the photographed image or the state detection unit 34 to avoid the obstacles. Use a method that minimizes travel time.

経路情報管理部39は、主に、CPU301の処理によって実現され、経路情報管理DB3003を用いて、経路情報生成部38によって生成された経路情報を管理する。 The route information management unit 39 is mainly realized by processing of the CPU 301 and manages the route information generated by the route information generation unit 38 using the route information management DB 3003 .

移動先設定部40は、主に、CPU301の処理によって実現され、移動体10の移動先を設定する。移動先設定部40は、例えば、自己位置推定部37によって推定された移動体10の現在位置(自己位置)に基づいて、目的地系列管理部36で管理されている目的地系列の中から現在向かうべき目的地(現在のゴール)またはウェイポイント(サブゴール)を、移動先として設定する。移動先の設定方法は、例えば、まだ到達していない目的地系列(例えば、ステータスが「未到達」)の中で、移動体10の現在位置(自己位置)と最も近い目的地系列を設定する方法、またはまだ到達していない目的地系の中で、最もデータインデックスが小さい目的地系列を設定する方法等を用いる。 The destination setting unit 40 is mainly realized by the processing of the CPU 301 and sets the destination of the moving body 10 . The destination setting unit 40, for example, based on the current position (self-position) of the moving body 10 estimated by the self-position estimation unit 37, selects the current position from the destination series managed by the destination series management unit 36. Set a destination (current goal) or a waypoint (subgoal) as a destination. The method of setting the destination is, for example, setting the destination series closest to the current position (self-position) of the moving body 10 among the destination series that have not yet been reached (for example, the status is "unreached"). method, or a method of setting a destination series with the smallest data index among destination systems that have not yet been reached.

移動制御部41は、主に、外部機器接続I/F311に対するCPU301の処理によって実現され、移動機構15を駆動させることによって、移動体10の移動を制御する。移動制御部41は、例えば、自律移動処理部43または手動操作処理部44からの駆動命令に応じて、移動体10を移動させる。 The movement control unit 41 is mainly realized by the processing of the CPU 301 for the external device connection I/F 311 and controls the movement of the moving body 10 by driving the movement mechanism 15 . The movement control unit 41 moves the moving body 10 according to a driving command from the autonomous movement processing unit 43 or the manual operation processing unit 44, for example.

モード設定部42は、主に、CPU301の処理によって実現され、移動体10を移動させる動作を示す動作モードの設定を行う、モード設定部42は、移動体10を自律移動させる自律移動モードおよび移動体10を操作者の手動操作により移動させる手動操作モードのいずれかの設定を行う。モード設定部42は、例えば、表示装置50から送信された切替要求に応じて、自律移動モードと手動操作モードの設定を切り替える。 The mode setting unit 42 is mainly realized by the processing of the CPU 301, and sets an operation mode indicating an operation for moving the moving object 10. Any manual operation mode for moving the body 10 by manual operation of the operator is set. The mode setting unit 42 switches between the autonomous movement mode and the manual operation mode, for example, in response to a switching request transmitted from the display device 50 .

自律移動処理部43は、主に、CPU301の処理によって実現され、移動体10の自律移動処理を制御する。自律移動処理部43は、例えば、経路情報生成部38によって生成された経路情報に示されている移動経路を通るように移動制御部41に対する移動体10の駆動命令を出力する。 The autonomous movement processing unit 43 is mainly realized by the processing of the CPU 301 and controls the autonomous movement processing of the moving body 10 . The autonomous movement processing unit 43 outputs, for example, a command to drive the moving body 10 to the movement control unit 41 so as to follow the movement route indicated by the route information generated by the route information generation unit 38 .

手動操作処理部44は、主に、CPU301の処理によって実現され、移動体10の手動操作処理を制御する。手動操作処理部44は、例えば、表示装置50から送信された手動操作コマンドに応じて、移動制御部41に対する移動体10の駆動命令を出力する。 The manual operation processing unit 44 is mainly realized by the processing of the CPU 301 and controls manual operation processing of the moving body 10 . The manual operation processing unit 44 outputs a command to drive the moving body 10 to the movement control unit 41 according to the manual operation command transmitted from the display device 50, for example.

精度算出部45は、主に、CPU301の処理によって実現され、移動体10の自律移動の精度を算出する。ここで、移動体10の自律移動の精度は、移動体10が自律移動可能かどうかの確信度(自信度)を示す情報であり、算出される数値が高いほど移動体10が自律移動可能であることを示す。自律移動の精度の算出は、例えば、自己位置推定部37によって推定された自己位置の尤度の値に基づいて尤度が低くなったら数値を下げる、各種センサの分散等を用いて分散が大きいほど数値を下げる、自律移動処理部43による動作状態である移動経過時間を用いて自律移動モードの移動経過時間が長いほど数値を下げる、目的地系列と移動体10との距離に応じて距離が大きくなるほど数値を下げる、または状態検知部34によって検知された障害物の情報に応じて障害物が多い場合は数値を下げる等の方法を用いることができる。 The accuracy calculation unit 45 is mainly realized by the processing of the CPU 301 and calculates the accuracy of autonomous movement of the moving body 10 . Here, the accuracy of autonomous movement of the moving body 10 is information indicating the degree of certainty (confidence) as to whether or not the moving body 10 can move autonomously. indicates that there is The accuracy of autonomous movement is calculated by, for example, decreasing the numerical value based on the likelihood value of the self-position estimated by the self-position estimating unit 37 when the likelihood is low, using the variance of various sensors, etc. Using the elapsed travel time which is the operating state by the autonomous travel processing unit 43, the longer the elapsed travel time in the autonomous travel mode, the lower the numeric value. It is possible to use a method such as lowering the numerical value as it becomes larger, or lowering the numerical value when there are many obstacles according to the obstacle information detected by the state detection unit 34 .

画像生成部46は、主に、CPU301の処理によって実現され、表示装置50に表示させる表示画像を生成する。画像生成部46は、例えば、撮影制御部33によって撮影された撮影画像上における目的地系列管理部36によって管理されている目的地系列を示す経路画像を生成する。画像生成部46は、撮影制御部33によって取得された撮影画像データに対して、生成された経路画像を移動体10の移動経路上に描画する。撮影画像データへの経路画像の描画方法は、例えば、自己位置推定部37によって推定された移動体10の自己位置(現在位置)、撮影装置12の設置位置および撮影画像データの画角に基づいて、経路画像を透視投影変換して描画する方法等を用いる。なお、撮影画像データには、撮影装置12の撮影方向等を特定するためのPTZ(Pan-Tilt-Zoom)のパラメータを含ませてもよい。PTZのパラメータを含む撮影画像データは、移動体10の記憶部3000等に記憶(保存)される。また、PTZのパラメータは、目的地候補、すなわち目的地系列をなす最終目的地(ゴール)および最終目的地までの複数のウェイポイント(サブゴール)の位置情報と紐づけて記憶部3000に記憶させる構成であってもよい。また、目的地候補の位置情報と併せて、目的地候補の撮影画像データを取得したときの移動体10の姿勢を示す座標データ(x,y,θ)を同時に記憶部3000に記憶させる構成であってもよい。これにより、目的地に対する移動体10の実際の停止位置にずれが生じた場合に、PTZのパラメータと座標データ(x,y,θ)を用いて移動体10の姿勢を補正することが可能になる。なお、移動体10の自律移動経路(GPS軌跡)のデータ、および表示装置50への表示に用いる目的地候補の撮影画像データ等、一部のデータは、例えば、AWS(Amazon Web Services)(商標)等のクラウドコンピューティングサービスに蓄積する構成としてもよい。 The image generator 46 is mainly implemented by the processing of the CPU 301 and generates a display image to be displayed on the display device 50 . The image generating unit 46 generates, for example, a route image showing the destination sequence managed by the destination sequence managing unit 36 on the captured image captured by the capturing control unit 33 . The image generation unit 46 draws the generated route image on the movement route of the moving body 10 for the photographed image data acquired by the photographing control unit 33 . The method of drawing the route image on the photographed image data is based on, for example, the self-position (current position) of the mobile body 10 estimated by the self-position estimation unit 37, the installation position of the photographing device 12, and the angle of view of the photographed image data. , a method of drawing a path image by perspective projection transformation, and the like. Note that the photographed image data may include PTZ (Pan-Tilt-Zoom) parameters for specifying the photographing direction of the photographing device 12 and the like. The captured image data including the PTZ parameters is stored (saved) in the storage unit 3000 of the moving body 10 or the like. In addition, the PTZ parameters are stored in the storage unit 3000 in association with the position information of the destination candidates, that is, the final destination (goal) forming the destination series and a plurality of waypoints (subgoals) leading to the final destination. may be In addition to the position information of the destination candidate, the coordinate data (x, y, θ) indicating the attitude of the moving body 10 when the photographed image data of the destination candidate is obtained is stored in the storage unit 3000 at the same time. There may be. This makes it possible to correct the posture of the moving body 10 using the PTZ parameters and the coordinate data (x, y, θ) when the actual stop position of the moving body 10 with respect to the destination deviates. Become. Some data, such as the data of the autonomous movement route (GPS trajectory) of the mobile body 10 and the photographed image data of the destination candidates used for display on the display device 50, are stored in Amazon Web Services (AWS) (trademark), for example. ) may be stored in a cloud computing service.

また、画像生成部46は、例えば、自己位置推定部37によって推定された移動体10の現在位置(自己位置)と目的地系列管理部36によって管理されている目的地系列を、地図情報管理部35によって管理されている環境地図へ描画する。環境地図への描画方法は、例えば、GPSの経度緯度等の位置情報を用いる方法、またはSLAMにより得られる座標情報を用いる方法等である。 Further, the image generating unit 46, for example, stores the current position (self-position) of the moving object 10 estimated by the self-position estimating unit 37 and the destination series managed by the destination series managing unit 36 into the map information managing unit. Render to the environment map managed by 35. The drawing method on the environment map is, for example, a method using position information such as longitude and latitude of GPS, a method using coordinate information obtained by SLAM, or the like.

学習部47は、主に、CPU301の処理によって実現され、移動体10の自律移動を行うための移動経路の学習を行う。学習部47は、例えば、手動操作処理部44による手動操作モードにおける移動動作の際に取得された撮影画像および状態検知部34による検知データに基づいて、自律移動に関する移動経路の模倣学習(機械学習)を行う。自律移動処理部43は、例えば、学習部47による模倣学習の結果である学習データに基づいて、移動体10の自律移動を行う。 The learning unit 47 is mainly realized by the processing of the CPU 301 and learns a movement route for autonomous movement of the moving body 10 . For example, the learning unit 47 performs imitation learning (machine learning )I do. The autonomous movement processing unit 43 performs autonomous movement of the moving body 10 based on learning data that is the result of imitation learning by the learning unit 47, for example.

記憶・読出部49は、主に、CPU301の処理によって実現され、記憶部3000に、各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。 The storage/readout unit 49 is mainly realized by the processing of the CPU 301 , stores various data (or information) in the storage unit 3000 and reads out various data (or information) from the storage unit 3000 .

○地図情報管理テーブル
図6は、地図情報管理テーブルの一例を示す概念図である。地図情報管理テーブルは、移動体10が設置された対象拠点の環境地図である地図情報を管理するためのテーブルである。記憶部3000には、図6に示されているような地図情報管理テーブルによって構成されている地図情報管理DB3001が構築されている。
○Map Information Management Table FIG. 6 is a conceptual diagram showing an example of the map information management table. The map information management table is a table for managing map information, which is an environmental map of a target site where the mobile object 10 is installed. A map information management DB 3001 configured by a map information management table as shown in FIG. 6 is constructed in the storage unit 3000 .

地図情報管理テーブルは、移動体10が設置された対象拠点を識別する拠点IDおよび拠点名、並びに対象拠点の環境地図の記憶位置が関連づけられた地図情報を管理している。このうち、記憶位置は、例えば、環境地図が記憶された移動体10内の記憶領域または外部サーバへアクセスするための宛先情報であり、URL(Uniform Resource Locator)またはURI(Uniform Resource Identifier)によって示される。 The map information management table manages map information in which the site ID and site name that identify the target site where the moving body 10 is installed and the storage position of the environment map of the target site are associated. Among these, the storage location is, for example, destination information for accessing a storage area in the mobile body 10 in which the environment map is stored or an external server, and is indicated by a URL (Uniform Resource Locator) or a URI (Uniform Resource Identifier). be

○目的地系列管理テーブル
図7は、目的地系列管理テーブルの一例を示す概念図である。目的地系列管理テーブルは、移動体10の移動経路を特定するための移動経路上の最終目的地または複数のウェイポイントを含む目的地系列を管理するためのテーブルである。記憶部3000には、図7に示されているような目的地系列管理テーブルによって構成されている目的地系列管理DB3002が構築されている。
O Destination Sequence Management Table FIG. 7 is a conceptual diagram showing an example of the destination sequence management table. The destination sequence management table is a table for managing a destination sequence including a final destination or a plurality of waypoints on the movement route for specifying the movement route of the moving object 10 . A destination series management DB 3002 configured by a destination series management table as shown in FIG. 7 is constructed in the storage unit 3000 .

目的地系列管理テーブルは、移動体10が設置された拠点を識別する拠点IDおよび移動体10の移動経路を識別する経路IDごとに、目的地系列を識別する系列ID、目的地系列の環境地図上の位置を示す位置情報および目的地系列に対する移動体10の移動状態を示すステータスの情報を関連づけて管理している。このうち、位置情報は、目的地系列の移動体10の環境地図上の位置を示す緯度および経度の座標情報によって表される。また、ステータスは、移動体10が目的地系列に到達したか否かの情報を示す。ステータスは、例えば、「到達済」、「現在の目的地」および「未到達」等を含む。ステータスは、移動体10の現在位置および移動状態に応じて更新される。 The destination series management table includes a series ID for identifying a destination series and an environment map of the destination series for each base ID for identifying a base where the mobile body 10 is installed and for each route ID for identifying the movement route of the mobile body 10. Position information indicating the upper position and status information indicating the movement state of the moving body 10 with respect to the destination series are managed in association with each other. Of these, the positional information is represented by latitude and longitude coordinate information indicating the position of the destination-series mobile object 10 on the environmental map. Also, the status indicates information as to whether or not the moving body 10 has reached the destination series. The status includes, for example, "arrived", "current destination", and "not reached". The status is updated according to the current position and movement state of the mobile object 10 .

○経路情報管理テーブル
図8は、経路情報管理テーブルの一例を示す概念図である。経路情報管理テーブルは、移動体10の移動経路を示す経路情報を管理するためのテーブルである。記憶部3000には、図8に示されているような経路情報管理テーブルによって構成されている経路情報管理DB3003が構築されている。
○ Route Information Management Table FIG. 8 is a conceptual diagram showing an example of the route information management table. The route information management table is a table for managing route information indicating the movement route of the moving body 10 . A route information management DB 3003 configured by a route information management table as shown in FIG. 8 is constructed in the storage unit 3000 .

経路情報管理テーブルは、移動体10が設置された拠点を識別する拠点IDごとに、移動体10の移動経路を識別する経路IDおよび移動体10の移動経路を示す経路情報を関連づけて管理している。このうち、経路情報は、移動体10のこれからの移動経路を、将来の移動先となる目的地系列の順に示している。経路情報は、経路情報生成部38によって移動体10の移動を開始する際に生成される。 The route information management table associates and manages the route ID that identifies the movement route of the mobile body 10 and the route information that indicates the movement route of the mobile body 10 for each base ID that identifies the base where the mobile body 10 is installed. there is Of these, the route information indicates the future movement route of the mobile body 10 in the order of the destination sequence that will be the future destination. The route information is generated by the route information generator 38 when the moving body 10 starts to move.

○表示装置の機能構成○
次に、図5を用いて、表示装置50の機能構成について説明する。表示装置50は、送受信部51、受付部52、表示制御部53、判断部54、音出力部55および記憶・読出部59を有している。これら各部は、図4に示されている各構成要素のいずれかが、RAM503上に展開された表示装置用プログラムに従ったCPU501からの命令によって動作することで実現される機能、または機能する手段である。また、表示装置50は、図4に示されているROM502、HD504または記録メディア521によって構築される記憶部5000を有している。
○ Functional configuration of the display device ○
Next, the functional configuration of the display device 50 will be described with reference to FIG. The display device 50 has a transmission/reception section 51 , a reception section 52 , a display control section 53 , a determination section 54 , a sound output section 55 and a storage/readout section 59 . Each of these units is a function realized by any of the components shown in FIG. is. The display device 50 also has a storage unit 5000 constructed by the ROM 502, HD 504, or recording medium 521 shown in FIG.

送受信部51は、主に、ネットワークI/F508に対するCPU501の処理によって実現され、他の装置または端末との間で各種データまたは情報の送受信を行う。 The transmitting/receiving unit 51 is mainly implemented by the processing of the CPU 501 for the network I/F 508, and transmits/receives various data or information to/from other devices or terminals.

受付部52は、主に、キーボード511またはポインティングデバイス512に対するCPU501の処理によって実現され、利用者から各種の選択または入力を受け付ける。表示制御部53は、主に、CPU501の処理によって実現され、ディスプレイ506等の表示部に各種画面を表示させる。判断部54は、CPU501の処理によって実現され、各種判断を行う。音出力部55は、主に、音入出力I/F513に対するCPU501の処理によって実現され、移動体10の状態に応じてスピーカ515から警告音等の音声信号を出力する。 The reception unit 52 is mainly realized by processing of the keyboard 511 or the pointing device 512 by the CPU 501, and receives various selections or inputs from the user. The display control unit 53 is mainly implemented by the processing of the CPU 501 and causes the display unit such as the display 506 to display various screens. The determination unit 54 is realized by the processing of the CPU 501 and makes various determinations. The sound output unit 55 is mainly realized by the processing of the CPU 501 for the sound input/output I/F 513 , and outputs an audio signal such as a warning sound from the speaker 515 according to the state of the moving body 10 .

記憶・読出部59は、主に、CPU501の処理によって実現され、記憶部5000に、各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。 The storage/readout unit 59 is mainly realized by the processing of the CPU 501 , stores various data (or information) in the storage unit 5000 and reads out various data (or information) from the storage unit 5000 .

●実施形態の処理または動作
○移動制御処理○
続いて、図9乃至図21を用いて、実施形態に係る通信システムの処理または動作について説明する。まず、図9を用いて、移動体10の移動操作についての全体の流れについて概略的に説明する。図9は、移動体の移動制御処理の一例を示すシーケンス図である。なお、図9に示されている各処理の詳細については、後述の図10乃至図19を用いて説明する。
● Processing or operation of the embodiment ○ Movement control processing ○
Next, processing or operation of the communication system according to the embodiment will be described with reference to FIGS. 9 to 21. FIG. First, with reference to FIG. 9, the overall flow of the moving operation of the moving body 10 will be schematically described. FIG. 9 is a sequence diagram illustrating an example of movement control processing of a moving object. Details of each process shown in FIG. 9 will be described later with reference to FIGS. 10 to 19 .

まず、移動体10は、移動先設定部40によって移動体10の移動先となる現在の目的地の設定を行う(ステップS1)。この場合、移動先設定部40は、目的地系列管理DB3002(図7参照)に記憶されている目的地系列の位置およびステータスに基づいて、移動先の設定を行う。移動体10は、ステップS1で設定された移動先に対して、経路情報生成部38によって生成される経路情報に示されている移動経路に従う移動を開始する(ステップS2)。そして、移動体10は、ステップS1で設定された移動経路に従う移動中に、自己位置推定部37による自己位置推定、および移動先設定部40による最終目的地に到達するまでの直近の目的地である移動先の設定を行う(ステップS3)。 First, the moving body 10 sets the current destination to which the moving body 10 moves by the destination setting unit 40 (step S1). In this case, the destination setting unit 40 sets the destination based on the position and status of the destination series stored in the destination series management DB 3002 (see FIG. 7). The moving object 10 starts moving to the destination set in step S1 along the moving route indicated by the route information generated by the route information generating unit 38 (step S2). During the movement along the moving route set in step S1, the moving body 10 estimates its own position by the self-position estimating unit 37, A destination is set (step S3).

次に、表示装置50は、対象拠点内を移動中の移動体10から送信された各種データまたは情報に基づいて、移動体10を操作するための操作画面を、ディスプレイ506等の表示部に表示させる(ステップS4)。そして、移動体10は、表示装置50からの要求に基づいて自律移動と手動操作の切り替えを行う場合(ステップS5のYES)、処理をステップS6へ移行させる。一方で、移動体10は、自律移動と手動操作の切り替えを行わない場合(ステップS5のNO)、処理をステップS7へ移行させる。ステップS6において、移動体10は、モード設定部42によって移動体10の動作モードの切り替えを行い、対応する動作モード(自律移動モードまたは手動操作モード)に基づいた移動を行う。 Next, the display device 50 displays an operation screen for operating the mobile body 10 on the display unit such as the display 506 based on various data or information transmitted from the mobile body 10 moving within the target site. (step S4). Then, when the moving body 10 switches between autonomous movement and manual operation based on a request from the display device 50 (YES in step S5), the process proceeds to step S6. On the other hand, when the moving body 10 does not switch between autonomous movement and manual operation (NO in step S5), the process proceeds to step S7. In step S6, the mobile body 10 switches the operation mode of the mobile body 10 by the mode setting unit 42, and moves based on the corresponding operation mode (autonomous movement mode or manual operation mode).

そして、移動体10は、経路情報生成部38によって生成された経路情報に示されている最終目的地に到達した場合(ステップS7のYES)、処理を終了し、最終目的地で停止する。一方で、移動体10は、経路情報に示されている最終目的地に到達するまで、ステップS3からの処理を継続する(ステップS7のNO)。なお、移動体10は、最終目的地に到達しなくても、移動開始から一定時間以上経過した場合、移動経路上に障害物を検知した場合、または操作者からの停止命令を取得した場合等において、移動体10の移動を一時停止または移動処理の動作を途中で終了する構成であってもよい。 Then, when the moving body 10 reaches the final destination indicated by the route information generated by the route information generating unit 38 (YES in step S7), the process ends and the moving body 10 stops at the final destination. On the other hand, the moving body 10 continues the processing from step S3 until it reaches the final destination indicated in the route information (NO in step S7). Even if the moving body 10 does not reach the final destination, it may be detected that a predetermined time or more has passed since the start of movement, that an obstacle is detected on the movement route, or that a stop command is received from the operator. 3, the movement of the moving body 10 may be temporarily stopped or the operation of the movement process may be terminated in the middle.

○移動体の移動開始までの処理
次に、図10乃至図11を用いて、移動体10の移動開始までの処理について説明する。図10は、移動体の移動開始までの処理の一例を示すシーケンス図である。
O Processing up to Start of Movement of Moving Body Next, processing up to start of movement of the moving body 10 will be described with reference to FIGS. 10 and 11. FIG. FIG. 10 is a sequence diagram showing an example of processing up to the start of movement of the moving object.

まず、表示装置50の送受信部51は、操作者の所定の入力操作等に応じて、移動体10に対して、移動体10の移動経路の入力を要求する旨を示す経路入力要求を送信する(ステップS11)。この経路入力要求には、移動体10が位置する拠点を識別する拠点IDを含む。これにより、移動体10が備える制御装置30の送受信部31は、表示装置50から送信された経路入力要求を受信する。 First, the transmitting/receiving unit 51 of the display device 50 transmits a route input request indicating a request for inputting a moving route of the moving body 10 to the moving body 10 in response to a predetermined input operation or the like of the operator. (Step S11). This route input request includes a site ID that identifies the site where the moving body 10 is located. Thereby, the transmitting/receiving unit 31 of the control device 30 included in the moving body 10 receives the route input request transmitted from the display device 50 .

次に、制御装置30の地図情報管理部35は、ステップS11で受信された拠点IDを検索キーとして地図情報管理DB3001(図6参照)を検索することで、受信された拠点IDと同じ拠点IDに関連づけられた地図情報を、記憶・読出部49を介して読み出す(ステップS12)。ここで、地図情報管理DB3001には、図6に示されているように、予め外部サーバ等からダウンロードされた環境地図またはSLAMを適用して移動体10を遠隔操作して作成した環境地図の記憶位置が示されている。地図情報管理部35は、読み出された地図情報に示されている記憶位置にアクセスして、対応する地図画像データを読み出す。 Next, the map information management unit 35 of the control device 30 searches the map information management DB 3001 (see FIG. 6) using the base ID received in step S11 as a search key, and finds a base ID that is the same as the received base ID. is read out via the storage/readout unit 49 (step S12). Here, as shown in FIG. 6, the map information management DB 3001 stores an environment map downloaded in advance from an external server or the like or an environment map created by remotely operating the moving body 10 by applying SLAM. position is indicated. The map information management unit 35 accesses the storage location indicated by the read map information and reads the corresponding map image data.

次に、送受信部31は、要求元の表示装置50に対して、ステップS12で読み出された地図情報に対応する地図画像データを送信する(ステップS13)。これにより、表示装置50の送受信部51は、移動体10から送信された地図画像データを受信する。 Next, the transmitting/receiving unit 31 transmits the map image data corresponding to the map information read in step S12 to the display device 50 that made the request (step S13). Thereby, the transmitting/receiving unit 51 of the display device 50 receives the map image data transmitted from the moving body 10 .

次に、表示装置50の表示制御部53は、ステップS13で受信された地図画像データを含む経路入力画面200を、ディスプレイ506等の表示部に表示させる(ステップS14)。図11は、経路入力画面の一例を示す図である。図11に示されている経路入力画面200は、操作者が移動体10を移動させたい経路を入力するための表示画面である。 Next, the display control unit 53 of the display device 50 causes the display unit such as the display 506 to display the route input screen 200 including the map image data received in step S13 (step S14). FIG. 11 is a diagram showing an example of a route input screen. A route input screen 200 shown in FIG. 11 is a display screen for inputting a route on which the operator wishes to move the mobile body 10 .

経路入力画面200には、ステップS13で受信された地図画像データに係る地図画像が表示されている。また、経路入力画面200は、表示された地図画像の拡大・縮小を行う場合に押下される表示選択ボタン205および経路入力処理を完了する場合に押下される「完了」ボタン210を含む。 A map image related to the map image data received in step S13 is displayed on the route input screen 200 . The route input screen 200 also includes a display selection button 205 that is pressed to enlarge or reduce the displayed map image, and a "complete" button 210 that is pressed to complete the route input process.

図11Aに示されているように、経路入力画面200には、操作者がポインティングデバイス512等の入力手段を用いて地図画像上の所定の位置を選択することで、目的地系列250aが表示される。操作者は、経路入力画面200に表示された地図画像を見ながら、地図画像上の位置を選択していく。これにより、経路入力画面200には、図11Bに示されているように、操作者によって選択された位置に対応する複数の目的地系列250a~250hが表示される。 As shown in FIG. 11A, on the route input screen 200, the operator selects a predetermined position on the map image using an input means such as the pointing device 512 to display a destination series 250a. be. The operator selects positions on the map image while viewing the map image displayed on the route input screen 200 . As a result, a plurality of destination series 250a to 250h corresponding to the positions selected by the operator are displayed on the route input screen 200, as shown in FIG. 11B.

そして、図11Bに示されているように、操作者が地図画像上の所定の位置を選択して「完了」ボタン210を押下することで、受付部52は、目的地系列250a~250hの入力を受け付ける(ステップS15)。送受信部51は、移動体10に対して、ステップS15で受け付けられた目的地系列250a~250hを示す目的地系列データを送信する(ステップS16)。この目的地系列データは、ステップS15で入力された目的地系列250a~250hの地図画像上の位置を示す位置情報を含む。これにより、移動体10が備える制御装置30の送受信部31は、表示装置50から送信された目的地系列データを受信する。 Then, as shown in FIG. 11B, when the operator selects a predetermined position on the map image and presses the "complete" button 210, the receiving unit 52 inputs the destination series 250a to 250h. is received (step S15). The transmitting/receiving unit 51 transmits the destination series data indicating the destination series 250a to 250h accepted in step S15 to the moving body 10 (step S16). This destination series data includes position information indicating the positions of the destination series 250a to 250h input in step S15 on the map image. Thereby, the transmitting/receiving unit 31 of the control device 30 included in the mobile body 10 receives the destination sequence data transmitted from the display device 50 .

次に、制御装置30の目的地系列管理部36は、ステップS16で受信された目的地系列データを、ステップS11で受信された拠点IDに関連づけて目的地系列管理DB3002(図7参照)に、記憶・読出部49を介して記憶させる(ステップS17)。目的地系列管理部36は、受信された目的地系列データに示されている複数の目的地系列(例えば、目的地系列250a~250h)を系列IDによって特定し、系列IDごとに対応する目的地系列の地図画像上の位置を示す位置情報を関連づけて記憶する。 Next, the destination series management unit 36 of the control device 30 stores the destination series data received in step S16 in the destination series management DB 3002 (see FIG. 7) in association with the base ID received in step S11. It is stored via the storage/reading unit 49 (step S17). The destination series management unit 36 identifies a plurality of destination series (for example, destination series 250a to 250h) indicated in the received destination series data by series ID, and identifies the corresponding destination for each series ID. Position information indicating the position on the map image of the series is associated and stored.

次に、自己位置推定部37は、移動体10の現在位置を推定する(ステップS18)。具体的には、自己位置推定部37は、状態検知部34によって検知された移動体10の位置を示す位置情報および移動体10の向いている方向を示す方向情報を用いた拡張カルマンフィルタ等の手法によって、移動体10の自己位置(現在位置)を推定する。 Next, the self-position estimation unit 37 estimates the current position of the moving body 10 (step S18). Specifically, the self-position estimation unit 37 uses a method such as an extended Kalman filter using position information indicating the position of the moving body 10 detected by the state detection unit 34 and direction information indicating the direction in which the moving body 10 is facing. The self-position (current position) of the moving body 10 is estimated by .

次に、経路情報生成部38は、ステップS18で推定された自己位置およびステップS16で受信された目的地系列データに基づいて、移動体10の移動経路を示す経路情報を生成する(ステップS19)。具体的には、経路情報生成部38は、ステップS18で推定された移動体10の現在位置(自己位置)およびステップS16で受信された目的地系列データを用いて、移動体10の最終目的地(ゴール)および複数のウェイポイント(サブゴール)を設定する。そして、経路情報生成部38は、現在位置から最終目的地までの移動体10の移動経路を示す経路情報を生成する。経路情報生成部38は、例えば、現在位置から最終目的地までの各ウェイポイントを直線で結ぶ方法、または撮影画像または状態検知部34によって得られる障害物の情報を用いて、障害物を回避しつつ移動時間を最小にする方法を用いて移動経路を特定する。そして、経路情報管理部39は、経路情報生成部38によって生成された経路情報を、生成された経路IDに関連づけて経路情報管理DB3003(図8参照)に、記憶・読出部49を介して記憶させる。 Next, the route information generating unit 38 generates route information indicating the movement route of the moving body 10 based on the self-position estimated in step S18 and the destination series data received in step S16 (step S19). . Specifically, the route information generator 38 uses the current position (self-position) of the mobile body 10 estimated in step S18 and the destination sequence data received in step S16 to determine the final destination of the mobile body 10. (goal) and set multiple waypoints (subgoals). Then, the route information generation unit 38 generates route information indicating the moving route of the moving body 10 from the current position to the final destination. The route information generation unit 38 avoids obstacles by, for example, connecting each waypoint from the current position to the final destination with a straight line, or by using a photographed image or obstacle information obtained by the state detection unit 34. Identify the travel route using a method that minimizes travel time while Then, the route information management unit 39 stores the route information generated by the route information generation unit 38 in the route information management DB 3003 (see FIG. 8) via the storage/readout unit 49 in association with the generated route ID. Let

次に、移動先設定部40は、ステップS18で推定された移動体10の現在位置およびステップS19で生成された経路情報に基づいて、移動体10の移動先を設定する(ステップS20)。具体的には、移動先設定部40は、推定された移動体10の現在位置(自己位置)に基づいて、生成された経路情報に示されている目的地系列の中から現在向かうべき目的地(現在のゴール)を、移動先として設定する。移動先設定部40は、例えば、まだ到達していない目的地系列(例えば、ステータスが「未到達」)の中で、移動体10の現在位置(自己位置)と最も近い目的地系列を移動体10の移動先として設定する。そして、移動制御部41は、ステップS20で設定された移動先への移動体10の移動処理を開始する(ステップS21)この場合、移動制御部41は、自律移動処理部43からの駆動命令に応じて、移動体10を自律移動させる。 Next, the destination setting unit 40 sets the destination of the moving body 10 based on the current position of the moving body 10 estimated in step S18 and the route information generated in step S19 (step S20). Specifically, based on the estimated current position (self-position) of the moving body 10, the destination setting unit 40 selects the destination to be currently headed from among the destination series indicated in the generated route information. Set (current goal) as the destination. For example, the destination setting unit 40 selects the destination series closest to the current position (self-position) of the mobile body 10 among the destination series that have not yet been reached (for example, the status is “unreached”). Set as 10 destinations. Then, the movement control unit 41 starts movement processing of the moving body 10 to the destination set in step S20 (step S21). Accordingly, the moving body 10 is autonomously moved.

このように、通信システム1は、操作者によって入力された目的地系列に応じて生成された移動経路に基づいて、移動体10を自律移動させることができる。なお、ステップS15において経路入力画面200に表示された地図画像上の位置を選択することによって目的地系列を選択する例を説明したが、経路入力画面200は、学習部47による学習データである過去の撮影画像を複数表示させ、操作者が表示された撮影画像を選択することによって、撮影画像の撮影位置に対応する目的地系列を選択させる構成であってもよい。この場合、目的地系列データは、位置情報に変えて、選択された撮影画像を識別する情報を含む。目的地系列管理DB3002には、位置情報に変えて撮影画像の識別情報が記憶される。 In this way, the communication system 1 can autonomously move the moving body 10 based on the moving route generated according to the destination series input by the operator. Although an example of selecting a destination series by selecting a position on the map image displayed on the route input screen 200 in step S15 has been described, the route input screen 200 is based on the past data learned by the learning unit 47. A plurality of captured images may be displayed, and the operator may select a displayed captured image to select the destination series corresponding to the captured position of the captured image. In this case, the destination series data includes information identifying the selected captured image instead of position information. The destination series management DB 3002 stores the identification information of the captured image instead of the position information.

○移動体に対する操作者による移動制御
次に、図12乃至図19を用いて、操作者の遠隔操作による移動中の移動体10に対する制御処理について説明する。図12は、操作画面を用いた移動体の自律移動と手動操作の切替処理の一例を示すシーケンス図である。図12は、移動体10が図10に示されている処理によって拠点内の自律移動を開始している場合の例を示す。
O Movement Control by Operator for Moving Body Next, control processing for the moving moving body 10 by remote control by the operator will be described with reference to FIGS. 12 to 19 . FIG. 12 is a sequence diagram showing an example of switching processing between autonomous movement of a moving body and manual operation using an operation screen. FIG. 12 shows an example in which the moving body 10 has started autonomous movement within the site by the processing shown in FIG.

まず、移動体が備える制御装置30の精度算出部45は、移動体10の自律移動精度を算出する(ステップS31)。精度算出部45は、例えば、経路情報生成部38によって生成された経路情報および自己位置推定部37によって推定された移動体10の現在位置に基づいて、自律移動精度を算出する。移動体10の自律移動の精度は、移動体10が自律移動可能かどうかの確信度(自信度)を示す情報であり、算出される数値が高いほど移動体10が自律移動可能であることを示す。また、精度算出部45は、例えば、学習部47による学習データおよび自己位置推定部37によって推定された移動体10の現在位置に基づいて、自律移動精度を算出してもよい。この場合、移動体10の自律移動の精度は、自律移動に関する学習精度を示す情報である。 First, the accuracy calculation unit 45 of the control device 30 included in the mobile body calculates the autonomous movement accuracy of the mobile body 10 (step S31). The accuracy calculator 45 calculates the autonomous movement accuracy based on the route information generated by the route information generator 38 and the current position of the moving body 10 estimated by the self-position estimator 37, for example. The accuracy of autonomous movement of the mobile object 10 is information indicating the degree of certainty (confidence) as to whether the mobile object 10 can move autonomously. show. Further, the accuracy calculation unit 45 may calculate the autonomous movement accuracy based on the learning data from the learning unit 47 and the current position of the moving body 10 estimated by the self-position estimation unit 37, for example. In this case, the accuracy of autonomous movement of the mobile body 10 is information indicating the learning accuracy regarding autonomous movement.

また、精度算出部45は、自己位置推定部37によって推定された自己位置の尤度の値に基づいて尤度が低くなったら数値を下げる、または各種センサの分散等を用いて分散が大きいほど数値を下げるように、自律移動精度を算出してもよい。さらに、精度算出部45は、例えば、自律移動処理部43による動作状態である移動経過時間を用いて自律移動モードの移動経過時間が長いほど数値を下げる、または目的地系列と移動体10との距離に応じて距離が大きくなるほど数値を下げるように、自律移動精度を算出してもよい。また、精度算出部45は、例えば、状態検知部34によって検知された障害物の情報に応じて障害物が多い場合は数値を下げるように、自律移動精度を算出してもよい。 Further, the accuracy calculation unit 45 decreases the numerical value based on the likelihood value of the self-position estimated by the self-position estimation unit 37 when the likelihood becomes low, or uses the variance of various sensors, etc., to increase the variance. You may calculate autonomous movement precision so that a numerical value may be lowered. Further, the accuracy calculation unit 45 uses, for example, the elapsed travel time, which is the operating state of the autonomous travel processing unit 43, to lower the numerical value as the travel elapsed time in the autonomous travel mode increases, or the destination sequence and the moving object 10 The autonomous movement accuracy may be calculated so that the numerical value is lowered as the distance increases. Further, the accuracy calculation unit 45 may calculate the autonomous movement accuracy so as to lower the numerical value when there are many obstacles according to the obstacle information detected by the state detection unit 34, for example.

撮影制御部33は、拠点内を移動しながら撮影装置12を用いた撮影処理を行う(ステップS32)。画像生成部46は、ステップS32における撮影処理によって取得された撮影画像上に表示させる仮想的な経路画像を生成する(ステップS33)。経路画像は、例えば、自己位置推定部37によって推定された移動体10の現在位置、並びに目的地系列管理DB3002に記憶された目的地系列ごとの位置情報およびステータスに基づいて生成される。また、画像生成部46は、ステップS32で撮影された撮影画像に対して、ステップS33で生成された経路画像が描画された撮影表示画像を生成する(ステップS34)。 The photographing control unit 33 performs photographing processing using the photographing device 12 while moving within the base (step S32). The image generation unit 46 generates a virtual route image to be displayed on the photographed image obtained by the photographing process in step S32 (step S33). The route image is generated, for example, based on the current position of the mobile object 10 estimated by the self-position estimation unit 37 and the position information and status for each destination series stored in the destination series management DB 3002 . Further, the image generator 46 generates a photographed display image in which the route image generated in step S33 is drawn for the photographed image photographed in step S32 (step S34).

さらに、画像生成部46は、ステップS12で読み出された地図画像に対して、自己位置推定部37によって推定された移動体10の現在位置(自己位置)を示す現在位置表示画像およびステップS16で受信された目的地系列を示す系列画像が描画された地図表示画像を生成する(ステップS35)。 Further, the image generation unit 46 adds a current position display image indicating the current position (self-position) of the moving body 10 estimated by the self-position estimation unit 37 to the map image read out in step S12 and A map display image is generated in which a sequence image representing the received destination sequence is drawn (step S35).

なお、ステップS31~ステップS35の処理の順序は前後してもよく、またはそれぞれ並行して行われてもよい。移動体10は、拠点を移動しながらステップS31~ステップS35の処理を継続的に実行する。移動体10は、ステップS31からステップS35の処理によって、移動体10の自律移動がうまくいっているかどうかを操作者に提示するための各種情報を生成する。 Note that the order of the processes in steps S31 to S35 may be changed, or they may be performed in parallel. The moving body 10 continuously executes the processing of steps S31 to S35 while moving between bases. The moving body 10 generates various types of information for presenting to the operator whether the autonomous movement of the moving body 10 is going well or not through the processing from step S31 to step S35.

次に、送受信部31は、表示装置50に対して、ステップS31で算出された自律移動精度を示す通知情報、ステップS34で生成された撮影表示画像データ、およびステップS35で生成された地図表示画像データを送信する(ステップS36)。これにより、表示装置50の送受信部51は、移動体10から送信された通知情報、撮影表示画像データおよび地図表示画像データを受信する。 Next, the transmitting/receiving unit 31 transmits the notification information indicating the autonomous movement accuracy calculated in step S31, the photographed display image data generated in step S34, and the map display image generated in step S35 to the display device 50. Data is transmitted (step S36). Thereby, the transmitting/receiving unit 51 of the display device 50 receives the notification information, the photographed display image data, and the map display image data transmitted from the moving body 10 .

次に、表示装置50の表示制御部53は、操作画面400をディスプレイ106等の表示部に表示させる(ステップS37)。図13は、操作画面の一例を示す図である。図13に示されている操作画面400は、操作者が移動体10の遠隔操作を行うためのGUIの一例である。 Next, the display control unit 53 of the display device 50 displays the operation screen 400 on the display unit such as the display 106 (step S37). FIG. 13 is a diagram showing an example of an operation screen. An operation screen 400 shown in FIG. 13 is an example of a GUI for the operator to remotely operate the mobile object 10 .

操作画面400は、ステップS36で受信された地図表示画像データを表示する地図表示画像領域600、ステップS36で受信された撮影表示画像データを表示する撮影表示画像領域700、ステップS36で受信された通知情報を表示させる通知情報表示領域800、および自律移動モードと手動操作モードとを切り替える切替操作を受け付けるモード切替ボタン900を含む。 The operation screen 400 includes a map display image area 600 displaying the map display image data received in step S36, a shooting display image area 700 displaying the shooting display image data received in step S36, and a notification received in step S36. It includes a notification information display area 800 for displaying information, and a mode switching button 900 for accepting a switching operation for switching between the autonomous movement mode and the manual operation mode.

このうち、地図表示画像領域600に表示される地図表示画像は、移動体10の現在位置を示す現在位置表示画像601、移動体10の移動経路を構成する目的地系列を示す系列画像611,613,615、および移動体10の移動経路の軌跡を示す軌跡表示画像を、地図画像上に重畳させて表示している。また、地図表示画像領域600は、表示された地図画像の拡大・縮小を行う場合に押下される表示選択ボタン605を含む。 Of these, the map display image displayed in the map display image area 600 includes a current position display image 601 indicating the current position of the moving body 10, and series images 611 and 613 indicating the destination series forming the moving route of the moving body 10. , 615 and a trajectory display image showing the trajectory of the movement path of the moving body 10 are superimposed on the map image and displayed. The map display image area 600 also includes a display selection button 605 that is pressed when enlarging or reducing the displayed map image.

系列画像611,613,615は、地図画像上における目的地系列を、移動体10が既に移動した位置を示す移動履歴、現在の目的地および将来の目的地を操作者が識別可能に表示している。このうち、系列画像611は、移動体10が到達済みの目的地系列を示す。また、系列画像613は、移動体10の現在の目的地である目的地系列を示す。さらに、系列画像615は、移動体10の未到達の目的地(将来の目的地)を示す。系列画像611,613,615は、ステップS35の処理において、目的地系列管理DB3002に記憶された目的地系列のステータスに基づいて生成される。 The series images 611, 613, and 615 display the destination series on the map image such that the operator can identify the movement history indicating the positions to which the moving body 10 has already moved, the current destination, and the future destination. there is Of these, the sequence image 611 indicates the sequence of destinations reached by the moving body 10 . Also, the series image 613 indicates the destination series, which is the current destination of the moving body 10 . Further, the series images 615 show destinations (future destinations) that the mobile body 10 has not yet reached. Series images 611, 613, and 615 are generated based on the status of the destination series stored in the destination series management DB 3002 in the process of step S35.

撮影表示画像領域700に表示される撮影表示画像は、ステップS33の処理において生成された移動体10の移動経路を仮想的に示す経路画像711,713,715を含む。経路画像711,713,715は、撮影画像に写る拠点の位置に対応する目的地系列を、移動体10が既に移動した位置を示す移動履歴、現在の目的地および将来の目的地として操作者が識別可能に表示されている。このうち、経路画像711は、移動体10が到達済みの目的地系列を示す。また、経路画像713は、移動体10の現在の目的地である目的地系列を示す。さらに、経路画像715は、移動体10の未到達の目的地(将来の目的地)を示す。経路画像711,713,715は、ステップS33の処理において、目的地系列管理DB3002に記憶された目的地系列のステータスに基づいて生成される。なお、撮影表示画像領域700には、撮影装置12による撮影画像を、インターネットなどのコンピュータネットワークを通じてリアルタイムに配信されるライブストリーミング(live streaming)映像として表示させてもよい。 The photographed display image displayed in the photographed display image area 700 includes route images 711, 713, and 715 that virtually show the movement route of the moving body 10 generated in the process of step S33. The route images 711, 713, and 715 include a destination series corresponding to the positions of bases shown in the captured images, a movement history indicating positions to which the mobile body 10 has already moved, current destinations, and future destinations. displayed in an identifiable manner. Of these, the route image 711 indicates a series of destinations reached by the moving body 10 . Also, the route image 713 indicates the destination series, which is the current destination of the mobile object 10 . Furthermore, the route image 715 indicates destinations (future destinations) that the mobile body 10 has not yet reached. The route images 711, 713, 715 are generated based on the status of the destination series stored in the destination series management DB 3002 in the process of step S33. Note that the image captured by the image capturing device 12 may be displayed in the captured display image area 700 as a live streaming video distributed in real time through a computer network such as the Internet.

通知情報表示領域800には、ステップS36で受信された通知情報に示されている自律移動精度に関する情報が表示されている、通知情報表示領域800は、自律移動精度の情報を数値(%)で表示する数値表示領域810、および自律移動精度を示す数値を離散化し、自律移動の度合として表示する度合表示領域830を含む。数値表示領域810は、ステップS31の処理において算出された自律移動精度の数値を示す。また、度合表示領域830は、自律移動精度の数値に所定の閾値を設けて、数値に値に応じた自律移動の精度の度合(「高、中、低」)を示す。ここで、数値表示領域810に示されている自律移動精度を示す数値および度合表示領域830に示されている自律移動の度合は、自律移動の精度を示す通知情報の一例である。なお、通知情報表示領域800は、数値表示領域810および度合い表示領域830の少なくともいずれかを含む構成であればよい。 In the notification information display area 800, information about the accuracy of autonomous movement indicated in the notification information received in step S36 is displayed. It includes a numerical value display area 810 to be displayed and a degree display area 830 for displaying the degree of autonomous movement by discretizing the numerical value indicating the accuracy of autonomous movement. A numerical value display area 810 indicates the numerical value of the autonomous movement accuracy calculated in the process of step S31. Further, the degree display area 830 sets a predetermined threshold value for the numerical value of the autonomous movement accuracy, and indicates the degree of autonomous movement accuracy (“high, medium, low”) corresponding to the numerical value. Here, the numerical value indicating the accuracy of autonomous movement indicated in the numerical value display area 810 and the degree of autonomous movement indicated in the degree display area 830 are examples of notification information indicating the accuracy of autonomous movement. Note that the notification information display area 800 may be configured to include at least one of the numerical value display area 810 and the degree display area 830 .

モード切替ボタン900は、自律移動モードと手動操作モードとを切り替える切替操作を受け付ける操作受付手段の一例である。操作者は、所定の入力手段を用いてモード切替ボタン900を選択することで、移動体10の自律移動モードと手動操作モードを相互に切替可能である。 The mode switching button 900 is an example of an operation accepting unit that accepts a switching operation for switching between the autonomous movement mode and the manual operation mode. The operator can switch between the autonomous movement mode and the manual operation mode of the moving body 10 by selecting the mode switching button 900 using a predetermined input means.

図13に示されている例において、操作画面400は、移動体10が系列画像613および経路画像713の位置を現在の目的地として自律移動している状態を示す。また、操作画面400は、移動体10の現在の自律移動の精度が「93.8%」であり、比較的高い自律移動精度であることを示す。 In the example shown in FIG. 13, the operation screen 400 shows a state in which the moving body 10 is autonomously moving with the position of the series image 613 and the route image 713 as the current destination. Further, the operation screen 400 shows that the current autonomous movement accuracy of the moving body 10 is "93.8%", which is relatively high autonomous movement accuracy.

図14は、図13に示されている状態から移動体10が移動した状態を示す。図14に示されている操作画面400では、図13に示す状態から移動体10が移動したため、現在の目的地を示す系列画像613および経路画像713の位置を変化している。また、図14に示されている操作画面400では、移動体10の現在の自律移動の精度が「87.9%」であり、図13に示す状態から自律移動精度の数値が下がっており、自律移動精度の度合も「高」から「中」に変化している。操作者は、操作画面400に示されている地図表示画像および拠点表示画像に示されている拠点の状況、並びに通知情報表示領域に示されている自律移動精度の変化を閲覧することで、移動体10を自律移動と手動操作の切り替えを行うか否かを判断することができる。 FIG. 14 shows a state in which the moving body 10 has moved from the state shown in FIG. On the operation screen 400 shown in FIG. 14, the positions of the series image 613 and the route image 713 indicating the current destination have changed since the moving body 10 has moved from the state shown in FIG. Further, in the operation screen 400 shown in FIG. 14, the current autonomous movement accuracy of the mobile body 10 is "87.9%", and the numerical value of the autonomous movement accuracy is lower than the state shown in FIG. The degree of autonomous movement accuracy also changes from "high" to "medium". The operator can view the status of bases indicated in the map display image and the base display image displayed on the operation screen 400, and changes in the accuracy of autonomous movement indicated in the notification information display area. It can be determined whether to switch the body 10 between autonomous movement and manual operation.

図12に戻り、操作者のポインティングデバイス512等の入力手段を用いた入力操作に応じて、受付部52は、操作画面400のモード切替ボタン900の選択を受け付ける(ステップS38)。操作画面400は、例えば、図15(A)に示されている状態において操作者がモード切替ボタン900(「手動操作への切替」と表示)を選択することで、図15(B)に示されているようなモード切替ボタン900(「自律移動再開」と表示)の表示に変化する。この場合、操作者は、移動体10の動作モードを自律移動モードから手動操作モードへ切り替えるために、モード切替ボタン900の選択を行う。 Returning to FIG. 12, the reception unit 52 receives selection of the mode switching button 900 on the operation screen 400 in response to an input operation by the operator using input means such as the pointing device 512 (step S38). For example, the operation screen 400 is displayed in FIG. 15(B) when the operator selects a mode switching button 900 (displayed as "switch to manual operation") in the state shown in FIG. 15(A). The display changes to the mode switching button 900 (displayed as "resume autonomous movement") as shown. In this case, the operator selects the mode switching button 900 in order to switch the operation mode of the moving body 10 from the autonomous movement mode to the manual operation mode.

そして、送受信部51は、移動体10に対して、移動体10の自律移動モードと手動操作モードの切り替えを要求する旨を示すモード切替要求を送信する(ステップS39)。これにより、移動体10が備える制御装置30の送受信部31は、表示装置50から送信されたモード切替要求を受信する。 Then, the transmitting/receiving unit 51 transmits a mode switching request indicating a request to switch the mobile body 10 between the autonomous movement mode and the manual operation mode to the mobile body 10 (step S39). Thereby, the transmitting/receiving unit 31 of the control device 30 included in the moving body 10 receives the mode switching request transmitted from the display device 50 .

次に、制御装置30は、ステップS39におけるモード切替要求の受信に応じて、移動体10のモード切替処理を実行する(ステップS40)。 Next, the control device 30 executes the mode switching process of the moving body 10 in response to receiving the mode switching request in step S39 (step S40).

(自律移動と手動操作の切替処理)
ここで、図16を用いて、ステップS40におけるモード切替処理を詳細に説明する。図16は、移動体における自律移動モードと手動操作モードの切替処理の一例を示すフローチャートである。
(Switching processing between autonomous movement and manual operation)
Here, the mode switching process in step S40 will be described in detail with reference to FIG. FIG. 16 is a flowchart showing an example of switching processing between an autonomous movement mode and a manual operation mode in a mobile object.

まず、制御装置30は、送受信部31によって表示装置50から送信されたモード切替要求が受信された場合(ステップS51のYES)、処理をステップS52へ移行させる。一方で、制御装置30は、モード切替要求が受信するまでステップS51の処理を継続する(ステップS51のNO)。 First, when the transmission/reception unit 31 receives the mode switching request transmitted from the display device 50 (YES in step S51), the control device 30 causes the process to proceed to step S52. On the other hand, the control device 30 continues the processing of step S51 until the mode switching request is received (NO in step S51).

次に、モード設定部42は、受信されたモード切替要求が手動操作モードへの切替を示す場合(ステップS52のYES)、処理をステップS53へ移行させる。移動制御部41は、自律移動処理部43からの自律移動処理の停止命令に応じて、移動体10の自律移動処理を停止させる(ステップS53)。そして、モード設定部42は、移動体10の動作を、自律移動モードから手動操作モードへ切り替える(ステップS54)。そして、移動制御部41は、手動操作処理部44からの駆動命令に応じて、手動操作による移動体10の移動を実行する(ステップS55)。 Next, if the received mode switching request indicates switching to the manual operation mode (YES in step S52), the mode setting unit 42 causes the process to proceed to step S53. The movement control unit 41 stops the autonomous movement processing of the moving body 10 in response to the autonomous movement processing stop command from the autonomous movement processing unit 43 (step S53). Then, the mode setting unit 42 switches the operation of the moving body 10 from the autonomous movement mode to the manual operation mode (step S54). Then, the movement control unit 41 executes the movement of the moving body 10 by manual operation according to the drive command from the manual operation processing unit 44 (step S55).

一方で、モード設定部42は、受信されたモード切替要求が手動操作モードへの切り替えを示さない場合、すなわち自律移動モードへの切り替えを示す場合、すなわち切替要求が自律移動モードへの切り替えを示す場合(ステップS52のNO)、処理をステップS56へ移行させる。モード設定部42は、移動体10の動作を、手動操作モードから自律移動モードへ切り替える(ステップS56)。そして、そして、移動制御部41は、自律移動処理部43からの駆動命令に応じて、自律移動による移動体10の移動を実行する(ステップS57)。 On the other hand, if the received mode switching request does not indicate switching to the manual operation mode, that is, if it indicates switching to the autonomous movement mode, the mode setting unit 42 indicates that the switching request indicates switching to the autonomous movement mode. If so (NO in step S52), the process proceeds to step S56. The mode setting unit 42 switches the operation of the moving body 10 from the manual operation mode to the autonomous movement mode (step S56). Then, the movement control unit 41 moves the moving body 10 by autonomous movement in accordance with the driving command from the autonomous movement processing unit 43 (step S57).

このように、表示装置50は、移動体10の移動経路上に示される経路画像711,713,715が撮影画像上に示されている撮影表示画像を含む操作画面400を表示させることで、自律移動と手動操作の切り替えの有無の判断を操作者に適切に行わせることができる。また、表示装置50は、目的地系列を示す系列画像611,613,615が地図画像上に示されている地図表示画像を、撮影表示画像ともに表示させることで、移動体10の移動状態をより視覚的に操作者に把握させることができるので、操作者の移動体10に対する操作性を向上させることができる。さらに、表示装置50は、撮影表示画像が表示された操作画面400上のモード切替ボタン900を用いて操作者に自律移動と手動操作の切り替えを行わせることで、操作者が自律移動と手動操作を切り替える場合の操作性を向上させることができる。また、移動体10は、表示装置50から送信された切替要求に応じて、動作モードである自律移動モードと手動操作モードの切り替えを行うことで、操作者の要求に応じた移動制御を行うことができる。 In this manner, the display device 50 displays the operation screen 400 including the photographed display image in which the route images 711, 713, and 715 shown on the movement route of the moving object 10 are shown on the photographed image, thereby enabling the autonomous The operator can appropriately determine whether to switch between movement and manual operation. In addition, the display device 50 displays the map display image in which the series images 611, 613, and 615 indicating the destination series are shown on the map image together with the captured display image, so that the movement state of the moving body 10 can be more clearly understood. Since the operator can be visually grasped, the operability of the moving body 10 for the operator can be improved. Furthermore, the display device 50 allows the operator to switch between autonomous movement and manual operation by using a mode switching button 900 on the operation screen 400 on which the captured display image is displayed. It is possible to improve the operability when switching between. In addition, the moving object 10 performs movement control according to the operator's request by switching between the autonomous movement mode and the manual operation mode, which are operation modes, in response to a switching request transmitted from the display device 50. can be done.

なお、移動体10は、表示装置50から送信された切替要求に応じた動作モードの切り替えだけでなく、例えば、精度算出部45によって算出された自律移動精度に応じて、自律移動精度の数値が所定の閾値を下回った場合に、自律移動モードから手動操作モードへの切り替えを行う構成であってもよい。 Note that the moving body 10 not only switches the operation mode according to the switching request transmitted from the display device 50, but also, for example, according to the autonomous movement accuracy calculated by the accuracy calculation unit 45, the numerical value of the autonomous movement accuracy is The configuration may be such that the autonomous movement mode is switched to the manual operation mode when it falls below a predetermined threshold.

また、表示装置50は、操作画面400の表示のみならず、自律移動精度の度合を操作者に通知する手段を備えていてもよい。例えば、表示装置50の音出力部55は、自律移動精度の数値が所定の閾値を下回った場合に、スピーカ515から警告音を出力する構成であってもよい。また、表示装置50は、自律移動精度の数値が所定の閾値を下回った場合に、移動体の手動操作に用いるコントローラ等の入力手段を振動させる構成であってもよい。 Further, the display device 50 may include means for not only displaying the operation screen 400 but also for notifying the operator of the degree of autonomous movement accuracy. For example, the sound output unit 55 of the display device 50 may be configured to output a warning sound from the speaker 515 when the numerical value of the autonomous movement accuracy is below a predetermined threshold. Further, the display device 50 may be configured to vibrate input means such as a controller used for manual operation of the moving body when the numerical value of the autonomous movement accuracy is below a predetermined threshold.

さらに、表示装置50は、操作画面400に自律移動精度を直接表示するのではなく、自律移動精度の数値または度合に基づく所定のメッセージを、通知情報として表示させてもよい。この場合、操作画面400は、例えば、自律移動精度の数値または度合が所定の閾値を下回った場合、操作者へ手動操作への切り替えを促すメッセージを表示させてもよい。また、操作画面400は、例えば、自律移動精度の数値または度合が所定の閾値を上回った場合、操作者へ手動操作から自律移動への切り替えを促すメッセージを表示させてもよい。 Furthermore, instead of directly displaying the autonomous movement accuracy on the operation screen 400, the display device 50 may display a predetermined message based on the numerical value or degree of the autonomous movement accuracy as notification information. In this case, the operation screen 400 may display a message prompting the operator to switch to manual operation, for example, when the numerical value or degree of autonomous movement accuracy falls below a predetermined threshold. Further, the operation screen 400 may display a message prompting the operator to switch from manual operation to autonomous movement, for example, when the numerical value or degree of autonomous movement accuracy exceeds a predetermined threshold.

○自律移動処理
次に、図17を用いて、ステップS57に示されている処理によって実行される移動体10の自律移動処理について説明する。図17は、移動体の自律移動処理の一例を示すフローチャートである。
○Autonomous Movement Processing Next, the autonomous movement processing of the moving body 10 executed by the processing shown in step S57 will be described with reference to FIG. FIG. 17 is a flowchart illustrating an example of autonomous movement processing of a moving object.

まず、移動体10が備える制御装置30の移動先設定部40は、自己位置推定部37によって推定された移動体10の現在位置および経路情報管理DB3003(図8参照)に記憶された経路情報に基づいて、移動体10の移動先を設定する(ステップS71)。具体的には、移動先設定部40は、例えば、経路情報管理DB3003に記憶された経路情報に示されている目的地系列のうち、自己位置推定部37によって推定された移動体10の現在位置と最も近い目的地系列が示す位置を、移動先として設定する。図7に示されている例において、ステータスが現在の目的地である系列ID「P003」の目的地系列の位置が移動先として設定される。そして、移動先設定部40は、設定された移動先への移動経路を生成する。移動先設定部40による移動経路の生成方法は、現在位置と移動先を直線で結ぶ方法、または撮影画像もしくは状態検知部34によって得られる障害物の情報を用いて障害物を回避しつつ移動時間を最小にする方法等を用いる。 First, the destination setting unit 40 of the control device 30 provided in the mobile unit 10 determines the current position of the mobile unit 10 estimated by the self-position estimation unit 37 and the route information stored in the route information management DB 3003 (see FIG. 8). Based on this, the destination of the moving body 10 is set (step S71). Specifically, the destination setting unit 40 selects, for example, the current position of the moving body 10 estimated by the self-position estimation unit 37 from among the destination series indicated in the route information stored in the route information management DB 3003. and the position indicated by the closest destination sequence is set as the destination. In the example shown in FIG. 7, the position of the destination series with the series ID "P003" whose status is the current destination is set as the destination. Then, the destination setting unit 40 generates a travel route to the set destination. The method of generating the movement route by the movement destination setting unit 40 includes a method of connecting the current position and the movement destination with a straight line, or a method of avoiding obstacles using a photographed image or obstacle information obtained by the state detection unit 34, and calculating the movement time. A method that minimizes is used.

そして、移動制御部41は、ステップS71で生成された移動経路を通るように設定された移動先に対して、移動体10を移動させる。この場合、移動制御部41は、自律移動処理部43による駆動命令に応じて移動体10を自律移動させる。自律移動処理部43は、例えば、学習部47による模倣学習の結果である学習データに基づいた自律移動を実行させる(ステップS72)。 Then, the movement control unit 41 moves the moving body 10 to the destination set so as to pass through the movement route generated in step S71. In this case, the movement control unit 41 autonomously moves the moving body 10 according to the drive command from the autonomous movement processing unit 43 . The autonomous movement processing unit 43, for example, executes autonomous movement based on learning data that is the result of imitation learning by the learning unit 47 (step S72).

そして、移動制御部41は、移動体10が最終目的地に到達したかまたは自律移動処理部43による自律移動が中断した場合(ステップS73のYES)、処理を終了する。自律移動が中断した場合とは、例えば、図16に示されているような自律移動モードから手動操作モードへの切替要求に応じて、モード設定部42による自律移動モードから手動モードに切り替えが行われる場合である。一方で、移動制御部41は、移動体10の最終目的地への到達または自律移動処理部43による自律移動の中断が検知されるまで、ステップS72による自律移動処理を継続する(ステップS73のNO)。 Then, when the moving body 10 reaches the final destination or the autonomous movement by the autonomous movement processing section 43 is interrupted (YES in step S73), the movement control section 41 ends the process. For example, when the autonomous movement is interrupted, the mode setting unit 42 switches from the autonomous movement mode to the manual mode in response to a request for switching from the autonomous movement mode to the manual operation mode as shown in FIG. is the case. On the other hand, the movement control unit 41 continues the autonomous movement processing in step S72 until the arrival of the moving body 10 at the final destination or the interruption of the autonomous movement by the autonomous movement processing unit 43 is detected (NO in step S73). ).

このように、移動体10は、操作者からの切替要求等に応じて設定された自律移動モードにおける動作時において、生成された経路情報および手動操作モード時に学習された学習データ等を用いた自律移動を行うことができる。また、移動体10は、手動操作モードにおいて取得された各種データを用いて自律移動に関する学習を行うことで、学習データを用いた移動体10の自律移動を行うことができるとともに、移動体10の自律移動精度を向上させることができる。 In this way, the moving body 10 operates autonomously using the generated route information and learning data learned during the manual operation mode during operation in the autonomous movement mode set in response to a switching request or the like from the operator. You can move. In addition, the mobile body 10 can perform autonomous movement using the learning data by learning about autonomous movement using various data acquired in the manual operation mode, and the mobile body 10 can Autonomous movement accuracy can be improved.

○手動操作処理
次に、図18および図19を用いて、ステップS55に示されている処理によって実行される移動体10の手動操作処理について説明する。図18は、移動体の手動操作処理の一例を示すシーケンス図である。
(Manual Operation Processing) Next, the manual operation processing of the moving body 10 executed by the processing shown in step S55 will be described with reference to FIGS. 18 and 19. FIG. FIG. 18 is a sequence diagram illustrating an example of manual operation processing of a moving body;

まず、表示装置50の受付部52は、図19に示されているような操作コマンド入力画面450に対する操作者の入力操作に応じて、手動操作コマンドを受け付ける(ステップS91)。図19は、操作コマンド入力画面の一例を示す図である。図19に示されている操作コマンド入力画面450は、移動体10の遠隔操作を行うためのアイコンが表示されている。操作コマンド入力画面450は、例えば、移動体10の動作モードが手動操作モードに設定されている場合に、操作画面400上に表示される。操作コマンド入力画面450は、移動体10の水平方向(前進、後退、右回転、左回転)の移動を要求する場合に押下される移動指示キー455、および移動体10の移動速度の状態を示す移動速度を表示される速度バー457を含む。表示装置50を用いて移動体10を遠隔操作する操作者が移動指示キー455を選択することで、受付部52は、選択された移動指示キー455に対する手動操作コマンドを受け付ける。 First, the reception unit 52 of the display device 50 receives a manual operation command in response to an operator's input operation on the operation command input screen 450 as shown in FIG. 19 (step S91). FIG. 19 is a diagram showing an example of an operation command input screen. An operation command input screen 450 shown in FIG. 19 displays icons for remotely operating the moving body 10 . The operation command input screen 450 is displayed on the operation screen 400, for example, when the operation mode of the moving body 10 is set to the manual operation mode. The operation command input screen 450 shows the state of the movement instruction key 455 that is pressed when requesting horizontal movement (forward, backward, right rotation, left rotation) of the mobile body 10 and the moving speed of the mobile body 10 . It includes a speed bar 457 where the speed of movement is displayed. When an operator who remotely operates mobile object 10 using display device 50 selects movement instruction key 455 , reception unit 52 receives a manual operation command for selected movement instruction key 455 .

なお、図19において、操作コマンド入力画面450に表示された移動指示キー455に対する選択を受け付けることによって移動体10の移動を遠隔操作する例を説明するが、移動体10の移動操作は、キーボード、またはジョイスティクを備えたゲームパッド等の専用コントローラ等で行われる構成であってもよい。また、操作者による移動指示キー455の入力操作において、移動体10が前進している途中で、操作者が「後退(↓)」を選択した場合は、撮影画像を移動体10の後方画面に切り替え、その時点から移動体10を後退(後進)させる構成としてもよい。また、表示装置50から移動体10への手動操作コマンドの送信は、例えば、AWS IoT Core(商標)のようなマネージドクラウドプラットフォームを介して行う構成であってもよい。 In FIG. 19, an example of remotely controlling the movement of the mobile body 10 by receiving a selection for the movement instruction key 455 displayed on the operation command input screen 450 will be described. Alternatively, it may be configured to be performed by a dedicated controller such as a game pad equipped with a joystick. Further, in the input operation of the movement instruction key 455 by the operator, when the operator selects "retreat (↓)" while the moving body 10 is moving forward, the photographed image is displayed on the rear screen of the moving body 10. A configuration may be adopted in which the switching is performed, and the moving body 10 is moved backward (backward) from that point. Also, the transmission of the manual operation command from the display device 50 to the moving object 10 may be performed via a managed cloud platform such as AWS IoT Core (trademark), for example.

次に、送受信部51は、移動体10に対して、ステップS91で受け付けられた手動操作コマンドを送信する(ステップS92)。これにより、移動体10が備える制御装置30の送受信部31は、表示装置50から送信された手動操作コマンドを受信する。そして、制御装置30の手動操作処理部44は、ステップS92で受信された手動操作コマンドに基づく駆動命令を移動制御部41へ出力する。移動制御部41は、手動操作処理部44による駆動命令に応じて移動体10の移動処理を実行する(ステップS93)。また、学習部47は、手動操作処理部44による手動操作に応じた移動経路の模倣学習(機械学習)を行う(ステップS94)。学習部47は、例えば、手動操作処理部44による手動操作モードにおける移動動作の際に取得された撮影画像および状態検知部34による検知データに基づいて、自律移動に関する移動経路の模倣学習を行う。なお、学習部47は、手動操作の際に取得された撮影画像のみを用いて移動経路の模倣学習を行う構成であってもよいし、撮影画像と状態検知部34による検知データの両方を用いて移動経路の模倣学習を行う構成であってもよい。また、学習部47による模倣学習に用いる撮影画像は、自律移動処理部43による自律移動モードにおける自律移動の際に取得された撮影画像であってもよい。 Next, the transmitting/receiving unit 51 transmits the manual operation command accepted in step S91 to the moving body 10 (step S92). As a result, the transmission/reception unit 31 of the control device 30 included in the moving body 10 receives the manual operation command transmitted from the display device 50 . Then, the manual operation processing unit 44 of the control device 30 outputs a drive command to the movement control unit 41 based on the manual operation command received in step S92. The movement control unit 41 executes movement processing of the moving body 10 according to the drive command from the manual operation processing unit 44 (step S93). Further, the learning unit 47 performs imitation learning (machine learning) of the movement route according to the manual operation by the manual operation processing unit 44 (step S94). The learning unit 47 performs imitation learning of a movement route related to autonomous movement, for example, based on the captured image acquired by the manual operation processing unit 44 during the movement operation in the manual operation mode and the detection data by the state detection unit 34 . Note that the learning unit 47 may be configured to perform imitation learning of the movement route using only the photographed image acquired during manual operation, or may use both the photographed image and the detection data by the state detection unit 34. A configuration may be adopted in which imitation learning of the moving route is performed by The photographed image used for imitation learning by the learning unit 47 may be a photographed image acquired during autonomous movement in the autonomous movement mode by the autonomous movement processing unit 43 .

このように、移動体10は、操作者からの切替要求等に応じて設定された手動操作モードにおける動作時において、操作者からの手動操作コマンドに応じた移動を行うことができる。また、移動体10は、手動操作モードにおいて取得された撮影画像等の各種データを用いて自律移動に関する学習を行うことができる。 In this way, the moving body 10 can move according to a manual operation command from the operator during operation in the manual operation mode set according to a switching request or the like from the operator. In addition, the moving body 10 can learn about autonomous movement using various data such as captured images acquired in the manual operation mode.

○操作画面の変形例○
次に、図20乃至図25を用いて、表示装置50に表示させる操作画面400の変形例について説明する。図20は、操作画面の変形例1を示す図である。図20に示されている操作画面400Aは、操作画面400の構成に加えて、地図表示画像領域600および撮影表示画像領域700に自律移動精度を示す通知情報を表示している。
○Modified example of operation screen○
Next, modified examples of the operation screen 400 displayed on the display device 50 will be described with reference to FIGS. 20 to 25. FIG. FIG. 20 is a diagram showing Modification 1 of the operation screen. In addition to the configuration of the operation screen 400, the operation screen 400A shown in FIG. 20 displays notification information indicating autonomous movement accuracy in the map display image area 600 and the shooting display image area 700. FIG.

操作画面400Aの地図表示画像領域600に表示される地図表示画像は、操作画面400の地図表示画像領域600に表示された構成に加え、地図画像上に自律移動精度の度合を示す精度表示画像660を含む。同様に、操作画面400Aの撮影表示画像領域700に表示される撮影表示画像は、操作画面400の撮影表示画像領域700に表示された構成に加え、撮影画像上に自律移動精度の度合を示す精度表示画像760を含む。精度表示画像660,760は、自律移動精度の度合を円の大きさで表示している。精度表示画像660,760は、例えば、自律移動精度が高いほど円の大きさが小さくなり、自律移動精度が低いほど円の大きさを大きくして、自律移動または自己位置の不確実性を示す。ここで、精度表示画像660および精度表示画像760は、自律移動の精度を示す通知情報の一例である。なお、精度表示画像660,760は、自律移動精度の度合に応じて円の色を変える等の方法によって、自律移動精度の度合を示す構成であってもよい。 The map display image displayed in the map display image area 600 of the operation screen 400A includes, in addition to the configuration displayed in the map display image area 600 of the operation screen 400, an accuracy display image 660 indicating the degree of autonomous movement accuracy on the map image. including. Similarly, the photographed display image displayed in the photographed display image area 700 of the operation screen 400A has, in addition to the configuration displayed in the photographed display image area 700 of the operation screen 400, an accuracy level indicating the degree of accuracy of autonomous movement on the photographed image. Includes display image 760 . Accuracy display images 660 and 760 display the degree of autonomous movement accuracy by the size of a circle. Accuracy display images 660 and 760 show the uncertainty of autonomous movement or self-position, for example, by making the size of the circle smaller as the accuracy of autonomous movement is higher and the size of the circle larger as the accuracy of autonomous movement is lower. . Here, accuracy display image 660 and accuracy display image 760 are examples of notification information indicating the accuracy of autonomous movement. In addition, the accuracy display images 660 and 760 may be configured to indicate the degree of autonomous movement accuracy by a method such as changing the color of the circle according to the degree of autonomous movement accuracy.

精度表示画像660は、精度算出部45によって算出された自律移動精度の数値に基づいて、ステップS35の処理によって地図画像上に描画されることによって生成される。同様に、精度表示画像760は、精度算出部45によって算出された自律移動精度の数値に基づいて、ステップS34の処理によって撮影画像上に描画されることによって生成される。操作画面400Aは、地図画像上に精度表示画像660を重畳させた地図表示画像、および撮影画像上に精度表示画像760を重畳させた撮影表示画像を表示する。 Accuracy display image 660 is generated by drawing on the map image by the process of step S35 based on the numerical value of the autonomous movement accuracy calculated by accuracy calculator 45 . Similarly, the accuracy display image 760 is generated by drawing on the photographed image by the process of step S34 based on the numerical value of the autonomous movement accuracy calculated by the accuracy calculation unit 45 . The operation screen 400A displays a map display image in which an accuracy display image 660 is superimposed on a map image, and a photographed display image in which an accuracy display image 760 is superimposed on a photographed image.

このように、操作画面400Aは、地図画像および撮影画像上に自律移動精度を示す画像を表示させることで、操作者に対して、移動体10の移動する状況を見ながら直観的に現在の移動体10の自律移動の精度を把握させることができる。 In this way, the operation screen 400A displays an image indicating the accuracy of autonomous movement on the map image and the photographed image, so that the operator can intuitively understand the current movement of the moving body 10 while watching the moving situation of the moving body 10. The accuracy of autonomous movement of the body 10 can be grasped.

図21は、操作画面の変形例2を示す図である。図21に示されている操作画面400Bは、操作画面400の構成に加えて、操作画面400Aと同様に、地図表示画像領域600および撮影表示画像領域700に自律移動精度を示す通知情報を表示している。 FIG. 21 is a diagram showing Modification 2 of the operation screen. Operation screen 400B shown in FIG. 21 displays, in addition to the configuration of operation screen 400, notification information indicating autonomous movement accuracy in map display image area 600 and shooting display image area 700, similar to operation screen 400A. ing.

操作画面400Bの地図表示画像領域600に表示される地図表示画像は、操作画面400の地図表示画像領域600に表示された構成に加え、地図画像上に自律移動精度の度合を示す精度表示画像670を含む。同様に、操作画面400Bの撮影表示画像領域700に表示される撮影表示画像は、操作画面400の撮影表示画像領域700に表示された構成に加え、撮影画像上に自律移動精度の度合を示す精度表示画像770を含む。精度表示画像670,770は、自律移動精度の度合を等高線図で表示している。精度表示画像670,770は、例えば、地図画像および撮影画像上でのそれぞれの位置における自律移動精度の度合を等高線で示す。ここで、精度表示画像670および精度表示画像770は、自律移動の精度を示す通知情報の一例である。なお、精度表示画像670,770は、自律移動精度の度合に応じて等高線の色を変える等の方法によって、自律移動精度の度合を示す構成であってもよい。 The map display image displayed in the map display image area 600 of the operation screen 400B includes, in addition to the configuration displayed in the map display image area 600 of the operation screen 400, an accuracy display image 670 indicating the degree of autonomous movement accuracy on the map image. including. Similarly, the photographed display image displayed in the photographed display image area 700 of the operation screen 400B has, in addition to the configuration displayed in the photographed display image area 700 of the operation screen 400, an accuracy level indicating the degree of autonomous movement accuracy on the photographed image. Includes display image 770 . Accuracy display images 670 and 770 display degrees of autonomous movement accuracy in contour maps. The accuracy display images 670 and 770 show, for example, the degree of autonomous movement accuracy at each position on the map image and the photographed image using contour lines. Here, accuracy display image 670 and accuracy display image 770 are examples of notification information indicating the accuracy of autonomous movement. Note that the accuracy display images 670 and 770 may be configured to indicate the degree of autonomous movement accuracy by a method such as changing the color of contour lines according to the degree of autonomous movement accuracy.

精度表示画像670は、精度算出部45によって算出された自律移動精度の数値に基づいて、ステップS35の処理によって地図画像上に描画されることによって生成される。同様に、精度表示画像770は、精度算出部45によって算出された自律移動精度の数値に基づいて、ステップS34の処理によって撮影画像上に描画されることによって生成される。操作画面400Bは、地図画像上に精度表示画像670を重畳させた地図表示画像、および撮影画像上に精度表示画像770を重畳させた撮影表示画像を表示する。 The accuracy display image 670 is generated by drawing on the map image by the process of step S35 based on the numerical value of the autonomous movement accuracy calculated by the accuracy calculation unit 45 . Similarly, the accuracy display image 770 is generated by drawing on the captured image by the process of step S34 based on the numerical value of the autonomous movement accuracy calculated by the accuracy calculation unit 45. FIG. The operation screen 400B displays a map display image in which an accuracy display image 670 is superimposed on a map image, and a photographed display image in which an accuracy display image 770 is superimposed on a photographed image.

このように、操作画面400Bは、地図画像および撮影画像上に自律移動精度を示す等高線の画像を表示させることで、どのエリアの自律移動精度が低いのかが明確になり、操作者の手動操作の際に自律移動精度の高いルートを通るように視覚的に補助することができる。また、手動操作させるごとに自律移動性能を向上させる機械学習等を用いる場合において、通信システム1は、操作者が自律移動精度を示す等高線図を見て自律移動精度が低いところを手動操作によって移動させて学習データを蓄積することにより、自律移動可能なエリアを拡大させることができる。 In this manner, the operation screen 400B displays an image of contour lines indicating the accuracy of autonomous movement on the map image and the photographed image, so that it becomes clear which area has the low accuracy of autonomous movement, and the manual operation of the operator becomes clear. It can be visually assisted to follow a route with high autonomous movement accuracy. Further, in the case of using machine learning or the like to improve autonomous movement performance each time a manual operation is performed, the communication system 1 allows the operator to move by manual operation where the autonomous movement accuracy is low by looking at a contour map showing the accuracy of autonomous movement. By accumulating learning data, it is possible to expand the area in which autonomous movement is possible.

図22は、操作画面の変形例3を示す図である。図22に示されている操作画面400Cは、操作画面400の構成に加えて、通知情報表示領域800に自律移動精度の度合を段階的に異なる顔画像で表示している。 FIG. 22 is a diagram showing a modified example 3 of the operation screen. In addition to the configuration of the operation screen 400, the operation screen 400C shown in FIG. 22 displays the degree of autonomous movement accuracy in the notification information display area 800 with stepwise different face images.

操作画面400Cの通知情報表示領域800は、操作画面400の通知情報表示領域800に表示された構成に加えて、自律移動の度合を顔画像として示す度合表示領域835を含む。度合表示領域835は、度合表示領域830と同様に、自律移動精度を示す数値を離散化して自律移動の度合として表示する。度合表示領域835は、自律移動精度の数値に所定の閾値を設けて、精度算出部45によって算出された自律移動精度の数値に応じて顔画像の表情を切り替えて表示する。ここで、度合表示領域835に示されている顔画像は、自律移動の精度を示す通知情報の一例である。なお、度合表示領域835は、顔画像に限られず、自律移動精度の度合を操作者に段階的に認識させることが可能な所定のイラストの画像等を表示させる構成であってもよい。 Notification information display area 800 of operation screen 400C includes, in addition to the configuration displayed in notification information display area 800 of operation screen 400, a degree display area 835 that indicates the degree of autonomous movement as a face image. Similar to the degree display area 830, the degree display area 835 discretizes the numerical value indicating the accuracy of autonomous movement and displays it as the degree of autonomous movement. The degree display area 835 sets a predetermined threshold value for the numerical value of the autonomous movement accuracy, and switches and displays the expression of the face image according to the numerical value of the autonomous movement accuracy calculated by the accuracy calculation unit 45 . Here, the face image shown in the degree display area 835 is an example of notification information indicating the accuracy of autonomous movement. Note that the degree display area 835 is not limited to the face image, and may be configured to display a predetermined illustrated image or the like that allows the operator to recognize the degree of autonomous movement accuracy step by step.

図23は、操作画面の変形例4を示す図である。図23に示されている操作画面400Dは、操作画面400の構成に加えて、自律移動精度を操作画面の画面枠の色で表示している。 FIG. 23 is a diagram showing Modification 4 of the operation screen. An operation screen 400D shown in FIG. 23 displays the autonomous movement accuracy in the color of the screen frame of the operation screen in addition to the configuration of the operation screen 400 .

操作画面400Dは、操作画面400の構成に加えて、自律移動精度の度合を色に変換して画面枠として表示する画面枠表示領域430を含む。画面枠表示領域430は、自律移動精度の度合に応じて画面枠の色を変化させる。画面枠表示領域430は、自律移動精度の数値に所定の閾値を設けて、精度算出部45によって算出された自律移動精度の数値に応じて画面枠の色を変化させる。画面枠表示領域430は、例えば、自律移動精度が低い場合には画面枠の色を赤くして、自律移動精度が高い場合には画面枠の色を青くして表示する。ここで、画面枠表示領域430に示されている画面枠の色は、自律移動の精度を示す通知情報の一例である。なお、操作画面400Dは、画面枠だけでなく、自律移動精度の度合に応じて操作画面全体の色を変化させる構成であってもよい。 Operation screen 400D includes, in addition to the configuration of operation screen 400, screen frame display area 430 in which the degree of autonomous movement accuracy is converted into a color and displayed as a screen frame. The screen frame display area 430 changes the color of the screen frame according to the degree of autonomous movement accuracy. The screen frame display area 430 sets a predetermined threshold for the numerical value of the autonomous movement accuracy, and changes the color of the screen frame according to the numerical value of the autonomous movement accuracy calculated by the accuracy calculation unit 45 . For example, the screen frame display area 430 displays the screen frame in red when the accuracy of autonomous movement is low, and in blue when the accuracy of autonomous movement is high. Here, the color of the screen frame shown in the screen frame display area 430 is an example of notification information indicating the accuracy of autonomous movement. Note that the operation screen 400D may have a configuration in which not only the screen frame but also the color of the entire operation screen is changed according to the degree of autonomous movement accuracy.

図24は、操作画面の変形例5を示す図である。図24に示されている操作画面400Eは、操作画面400の構成に加えて、地図表示画像領域600および撮影表示画像領域700に、手動操作時に移動体10に向かってほしい方向を表示している。 FIG. 24 is a diagram showing Modification 5 of the operation screen. In addition to the configuration of the operation screen 400, the operation screen 400E shown in FIG. 24 displays the desired direction toward the moving body 10 during manual operation in the map display image area 600 and the shooting display image area 700. .

操作画面400Eの地図表示画像領域600に表示される地図表示画像は、操作画面400の地図表示画像領域600に表示された構成に加え、地図画像上に移動体10が手動操作時に向かってほしい方向を矢印で示す方向表示画像690を含む。同様に、操作画面400Eの撮影表示画像領域700に表示される撮影表示画像は、操作画面400の撮影表示画像領域700に表示された構成に加え、撮影画像上に移動体10が手動操作時に向かってほしい方向を矢印で示す方向表示画像790を含む。手動操作時に向かってほしい方向は、例えば、自律移動精度が高いエリアを示す方向であり、自律移動再開できる可能性が高い位置へ誘導する方向である。なお、方向表示画像690,790は、矢印を用いた表示に限られず、移動体10が手動操作時に向かってほしい方向を操作者が識別可能な表示構成であればよい。 The map display image displayed in the map display image area 600 of the operation screen 400E includes, in addition to the configuration displayed in the map display image area 600 of the operation screen 400, the direction in which the moving body 10 wants to go during manual operation on the map image. and a direction display image 690 with an arrow pointing to . Similarly, the photographed display image displayed in the photographed display image area 700 of the operation screen 400E, in addition to the configuration displayed in the photographed display image area 700 of the operation screen 400, has the moving body 10 facing toward the manual operation on the photographed image. It includes a direction display image 790 that indicates the desired direction with an arrow. The desired direction during manual operation is, for example, a direction that indicates an area with high autonomous movement accuracy, and is a direction that leads to a position where there is a high possibility that autonomous movement can be resumed. Note that the direction display images 690 and 790 are not limited to displays using arrows, and may have a display configuration that allows the operator to identify the direction in which the moving body 10 is desired to move during manual operation.

このように、操作画面400Eは、地図画像および撮影画像上に手動操作時に移動体10が向かってほしい方向を表示させることで、移動体10を移動させるべき方向を操作者に視覚的に把握させることができる。 In this way, the operation screen 400E allows the operator to visually grasp the direction in which the moving body 10 should move by displaying the desired direction of the moving body 10 during manual operation on the map image and the captured image. be able to.

図25は、操作画面の変形例6を示す図である。図25に示されている操作画面400Fは、上述の各操作画面に表示されていた地図表示画像領域600を表示させずに、撮影表示画像領域700、通知情報表示領域800およびモード切替ボタン900が表示されている。 FIG. 25 is a diagram showing Modification 6 of the operation screen. The operation screen 400F shown in FIG. 25 does not display the map display image area 600 that was displayed on each of the operation screens described above, and instead displays the photographing display image area 700, the notification information display area 800, and the mode switching button 900. is displayed.

このうち、操作画面400Fの撮影表示画像領域700に表示される撮影表示画像は、操作画面400Bで示した精度表示画像760および操作画面400Eで示した方向表示画像690を撮影画像上に表示している。また、操作画面400Fに表示される撮影表示画像には、上述の各操作画面とは異なり、撮影画像上に経路画像711,713,715が表示されていない。通知情報表示領域800およびモード切替ボタン900は、操作画面400に表示された構成と同様である。 Of these, the shooting display image displayed in the shooting display image area 700 of the operation screen 400F displays the accuracy display image 760 shown on the operation screen 400B and the direction display image 690 shown on the operation screen 400E on the shot image. there is Further, in the photographed display image displayed on the operation screen 400F, the route images 711, 713, and 715 are not displayed on the photographed image, unlike the operation screens described above. Notification information display area 800 and mode switching button 900 are the same as those displayed on operation screen 400 .

このように、操作画面400Fは、少なくとも移動体10が撮影した撮影画像および移動体10の自律移動精度を示す通知情報を表示させることで、必要最低限の情報を用いて、操作者に移動体10の移動状態を把握させることができる。なお、操作画面400Fは、図25に示されている要素に加えてまたは要素の変わりに、上述の各操作画面における撮影表示画像領域700および通知情報表示領域800に表示されている要素がそれぞれ表示される構成であってもよい。 In this manner, the operation screen 400F displays at least the photographed image photographed by the moving body 10 and the notification information indicating the accuracy of autonomous movement of the moving body 10, so that the operator can use the minimum necessary information to control the movement of the moving body. 10 movement states can be grasped. In addition to or instead of the elements shown in FIG. 25, the operation screen 400F displays the elements displayed in the shooting display image area 700 and the notification information display area 800 in each of the operation screens described above. It may be configured to be

●実施形態の効果
以上説明したように、通信システム1は、移動体10の移動経路上に示される経路画像711,713,715が撮影画像上に示されている撮影表示画像を、操作者が使用する操作画面に表示させることで、移動体10の移動状態を操作者に適切に把握させることができるとともに、自律移動と手動操作の切り替えの判断を操作者に容易に行わせることができる。また、通信システムは、撮影表示画像等が表示された操作画面上のモード切替ボタン900を用いて操作者に自律移動と手動操作の切り替えを行わせることで、操作者が自律移動と手動操作を切り替える場合の操作性を向上させることができる。
Effect of the Embodiment As described above, the communication system 1 allows the operator to display a photographed display image in which the route images 711, 713, and 715 shown on the movement route of the moving body 10 are shown on the photographed image. By displaying it on the operation screen to be used, the operator can appropriately grasp the movement state of the mobile body 10, and the operator can easily judge switching between autonomous movement and manual operation. In addition, the communication system allows the operator to switch between autonomous movement and manual operation using a mode switching button 900 on an operation screen on which a photographed display image or the like is displayed, whereby the operator can switch between autonomous movement and manual operation. It is possible to improve the operability when switching.

さらに、通信システム1は、操作者の切替要求に応じて、移動体10の自律移動モードと手動操作モードの切り替えを行うことができるので、操作者の要求に応じた移動体10の自律移動と手動操作の切替制御を行うことができる。また、通信システム1は、手動操作モードにおいて取得された撮影画像等を用いて自律移動に関する学習を行う移動体10に対して、手動操作による学習の必要性を、操作者により適切に判断させることができる。 Furthermore, the communication system 1 can switch the mobile body 10 between the autonomous movement mode and the manual operation mode in response to a switch request from the operator. Manual operation switching control can be performed. In addition, the communication system 1 allows the operator to appropriately determine the necessity of learning by manual operation for the moving body 10 that performs learning about autonomous movement using captured images acquired in the manual operation mode. can be done.

ここで、上述の各操作画面には、少なくとも撮影表示画像領域700に示されている撮影表示画像が表示されている構成であればよい。また、各操作画面に示されているモード切替ボタン900は、操作画面に表示させずに、表示装置50のキーボード511等の入力手段をよって代用されてもよい。また、通信システム1は、表示装置50の外部に自律移動モードと手動操作モードの切替操作を受け付ける専用ボタン等の外部入力手段を備える構成であってもよい。これらの場合、表示装置50のキーボード511等の入力手段または表示装置50の外部の専用ボタン等の外部入力手段は、操作受付手段の一例である。さらに、モード切替ボタン900を含む操作画面を表示させる表示装置50もしくはキーボード511等の入力手段等を用いて切替操作を受け付ける表示装置50、または表示装置50と専用ボタン等の外部入力手段を含むシステムは、本実施形態における表示システムの一例である。さらに、操作受付手段には、モード切替ボタン900等を用いた自律移動モードと手動操作モードの切替操作のみでなく、移動体10の所定の制御を行うための操作を受け付け可能な手段が含まれていてもよい。 Here, each of the operation screens described above may have a configuration in which at least the photographed display image shown in the photographed display image area 700 is displayed. Also, the mode switching button 900 shown on each operation screen may be replaced by input means such as the keyboard 511 of the display device 50 without being displayed on the operation screen. Further, the communication system 1 may be configured to include external input means such as a dedicated button for accepting switching operation between the autonomous movement mode and the manual operation mode outside the display device 50 . In these cases, an input means such as the keyboard 511 of the display device 50 or an external input means such as a dedicated button outside the display device 50 is an example of the operation receiving means. Furthermore, the system includes a display device 50 that displays an operation screen including the mode switching button 900, a display device 50 that accepts a switching operation using input means such as a keyboard 511, or a display device 50 and external input means such as a dedicated button. is an example of the display system in this embodiment. Furthermore, the operation accepting means includes means capable of accepting not only the switching operation between the autonomous movement mode and the manual operation mode using the mode switching button 900 or the like, but also the operation for performing predetermined control of the moving body 10. may be

●実施形態の変形例
○変形例1○
続いて、図26および図27を用いて、実施形態に係る通信システムの変形例1について説明する。なお、上記の実施形態と同一の構成および同一の機能は、同一の符号を付して、その説明を省略する。変形例1に係る通信システム1Aは、移動体10Aの自律移動精度の算出および操作画面400等に表示させる各種表示画像の生成を、表示装置50Aで実行する場合の例である。
●Modified example of the embodiment ○Modified example 1○
Next, Modification 1 of the communication system according to the embodiment will be described with reference to FIGS. 26 and 27. FIG. The same reference numerals are given to the same configurations and the same functions as those of the above-described embodiment, and the description thereof will be omitted. The communication system 1A according to Modification 1 is an example in which the calculation of the autonomous movement accuracy of the moving body 10A and the generation of various display images to be displayed on the operation screen 400 or the like are performed by the display device 50A.

図26は、実施形態の変形例1に係る通信システムの機能構成の一例を示す図である。図26に示されている変形例1に係る表示装置50Aは、図5に示されている表示装置50の構成に加えて、精度算出部56および画像生成部57を含む。 26 is a diagram illustrating an example of a functional configuration of a communication system according to Modification 1 of the embodiment; FIG. A display device 50A according to Modification 1 shown in FIG. 26 includes an accuracy calculator 56 and an image generator 57 in addition to the configuration of the display device 50 shown in FIG.

精度算出部56は、主に、CPU501の処理によって実現され、移動体10Aの自律移動の精度を算出する。画像生成部57は、主に、CPU501の処理によって実現され、表示装置50Aに表示させる表示画像を生成する。精度算出部56および画像生成部57は、それぞれ図5に示されている精度算出部45および画像生成部46と同様の構成を有する。これに伴い、変形例1に係る移動体10Aの処理または動作を制御する制御装置30Aは、精度算出部45および画像生成部46の機能を備えていない構成となる。 The accuracy calculation unit 56 is mainly realized by the processing of the CPU 501, and calculates the accuracy of autonomous movement of the moving body 10A. The image generator 57 is mainly implemented by the processing of the CPU 501 and generates a display image to be displayed on the display device 50A. Accuracy calculator 56 and image generator 57 have the same configurations as accuracy calculator 45 and image generator 46 shown in FIG. 5, respectively. Along with this, the control device 30A that controls the processing or operation of the moving body 10A according to Modification 1 does not have the functions of the accuracy calculation unit 45 and the image generation unit 46 .

図27は、実施形態の変形例1に係る操作画面を用いた移動体の自律移動と手動操作の切替処理の一例を示すシーケンス図である。図27は、図12と同様に、移動体10Aが図10に示されている処理によって拠点内の自律移動を開始している場合の例を示す。 FIG. 27 is a sequence diagram illustrating an example of switching processing between autonomous movement of a moving body and manual operation using an operation screen according to Modification 1 of the embodiment. Similar to FIG. 12, FIG. 27 shows an example in which the moving body 10A starts autonomous movement within the site by the processing shown in FIG.

まず、移動体10Aが備える制御装置30Aの撮影制御部33は、拠点内を移動しながら撮影装置12を用いた撮影処理を行う(ステップS101)。そして、送受信部31は、表示装置50Aに対して、ステップS101で撮影された撮影画像データ、ステップS12で読み出された地図画像データ、経路情報管理DB3003に記憶されている経路情報、自己位置推定部37によって推定された移動体10Aの現在位置(自己位置)を示す位置情報および学習部47による学習データを送信する(ステップS102)。これにより、表示装置50Aの送受信部51は、移動体10Aから送信された各種データおよび情報を受信する。 First, the photographing control unit 33 of the control device 30A provided in the moving body 10A performs photographing processing using the photographing device 12 while moving within the base (step S101). Then, the transmitting/receiving unit 31 sends the captured image data captured in step S101, the map image data read out in step S12, the route information stored in the route information management DB 3003, and the self-position estimation to the display device 50A. The position information indicating the current position (self-position) of the moving body 10A estimated by the unit 37 and the learning data by the learning unit 47 are transmitted (step S102). Thereby, the transmitting/receiving unit 51 of the display device 50A receives various data and information transmitted from the moving object 10A.

次に、表示装置50Aの精度算出部56は、移動体10Aの自律移動精度を算出する(ステップS103)。精度算出部45は、例えば、ステップS102で受信された経路情報および位置情報に基づいて、自律移動精度を算出する。また、精度算出部56は、例えば、ステップS102で受信された学習データおよび位置情報に基づいて、自律移動精度を算出してもよい。 Next, the accuracy calculator 56 of the display device 50A calculates the autonomous movement accuracy of the mobile object 10A (step S103). The accuracy calculator 45 calculates autonomous movement accuracy based on, for example, the route information and position information received in step S102. Also, the accuracy calculation unit 56 may calculate the autonomous movement accuracy based on the learning data and the position information received in step S102, for example.

次に、画像生成部57は、ステップS102で受信された撮影画像上に表示させる経路画像を生成する(ステップS104)。経路画像は、例えば、ステップS102で受信された位置情報、並びにステップS102で受信された経路情報に示されている目的地系列ごとの位置情報およびステータスに基づいて生成される。また、画像生成部57は、ステップS102で受信された撮影画像に対して、ステップS104で生成された経路画像が描画された撮影表示画像を生成する(ステップS105)。さらに、画像生成部57は、ステップS102で受信された地図画像に対して、ステップS102で受信された位置情報に示されている移動体10Aの現在位置(自己位置)を示す現在位置表示画像およびステップS102で受信された経路情報に示されている目的地系列を示す系列画像が描画された地図表示画像を生成する(ステップS106)。 Next, the image generator 57 generates a route image to be displayed on the captured image received in step S102 (step S104). The route image is generated, for example, based on the position information received in step S102 and the position information and status for each destination sequence indicated in the route information received in step S102. Further, the image generator 57 generates a photographed display image in which the route image generated in step S104 is drawn for the photographed image received in step S102 (step S105). Furthermore, the image generation unit 57 generates a current position display image indicating the current position (self-position) of the moving body 10A indicated in the position information received in step S102 and a map image received in step S102. A map display image is generated in which a sequence image representing the destination sequence indicated in the route information received in step S102 is drawn (step S106).

なお、ステップS103,S104,S105,S106の処理の詳細は、それぞれ図12に示されているステップS31,S33,S34,S35の処理と同様である。なお、ステップS103~ステップS106の処理の順序は前後してもよく、またはそれぞれ並行して行われてもよい。表示装置50Aは、ステップS102の処理によって移動体10Aから送信された撮影画像データ等を随時受信し、ステップS103~ステップS106の処理を継続的に実行する。 Details of the processing of steps S103, S104, S105 and S106 are the same as the processing of steps S31, S33, S34 and S35 shown in FIG. 12, respectively. Note that the order of the processes in steps S103 to S106 may be changed, or they may be performed in parallel. The display device 50A receives the photographed image data and the like transmitted from the moving body 10A by the processing of step S102 as needed, and continuously executes the processing of steps S103 to S106.

次に、表示制御部53は、図13等に示されている操作画面400をディスプレイ106等の表示部に表示させる(ステップS107)。表示制御部53は、ステップS103~ステップS106の処理において算出または生成された情報を、操作画面400上に表示させる。なお、表示制御部53は、操作画面400に限られず、上述の操作画面400A~400Fのいずれかを表示させる構成であってもよい。以降のステップS108~ステップS110の処理は、図12に示されているステップS38~ステップS40の処理と同様であるため、説明を省略する。 Next, the display control unit 53 displays the operation screen 400 shown in FIG. 13 and the like on the display unit such as the display 106 (step S107). The display control unit 53 causes the operation screen 400 to display information calculated or generated in the processing of steps S103 to S106. Note that the display control unit 53 is not limited to the operation screen 400, and may be configured to display any one of the operation screens 400A to 400F described above. Since the subsequent steps S108 to S110 are the same as the steps S38 to S40 shown in FIG. 12, description thereof will be omitted.

このように、変形例1に係る通信システム1Aは、表示装置50Aにおいて自律移動精度の算出および各種表示画面の生成を行う場合であっても、撮影表示画像等を含む操作画面400を表示装置50Aに表示させることができるので、移動体10Aの移動状態および自律移動と手動操作の切り替えを操作者に容易に判断させることができる。 As described above, the communication system 1A according to Modification 1 displays the operation screen 400 including the captured display image and the like on the display device 50A even when calculating the autonomous movement accuracy and generating various display screens on the display device 50A. , the operator can easily determine the movement state of the moving body 10A and the switching between autonomous movement and manual operation.

○変形例2○
続いて、図28乃至図31を用いて、実施形態に係る通信システムの変形例2について説明する。なお、上記の実施形態と同一の構成および同一の機能は、同一の符号を付して、その説明を省略する。変形例2に係る通信システム1Bは、移動体10Bの自律移動精度の算出および操作画面400等に表示させる各種表示画像の生成を、情報処理装置90で実行する場合の例である。
○Modification 2○
Next, Modification 2 of the communication system according to the embodiment will be described with reference to FIGS. 28 to 31. FIG. The same reference numerals are given to the same configurations and the same functions as those of the above-described embodiment, and the description thereof will be omitted. The communication system 1B according to Modification 2 is an example in which the information processing device 90 executes the calculation of the autonomous movement accuracy of the moving object 10B and the generation of various display images to be displayed on the operation screen 400 and the like.

図28は、実施形態の変形例2に係る通信システムの全体構成の一例を示す図である。変形例2に係る通信システム1Bは、上述の実施形態の構成に加えて、移動体10Bおよび表示装置50Bと通信ネットワーク100を介して通信可能な情報処理装置90を備える。 FIG. 28 is a diagram illustrating an example of the overall configuration of a communication system according to Modification 2 of the embodiment. A communication system 1B according to Modification 2 includes an information processing device 90 capable of communicating with a mobile object 10B and a display device 50B via a communication network 100 in addition to the configurations of the above-described embodiments.

情報処理装置90は、移動体10Bと表示装置50Bとの間の通信の管理、移動体10Bの各種制御、および表示装置50Bに表示させる各種表示画面の生成等を行うためのサーバコンピュータである。なお、情報処理装置90は、一台のサーバコンピュータによって構成されてもよく、複数のサーバコンピュータによって構成されてもよい。また、情報処理装置90は、クラウド環境に存在するサーバコンピュータであるものとして説明するが、オンプレミス環境に存在するサーバであってもよい。ここで、情報処理装置90のハードウエア構成は、図4に示されているような表示装置50と同様の構成を有する。以下、便宜上、情報処理装置90のハードウエア構成は、図4に示されている構成に対して900番台の符号を用いて説明する。 The information processing device 90 is a server computer for managing communication between the mobile body 10B and the display device 50B, various controls of the mobile body 10B, and generation of various display screens to be displayed on the display device 50B. The information processing apparatus 90 may be configured by one server computer, or may be configured by a plurality of server computers. Further, although the information processing device 90 is described as being a server computer that exists in a cloud environment, it may be a server that exists in an on-premises environment. Here, the hardware configuration of the information processing device 90 has the same configuration as that of the display device 50 as shown in FIG. Hereinafter, for convenience, the hardware configuration of the information processing apparatus 90 will be described using 900-series numerals for the configuration shown in FIG.

図29は、実施形態の変形例2に係る通信システムの機能構成の一例を示す図である。図29に示されている変形例2に係る表示装置50Bの構成は、図5に示されている表示装置50の構成と同様である。また、変形例2に係る移動体10Bの処理または動作を制御する制御装置30Bは、地図情報管理部35、精度算出部45および画像生成部46の機能並びに記憶部3000に構築されていた地図情報管理DB3001を備えていない構成となる。 29 is a diagram illustrating an example of a functional configuration of a communication system according to Modification 2 of the embodiment; FIG. The configuration of the display device 50B according to Modification 2 shown in FIG. 29 is the same as the configuration of the display device 50 shown in FIG. Further, the control device 30B that controls the processing or operation of the moving object 10B according to the second modification includes the functions of the map information management unit 35, the accuracy calculation unit 45, and the image generation unit 46, and the map information built in the storage unit 3000. It becomes the structure which does not have management DB3001.

情報処理装置90は、送受信部91、地図情報管理部92、精度算出部93、画像生成部94および記憶・読出部99を有している。これら各部は、図4に示されている各構成要素のいずれかが、RAM903上に展開された情報処理装置用プログラムに従ったCPU901からの命令によって動作することで実現される機能、または機能する手段である。また、情報処理装置90は、図4に示されているROM902、HD904または記録メディア921によって構築される記憶部9000を有している。 The information processing device 90 has a transmission/reception unit 91 , a map information management unit 92 , an accuracy calculation unit 93 , an image generation unit 94 and a storage/readout unit 99 . Each of these units has a function realized or functions by any one of the components shown in FIG. It is a means. The information processing apparatus 90 also has a storage unit 9000 constructed by the ROM 902, the HD 904, or the recording medium 921 shown in FIG.

送受信部91は、主に、ネットワークI/F908に対するCPU901の処理によって実現され、他の装置または端末との間で各種データまたは情報の送受信を行う。 The transmitting/receiving unit 91 is mainly realized by the processing of the CPU 901 with respect to the network I/F 908, and transmits/receives various data or information to/from other devices or terminals.

地図情報管理部92は、主に、CPU901の処理によって実現され、地図情報管理DB9001を用いて、移動体10Bが設置された対象拠点の環境地図を示す地図情報を管理する。地図情報管理部92は、例えば、外部のサーバ等からダウンロードした環境地図、またはSLAMを適用して作成された環境地図を示す地図情報を管理する。 The map information management unit 92 is mainly realized by the processing of the CPU 901, and uses the map information management DB 9001 to manage map information indicating the environment map of the target site where the moving body 10B is installed. The map information management unit 92 manages, for example, map information indicating an environment map downloaded from an external server or the like, or an environment map created by applying SLAM.

精度算出部93は、主に、CPU901の処理によって実現され、移動体10Bの自律移動の精度を算出する。画像生成部94は、主に、CPU301の処理によって実現され、表示装置50Bに表示させる表示画像を生成する。精度算出部93および画像生成部94は、それぞれ図5に示されている精度算出部45および画像生成部46と同様の構成を有する。 The accuracy calculator 93 is mainly implemented by the processing of the CPU 901, and calculates the accuracy of autonomous movement of the moving body 10B. The image generator 94 is mainly implemented by the processing of the CPU 301 and generates a display image to be displayed on the display device 50B. Accuracy calculator 93 and image generator 94 have the same configurations as accuracy calculator 45 and image generator 46 shown in FIG. 5, respectively.

記憶・読出部99は、主に、CPU901の処理によって実現され、記憶部9000に、各種データ(または情報)を記憶したり、記憶部9000から各種データ(または情報)を読み出したりする。また、記憶部9000には、地図情報管理DB9001が構築されている。地図情報管理DB9001は、図6に示されている地図情報管理テーブルによって構成されている。 The storage/readout unit 99 is mainly realized by processing of the CPU 901 , stores various data (or information) in the storage unit 9000 , and reads out various data (or information) from the storage unit 9000 . A map information management DB 9001 is constructed in the storage unit 9000 . The map information management DB 9001 is composed of the map information management table shown in FIG.

図30は、実施形態の変形例2に係る移動体の移動開始までの処理の一例を示すシーケンス図である。まず、表示装置50Bの送受信部51は、操作者の所定の入力操作等に応じて、情報処理装置90に対して、移動体10の移動経路の入力を要求する旨を示す経路入力要求を送信する(ステップS201)。この経路入力要求には、移動体10Bが位置する拠点を識別する拠点IDを含む。これにより、情報処理装置90の送受信部91は、表示装置50Bから送信された経路入力要求を受信する。 FIG. 30 is a sequence diagram illustrating an example of processing up to the start of movement of the moving body according to Modification 2 of the embodiment. First, the transmission/reception unit 51 of the display device 50B transmits a route input request to the information processing device 90 in response to a predetermined input operation or the like by the operator. (step S201). This route input request includes a site ID that identifies the site where the moving body 10B is located. Thereby, the transmitting/receiving unit 91 of the information processing device 90 receives the route input request transmitted from the display device 50B.

次に、情報処理装置90の地図情報管理部92は、ステップS201で受信された拠点IDを検索キーとして地図情報管理DB9001(図6参照)を検索することで、受信された拠点IDと同じ拠点IDに関連づけられた地図情報を、記憶・読出部99を介して読み出す(ステップS202)。地図情報管理部92は、読み出された地図情報に示されている記憶位置にアクセスして、対応する地図画像データを読み出す。 Next, the map information management unit 92 of the information processing device 90 searches the map information management DB 9001 (see FIG. 6) using the base ID received in step S201 as a search key, and finds the same base as the received base ID. The map information associated with the ID is read out via the storage/readout section 99 (step S202). The map information management unit 92 accesses the storage location indicated by the read map information and reads the corresponding map image data.

次に、送受信部91は、要求元の表示装置50Bに対して、ステップS202で読み出された地図情報に対応する地図画像データを送信する(ステップS203)。これにより、表示装置50Bの送受信部51は、情報処理装置90から送信された地図画像データを受信する。 Next, the transmitting/receiving unit 91 transmits the map image data corresponding to the map information read in step S202 to the display device 50B that made the request (step S203). Thereby, the transmitting/receiving unit 51 of the display device 50B receives the map image data transmitted from the information processing device 90 .

次に、表示装置50Bの表示制御部53は、ステップS203で受信された地図画像データを含む経路入力画面200(図11参照)を、ディスプレイ506等の表示部に表示させる(ステップS204)。そして、操作者が地図画像上の所定の位置を選択して「完了」ボタン210を押下することで、受付部52は、図12のステップS15と同様に、目的地系列250a~250hの入力を受け付ける(ステップS205)。送受信部51は、情報処理装置90に対して、ステップS205で受け付けられた目的地系列250a~250hを示す目的地系列データを送信する(ステップS206)。この目的地系列データは、ステップS205で入力された目的地系列250a~250hの地図画像上の位置を示す位置情報を含む。情報処理装置90の送受信部91は、移動体10Bに対して、表示装置50Bから送信された目的地系列データを送信(転送)する(ステップS207)。これにより、移動体10Bが備える制御装置30Bの送受信部31は、表示装置50Bから送信された目的地系列データを受信する。以降のステップS208~ステップS212の処理は、図10に示されているステップS17~ステップS21の処理と同様であるため、説明を省略する。 Next, the display control unit 53 of the display device 50B causes the display unit such as the display 506 to display the route input screen 200 (see FIG. 11) including the map image data received in step S203 (step S204). Then, when the operator selects a predetermined position on the map image and presses the "complete" button 210, the reception unit 52 accepts input of the destination series 250a to 250h in the same manner as in step S15 of FIG. Accept (step S205). The transmitting/receiving unit 51 transmits destination series data indicating the destination series 250a to 250h accepted in step S205 to the information processing device 90 (step S206). This destination series data includes position information indicating the positions of the destination series 250a to 250h input in step S205 on the map image. The transmitting/receiving unit 91 of the information processing device 90 transmits (transfers) the destination sequence data transmitted from the display device 50B to the moving body 10B (step S207). Thereby, the transmitting/receiving unit 31 of the control device 30B included in the moving body 10B receives the destination series data transmitted from the display device 50B. Since the subsequent steps S208 to S212 are the same as the steps S17 to S21 shown in FIG. 10, description thereof will be omitted.

図31は、実施形態の変形例2に係る操作画面を用いた移動体の自律移動と手動操作の切替処理の一例を示すシーケンス図である。図31は、図12と同様に、移動体10Bが図10に示されている処理によって拠点内の自律移動を開始している場合の例を示す。 FIG. 31 is a sequence diagram illustrating an example of switching processing between autonomous movement of a moving body and manual operation using an operation screen according to Modification 2 of the embodiment. Similar to FIG. 12, FIG. 31 shows an example in which the moving body 10B starts autonomous movement within the base by the processing shown in FIG.

まず、移動体10Bが備える制御装置30Bの撮影制御部33は、拠点内を移動しながら撮影装置12を用いた撮影処理を行う(ステップS231)。そして、送受信部31は、情報処理装置90に対して、ステップS231で撮影された撮影画像データ、経路情報管理DB3003に記憶されている経路情報、自己位置推定部37によって推定された移動体10Bの現在位置(自己位置)を示す位置情報および学習部47による学習データを送信する(ステップS232)。これにより、情報処理装置90の送受信部91は、移動体10Bから送信された各種データおよび情報を受信する。 First, the photographing control unit 33 of the control device 30B provided in the moving body 10B performs photographing processing using the photographing device 12 while moving within the base (step S231). Then, the transmitting/receiving unit 31 sends the captured image data captured in step S231, the route information stored in the route information management DB 3003, and the position of the moving body 10B estimated by the self-position estimating unit 37 to the information processing device 90. The position information indicating the current position (self-position) and the learning data by the learning unit 47 are transmitted (step S232). Thereby, the transmitting/receiving unit 91 of the information processing device 90 receives various data and information transmitted from the moving body 10B.

次に、情報処理装置90の精度算出部93は、移動体10Bの自律移動精度を算出する(ステップS233)。精度算出部45は、例えば、ステップS232で受信された経路情報および位置情報に基づいて、自律移動精度を算出する。また、精度算出部56は、例えば、ステップS232で受信された学習データおよび位置情報に基づいて、自律移動精度を算出してもよい。 Next, the accuracy calculator 93 of the information processing device 90 calculates the autonomous movement accuracy of the moving body 10B (step S233). The accuracy calculator 45 calculates the autonomous movement accuracy, for example, based on the route information and position information received in step S232. Also, the accuracy calculator 56 may calculate the autonomous movement accuracy based on the learning data and the position information received in step S232, for example.

次に、画像生成部94は、ステップS232で受信された撮影画像上に表示させる経路画像を生成する(ステップS234)。経路画像は、例えば、ステップS232で受信された位置情報、並びにステップS232で受信された経路情報に示されている目的地系列ごとの位置情報およびステータスに基づいて生成される。また、画像生成部57は、ステップS232で受信された撮影画像に対して、ステップS234で生成された経路画像が描画された撮影表示画像を生成する(ステップS235)。さらに、画像生成部94は、ステップS202で読み出された地図画像に対して、ステップS232で受信された位置情報に示されている移動体10Bの現在位置(自己位置)を示す現在位置表示画像およびステップS232で受信された経路情報に示されている目的地系列を示す系列画像が描画された地図表示画像を生成する(ステップS236)。 Next, the image generator 94 generates a route image to be displayed on the captured image received in step S232 (step S234). The route image is generated, for example, based on the position information received in step S232 and the position information and status for each destination sequence indicated in the route information received in step S232. Further, the image generator 57 generates a photographed display image in which the route image generated in step S234 is drawn for the photographed image received in step S232 (step S235). Further, the image generation unit 94 adds a current position display image indicating the current position (self-position) of the moving body 10B indicated in the position information received in step S232 to the map image read out in step S202. Then, a map display image is generated in which a sequence image representing the destination sequence indicated in the route information received in step S232 is drawn (step S236).

なお、ステップS233,S234,S235,S236の処理の詳細は、それぞれ図12に示されているステップS31,S33,S34,S35の処理と同様である。なお、ステップS233~ステップS236の処理の順序は前後してもよく、またはそれぞれ並行して行われてもよい。情報処理装置90は、ステップS232の処理によって移動体10から送信された撮影画像データ等を随時受信し、ステップS233~ステップS236の処理を継続的に実行する。 The details of the processing of steps S233, S234, S235 and S236 are the same as the processing of steps S31, S33, S34 and S35 shown in FIG. 12, respectively. Note that the order of the processes in steps S233 to S236 may be changed, or they may be performed in parallel. The information processing device 90 receives the photographed image data and the like transmitted from the moving body 10 by the processing of step S232 as needed, and continuously executes the processing of steps S233 to S236.

次に、送受信部91は、表示装置50Bに対して、ステップS233で算出された自律移動精度を示す通知情報、ステップS235で生成された撮影表示画像データ、およびステップS236で生成された地図表示画像データを送信する(ステップS237)。これにより、表示装置50Bの送受信部51は、情報処理装置90から送信された通知情報、撮影表示画像データおよび地図表示画像データを受信する。 Next, the transmitting/receiving unit 91 transmits the notification information indicating the autonomous movement accuracy calculated in step S233, the photographed display image data generated in step S235, and the map display image generated in step S236 to the display device 50B. Data is transmitted (step S237). Thereby, the transmitting/receiving unit 51 of the display device 50</b>B receives the notification information, the photographed display image data, and the map display image data transmitted from the information processing device 90 .

次に、表示装置50Bの表示制御部53は、図13等に示されている操作画面400をディスプレイ106等の表示部に表示させる(ステップS238)。表示制御部53は、ステップS237で受信されたデータおよび情報を、操作画面400上に表示させる。なお、表示制御部53は、操作画面400に限られず、上述の操作画面400A~400Fのいずれかを表示させる構成であってもよい。 Next, the display control unit 53 of the display device 50B displays the operation screen 400 shown in FIG. 13 and the like on the display unit such as the display 106 (step S238). Display control unit 53 displays the data and information received in step S<b>237 on operation screen 400 . Note that the display control unit 53 is not limited to the operation screen 400, and may be configured to display any one of the operation screens 400A to 400F described above.

次に、図12のステップS38と同様に、操作者のポインティングデバイス512等の入力手段を用いた入力操作に応じて、受付部52は、操作画面400のモード切替ボタン900の選択を受け付ける(ステップS239)。送受信部51は、情報処理装置90に対して、移動体10Bの自律移動モードと手動操作モードの切り替えを要求する旨を示すモード切替要求を送信する(ステップS240)。そして、情報処理装置90の送受信部91は、移動体10Bに対して、表示装置50Bから送信されたモード切替要求を送信(転送)する(ステップS241)。これにより、移動体10Bが備える制御装置30Bの送受信部31は、表示装置50Bから送信されたモード切替要求を受信する。そして、制御装置30Bは、ステップS241におけるモード切替要求の受信に応じて、図16に示されているような移動体10Bのモード切替処理を実行する(ステップS242)。 Next, similarly to step S38 in FIG. 12, the reception unit 52 receives selection of the mode switching button 900 on the operation screen 400 in response to an input operation by the operator using input means such as the pointing device 512 (step S239). The transmitting/receiving unit 51 transmits a mode switching request indicating a request for switching between the autonomous movement mode and the manual operation mode of the moving object 10B to the information processing device 90 (step S240). Then, the transmission/reception unit 91 of the information processing device 90 transmits (transfers) the mode switching request transmitted from the display device 50B to the moving object 10B (step S241). Thereby, the transmitting/receiving unit 31 of the control device 30B included in the moving object 10B receives the mode switching request transmitted from the display device 50B. Then, in response to receiving the mode switching request in step S241, the control device 30B executes the mode switching process of the moving body 10B as shown in FIG. 16 (step S242).

このように、変形例2に係る通信システム1Bは、情報処理装置90において自律移動精度の算出および各種表示画面の生成を行う場合であっても、撮影表示画像等を含む操作画面400を表示装置50Bに表示させることができるので、移動体10の移動状態および自律移動と手動操作の切り替えを操作者に容易に判断させることができる。 As described above, the communication system 1B according to the second modification can display the operation screen 400 including the captured display image and the like even when the information processing device 90 calculates the autonomous movement accuracy and generates various display screens. Since it can be displayed on 50B, the operator can easily determine the movement state of the moving body 10 and switching between autonomous movement and manual operation.

図32は、通信システムの機能構成の一例を示す図である。図29に示された通信システムの機能構成との比較において、表示装置50は、図29に示されている表示装置50の構成と同様である。移動体10Cの処理または動作を制御する制御装置30Cは、図29に示された制御装置30Bから目的地系列管理部36、経路情報生成部38、経路情報管理部39、ならびに記憶部3000に構築されていた目的地系列管理DB3002および経路情報管理DB3003を除いた構成である。 32 is a diagram illustrating an example of a functional configuration of a communication system; FIG. In comparison with the functional configuration of the communication system shown in FIG. 29, the display device 50 has the same configuration as the display device 50 shown in FIG. The control device 30C for controlling the processing or operation of the moving object 10C is constructed from the control device 30B shown in FIG. It is a configuration in which the destination series management DB 3002 and the route information management DB 3003 that have been used are removed.

図32に示された通信システム1Cにおいて、情報処理装置90は、例えば、AWS(商標)等のクラウドコンピューティングサービスに対応しており、通信システム1Cは、表示装置50と移動体10C(制御装置30C)が、矢印aおよび矢印bで示されるように情報処理装置90を介して通信する。また、制御装置30Bから除かれた目的地系列管理部36、経路情報生成部38、経路情報管理部39、目的地系列管理DB3002および経路情報管理DB3003の機能は、情報処理装置90に移されている。つまり、情報処理装置90は、送受信部91、地図情報管理部92、精度算出部93、画像生成部94、目的地系列管理部95、経路情報生成部96および経路情報管理部97を有している。また、情報処理装置90の記憶部9000には、地図情報管理DB9001、目的地系列管理DB9002および経路情報管理DB9003が構築されている。なお、制御装置30B(図29)から情報処理装置90に移された上記各部が有する機能は、図29などで説明した機能と同様であるため、その説明は省略する。 In the communication system 1C shown in FIG. 32, the information processing device 90 is compatible with, for example, cloud computing services such as AWS (trademark), and the communication system 1C includes the display device 50 and the mobile body 10C (control device 30C) communicate through information processing device 90 as indicated by arrows a and b. Also, the functions of the destination series management unit 36, the route information generation unit 38, the route information management unit 39, the destination series management DB 3002, and the route information management DB 3003 removed from the control device 30B are transferred to the information processing device 90. there is That is, the information processing device 90 includes a transmission/reception unit 91, a map information management unit 92, an accuracy calculation unit 93, an image generation unit 94, a destination series management unit 95, a route information generation unit 96, and a route information management unit 97. there is Further, in the storage unit 9000 of the information processing device 90, a map information management DB 9001, a destination series management DB 9002, and a route information management DB 9003 are constructed. It should be noted that the functions of the respective units transferred from the control device 30B (FIG. 29) to the information processing device 90 are the same as the functions explained with reference to FIG.

上記のように、通信システム1Cでは、表示装置50と移動体10C(制御装置30C)との通信が、クラウドコンピューティングサービスに対応した情報処理装置90を介して行われる。このような情報処理装置90では、通信時にクラウドコンピューティングサービスによる認証処理を利用することで、表示装置50からの手動操作コマンドや、移動体10Cからの撮影画像データ等のセキュリティ性を高めることができる。また、各データの生成機能および管理機能を情報処理装置90(クラウドサービス)に置くことで、同じデータを複数拠点で共有することが可能になり、P2P(Peer to Peer)通信(1対1の直接通信)に限らず、1対多拠点通信にも柔軟に対応できるようになる。 As described above, in the communication system 1C, communication between the display device 50 and the mobile object 10C (control device 30C) is performed via the information processing device 90 compatible with the cloud computing service. In such an information processing device 90, security of manual operation commands from the display device 50 and photographed image data from the moving body 10C can be enhanced by using authentication processing by a cloud computing service at the time of communication. can. In addition, by placing the generation function and management function of each data in the information processing device 90 (cloud service), it becomes possible to share the same data at multiple sites, P2P (Peer to Peer) communication (one-to-one communication) Direct communication), but also one-to-many point communication can be flexibly handled.

●まとめ●
以上説明したように、本発明の一実施形態に係る表示システムは、所定の拠点内を移動する移動体10(10A,10B,10C)によって撮影された画像を表示する表示システムであって、移動体10(10A,10B,10C)から送信された、拠点が撮影された撮影画像を受信し、受信された撮影画像に写る拠点における移動体10(10A,10B,10C)の移動経路上に、仮想的な経路画像711,713,715を重畳させて表示させる。これにより、本発明の一実施形態に係る表示システムは、ユーザに移動体10(10A,10B,10C)の移動状態を適切に把握させることができる。
●Summary●
As described above, the display system according to one embodiment of the present invention is a display system for displaying an image captured by a moving body 10 (10A, 10B, 10C) moving within a predetermined location. On the movement route of the mobile body 10 (10A, 10B, 10C) at the base shown in the received photographed image, Virtual route images 711, 713 and 715 are superimposed and displayed. Thereby, the display system according to one embodiment of the present invention can allow the user to appropriately grasp the moving state of the moving body 10 (10A, 10B, 10C).

また、本発明の一実施形態に係る表示システムであって、経路画像711,713,715は、移動経路上の複数の地点を示す画像を含み、移動体10(10A,10B,10C)の移動履歴および移動体10(10A,10B,10C)の将来の目的地を示す画像を含む。これにより、本発明の一実施形態に係る表示システムは、移動体10(10A,10B,10C)の移動経路上に示される経路画像711,713,715が撮影画像上に示されている撮影表示画像を、操作者が使用する操作画面400等に表示させることで、移動体10(10A,10B,10C)の移動状態を操作者に適切に把握させることができる。 Further, in the display system according to one embodiment of the present invention, the route images 711, 713, 715 include images showing a plurality of points on the movement route, and the movement of the moving object 10 (10A, 10B, 10C) is displayed. Contains images showing the history and future destinations of the mobile 10 (10A, 10B, 10C). As a result, the display system according to one embodiment of the present invention provides a photographed display in which the route images 711, 713, and 715 shown on the moving route of the moving body 10 (10A, 10B, 10C) are shown on the photographed image. By displaying the image on the operation screen 400 or the like used by the operator, the operator can appropriately grasp the movement state of the moving body 10 (10A, 10B, 10C).

さらに、本発明の一実施形態に係る表示システムは、移動体10(10A,10B,10C)の移動経路を示す経路情報の入力を受け付け、入力が受け付けられた経路情報を、移動体10(10A,10B,10C)に送信し、送信された経路情報に基づいて、移動体10(10A,10B,10C)を移動させる。また、表示システムは、拠点を示す地図画像上に入力された経路情報を受け付け、経路情報を示す系列画像611,613,615が重畳された地図画像を、仮想的な経路画像711,713,715が重畳された撮影画像とともに表示させる。これにより、本発明の一実施形態に係る表示システムは、経路情報を示す系列画像611,613,615が地図画像上に示されている地図表示画像を、撮影表示画像ともに表示させることで、移動体10(10A,10B,10C)の移動状態をより視覚的に操作者に把握させることができるので、操作者の移動体10(10A,10B,10C)に対する操作性を向上させることができる。 Further, the display system according to one embodiment of the present invention accepts input of route information indicating the movement route of the mobile body 10 (10A, 10B, 10C), and displays the accepted route information as the mobile body 10 (10A). , 10B, 10C), and moves the moving object 10 (10A, 10B, 10C) based on the transmitted route information. Further, the display system accepts the route information input on the map image showing the bases, and displays the map image superimposed with the sequence images 611, 613, 615 showing the route information as virtual route images 711, 713, 715. is displayed together with the photographed image on which is superimposed. As a result, the display system according to the embodiment of the present invention displays the map display image in which the series images 611, 613, and 615 indicating the route information are displayed on the map image together with the photographed display image. Since the moving state of the body 10 (10A, 10B, 10C) can be more visually recognized by the operator, the operability of the moving body 10 (10A, 10B, 10C) by the operator can be improved.

また、本発明の一実施形態に係る表示システムは、移動体10(10A,10B,10C)に対する所定の制御を行うための操作を受け付ける操作受付手段を備える。また、操作受付手段は、移動体10(10A,10B,10C)を手動操作により移動させる手動操作モードと、移動体10(10A,10B,10C)を自律移動により移動させる自律移動モードとを切り替える切替操作を受け付けるモード切替ボタン900である。これにより、本発明の一実施形態に係る表示システムは、モード切替ボタン900を用いて操作者に自律移動と手動操作の切り替えを行わせることで、操作者が自律移動と手動操作を切り替える場合の操作性を向上させることができる。 Moreover, the display system according to one embodiment of the present invention includes an operation reception unit that receives an operation for performing predetermined control on the moving body 10 (10A, 10B, 10C). Further, the operation receiving means switches between a manual operation mode in which the moving bodies 10 (10A, 10B, 10C) are moved by manual operation and an autonomous movement mode in which the moving bodies 10 (10A, 10B, 10C) are moved by autonomous movement. A mode switching button 900 for accepting a switching operation. As a result, the display system according to one embodiment of the present invention allows the operator to switch between autonomous movement and manual operation using the mode switching button 900, thereby allowing the operator to switch between autonomous movement and manual operation. Operability can be improved.

さらに、本発明の一実施形態に係る表示システムは、自律移動は、学習に基づく自律移動であり、移動体10(10A,10B,10C)が自律移動モードから手動操作モードに切り替わった場合、自律移動のための学習を行うことが可能となる。また、自律移動のための学習は、移動体10(10A,10B,10C)によって撮影された撮影画像を用いて行われる。これにより、本発明の一実施形態に係る表示システムは、撮影画像を用いて自律移動のための学習を行うことで、学習データを用いた移動体10(10A,10B,10C)の自律移動を行うことができるとともに、移動体10(10A,10B,10C)の自律移動精度を向上させることができる。 Furthermore, in the display system according to one embodiment of the present invention, the autonomous movement is autonomous movement based on learning, and when the moving body 10 (10A, 10B, 10C) switches from the autonomous movement mode to the manual operation mode, the autonomous Learning for movement becomes possible. Also, learning for autonomous movement is performed using captured images captured by the moving bodies 10 (10A, 10B, 10C). As a result, the display system according to one embodiment of the present invention performs learning for autonomous movement using the captured image, thereby allowing the moving body 10 (10A, 10B, 10C) to autonomously move using the learning data. While being able to perform, the autonomous movement precision of the mobile body 10 (10A, 10B, 10C) can be improved.

また、本発明の一実施形態に係る通信システムは、所定の拠点内を移動する移動体10(10A,10B,10C)によって撮影された画像を表示する表示システムと、移動体10(10A,10B,10C)と、を備える通信システム1(1A,1B)であって、移動体10(10A,10B,10C)の現在位置を示す位置情報および当該移動体10(10A,10B)の移動経路を示す経路情報に基づいて、仮想的な経路画像711,713,715を撮影画像に重畳させた表示画像を生成し、生成された表示画像を表示させる。これにより、通信システム1(1A,1B,1C)は、移動体10(10A,10B,10C)の移動経路の経路を視覚的に示す撮影表示画像が生成して表示させることで、移動体10(10A,10B,10C)の移動状態を操作者に適切に把握させることができる。 Further, a communication system according to an embodiment of the present invention includes a display system for displaying images captured by mobile bodies 10 (10A, 10B, 10C) moving within a predetermined location, , 10C), and position information indicating the current position of the mobile body 10 (10A, 10B, 10C) and the moving route of the mobile body 10 (10A, 10B) Based on the indicated route information, a display image is generated by superimposing the virtual route images 711, 713, 715 on the captured image, and the generated display image is displayed. As a result, the communication system 1 (1A, 1B, 1C) generates and displays a photographed display image visually showing the moving route of the moving body 10 (10A, 10B, 10C), thereby enabling the moving body 10 The operator can appropriately grasp the moving state of (10A, 10B, 10C).

さらに、本発明の一実施形態に係る通信システムであって、移動体10(10A,10B,10C)は、表示システムから送信された自律移動モードと手動操作モードの切替要求を受信し、受信された切替要求に基づいて、自律移動モードおよび手動操作モードのいずれかを設定し、設定されたモードに基づいて、移動体10(10A,10B,10C)の移動処理を実行する。これにより、通信システム1(1A,1B,1C)は、表示システムから送信された切替要求に応じて、移動体10(10A,10B,10C)が自律移動モードと手動操作モードの切り替えを行うことで、ユーザの要求に応じた移動体10(10A,10B,10C)の移動制御を行うことができる。 Further, in the communication system according to an embodiment of the present invention, the moving objects 10 (10A, 10B, 10C) receive a switching request between the autonomous movement mode and the manual operation mode transmitted from the display system, and Based on the switching request, either the autonomous movement mode or the manual operation mode is set, and movement processing of the moving body 10 (10A, 10B, 10C) is executed based on the set mode. As a result, the communication system 1 (1A, 1B, 1C) allows the moving object 10 (10A, 10B, 10C) to switch between the autonomous movement mode and the manual operation mode according to the switching request transmitted from the display system. , movement control of the moving bodies 10 (10A, 10B, 10C) can be performed according to the user's request.

●補足●
上記で説明した実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたプロセッサ、並びに上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU(Graphics Processing Unit)および従来の回路モジュール等のデバイスを含むものとする。
● Supplement ●
Each function of the embodiments described above may be implemented by one or more processing circuits. Here, the "processing circuit" in this embodiment means a processor programmed to perform each function by software, such as a processor implemented by an electronic circuit, and a processor designed to perform each function described above. ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array), SOC (System on a chip), GPU (Graphics Processing Unit) and other devices such as conventional circuit modules .

また、上記で説明した実施形態の各種テーブルは、機械学習の学習効果によって生成されたものでもよく、関連づけられている各項目のデータを機械学習にて分類付けすることで、テーブルを使用しなくてもよい。ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり,コンピュータが,データ識別等の判断に必要なアルゴリズムを、事前に取り込まれる学習データから自律的に生成し,新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習および深層学習のいずれかの方法でもよく、さらに、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。 In addition, the various tables in the embodiments described above may be generated by the learning effect of machine learning. may Here, machine learning is a technology that allows a computer to acquire human-like learning ability, and the computer autonomously generates algorithms necessary for judgment such as data identification from learning data taken in advance. It is a technology that makes predictions by applying this to new data. The learning method for machine learning may be any of supervised learning, unsupervised learning, semi-supervised learning, reinforcement learning, and deep learning, or may be a learning method combining these learning methods. Any learning method for

これまで本発明の一実施形態に係る表示システム、通信システム、表示制御方法およびプログラムについて説明してきたが、本発明は上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 A display system, a communication system, a display control method, and a program according to one embodiment of the present invention have been described so far. Alternatively, deletion or the like can be changed within the range that a person skilled in the art can conceive, and as long as the action and effect of the present invention are exhibited in any aspect, it is included in the scope of the present invention.

1,1A,1B,1C 通信システム
100 通信ネットワーク
10,10A,10B,10C 移動体
30,30A,30B,30C 制御装置
31 送受信部(切替要求受信手段の一例)
37 自己位置推定部(自己位置推定手段の一例)
38 経路情報生成部
42 モード設定部(モード設定手段の一例)
43 自律移動処理部(移動処理手段の一例)
44 手動操作処理部(移動処理手段の一例)
45 精度算出部
46 画像生成部(画像生成手段の一例)
47 学習部
50,50A,50B 表示装置
51 送受信部(受信手段の一例、移動経路送信手段の一例、取得手段の一例、切替要求送信手段の一例)
52 受付部(移動経路受付手段の一例)
53 表示制御部(表示制御手段の一例)
56 精度算出部
57 画像生成部(画像生成手段の一例)
90 情報処理装置
91 送受信部
93 精度算出部
94 画像生成部(画像生成手段の一例)
200 経路入力画面
250 目的地系列
400,400A,400B,400C,400D,400E,400F 操作画面
600 地図表示画像領域
611,613,615 系列画像
650,660 精度表示画像
700 撮影表示画像領域
711,713,715 経路画像
750,760 精度表示画像
800 通知情報表示領域
900 モード切替ボタン(操作受付手段の一例)
1, 1A, 1B, 1C communication system 100 communication network 10, 10A, 10B, 10C moving bodies 30, 30A, 30B, 30C control device 31 transmitting/receiving unit (an example of switching request receiving means)
37 self-position estimation unit (an example of self-position estimation means)
38 Route information generation unit 42 Mode setting unit (an example of mode setting means)
43 Autonomous movement processing unit (an example of movement processing means)
44 manual operation processing unit (an example of movement processing means)
45 Accuracy calculator 46 Image generator (an example of image generator)
47 learning units 50, 50A, 50B display device 51 transmission/reception unit (an example of receiving means, an example of movement route transmission means, an example of acquisition means, an example of switching request transmission means)
52 Reception unit (an example of movement route reception means)
53 Display control unit (an example of display control means)
56 Accuracy calculator 57 Image generator (an example of image generator)
90 Information processing device 91 Transmission/reception unit 93 Accuracy calculation unit 94 Image generation unit (an example of image generation means)
200 Route input screen 250 Destination series 400, 400A, 400B, 400C, 400D, 400E, 400F Operation screen 600 Map display image areas 611, 613, 615 Series images 650, 660 Accuracy display image 700 Shooting display image areas 711, 713, 715 Route images 750, 760 Accuracy display image 800 Notification information display area 900 Mode switching button (an example of operation accepting means)

Claims (16)

所定の拠点内を移動する移動体によって撮影された画像を表示する表示システムであって、
前記移動体から送信された、前記拠点が撮影された撮影画像を受信する受信手段と、
受信された前記撮影画像に写る前記拠点における前記移動体の移動経路上に、仮想的な経路画像を重畳させて表示させる表示制御手段と、
を備える表示システム。
A display system for displaying an image captured by a mobile object moving within a predetermined base,
a receiving means for receiving a photographed image of the base, which is transmitted from the mobile object;
display control means for superimposing and displaying a virtual route image on the moving route of the mobile object at the base shown in the received photographed image;
display system.
前記経路画像は、前記移動経路上の複数の地点を示す画像を含む請求項1に記載の表示システム。 2. The display system according to claim 1, wherein said route image includes an image showing a plurality of points on said movement route. 前記経路画像は、前記移動体の移動履歴および前記移動体の将来の目的地を示す画像を含む請求項1または2に記載の表示システム。 3. The display system according to claim 1, wherein the route image includes an image showing a movement history of the mobile object and a future destination of the mobile object. 請求項1乃至3のいずれか一項に記載の表示システムであって、更に、
前記移動体の移動経路を示す経路情報の入力を受け付ける移動経路受付手段と、
前記入力が受け付けられた前記経路情報を、前記移動体に送信する移動経路送信手段と、を備え、
送信された前記経路情報に基づいて、前記移動体を移動させる表示システム。
A display system according to any one of claims 1 to 3, further comprising:
a moving route receiving means for receiving an input of route information indicating a moving route of the moving object;
a movement route transmission means for transmitting the route information for which the input has been received to the moving object;
A display system for moving the mobile object based on the transmitted route information.
前記移動経路受付手段は、前記拠点を示す地図画像上に入力された前記経路情報を受け付け、
前記表示制御手段は、前記経路情報を示す系列画像が重畳された地図画像を、前記経路画像が重畳された前記撮影画像とともに表示させる請求項4に記載の表示システム。
The movement route reception means receives the route information input on a map image showing the base,
5. The display system according to claim 4, wherein said display control means displays a map image superimposed with a sequence image indicating said route information together with said photographed image superimposed with said route image.
請求項1乃至5のいずれか一項に記載の表示システムであって、更に、
前記移動体に対する所定の制御を行うための操作を受け付ける操作受付手段を備える表示システム。
A display system according to any one of claims 1 to 5, further comprising:
A display system comprising an operation receiving means for receiving an operation for performing predetermined control on the moving object.
前記操作受付手段は、前記移動体を手動操作により移動させる手動操作モードと、前記移動体を自律移動により移動させる自律移動モードとを切り替える切替操作を受け付ける請求項6に記載の表示システム。 7. The display system according to claim 6, wherein said operation receiving means receives a switching operation for switching between a manual operation mode in which said moving body is moved by manual operation and an autonomous movement mode in which said moving body is moved by autonomous movement. 請求項7に記載の表示システムであって、更に、
前記切替操作が受け付けられた場合、前記移動体に対して、前記自律移動モードと前記手動操作モードの切り替えを要求する切替要求を送信する切替要求送信手段と、を備え、
送信された前記切替要求に基づいて前記移動体の前記自律移動モードおよび前記手動操作モードの切り替えを制御する表示システム。
8. The display system of claim 7, further comprising:
switching request transmission means for transmitting a switching request requesting switching between the autonomous movement mode and the manual operation mode to the moving object when the switching operation is accepted;
A display system that controls switching of the mobile body between the autonomous movement mode and the manual operation mode based on the transmitted switching request.
前記自律移動は、学習に基づく自律移動であり、
前記移動体が前記自律移動モードから前記手動操作モードに切り替わった場合、前記自律移動のための学習を行うことが可能となる請求項7または8に記載の表示システム。
The autonomous movement is learning-based autonomous movement,
9. The display system according to claim 7, wherein learning for the autonomous movement can be performed when the moving body switches from the autonomous movement mode to the manual operation mode.
前記自律移動のための学習は、前記移動体によって撮影された撮影画像を用いて行われる請求項9に記載の表示システム。 10. The display system according to claim 9, wherein learning for said autonomous movement is performed using a photographed image photographed by said moving object. 所定の拠点内を移動する移動体によって撮影された画像を表示する表示システムと、前記移動体と、を備える通信システムであって、
前記拠点が撮影された撮影画像を取得する取得手段と、
受信された前記撮影画像に写る前記拠点における前記移動体の移動経路上に、仮想的な経路画像を重畳させて表示させる表示制御手段と、
を備える通信システム。
A communication system comprising: a display system for displaying an image captured by a mobile object moving within a predetermined location; and the mobile object,
Acquisition means for acquiring a photographed image in which the base is photographed;
display control means for superimposing and displaying a virtual route image on the moving route of the mobile object at the base shown in the received photographed image;
communication system.
請求項11に記載の通信システムであって、更に、
前記移動体の現在位置を示す位置情報および当該移動体の移動経路を示す経路情報に基づいて、前記経路画像を前記撮影画像に重畳させた表示画像を生成する画像生成手段を備え、
前記表示制御手段は、生成された前記表示画像を表示させる通信システム。
12. The communication system of claim 11, further comprising:
An image generating means for generating a display image in which the route image is superimposed on the captured image based on position information indicating the current position of the moving object and route information indicating the moving route of the moving object,
The display control means is a communication system for displaying the generated display image.
請求項12に記載の通信システムであって、
前記移動体は、更に、
前記移動体の現在位置を推定する自己位置推定手段を備え、
前記画像生成手段は、推定された前記現在位置を示す位置情報および前記経路情報に基づいて、前記表示画像を生成する通信システム。
A communication system according to claim 12,
The moving body further
A self-position estimation means for estimating the current position of the mobile body,
The communication system, wherein the image generating means generates the display image based on the position information indicating the estimated current position and the route information.
請求項11乃至13のいずか一項に記載の通信システムであって、更に、
前記移動体は、
前記表示システムから送信された、前記移動体を手動操作により移動させる手動操作モードと前記移動体を自律移動により移動させる自律移動モードの切り替えを要求する切替要求を受信する切替要求受信手段と、
受信された前記切替要求に基づいて、前記自律移動モードおよび前記手動操作モードのいずれかを設定するモード設定手段と、
設定されたモードに基づいて、前記移動体の移動処理を実行する移動処理手段と、
を備える通信システム。
A communication system according to any one of claims 11 to 13, further comprising:
The moving body is
a switching request receiving means for receiving a switching request transmitted from the display system requesting switching between a manual operation mode for manually moving the moving body and an autonomous movement mode for autonomously moving the moving body;
mode setting means for setting either the autonomous movement mode or the manual operation mode based on the received switching request;
movement processing means for executing movement processing of the moving object based on the set mode;
communication system.
所定の拠点内を移動する移動体によって撮影された画像を表示する表示システムが実行する表示制御方法であって、
前記移動体から送信された、前記拠点が撮影された撮影画像を受信する受信ステップと、
受信された前記撮影画像に写る前記拠点における前記移動体の移動経路上に、仮想的な経路画像を重畳させて表示させる表示制御ステップと、
を実行する表示制御方法。
A display control method executed by a display system for displaying an image captured by a mobile object moving within a predetermined base,
a receiving step of receiving a photographed image of the base, which is transmitted from the mobile object;
a display control step of superimposing and displaying a virtual route image on the movement route of the mobile object at the base shown in the received photographed image;
A display control method that performs
所定の拠点内を移動する移動体によって撮影された画像を表示する表示システムに、
前記移動体から送信された、前記拠点が撮影された撮影画像を受信する受信ステップと、
受信された前記撮影画像に写る前記拠点における前記移動体の移動経路上に、仮想的な経路画像を重畳させて表示させる表示制御ステップと、
を実行させるプログラム。
A display system that displays an image taken by a mobile object moving within a predetermined base,
a receiving step of receiving a photographed image of the base, which is transmitted from the mobile object;
a display control step of superimposing and displaying a virtual route image on the movement route of the mobile object at the base shown in the received photographed image;
program to run.
JP2022021474A 2021-03-22 2022-02-15 Display system, communication system, display control method and program Active JP7447922B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024028880A JP2024063106A (en) 2021-03-22 2024-02-28 Display system, communication system, display control method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021047582 2021-03-22
JP2021047582 2021-03-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024028880A Division JP2024063106A (en) 2021-03-22 2024-02-28 Display system, communication system, display control method and program

Publications (2)

Publication Number Publication Date
JP2022146888A true JP2022146888A (en) 2022-10-05
JP7447922B2 JP7447922B2 (en) 2024-03-12

Family

ID=83461689

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022021474A Active JP7447922B2 (en) 2021-03-22 2022-02-15 Display system, communication system, display control method and program
JP2024028880A Pending JP2024063106A (en) 2021-03-22 2024-02-28 Display system, communication system, display control method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024028880A Pending JP2024063106A (en) 2021-03-22 2024-02-28 Display system, communication system, display control method and program

Country Status (1)

Country Link
JP (2) JP7447922B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003232648A (en) * 2002-02-12 2003-08-22 Alpine Electronics Inc Navigation device
JP2010152834A (en) * 2008-12-26 2010-07-08 Ihi Aerospace Co Ltd Unmanned mobile body system
JP2017167995A (en) * 2016-03-18 2017-09-21 ヤンマー株式会社 Route generation system for work vehicle
JP2019135579A (en) * 2018-02-05 2019-08-15 本田技研工業株式会社 Mobile body control system, mobile body, and mobile body control method
JP2019197350A (en) * 2018-05-09 2019-11-14 株式会社日立製作所 Self-position estimation system, autonomous mobile system and self-position estimation method
JP2020140446A (en) * 2019-02-28 2020-09-03 株式会社豊田中央研究所 Control device, mobile object, and learning method
JP2020166689A (en) * 2019-03-29 2020-10-08 日産自動車株式会社 Vehicle remote monitoring system, vehicle remote monitoring device, and vehicle remote monitoring method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006015204A1 (en) 2006-03-30 2007-10-18 Claas Selbstfahrende Erntemaschinen Gmbh Method for creating a route plan for agricultural machine systems
US11340355B2 (en) 2018-09-07 2022-05-24 Nvidia Corporation Validation of global navigation satellite system location data with other sensor data
JP7203654B2 (en) 2019-03-25 2023-01-13 ヤンマーパワーテクノロジー株式会社 automatic driving system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003232648A (en) * 2002-02-12 2003-08-22 Alpine Electronics Inc Navigation device
JP2010152834A (en) * 2008-12-26 2010-07-08 Ihi Aerospace Co Ltd Unmanned mobile body system
JP2017167995A (en) * 2016-03-18 2017-09-21 ヤンマー株式会社 Route generation system for work vehicle
JP2019135579A (en) * 2018-02-05 2019-08-15 本田技研工業株式会社 Mobile body control system, mobile body, and mobile body control method
JP2019197350A (en) * 2018-05-09 2019-11-14 株式会社日立製作所 Self-position estimation system, autonomous mobile system and self-position estimation method
JP2020140446A (en) * 2019-02-28 2020-09-03 株式会社豊田中央研究所 Control device, mobile object, and learning method
JP2020166689A (en) * 2019-03-29 2020-10-08 日産自動車株式会社 Vehicle remote monitoring system, vehicle remote monitoring device, and vehicle remote monitoring method

Also Published As

Publication number Publication date
JP7447922B2 (en) 2024-03-12
JP2024063106A (en) 2024-05-10

Similar Documents

Publication Publication Date Title
US20240087738A1 (en) Interfacing with a mobile telepresence robot
US9586682B2 (en) Unmanned aerial vehicle control apparatus and method
WO2018214079A1 (en) Navigation processing method and apparatus, and control device
US10917560B2 (en) Control apparatus, movable apparatus, and remote-control system
US20210001487A1 (en) Information processing apparatus, information processing method, and storage medium
US11991477B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP7029565B2 (en) Maneuvering equipment, information processing methods, and programs
JP2020118459A (en) Route determination device, computer program, and route determination method
JP7447922B2 (en) Display system, communication system, display control method and program
WO2022202677A4 (en) Display system, communications system, display control method, and program
JP2022146887A (en) Display system, communication system, display control method, and program
TWI750821B (en) Navigation method, system, equipment and medium based on optical communication device
JP2022146885A (en) Display device, communication system, display control method, and program
CN117042931A (en) Display system, communication system, display control method, and program
US20240118703A1 (en) Display apparatus, communication system, display control method, and recording medium
US20230205198A1 (en) Information processing apparatus, route generation system, route generating method, and non-transitory recording medium
JP2022146886A (en) Display device, communication system, display control method, and program
JP2023095785A (en) Path generation system, path generation method and program
CN117120952A (en) Display device, communication system, display control method, and recording medium
JP7400248B2 (en) mobile object
JP7346983B2 (en) Display terminal, remote control system, display control method and program
WO2023243221A1 (en) Movement path determination system, landing site determination system, movement path determination device, drone control device, and computer program
WO2022070767A1 (en) Information processing device, moving body, imaging system, imaging control method, and program
US20230215092A1 (en) Method and system for providing user interface for map target creation
JP2021131713A (en) Own position estimating system and moving body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220929

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R151 Written notification of patent or utility model registration

Ref document number: 7447922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151