JP2021064147A - Moving object system, moving object, control program, and control method - Google Patents

Moving object system, moving object, control program, and control method Download PDF

Info

Publication number
JP2021064147A
JP2021064147A JP2019188210A JP2019188210A JP2021064147A JP 2021064147 A JP2021064147 A JP 2021064147A JP 2019188210 A JP2019188210 A JP 2019188210A JP 2019188210 A JP2019188210 A JP 2019188210A JP 2021064147 A JP2021064147 A JP 2021064147A
Authority
JP
Japan
Prior art keywords
operator
moving object
control unit
robot
autonomous control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019188210A
Other languages
Japanese (ja)
Other versions
JP7408991B2 (en
Inventor
祐香 青池
Yuka Aoike
祐香 青池
前野 蔵人
Kurato Maeno
蔵人 前野
篤史 小杉
Atsushi Kosugi
篤史 小杉
吉田 敏之
Toshiyuki Yoshida
敏之 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2019188210A priority Critical patent/JP7408991B2/en
Publication of JP2021064147A publication Critical patent/JP2021064147A/en
Application granted granted Critical
Publication of JP7408991B2 publication Critical patent/JP7408991B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a moving object system capable of responding to a detailed judgment and operation by a person while reducing a workload of a person by autonomous operation of a moving object.SOLUTION: This disclosure relates to a mobile system 1 having a mobile object (robot) 10 and a terminal 20 used by an operator OP. The mobile object has an information acquisition unit 14, 15 that acquires information pertaining to the surroundings of the mobile object, a moving unit 13 that moves the mobile object in any direction, and a control unit 11 that performs an autonomous control process for the mobile object using a result acquired by the information acquisition unit in the autonomous control process to identify whether or not to abort the autonomous control process, and that can notify a terminal if the autonomous control identification process determines that the autonomous control process should not be continued.SELECTED DRAWING: Figure 1

Description

この発明は、移動物システム、移動物、制御プログラム、及び制御方法に関し、例えば、移動機能及びコミュニケーション機能に対応するロボットと、当該ロボットをオペレータにより遠隔操作させる手段を備えるシステムに関する。 The present invention relates to a moving object system, a moving object, a control program, and a control method, and relates to, for example, a robot corresponding to a moving function and a communication function, and a system including a means for remotely controlling the robot by an operator.

従来、移動機能及びコミュニケーション機能に対応するロボットと、当該ロボットをオペレータにより遠隔操作させる手段を備えるロボットシステムとしては特許文献1の記載技術がある。 Conventionally, there is a technique described in Patent Document 1 as a robot system including a robot corresponding to a movement function and a communication function and a means for remotely controlling the robot by an operator.

特許文献1に記載されたロボットシステムでは、会議室内を自由に自律移動可能なロボットと、当該ロボットを介して遠隔地の会議参加者に対して会議室内における会議の状況の伝達や会議室内の会議参加者との情報のやりとり(例えば、資料の提示や会話等の情報のやりとり)が可能なコミュニケーション機能を提供することが可能となっている。 In the robot system described in Patent Document 1, a robot that can freely move autonomously in a conference room and a conference in a conference room can be communicated to participants in a remote conference via the robot and a conference in the conference room. It is possible to provide a communication function capable of exchanging information with participants (for example, exchanging information such as presentation of materials and conversation).

特開2002−46088号公報JP-A-2002-46088

しかしながら、従来の上記のような自律移動可能なロボットにおいては、自由に移動できるとしながらも、ロボットの記憶している移動路(走行路)等の環境情報と実際の移動路の状態で大きな隔たりがある場合や移動路上に障害物がある場合等、ロボットの自律制御では対処できない異常(当初から対処を想定できない異常)が発生し得る。上記のような自律制御では対処できない異常が発生した場合、当該ロボットでは、動作停止による稼働率の低下や、予期しない動きによる事故の危険のほか、人が駆けつけて保守作業にあたる必要があるなどの課題があった。 However, in the conventional robot that can move autonomously as described above, although it can move freely, there is a large gap between the environmental information such as the moving path (running path) stored by the robot and the state of the actual moving path. Abnormalities that cannot be dealt with by the autonomous control of the robot (abnormalities that cannot be dealt with from the beginning) may occur, such as when there is an obstacle or when there is an obstacle on the moving path. When an abnormality that cannot be dealt with by autonomous control as described above occurs, the robot needs to rush to perform maintenance work, in addition to the risk of accidents due to unexpected movements and the decrease in operating rate due to suspension of operation. There was a challenge.

また、従来のロボットでは、技術的な制約から、完全自動では実現できない工程を含む作業をロボットで実行しようとする場合、すべてを人間が操作(遠隔操作)する必要があった。 In addition, with conventional robots, due to technical restrictions, when a robot attempts to perform work including processes that cannot be realized by fully automatic operation, it is necessary for humans to operate (remotely control) everything.

さらに、従来のロボットでは、自律動作しない完全な遠隔操作では、1人で1台のロボットを扱う必要があり、ロボットを用いることによる省力化(人間の作業の省力化)の効果が限定的であった。 Furthermore, with conventional robots, it is necessary for one person to handle one robot in complete remote control that does not operate autonomously, and the effect of labor saving (labor saving of human work) by using the robot is limited. there were.

以上のような問題に鑑みて、移動物(例えば、ロボット)の自律動作により人間(例えば、オペレータ)の作業負荷軽減を図りつつ、人間によるきめ細やかな判断や操作にも対応を可能とする移動物システムが望まれている。 In view of the above problems, movement that enables the autonomous movement of moving objects (for example, robots) to reduce the workload of humans (for example, operators) while also allowing humans to make detailed judgments and operations. A physical system is desired.

第1の本発明は、移動物と、オペレータが使用する端末とを有する移動物システムにおいて、(1)前記移動物は、(1−1)前記移動物に係る情報を取得する情報取得部と、(1−2)前記移動物を任意の方向に移動させる移動部と、(1−3)前記移動物の自律制御処理を行うものであって、前記自律制御処理の過程で、前記撮像部及び又は前記情報取得部が取得した結果を利用して、前記自律制御処理を中止するか否かを識別する自律制御識別処理を行い、前記自律制御識別処理の結果、前記自律制御処理の継続をしないと判断すると、前記端末へ通知を行うことが可能な制御部とを有することを特徴とする。 According to the first aspect of the present invention, in a moving object system having a moving object and a terminal used by an operator, (1) the moving object is (1-1) an information acquisition unit for acquiring information related to the moving object. , (1-2) A moving unit that moves the moving object in an arbitrary direction, and (1-3) an autonomous control process for the moving object. In the process of the autonomous control process, the imaging unit And / or, using the result acquired by the information acquisition unit, the autonomous control identification process for identifying whether or not to stop the autonomous control process is performed, and as a result of the autonomous control identification process, the continuation of the autonomous control process is performed. It is characterized by having a control unit capable of notifying the terminal when it is determined not to do so.

第2の本発明は、移動物において、(1)当該に係る情報を取得する情報取得部と、(2)当該移動物を任意の方向に移動させる移動部と、(3)当該移動物の自律制御処理を行うものであって、前記自律制御処理の過程で、前記撮像部及び又は前記情報取得部が取得した結果を利用して、前記自律制御処理を中止するか否かを識別する自律制御識別処理を行い、前記自律制御識別処理の結果、前記自律制御処理の継続をしないと判断すると、オペレータが使用する外部の端末へ通知を行うことが可能な制御部とを有することを特徴とする。 In the second aspect of the present invention, there are (1) an information acquisition unit for acquiring the information related to the moving object, (2) a moving unit for moving the moving object in an arbitrary direction, and (3) the moving object. The autonomous control process is performed, and in the process of the autonomous control process, the result acquired by the imaging unit and / or the information acquisition unit is used to identify whether or not to stop the autonomous control process. It is characterized by having a control unit capable of notifying an external terminal used by the operator when the control identification process is performed and, as a result of the autonomous control identification process, it is determined that the autonomous control process is not continued. To do.

本発明によれば、移動物の自律動作により人間の作業負荷軽減を図りつつ、人間によるきめ細やかな判断や操作にも対応を可能とする移動物システムを実現することができる。 According to the present invention, it is possible to realize a moving object system capable of responding to fine judgments and operations by human beings while reducing the workload of human beings by autonomous operation of moving objects.

第1の実施形態に係るロボットシステムの全体構成(実施形態に係るロボットの機能的構成を含む)について示したブロック図である。It is a block diagram which showed the whole structure (including the functional structure of the robot which concerns on embodiment) of the robot system which concerns on 1st Embodiment. 第1の実施形態に係るロボットの動作について示したフローチャートである。It is a flowchart which showed the operation of the robot which concerns on 1st Embodiment. 第1の実施形態に係るロボットが移動する移動予定ルートの例について示した図である。It is a figure which showed the example of the planned movement route which the robot which concerns on 1st Embodiment moves. 第1の実施形態に係るロボットが取得する回避ルート(代替ルート)の例について示した図(その1)である。It is a figure (the 1) which showed the example of the avoidance route (alternative route) acquired by the robot which concerns on 1st Embodiment. 第1の実施形態に係るロボットが取得する回避ルート(代替ルート)の例について示した図(その2)である。It is a figure (No. 2) which showed the example of the avoidance route (alternative route) acquired by the robot which concerns on 1st Embodiment. 第1の実施形態に係るロボットが取得する回避ルート(代替ルート)の例について示した図(その3)である。It is a figure (No. 3) which showed the example of the avoidance route (alternative route) acquired by the robot which concerns on 1st Embodiment. 第1の実施形態に係るロボットがルート補正により補正代替ルートを取得する処理の例について示した図である。It is a figure which showed the example of the process which the robot which concerns on 1st Embodiment acquires the correction alternative route by route correction. 第1の実施形態に係るロボットが回避ルートを取得する際のポリシーの例について示した図である。It is a figure which showed the example of the policy when the robot which concerns on 1st Embodiment acquires an avoidance route. 第1の実施形態に係る操作卓でロボットの遠隔操作を受ける操作画面の例(その1)について示した図である。It is a figure which showed the example (the 1) of the operation screen which receives the remote control of a robot with the operation desk which concerns on 1st Embodiment. 第1の実施形態に係る操作卓でロボットの遠隔操作を受ける操作画面の例(その2)について示した図である。It is a figure which showed the example (the 2) of the operation screen which receives the remote control of a robot with the operation desk which concerns on 1st Embodiment. 第1の実施形態に係る操作卓でオペレータから手動で回避ルートの入力を受け付ける際の画面の例について示した図である。It is a figure which showed the example of the screen at the time of manually accepting the input of the avoidance route from the operator on the operation console which concerns on 1st Embodiment. 第1の実施形態に係る操作卓でオペレータにロボットの移動状況を監視させる監視画面の例について示した図である。It is a figure which showed the example of the monitoring screen which makes an operator monitor the movement state of a robot on the operation console which concerns on 1st Embodiment. 第2及び第3の実施形態に係るロボットシステムの全体構成(実施形態に係るロボットの機能的構成を含む)について示したブロック図である。It is a block diagram which showed the whole structure (including the functional structure of the robot which concerns on embodiment) of the robot system which concerns on 2nd and 3rd Embodiment. 第2の実施形態に係るロボットの動作について示したフローチャートである。It is a flowchart which showed the operation of the robot which concerns on 2nd Embodiment. 第3の実施形態に係るロボットの動作について示したフローチャート(その1)である。It is a flowchart (the 1) which showed the operation of the robot which concerns on 3rd Embodiment. 第3の実施形態に係るロボットの動作について示したフローチャート(その2)である。It is a flowchart (No. 2) which showed the operation of the robot which concerns on 3rd Embodiment.

(A)第1の実施形態
以下、本発明による移動物システム、移動物、制御プログラム、及び制御方法の第1の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の移動物システム及び移動物をロボットシステム及びロボットに適用した例について説明する。
(A) First Embodiment Hereinafter, the first embodiment of the moving object system, the moving object, the control program, and the control method according to the present invention will be described in detail with reference to the drawings. In this embodiment, an example in which the moving object system and the moving object of the present invention are applied to the robot system and the robot will be described.

(A−1)第1の実施形態の構成
図1は、この実施形態のロボットシステム1の全体構成を示すブロック図である。
(A-1) Configuration of First Embodiment FIG. 1 is a block diagram showing an overall configuration of the robot system 1 of this embodiment.

ロボットシステム1は、ロボット10及び操作卓を有している。 The robot system 1 has a robot 10 and an operation console.

ここで、ロボットとは、一般に、「人造人間」、「人間に類似した動作や作業を行うもの」、「指示に基づき動作や作業をコンピュータ操作により行う装置」、「自律的な動作や作業をコンピュータ操作により行う装置」、「自動制御によるマニピュレーション機能又は、移動機能をもち、各種の作業をプログラムによって実行でき、産業に使用される機械」(JIS B 0134−1998)、「人間にサービスするロボット」(JIS B 0187:2005)「センサ、知能・制御系、駆動系の3つの要素技術を有する、知能化した機械システム」(経済産業省ロボット政策研究会)、等のように解される。 Here, a robot generally refers to "an android", "a device that performs actions and tasks similar to humans", "a device that performs actions and tasks based on instructions by computer operation", and "autonomous actions and tasks". "Devices operated by computer", "Machines used in industry that have manipulation functions or movement functions by automatic control and can execute various tasks by programs" (JIS B 0134-1998), "Robots that serve humans" (JIS B 0187: 2005) "Intelligent mechanical system with three elemental technologies of sensor, intelligence / control system, and drive system" (Ministry of Economy, Trade and Industry Robot Policy Study Group), etc.

この実施形態において、ロボット10は種々の用途(オペレーション)に適用可能な汎用的な移動物であるものとする。ロボット10は、例えば、警備(例えば、警備対象施設における巡回監視や巡回先で発見した人間との対話)、製造(例えば、工場内の設備点検、製造部品や材料の搬送)、建設(例えば、建築部品の搬送、施工状態の確認)、旅客事業(例えば、旅客や荷物の搬送、観光地や荷物の点検、旅客との対話)、各種インフラの点検、物流事業(例えば、貨物の搬送、貨物や貨物車両の点検)等の用途(オペレーション)に適用することができる。また、ロボット10は、同時に複数種類のオペレーションを実行するようにしてもよい。 In this embodiment, the robot 10 is a general-purpose moving object that can be applied to various uses (operations). The robot 10 is used, for example, for security (for example, patrol monitoring at a facility to be guarded or dialogue with a human found at a patrol destination), manufacturing (for example, equipment inspection in a factory, transportation of manufactured parts and materials), construction (for example, for example). Transportation of building parts, confirmation of construction status), passenger business (for example, transportation of passengers and luggage, inspection of tourist spots and luggage, dialogue with passengers), inspection of various infrastructures, logistics business (for example, transportation of cargo, cargo) It can be applied to applications (operations) such as inspection of freight vehicles. Further, the robot 10 may execute a plurality of types of operations at the same time.

また、ロボット10は、自律的に動作しつつ、人間(操作卓20のオペレータOP)と連携・協調した動作も可能である。例えば、ロボット10は、操作卓20への自律的な通知処理や、操作卓20の要求に応じたデータ送信処理や、操作卓20からの制御(制御信号)に応じた動作(例えば、移動等)を行うことも可能である。 Further, the robot 10 can operate autonomously and also cooperate with and cooperate with a human being (operator OP of the operation console 20). For example, the robot 10 performs autonomous notification processing to the console 20, data transmission processing according to the request of the console 20, and operations (for example, movement, etc.) according to control (control signal) from the console 20. ) Is also possible.

操作卓20は、オペレータOPが使用する端末である。操作卓20は、オペレータOPとロボット10とで協調・連携したオペレーションを実現するための機能に対応している。例えば、操作卓20は、ロボット10からの通知の出力、ロボット10の状態(状況)に関するデータ出力、オペレータOPの操作に応じたロボット10の遠隔制御処理、オペレータOPの状態に関する監視処理等が実行可能であるものとする。 The console 20 is a terminal used by the operator OP. The operation console 20 corresponds to a function for realizing a coordinated / coordinated operation between the operator OP and the robot 10. For example, the console 20 executes notification output from the robot 10, data output regarding the state (status) of the robot 10, remote control processing of the robot 10 according to the operation of the operator OP, monitoring processing regarding the state of the operator OP, and the like. It shall be possible.

ロボット10と操作卓20とは、IP網NW(例えば、インターネットやLAN等のネットワーク)を介して相互に通信可能であるものとする。ロボット10と操作卓20との間の通信方式は限定されないものであり、IP網以外にも種々の通信方式を適用することができる。この実施形態では、少なくともロボット10は、無線LAN通信可能な通信装置であり、オペレーションを実行する任意の位置においてIP網NWに接続可能であるものとする。 It is assumed that the robot 10 and the console 20 can communicate with each other via an IP network NW (for example, a network such as the Internet or a LAN). The communication method between the robot 10 and the console 20 is not limited, and various communication methods other than the IP network can be applied. In this embodiment, it is assumed that at least the robot 10 is a communication device capable of wireless LAN communication and can be connected to the IP network NW at an arbitrary position where the operation is executed.

次に、ロボット10の内部構成について説明する。 Next, the internal configuration of the robot 10 will be described.

図1に示すように、ロボット10は、制御部11、通信部12、移動部13、カメラ部14、センサ部15、表示部16、スピーカ17、及びマイク18を有している。 As shown in FIG. 1, the robot 10 has a control unit 11, a communication unit 12, a moving unit 13, a camera unit 14, a sensor unit 15, a display unit 16, a speaker 17, and a microphone 18.

制御部11は、ロボット10の全体を制御する機能や種々のデータ処理の機能を担っている。制御部11は、例えば、プロセッサ及びメモリを有するコンピュータ(プログラムの実行構成)に、この実施形態に係る制御プログラムを含むプログラムをインストールすることにより実現することができる。 The control unit 11 has a function of controlling the entire robot 10 and a function of various data processing. The control unit 11 can be realized, for example, by installing a program including the control program according to this embodiment on a computer having a processor and a memory (program execution configuration).

通信部12は、IP網NWに接続するための通信IFである。この実施形態では、通信部12は、IP網NW(IP網NWに接続可能な無線基地局)に無線接続可能であるものとする。 The communication unit 12 is a communication IF for connecting to the IP network NW. In this embodiment, it is assumed that the communication unit 12 can wirelessly connect to the IP network NW (a wireless base station that can connect to the IP network NW).

移動部13は、制御部11の制御に応じて、自装置(ロボット10)を任意の方向に移動させるための移動機構(移動手段)である。この実施形態では、移動部13は、オペレーションを実行する領域(以下、「オペレーション実行領域」と呼ぶ)内で任意の方向に移動可能であるものとする。移動部13が対応する移動方式は限定されないものである。移動部13は、例えば、車輪、キャタピラ、ホバークラフト、二足歩行、四足歩行等の種々の移動機構を適用することができる。また、移動部13は二次元的な移動だけでなく三次元的な移動が可能な移動機構(例えば、回転翼により空中を移動可能としてもよいし、スクリューにより水上又は水中を移動可能とするようにしてもよい)。 The moving unit 13 is a moving mechanism (moving means) for moving the own device (robot 10) in an arbitrary direction according to the control of the control unit 11. In this embodiment, it is assumed that the moving unit 13 can move in an arbitrary direction within an area for executing an operation (hereinafter, referred to as an “operation execution area”). The movement method supported by the moving unit 13 is not limited. Various moving mechanisms such as wheels, caterpillars, hovercraft, bipedal walking, and quadrupedal walking can be applied to the moving unit 13. Further, the moving portion 13 is a moving mechanism capable of not only two-dimensional movement but also three-dimensional movement (for example, it may be movable in the air by a rotary blade, or it may be movable on or under water by a screw. May be).

カメラ部14は、制御部11の制御に応じて1又は複数のカメラ(撮像装置)によりロボット10の周辺を撮像することが可能な撮像手段である。カメラ部14は、例えば、複数のカメラにより全周囲の視野を確保した構成とするようにしてもよい。 The camera unit 14 is an imaging means capable of imaging the periphery of the robot 10 with one or a plurality of cameras (imaging devices) under the control of the control unit 11. The camera unit 14 may be configured to secure a field of view of the entire periphery by, for example, a plurality of cameras.

センサ部15は、1又は複数の種類のセンサ(検知装置)によりロボット10の周辺について種々のセンシング処理を行ってセンサ情報(検知結果)を取得ことが可能な検知手段である。なお、本明細書において、「センシング」とは、温度、湿度、照度、気圧、振動(震動)、距離、傾き等の推定量の検知(増減や発生の検知)、並びに、煙、化学物質、及び静電気等の発生の検知(増減や推定量の検知)を表す語として用いる。また、本明細書において、「センシング」とは、検知に加え、検知内容を信号に変換する処理を表す語として用いる。また、本明細書において、「センシング」とは、検知に加え、検知内容を計測・判別・分析することを表す語として用いる。センサ部15が備えるセンサの種類は限定されないものである。例えば、センサ部15は、温度計、湿度計、照度計、気圧計、周囲の物体の配置状況を検知するためのLidar(Laser Imaging Detection and Ranging)センサ、熱画像計測装置(サーモグラフィカメラ)等から1又は複数種類を備えるようにしてもよい。例えば、センサ部15は、無線通信で、外部のセンサ装置(当該センサ装置の周辺に種々のセンシング処理を行ってセンサ情報(検知結果)を取得することが可能な装置)からセンサ情報を取得してもよい。この場合、センサ部15は、センシング用無線通信部(例えば920MHz帯マルチホップ無線通信に対応する無線通信部)を有し、センサ部15(センシング用無線通信部)が親機となり子機となるセンサ装置と無線通信(中継機となる複数の子機(センサ装置)で無線通信が中継されるマルチホップ無線通信)でやりとりしセンサ情報を取得する。 The sensor unit 15 is a detection means capable of acquiring sensor information (detection result) by performing various sensing processes around the robot 10 by one or a plurality of types of sensors (detection devices). In the present specification, "sensing" means detection of estimated amounts of temperature, humidity, illuminance, atmospheric pressure, vibration (vibration), distance, inclination, etc. (detection of increase / decrease or occurrence), as well as smoke, chemical substances, and the like. It is also used as a term to indicate the detection of the generation of static electricity (detection of increase / decrease or estimated amount). Further, in the present specification, "sensing" is used as a word indicating a process of converting the detected content into a signal in addition to the detection. Further, in the present specification, "sensing" is used as a word indicating measurement / discrimination / analysis of the detected content in addition to detection. The type of sensor included in the sensor unit 15 is not limited. For example, the sensor unit 15 is from a thermometer, a hygrometer, a luminometer, a barometer, a lidar (Laser Imaging Detection and Ranger) sensor for detecting the arrangement status of surrounding objects, a thermal image measuring device (thermography camera), or the like. One or a plurality of types may be provided. For example, the sensor unit 15 acquires sensor information from an external sensor device (a device capable of performing various sensing processes around the sensor device to acquire sensor information (detection result)) by wireless communication. You may. In this case, the sensor unit 15 has a sensing wireless communication unit (for example, a wireless communication unit corresponding to 920 MHz band multi-hop wireless communication), and the sensor unit 15 (sensing wireless communication unit) serves as a master unit and a slave unit. The sensor information is acquired by exchanging with the sensor device by wireless communication (multi-hop wireless communication in which wireless communication is relayed by a plurality of slave units (sensor devices) serving as repeaters).

以上のように、この実施形態のロボット10では、カメラ部14とセンサ部15によりロボット10の周囲に係る情報を取得する情報取得部が構成されている。なお、ロボット10では、カメラ部14のみで、制御部11の処理で必要となる自装置の周囲の情報を全て取得可能である場合には、センサ部15を除外した構成としてもよい。 As described above, in the robot 10 of this embodiment, an information acquisition unit that acquires information related to the surroundings of the robot 10 is configured by the camera unit 14 and the sensor unit 15. If the robot 10 can acquire all the information around the own device required for the processing of the control unit 11 only by the camera unit 14, the sensor unit 15 may be excluded.

表示部16は、制御部11の制御に応じて、種々の情報の表示出力を行う表示手段である。例えば、表示部16は、ディスプレイやランプ等の表示装置を適用することができる。 The display unit 16 is a display means that displays and outputs various information according to the control of the control unit 11. For example, the display unit 16 can apply a display device such as a display or a lamp.

スピーカ17は、制御部11の制御に応じた音響(例えば、オペレータOPの音声や合成音声等)をロボット10の周辺に出力(音響出力、表音出力)する音響出力手段である。 The speaker 17 is an acoustic output means that outputs an acoustic (for example, an operator OP voice, a synthetic voice, etc.) according to the control of the control unit 11 to the periphery of the robot 10 (acoustic output, phonetic output).

マイク18は、ロボット10の周辺の音響(例えば、周囲の人の音声)を捕捉する音響捕捉手段である。 The microphone 18 is a sound capturing means for capturing the sound around the robot 10 (for example, the voice of a person around the robot 10).

次に、操作卓20の内部構成について説明する。 Next, the internal configuration of the console 20 will be described.

操作卓20は、制御部21、通信部22、表示部23、操作部24、カメラ部25、センサ部26、スピーカ27、及びマイク28を有している。 The operation console 20 includes a control unit 21, a communication unit 22, a display unit 23, an operation unit 24, a camera unit 25, a sensor unit 26, a speaker 27, and a microphone 28.

操作卓20において、センサ部26以外の構成については種々のコンピュータ(例えば、スマートホンやPC)の構成を適用することができる。 In the console 20, various computer (for example, smart phones and PCs) configurations can be applied to the configurations other than the sensor unit 26.

制御部21は、操作卓20の全体を制御する機能や種々のデータ処理の機能を担っている。制御部21は、例えば、プロセッサ及びメモリを有するコンピュータ(プログラムの実行構成)に、この実施形態に係る操作卓制御プログラム(端末制御プログラム)を含むプログラムをインストールすることにより実現することができる。 The control unit 21 has a function of controlling the entire operation console 20 and a function of various data processing. The control unit 21 can be realized, for example, by installing a program including a console control program (terminal control program) according to this embodiment on a computer having a processor and a memory (program execution configuration).

通信部22は、IP網NWに接続するための通信IFである。 The communication unit 22 is a communication IF for connecting to the IP network NW.

表示部23は、制御部21の制御に応じて、種々の情報の表示出力を行う表示手段である。例えば、表示部23は、ディスプレイ(タッチパネルディスプレイを構成するディスプレイを含む)を適用することができる。操作卓20において、表示部23には、例えば、ロボット10のカメラ部14で撮像された画像(以下、「カメラ画像」と呼ぶ)を含む操作画面(GUI)等が表示可能である。 The display unit 23 is a display means that displays and outputs various information according to the control of the control unit 21. For example, the display unit 23 can apply a display (including a display constituting a touch panel display). In the operation console 20, for example, the display unit 23 can display an operation screen (GUI) including an image captured by the camera unit 14 of the robot 10 (hereinafter, referred to as a “camera image”).

操作部24は、オペレータOPからの操作を受け付けるための操作手段(操作デバイス)である。例えば、操作部24は、キーボード、マウス、タッチパネル(タッチパネルディスプレイを構成するタッチパネルを含む)、トラックパッド、及びコントローラ(例えば、十字キーや操作レバーによりロボット10の移動に関する操作を受け付け可能な装置)等のデバイスを適用することができる。操作部24では、例えば、オペレータOPからロボット10の移動方向や移動速度等の操作(入力)を受け付けることができる。 The operation unit 24 is an operation means (operation device) for receiving an operation from the operator OP. For example, the operation unit 24 includes a keyboard, a mouse, a touch panel (including a touch panel constituting the touch panel display), a track pad, a controller (for example, a device capable of accepting operations related to the movement of the robot 10 by a cross key or an operation lever) and the like. Devices can be applied. The operation unit 24 can receive operations (inputs) such as the movement direction and movement speed of the robot 10 from the operator OP, for example.

カメラ部25は、操作卓20の周辺(オペレータOP及び又はオペレータOPの周囲を含む)を撮像する撮像手段である。 The camera unit 25 is an imaging means that images the periphery of the console 20 (including the periphery of the operator OP and / or the operator OP).

センサ部26は、1又は複数の種類のセンサ(検知装置)により操作卓20の周辺(オペレータOP及び又はオペレータOPの周囲を含む)について種々のセンシング処理を行うことが可能な検知手段である。センサ部26は、例えば、オペレータOPのバイタルサイン(例えば、体温、心拍数、血圧値、呼吸数等)を検知可能とするセンサを適用するようにしてもよい。例えば、センサ部15のように、センサ部26は無線通信で外部のセンサ装置からセンサ情報を取得してもよい。 The sensor unit 26 is a detection means capable of performing various sensing processes on the periphery of the console 20 (including the periphery of the operator OP and / or the periphery of the operator OP) by one or a plurality of types of sensors (detection devices). The sensor unit 26 may apply, for example, a sensor that can detect vital signs of the operator OP (for example, body temperature, heart rate, blood pressure value, respiratory rate, etc.). For example, like the sensor unit 15, the sensor unit 26 may acquire sensor information from an external sensor device by wireless communication.

スピーカ27は、制御部21の制御に応じて操作卓20の周辺(オペレータOPを含む)に対して音響を出力(音響出力、表音出力)する音響出力手段である。 The speaker 27 is an acoustic output means that outputs sound (acoustic output, phonetic output) to the periphery (including the operator OP) of the console 20 according to the control of the control unit 21.

マイク28は、操作卓20の周辺の音響(オペレータOPが発話した音声を含む)を捕捉する音響捕捉手段である。 The microphone 28 is a sound capturing means for capturing the sound around the console 20 (including the voice spoken by the operator OP).

次に、ロボット10の制御部11が行う自律的な制御処理(以下、「自律制御処理」と呼ぶ)と、操作卓20を介したオペレータOPとの連携処理の概要について説明する。 Next, an outline of the autonomous control process performed by the control unit 11 of the robot 10 (hereinafter, referred to as “autonomous control process”) and the cooperative process with the operator OP via the console 20 will be described.

制御部11は、通常は自律的な判断によりロボット10の各部の制御(以下、「自律制御」と呼ぶ)を行うが、カメラ部14が撮像したカメラ画像及び又はセンサ部15が検知したセンサ情報(検知結果)を利用して、所定の事象(イベント)を検出した場合には、自律制御を中止するようにしてもよい。以下では、制御部11が自立制御を中止すべきと判断する事象を「自律制御中止インシデント」又は単に「インシデント」と呼ぶものとする。そして、制御部11は、インシデントを検出した場合には、当該インシデントの内容(例えば、インシデントの種別)に応じた処理を行う。例えば、制御部11は、インシデントを検出した場合には、その旨を操作卓20を介してオペレータOPに通知し、操作卓20(オペレータOP)からの制御による遠隔操作を受け付ける動作モード(以下、「遠隔操作モード」と呼ぶ)に移行するようにしてもよい。 The control unit 11 normally controls each part of the robot 10 by autonomous judgment (hereinafter referred to as "autonomous control"), but the camera image captured by the camera unit 14 and / or the sensor information detected by the sensor unit 15. When a predetermined event is detected by using (detection result), the autonomous control may be stopped. In the following, an event in which the control unit 11 determines that the independent control should be stopped shall be referred to as an "autonomous control stop incident" or simply an "incident". Then, when the control unit 11 detects an incident, the control unit 11 performs processing according to the content of the incident (for example, the type of the incident). For example, when the control unit 11 detects an incident, the control unit 11 notifies the operator OP via the console 20 and accepts a remote control under the control of the console 20 (operator OP) (hereinafter referred to as an operation mode). It may shift to "remote control mode").

具体的には、例えば、制御部11は、ロボット10の移動路上に移動(走行)の妨げとなる障害物を検知し、その障害物を自律的な移動のみでは回避できないと判断した場合に、当該障害物を発生源(以下、「インシデント源」とも呼ぶ)とするインシデントを検出するようにしてもよい。この場合、制御部11は、例えば、操作卓20(オペレータOP)にインシデントが発生した旨を通知すると共に、遠隔操作モードに移行して操作卓20(オペレータOP)に操作を引き継ぐことで、障害物を回避して移動を継続させることができる。 Specifically, for example, when the control unit 11 detects an obstacle that hinders the movement (running) of the robot 10 on the moving path and determines that the obstacle cannot be avoided only by autonomous movement. Incidents originating from the obstacle (hereinafter, also referred to as “incident source”) may be detected. In this case, for example, the control unit 11 notifies the operation console 20 (operator OP) that an incident has occurred, shifts to the remote control mode, and takes over the operation to the operation console 20 (operator OP). You can avoid objects and continue moving.

制御部11が、障害物を検知する方法については限定されないものである。例えば、制御部11は、カメラ部14が撮像したカメラ画像や、センサ部15(例えば、図示しない超音波センサやミリ波レーダー等)が検知したセンサ情報(検知結果)に基づいて、障害物を検知するようにしてもよい。なお、制御部11は、カメラ画像又はセンサ情報の一方又は両方に基づいて障害物の検知を行うようにしてもよい。また、制御部11は、移動路上に障害物を発見したとき、その障害物の種類や状態などを認識するようにしてもよい。例えば、制御部11は、カメラ画像やセンサ情報からAI処理(例えば、予め想定されるインシデント源(例えば、障害物)の画像等を教師データとして学習させたモデルを用いたAI処理)を利用して障害物の種類や状態を特定する情報を取得するようにしてもよい。 The method by which the control unit 11 detects an obstacle is not limited. For example, the control unit 11 detects an obstacle based on the camera image captured by the camera unit 14 and the sensor information (detection result) detected by the sensor unit 15 (for example, an ultrasonic sensor or a millimeter wave radar (not shown)). It may be detected. The control unit 11 may detect an obstacle based on one or both of the camera image and the sensor information. Further, when the control unit 11 finds an obstacle on the moving path, the control unit 11 may recognize the type and state of the obstacle. For example, the control unit 11 uses AI processing (for example, AI processing using a model in which an image of an incident source (for example, an obstacle) assumed in advance is learned as teacher data) from camera images and sensor information. It is also possible to acquire information that identifies the type and state of the obstacle.

例えば、障害物としては、小さな木の枝のように、障害物ではあるが、ロボット10が予定している道(通路/道路)を変更せずに回避することが可能なあるものであったり、大きな倒木で完全に道(通路/道路)が塞がれてしまうもの等のパターンが存在する。このとき、制御部11では、あらかじめその頻度と深刻さを考慮するレベルを分けておき、発見した障害物に対して、オペレータOPの介在によって何らかのアクションが必要かどうかをあらかじめ設定しておくようにしてもよい。例えば、ロボットシステム1では、ロボット10(制御部11)が検出した障害物の種類(レベル)に応じて、オペレータOPにより操作卓20に対する手動操作によって他のルート(迂回路)を検索することを促したり、人(例えば、現地の警備員等)が駆けつけることを促して障害物を取り除かせること等を設定可能とするようにしてもよい。 For example, an obstacle, such as a small tree branch, may be an obstacle that can be avoided without changing the road (passage / road) planned by the robot 10. There are patterns such as large fallen trees that completely block the road (passage / road). At this time, the control unit 11 divides the frequency and the level to be taken into consideration in advance, and sets in advance whether or not some action is required for the discovered obstacle by the intervention of the operator OP. You may. For example, in the robot system 1, the operator OP searches for another route (detour) by manually operating the console 20 according to the type (level) of the obstacle detected by the robot 10 (control unit 11). It may be possible to urge people (for example, local guards, etc.) to rush to remove obstacles.

そして、制御部11は、人(例えば、オペレータOPや現地の警備員等)の介在が必要であると判断した場合に、インシデント(自律制御中止インシデント)を検出したと判断し、通信部12を介して操作卓20(オペレータOP)に、インシデントに関する情報(例えば、人の介在が必要であることや、その判断に至った原因を含むようにしてもよい)について通知し、遠隔操作モードに移行するようにしてもよい。そして、操作卓20の制御部21が、受信した通知をオペレータOPに出力(例えば、表示部23やスピーカ27を用いて出力)することで、オペレータOPにインシデントの検出を認識させる共に、操作卓20(操作部24)を手動で操作させ、ロボット10の周囲の状況を確認させつつ、必要に応じて障害物の回避を行わせたり、現地へ人を派遣するなどの判断を行わせることができる。 Then, when the control unit 11 determines that the intervention of a person (for example, an operator OP, a local security guard, etc.) is necessary, it determines that an incident (autonomous control cancellation incident) has been detected, and determines that the communication unit 12 has been detected. Notify the console 20 (operator OP) of information about the incident (for example, it may include the need for human intervention and the cause of the decision), and shift to the remote control mode. It may be. Then, the control unit 21 of the operation console 20 outputs the received notification to the operator OP (for example, outputs using the display unit 23 or the speaker 27) so that the operator OP recognizes the detection of the incident and the operation console. 20 (operation unit 24) can be manually operated to check the surrounding conditions of the robot 10 while making decisions such as avoiding obstacles or dispatching people to the site as necessary. it can.

(A−2)第1の実施形態の動作
次に、以上のような構成を有する第1の実施形態のロボットシステム1の動作(実施形態に係る制御方法)を説明する。
(A-2) Operation of the First Embodiment Next, the operation of the robot system 1 of the first embodiment having the above configuration (control method according to the embodiment) will be described.

図2は、この実施形態におけるロボット10の動作について示したフローチャートである。 FIG. 2 is a flowchart showing the operation of the robot 10 in this embodiment.

図2は、ロボット10が、オペレーションの過程で、開始位置(第1の位置)から目標位置(第2の位置)へ移動する際の動作(制御部11が実行する処理)について示したフローチャートとなっている。 FIG. 2 is a flowchart showing an operation (process executed by the control unit 11) when the robot 10 moves from the start position (first position) to the target position (second position) in the process of operation. It has become.

ロボット10の制御部11は、開始位置から目標地点への移動を開始する際、まず、開始位置から目標位置へ到達するためのルート(以下、「移動予定ルート」と呼ぶ)の計算を行う(S101)。 When starting the movement from the start position to the target point, the control unit 11 of the robot 10 first calculates a route for reaching the target position from the start position (hereinafter, referred to as a “planned movement route”) (hereinafter, referred to as a “planned movement route”). S101).

次に、制御部11は、計算した移動予定ルートに従って移動するように、移動部13に対する制御(移動予定ルートに沿って移動するように移動する方向及び速度を制御)を行う(S102)。 Next, the control unit 11 controls the moving unit 13 (controls the direction and speed of moving so as to move along the planned movement route) so as to move according to the calculated movement schedule route (S102).

このとき、制御部11は、移動しながら、目標位置に到達したか否かの確認(S103)、及び移動予定ルート上の障害物(移動予定ルート上におけるロボット10の移動を妨げる物体又は妨げる恐れのある物体)の有無の検知(S104)を行う。このとき、移動部13は、目標地点への到達を確認した場合当該フローチャートの処理を終了し、移動予定ルート上に障害物を検知した場合には、後述するステップS105に移行し、目標地点に到達しておらず且つ移動予定ルート上に障害物も無い場合には上述のステップS102に戻って動作し移動予定ルート上の移動を継続する。 At this time, the control unit 11 confirms whether or not the target position has been reached (S103) while moving, and an obstacle on the planned movement route (an object or fear of hindering the movement of the robot 10 on the planned movement route). The presence or absence of (an object with) is detected (S104). At this time, when the moving unit 13 confirms that the target point has been reached, the processing of the flowchart is terminated, and when an obstacle is detected on the planned movement route, the moving unit 13 proceeds to step S105, which will be described later, to reach the target point. If it has not arrived and there are no obstacles on the planned movement route, the process returns to step S102 described above to operate and continue the movement on the planned movement route.

一方、移動予定ルート上に障害物が検出された場合、制御部11は、移動予定ルートの変更により障害物の回避が可能であるか否か(回避ルートの有無)を判断し(S105)、回避可能と判断した場合は後述するステップS109に移行し、そうでない場合は後述するステップS106に移行する。 On the other hand, when an obstacle is detected on the planned movement route, the control unit 11 determines whether or not the obstacle can be avoided by changing the planned movement route (presence or absence of the avoidance route) (S105). If it is determined that it can be avoided, the process proceeds to step S109 described later, and if not, the process proceeds to step S106 described later.

ステップS105で、移動予定ルートの変更により障害物の回避が可能であると判断した場合、制御部11は、当該障害物を回避した新しい移動予定ルートを設定し(S109)、上述のステップS102に戻って目標位置への移動を再開する。 When it is determined in step S105 that the obstacle can be avoided by changing the planned movement route, the control unit 11 sets a new planned movement route avoiding the obstacle (S109), and in step S102 described above. Go back and resume moving to the target position.

一方、上述のステップS105で、移動予定ルートの変更により障害物の回避が不可能と判断された場合、制御部11は、インシデントが発生したと判断し、操作卓20(オペレータOP)へ所定の通知を行い(S106)、操作卓20からの応答(通知に対する応答)の有無を確認する(S107)。このとき、制御部11は、移動部13を制御して移動を一旦中止するようにしてもよい。 On the other hand, in step S105 described above, when it is determined that the obstacle cannot be avoided due to the change of the planned movement route, the control unit 11 determines that an incident has occurred, and determines to the operation console 20 (operator OP). A notification is given (S106), and the presence or absence of a response (response to the notification) from the console 20 is confirmed (S107). At this time, the control unit 11 may control the moving unit 13 to temporarily stop the movement.

そして、制御部11は、通知に対する応答が操作卓20からあった場合は後述するステップS108移行し、通知に対する応答がない場合(例えば、直前の通知から一定時間内に応答がない場合)は、上述のステップS106に戻って再度通知処理を行う。 Then, when there is a response to the notification from the console 20, the control unit 11 proceeds to step S108, which will be described later, and when there is no response to the notification (for example, when there is no response within a certain time from the immediately preceding notification), the control unit 11 proceeds to step S108, which will be described later. Returning to step S106 described above, the notification process is performed again.

上述のステップS107で、操作卓20からの応答を受信した場合、制御部11は、操作卓20からの制御信号に応じて移動部13を動作させる遠隔操作モードに切り替えて(S208)移動部13の操作権を操作卓20に移譲し、当該フローチャートの処理を終了する。 When the response from the operation console 20 is received in step S107 described above, the control unit 11 switches to the remote control mode in which the movement unit 13 is operated in response to the control signal from the operation console 20 (S208). The operation right of the above is transferred to the operation console 20, and the processing of the flowchart is completed.

次に、ロボット10(移動部13)が上述の図2のフローチャートに従って動作する場合の具体的なシナリオの例について説明する。 Next, an example of a specific scenario in which the robot 10 (moving unit 13) operates according to the flowchart of FIG. 2 described above will be described.

ここでは、図3に示すように、ロボット10がオペレーションの過程で位置PAから位置PBまで移動する場合のシナリオについて説明する。 Here, as shown in FIG. 3, a scenario in which the robot 10 moves from the position PA to the position PB in the process of operation will be described.

図3は、ロボット10が移動する移動予定ルートの地図の例について図示している。図3に示す地図では、ロボット10が移動することができない領域(以下、「移動不可能領域」と呼ぶ)に斜線(ハッチ)を付すことで、ロボット10が移動可能な領域(以下、「移動可能領域」と呼ぶ)区分けしている。図3では位置PAから位置PBまで到達可能なルートとして第1のルートR1の線が図示されている。本明細書では、地図を図示する際には図3と同様の形式で説明するものとする。 FIG. 3 illustrates an example of a map of a planned movement route on which the robot 10 moves. In the map shown in FIG. 3, the area where the robot 10 cannot move (hereinafter, referred to as “immovable area”) is shaded with diagonal lines (hatch) so that the robot 10 can move (hereinafter, “moving”). It is divided into "possible areas"). In FIG. 3, the line of the first route R1 is shown as a route that can be reached from the position PA to the position PB. In the present specification, when the map is illustrated, it will be described in the same format as in FIG.

ここでは、ロボット10は、第1のルートR1を移動予定ルートとして自律移動(自律制御により移動)しているものとする。すなわち、図3は、ロボット10の制御部11において、自律移動に必要となる情報(移動予定ルートの決定等に必要となる情報;以下、「移動ルート情報」と呼ぶ)を可視化した内容と言える。言い換えると、ここでは、ロボット10の制御部11において、図3に示すような移動ルート情報が保持されているものとして説明する。すなわち、移動ルート情報には、ロボット10が移動可能な全体の領域の地図情報(以下、この地図情報による地図を「全体地図」と呼ぶ)、全体地図上における初期位置情報(例えば、図3における位置PAを特定する座標等の情報)、全体地図上における目標位置情報(例えば、図3における位置PBを特定する座標等の情報)、及び全体地図上における移動予定ルートの情報(例えば、図3における第1のルートR1に相当する曲線を特定する情報)が含まれる。全体地図の地図情報は、例えば、図3に示すような二次元情報(縦横で表された地図情報)としてもよいし、三次元情報報(縦横高さで表された地図情報)としてもよい。ロボット10の制御部11は、予め全体地図の地図情報を全て記憶しておくようにしてもよいし、必要に応じて外部(例えば、IP網NW上の図示しない地図情報のサーバ)からダウンロードするようにしてもよい。 Here, it is assumed that the robot 10 autonomously moves (moves by autonomous control) with the first route R1 as the planned movement route. That is, it can be said that FIG. 3 visualizes the information required for autonomous movement (information necessary for determining the planned movement route; hereinafter referred to as “movement route information”) in the control unit 11 of the robot 10. .. In other words, here, it is assumed that the control unit 11 of the robot 10 holds the movement route information as shown in FIG. That is, the movement route information includes map information of the entire area where the robot 10 can move (hereinafter, the map based on this map information is referred to as "overall map") and initial position information on the entire map (for example, in FIG. 3). Information such as coordinates that specify the position PA), target position information on the overall map (for example, information such as coordinates that specify the position PB in FIG. 3), and information on the planned movement route on the overall map (for example, FIG. 3). Information that identifies the curve corresponding to the first route R1 in the above) is included. The map information of the entire map may be, for example, two-dimensional information (map information represented by vertical and horizontal directions) as shown in FIG. 3, or three-dimensional information report (map information represented by vertical and horizontal heights). .. The control unit 11 of the robot 10 may store all the map information of the entire map in advance, or download it from the outside (for example, a server of map information (not shown) on the IP network NW) as needed. You may do so.

上述のステップS101において、ロボット10の制御部11が、移動予定ルート(例えば、図3における第1のルートR1)を計算(決定)するアルゴリズムについては限定されないものであり、種々のアルゴリズムを適用することができる。 In step S101 described above, the algorithm in which the control unit 11 of the robot 10 calculates (determines) the planned movement route (for example, the first route R1 in FIG. 3) is not limited, and various algorithms are applied. be able to.

そして、ロボット10の制御部11は、上述のステップS104、S105、S109のように、移動予定ルート上に障害物を検出した場合、移動ルート情報に基づいて、障害物を回避して目標位置に到達可能な回避ルートを識別し、回避ルートが取得できた場合には当該回避ルートを新たな移動予定ルートとして設定する。制御部11が回避ルートを取得(識別)する方法は限定されないものである。 Then, when the control unit 11 of the robot 10 detects an obstacle on the planned movement route as in steps S104, S105, and S109 described above, the control unit 11 avoids the obstacle and moves to the target position based on the movement route information. The reachable avoidance route is identified, and if the avoidance route can be acquired, the avoidance route is set as a new planned movement route. The method by which the control unit 11 acquires (identifies) the avoidance route is not limited.

図4、図5は、第1のルートR1上に障害物が発生した場合の回避ルートの例について示した図である。 4 and 5 are diagrams showing an example of an avoidance route when an obstacle occurs on the first route R1.

図4では、ロボット10の制御部11が、第1のルートR1を移動予定ルートとして移動を開始した地点(位置PA)で、第1のルートR1上の位置PDに障害物OBを検出した例について示している。図4の例では、位置PDを通らずに位置PAから位置PBまで到達可能な回避ルートとしては、例えば、第2のルートR2と第3のルートR3が存在する。 FIG. 4 shows an example in which the control unit 11 of the robot 10 detects an obstacle OB at a position PD on the first route R1 at a point (position PA) where the movement is started with the first route R1 as the planned movement route. Is shown. In the example of FIG. 4, as avoidance routes that can be reached from the position PA to the position PB without passing through the position PD, for example, there are a second route R2 and a third route R3.

図5では、ロボット10の制御部11が、第1のルートR1を移動予定ルートとして移動を開始し、位置PCに到達した時点で、位置PDに障害物OBを検出した例について示している。この場合は、図5に示すように位置PDを通らずに位置PCから位置PBまで到達可能な回避ルートとしては、例えば、第4のルートR4が存在する。 FIG. 5 shows an example in which the control unit 11 of the robot 10 starts moving with the first route R1 as the planned movement route, and detects an obstacle OB at the position PD when it reaches the position PC. In this case, as shown in FIG. 5, as an avoidance route that can reach the position PB from the position PC without passing through the position PD, for example, there is a fourth route R4.

次に、制御部11が、障害物を検出した際における回避ルートを識別(取得)する処理の具体例について説明する。 Next, a specific example of the process of identifying (acquiring) the avoidance route when the control unit 11 detects an obstacle will be described.

例えば、移動ルート情報に、移動予定ルートに対応する代替ルート(移動予定ルートと異なる経路で目標位置に到達するルート)の情報が予め設定されている場合(以下、その予め設定されている代替ルートを「静的代替ルート」と呼ぶ)を想定する。このとき、制御部11は、当該静的代替ルートが障害物を回避して目標位置に到達できる場合には、当該静的代替ルートを回避ルートの候補として取得することができる。例えば、ロボット10の制御部11で、第1のルートR1に対応する静的代替ルートとして第2のルートR2が設定されていた場合、第2のルートR2が回避ルートの候補として取得されることになる。 For example, when the information of the alternative route corresponding to the planned travel route (the route that reaches the target position by a route different from the planned travel route) is preset in the travel route information (hereinafter, the preset alternative route). Is called a "static alternative route"). At this time, if the static alternative route can avoid obstacles and reach the target position, the control unit 11 can acquire the static alternative route as a candidate for the avoidance route. For example, when the control unit 11 of the robot 10 sets the second route R2 as a static alternative route corresponding to the first route R1, the second route R2 is acquired as a candidate for the avoidance route. become.

また、制御部11は、例えば、移動ルート情報、自装置の現在位置、障害物の位置、及び目標位置に基づいて、所定のアルゴリズム(例えば、AI等を用いた種々の経路決定アルゴリズム)に従って代替ルートの検索を行い(以下、このとき検出した代替ルートを「動的代替ルート」と呼ぶ)、動的代替ルートが検出できた場合、当該動的代替ルートを回避ルートの候補として取得するようにしてもよい。例えば、ロボット10の制御部11で、移動ルート情報、自装置の現在位置PA、障害物の位置PD、及び目標位置PBに基づいて、動的代替ルートとして図4に示す第3のルートR3が検出された場合、第3のルートR3が回避ルートの候補として取得されることになる。 Further, the control unit 11 substitutes according to a predetermined algorithm (for example, various route determination algorithms using AI or the like) based on the movement route information, the current position of the own device, the position of the obstacle, and the target position. A route is searched (hereinafter, the alternative route detected at this time is referred to as a "dynamic alternative route"), and if a dynamic alternative route is detected, the dynamic alternative route is acquired as a candidate for an avoidance route. You may. For example, in the control unit 11 of the robot 10, the third route R3 shown in FIG. 4 is set as a dynamic alternative route based on the movement route information, the current position PA of the own device, the position PD of the obstacle, and the target position PB. If detected, the third route R3 will be acquired as a candidate for the avoidance route.

制御部11において、動的代替ルートを検出する具体的なアルゴリズムについては限定されないものである。例えば、制御部11は、自装置の現在位置、障害物の位置、及び目標位置に基づいて、検出した障害物を回避可能であって、目標位置に到達する最短のルートを動的代替ルートとして検出するようにしてもよい。制御部11は、例えば、AIにより、RRT(Rapidly exploring random tree)アルゴリズムなどに基づき障害物を発見した地点から、目標位置までに通じる純粋な最短ルートを導出してもよいし、障害物を発見した地点から障害物を回避しつつ現在の移動予定ルートに戻って目標位置に通じる最短ルートを導出するようにしてもよい。例えば、図5の例において、第4のルートR4は、障害物を発見した地点位置PCから目標位置PBに通ずる純粋な最短ルートであり、障害物を発見した位置PCから障害物を回避しつつ現在ルートに戻り目標位置PBに通ずる最短ルートともなる。 The control unit 11 is not limited to a specific algorithm for detecting a dynamic alternative route. For example, the control unit 11 can avoid the detected obstacle based on the current position of the own device, the position of the obstacle, and the target position, and sets the shortest route to reach the target position as a dynamic alternative route. It may be detected. For example, the control unit 11 may derive a pure shortest route leading to the target position from the point where the obstacle is found based on the RRT (Rapidly exploring random tree) algorithm or the like by AI, or find the obstacle. It is also possible to return to the current planned travel route and derive the shortest route leading to the target position while avoiding obstacles from the point. For example, in the example of FIG. 5, the fourth route R4 is a pure shortest route leading from the point position PC where the obstacle is found to the target position PB, while avoiding the obstacle from the position PC where the obstacle is found. It is also the shortest route that returns to the current route and leads to the target position PB.

なお、ロボット10の制御部11は、図4、図5に示すように現在の移動予定ルートと道(通路/道路)自体が異なるルートだけを回避ルートの候補として検出するようにしてもよいが、移動予定ルートと同じ道(通路/道路)で通る位置を補正(変更)することで障害物を回避するルートについても検出可能とするようにしてもよい。例えば、制御部11は、カメラ部14が撮像した画像やセンサ部15の検知結果に基づいて、現在の移動予定ルートの道(通路/道路)と障害物との位置関係を識別すると共に、現在の移動予定ルートと同じ道で自装置が通る位置を補正(以下、「ルート補正」と呼ぶ)することで、障害物を回避しつつ通行可能(幅や高さを識別して通行可否を識別)であるか否かを判断するようにしてもよい。そして、制御部11は、ルート補正により、障害物を回避することができる場合、当該ルート(現在の移動予定ルートをルート補正したルート;以下、「補正代替ルート」と呼ぶ)を回避ルートの候補として取得するようにしてもよい。 As shown in FIGS. 4 and 5, the control unit 11 of the robot 10 may detect only a route whose road (passage / road) itself is different from the current planned movement route as a candidate for an avoidance route. By correcting (changing) the position of the route (passage / road) that is the same as the planned travel route, it may be possible to detect a route that avoids obstacles. For example, the control unit 11 identifies the positional relationship between the road (passage / road) of the current planned travel route and the obstacle based on the image captured by the camera unit 14 and the detection result of the sensor unit 15, and currently By correcting the position where the own device passes on the same road as the planned movement route (hereinafter referred to as "route correction"), it is possible to pass while avoiding obstacles (identify the width and height to identify the passability). ) May be determined. Then, when the obstacle can be avoided by the route correction, the control unit 11 sets the route (a route obtained by correcting the current planned movement route; hereinafter referred to as a "correction alternative route") as a candidate for the avoidance route. It may be obtained as.

ロボット10の制御部11が行うルート補正(補正代替ルートの検出の仕方)の具体例について図6、図7を用いて説明する。 A specific example of route correction (method of detecting a correction alternative route) performed by the control unit 11 of the robot 10 will be described with reference to FIGS. 6 and 7.

ここでは、図6に示すように、ロボット10の制御部11が、第1のルートR1を移動予定ルートとして移動中に、位置PCの位置において位置PDに存在する障害物OBを検出(発見)したものとする。 Here, as shown in FIG. 6, the control unit 11 of the robot 10 detects (discovers) an obstacle OB existing at the position PD at the position of the position PC while moving with the first route R1 as the planned movement route. It is assumed that

図7は、ロボット10のカメラ部25が撮像した進行方向(移動方向)のカメラ画像の例について示した図である。 FIG. 7 is a diagram showing an example of a camera image in the traveling direction (moving direction) captured by the camera unit 25 of the robot 10.

図7は、ロボット10のカメラ部25が、位置PCから第1のルートR1の進行方向を撮像した場合のカメラ画像について示した図である。この場合、ロボット10の制御部11は、図7(a)に示すようなカメラ画像やセンサ部15のセンサ情報(例えば、図示しないLidarセンサを用いた検知結果)に基づき、図7(b)に示すように位置PDの通路において、ロボット10から見て障害物OBの右側と左側に隙間が存在することが検知できる。また、このとき、ロボット10の制御部11は、図7(a)に示すようなカメラ画像やセンサ部15のセンサ情報に基づいて、障害物OBの右側と左側に形成される隙間の大きさ(幅)を検知することができる。すなわち、ロボット10の制御部11は、図7(a)に示すようなカメラ画像やセンサ部15のセンサ情報に基づいて、障害物OBの右側と左側に形成される隙間について、それぞれ自装置(ロボット10)が障害物OBに接触せずに通過できるか否かを判断することができる。ここで、ロボット10の制御部11は、図7(b)に示すように、障害物OBの右側に形成された隙間はロボット10が通過可能であり、ルート補正により障害物OBを回避できると判断したものとする。そうすると、制御部11は、図7(c)、図6に示すように、現在の移動予定ルートである第1のルートR1について、ロボット10から見て障害物OBの右側を通過するルート補正を行った第5のルートR5(補正代替ルート)を回避ルートの候補として取得することができる。 FIG. 7 is a diagram showing a camera image when the camera unit 25 of the robot 10 captures the traveling direction of the first route R1 from the position PC. In this case, the control unit 11 of the robot 10 is based on the camera image as shown in FIG. 7A and the sensor information of the sensor unit 15 (for example, the detection result using a lidar sensor (not shown)). As shown in the above, in the passage of the position PD, it can be detected that a gap exists on the right side and the left side of the obstacle OB when viewed from the robot 10. At this time, the control unit 11 of the robot 10 has the size of the gap formed on the right side and the left side of the obstacle OB based on the camera image and the sensor information of the sensor unit 15 as shown in FIG. 7A. (Width) can be detected. That is, the control unit 11 of the robot 10 has its own device (the gaps formed on the right side and the left side of the obstacle OB, respectively, based on the camera image as shown in FIG. 7A and the sensor information of the sensor unit 15. It is possible to determine whether or not the robot 10) can pass through without touching the obstacle OB. Here, as shown in FIG. 7B, the control unit 11 of the robot 10 allows the robot 10 to pass through the gap formed on the right side of the obstacle OB, and can avoid the obstacle OB by route correction. It shall be judged. Then, as shown in FIGS. 7C and 6, the control unit 11 corrects the route passing through the right side of the obstacle OB with respect to the first route R1 which is the current planned movement route when viewed from the robot 10. The fifth route R5 (correction alternative route) performed can be acquired as a candidate for the avoidance route.

上記の通り、ロボット10の制御部11は、静的代替ルート、動的代替ルート、及び補正代替ルートについて回避ルートの候補として取得することができる。ロボット10の制御部11は、静的代替ルート、動的代替ルート、及び補正代替ルートの全てを回避ルートの候補として取得可能な構成としてもよいし、一部のみを回避ルートの候補として取得可能としてもよい。また、ロボット10の制御部11は、ステップS105〜S108に示すように、回避ルートが取得できたか否かに応じて、操作卓20(オペレータOP)と連携する処理等のアクションも変化する。 As described above, the control unit 11 of the robot 10 can acquire the static alternative route, the dynamic alternative route, and the correction alternative route as candidates for the avoidance route. The control unit 11 of the robot 10 may have a configuration in which all of the static alternative route, the dynamic alternative route, and the correction alternative route can be acquired as candidates for the avoidance route, or only a part of them can be acquired as candidates for the avoidance route. May be. Further, as shown in steps S105 to S108, the control unit 11 of the robot 10 also changes actions such as processing linked with the operation console 20 (operator OP) depending on whether or not the avoidance route can be acquired.

ここでは、ロボット10の制御部11が、制御部11による回避ルートの取得処理及び回避ルートの取得結果に応じたアクション(インシデント(自律制御中止インシデント)の有無に応じたアクション)を決定する処理の具体例について説明する。具体的には、ここでは、制御部11は、図8のようなマトリクスで示されるポリシーで、回避ルートの取得及び回避ルートの取得結果に応じたアクションを決定するものとして説明する。 Here, the control unit 11 of the robot 10 determines an action (action according to the presence or absence of an incident (autonomous control stop incident)) according to the acquisition process of the avoidance route by the control unit 11 and the acquisition result of the avoidance route. A specific example will be described. Specifically, here, the control unit 11 will be described as determining an action according to the acquisition of the avoidance route and the acquisition result of the avoidance route in the policy shown by the matrix as shown in FIG.

図8に示すポリシーでは、制御部11は、補正代替ルート、静的代替ルート、動的代替ルートの順序で取得してゆき、最初に取得した回避可能な代替ルートを回避ルートとして取得し、いずれの代替ルートも回避不可であった場合には回避不可能と判断するポリシーとなっている。言い換えると、図8に示すポリシーでは、制御部11は、補正代替ルート、静的代替ルート、動的代替ルートという優先順序で、回避ルートの候補を取得する。 In the policy shown in FIG. 8, the control unit 11 acquires the corrected alternative route, the static alternative route, and the dynamic alternative route in this order, and acquires the first acquired avoidable alternative route as the avoidance route. It is a policy to judge that it is unavoidable if the alternative route of is also unavoidable. In other words, in the policy shown in FIG. 8, the control unit 11 acquires the avoidance route candidates in the priority order of the correction alternative route, the static alternative route, and the dynamic alternative route.

図8に示すポリシーでは、上の行から順に、補正代替ルートで回避可能な場合、補正代替ルートでは回避できないが静的代替ルートで回避可能な場合、補正代替ルート及び静的代替ルートでは回避できないが動的代替ルートで回避可能な場合、及びいずれの代替ルートでも回避できない場合の「識別結果」(回避の可否)、及びその後の「アクション」について示している。 In the policy shown in FIG. 8, in order from the upper line, if it can be avoided by the corrected alternative route, it cannot be avoided by the corrected alternative route, but if it can be avoided by the static alternative route, it cannot be avoided by the corrected alternative route and the static alternative route. Shows the "identification result" (whether or not avoidance is possible) when can be avoided by the dynamic alternative route and the case where it cannot be avoided by any alternative route, and the subsequent "action".

図8に示すポリシー(1行目のポリシー)では、制御部11は、補正代替ルートで回避できると判断した場合、アクションとして回避位置まで移動して元の移動ルートに戻る補正代替ルート(例えば、例えば、図6に示す第5のルートR5)を回避ルートとして取得し、移動予定ルートに設定する処理を行う。なお、このとき、制御部11は、操作卓20(オペレータOP)に検出した障害物に関する情報(以下、「障害物情報」と呼ぶ)や、補正代替ルートで移動中である旨を通知するようにしてもよい。障害物情報には、例えば、障害物を撮像したカメラ画像や、障害物のカメラ画像から識別(例えば、AI等により識別)した障害物の名称(例えば、段ボール箱、倒木、台車、危険物等)や、センサ部15の計測結果より取得した障害物の大きさ(例えば、幅、高さ、奥行き等)の情報を含むようにしてもよい。 In the policy shown in FIG. 8 (policy on the first line), when the control unit 11 determines that the correction alternative route can be avoided, the control unit 11 moves to the avoidance position as an action and returns to the original movement route (for example, the correction alternative route). For example, a process of acquiring the fifth route R5) shown in FIG. 6 as an avoidance route and setting it as a planned movement route is performed. At this time, the control unit 11 notifies the operation console 20 (operator OP) of the detected obstacle information (hereinafter referred to as "obstacle information") and the fact that the user is moving on the correction alternative route. You may do it. The obstacle information includes, for example, a camera image of an obstacle or an obstacle name (for example, a cardboard box, a fallen tree, a trolley, a dangerous object, etc.) identified from the camera image of the obstacle (for example, identified by AI or the like). ) And information on the size of the obstacle (for example, width, height, depth, etc.) acquired from the measurement result of the sensor unit 15.

また、図8に示すポリシー(2行目のポリシー)では、制御部11は、補正代替ルートでは回避できないが静的代替ルートで回避可能と判断した場合、アクションとして静的代替ルート(例えば、例えば、図4に示す第2のルートR2)を回避ルートとして取得し、移動予定ルートに設定する処理を行う。なお、このとき、制御部11は、操作卓20(オペレータOP)に障害物情報や、静的代替ルートで移動中である旨を通知するようにしてもよい。 Further, in the policy shown in FIG. 8 (policy on the second line), when the control unit 11 determines that it cannot be avoided by the corrected alternative route but can be avoided by the static alternative route, the static alternative route (for example, for example) is used as an action. , The second route R2) shown in FIG. 4 is acquired as an avoidance route, and a process of setting it as a planned movement route is performed. At this time, the control unit 11 may notify the operation console 20 (operator OP) of obstacle information or the fact that the user is moving by a static alternative route.

さらに、図8に示すポリシー(3行目のポリシー)では、制御部11は、補正代替ルート及び静的代替ルートでは回避できないが動的代替ルートで回避可能と判断した場合、アクションとして動的代替ルート(例えば、例えば、図5に示す第4のルートR4)を回避ルートとして取得し、移動予定ルートに設定する処理を行う。なお、このとき、制御部11は、操作卓20(オペレータOP)に障害物情報や、動的代替ルートで移動中である旨を通知するようにしてもよい。 Further, in the policy shown in FIG. 8 (policy on the third line), when the control unit 11 determines that it cannot be avoided by the corrected alternative route and the static alternative route but can be avoided by the dynamic alternative route, the control unit 11 dynamically substitutes as an action. A process of acquiring a route (for example, the fourth route R4 shown in FIG. 5) as an avoidance route and setting it as a planned movement route is performed. At this time, the control unit 11 may notify the operation console 20 (operator OP) of the obstacle information or the fact that the vehicle is moving by the dynamic alternative route.

さらにまた、図8に示すポリシー(4行目のポリシー)では、制御部11は、いずれの代替ルートでも回避できないと判断した場合、回避不可能と判断(インシデント検出と判断)し、アクションとして、その場で移動を停止し、操作卓20(オペレータOP)へ、障害物情報、障害物を回避不可能であること(いずれの代替ルートでも回避不可能である旨の情報を付加するようにしてもよい)、及びオペレータOPへ手動で自装置の操作を行うことを依頼する処理(以下、「手動操作依頼」と呼ぶ)を行う。また、制御部11は、操作卓20から手動操作依頼に対する応答を受けると、周囲の状況に関するデータ(例えば、カメラ画像やセンサ部15の計測結果等を含むデータ)を操作卓20に送信するようにしてもよい。 Furthermore, in the policy shown in FIG. 8 (policy on the 4th line), when the control unit 11 determines that it cannot be avoided by any of the alternative routes, it determines that it cannot be avoided (determines that it is an incident detection), and takes action as an action. The movement is stopped on the spot, and obstacle information and information that the obstacle is unavoidable (that is unavoidable by any alternative route) are added to the operation console 20 (operator OP). It may be), and a process of requesting the operator OP to manually operate the own device (hereinafter referred to as "manual operation request") is performed. Further, when the control unit 11 receives a response to the manual operation request from the operation console 20, the control unit 11 transmits data on the surrounding situation (for example, data including a camera image and the measurement result of the sensor unit 15) to the operation console 20. It may be.

以上のように、ロボット10の制御部11は、障害物を回避不可能と判断した場合には、操作卓20(オペレータOP)に手動操作依頼を送信して操作卓20(オペレータOP)の手動による遠隔操作を受け付ける動作モード(遠隔動作モード)に移行する処理を行う(ステップS108参照)。 As described above, when the control unit 11 of the robot 10 determines that the obstacle cannot be avoided, the control unit 11 sends a manual operation request to the operation console 20 (operator OP) to manually operate the operation console 20 (operator OP). Performs the process of shifting to the operation mode (remote operation mode) for accepting the remote operation by (see step S108).

一方、操作卓20の制御部21は、ロボット10から手動操作依頼を受信すると、その旨をオペレータOPに出力する処理を行う(例えば、表示部16による表示出力やスピーカ17による音響出力する処理を行う)。その後、操作卓20の制御部21は、オペレータOPから手動操作依頼に対する応答の操作を受け付けると(操作部24に対する所定の操作を受けた場合)、ロボット10に手動操作依頼に対する応答を送信し、ロボット10との間にコネクション(遠隔操作するためのコネクション)を確立する。これにより、操作卓20の制御部21は、オペレータOPからの操作入力(操作部24に対する操作)に応じて、ロボット10に制御信号(例えば、移動する方向及び速度に関する制御信号)を送信する処理を行う。一方、ロボット10の制御部11は、遠隔動作モードに移行すると、操作卓20からの制御信号に応じて移動するように移動部13を制御する処理を行う。このとき、ロボット10の制御部11が、リアルタイムにカメラ部14が撮像するカメラ画像から移動する方向(進行方向)の視野の画像やセンサ部15が取得したセンサ情報を取得して操作卓20に送信し、操作卓20の制御部21が取得した画像を表示部23(操作画面)に表示するようにしてもよい。このとき、操作卓20の制御部11は、例えば、図9に示すような画面を表示部23に表示するようにしてもよい。 On the other hand, when the control unit 21 of the operation console 20 receives the manual operation request from the robot 10, it performs a process of outputting to that effect to the operator OP (for example, a process of displaying output by the display unit 16 or sound output by the speaker 17). Do). After that, when the control unit 21 of the operation console 20 receives the operation of the response to the manual operation request from the operator OP (when a predetermined operation to the operation unit 24 is received), the control unit 21 transmits the response to the manual operation request to the robot 10. A connection (connection for remote control) is established with the robot 10. As a result, the control unit 21 of the operation console 20 transmits a control signal (for example, a control signal relating to the moving direction and speed) to the robot 10 in response to an operation input (operation on the operation unit 24) from the operator OP. I do. On the other hand, when the robot 10 shifts to the remote operation mode, the control unit 11 of the robot 10 performs a process of controlling the moving unit 13 so as to move in response to a control signal from the operation console 20. At this time, the control unit 11 of the robot 10 acquires the image of the field of view in the moving direction (traveling direction) from the camera image captured by the camera unit 14 in real time and the sensor information acquired by the sensor unit 15 and displays it on the console 20. The image transmitted and acquired by the control unit 21 of the operation console 20 may be displayed on the display unit 23 (operation screen). At this time, the control unit 11 of the operation console 20 may display the screen as shown in FIG. 9 on the display unit 23, for example.

図9、図10は、ロボット10(制御部11)が障害物を発見して遠隔操作モードに切り替わった際に操作卓20(表示部23)で表示される画面(以下、「遠隔操作画面」と呼ぶ)の例について示した図である。図9、図10では、図5に示すようにロボット10が位置PCで位置PDに存在する障害物OBを発見し遠隔動作モードに移行した場合に操作卓20で表示される遠隔操作画面の例について示している。 9 and 10 show screens displayed on the console 20 (display unit 23) when the robot 10 (control unit 11) finds an obstacle and switches to the remote control mode (hereinafter, “remote control screen””. It is a figure which showed the example of). 9 and 10 show an example of a remote control screen displayed on the console 20 when the robot 10 finds an obstacle OB existing in the position PD on the position PC and shifts to the remote operation mode as shown in FIG. Is shown.

図9に示すように、遠隔操作画面では、ロボット10が撮像したカメラ画像(ロボット10が移動する方向の画像)と共に、障害物情報(図9における「段ボール縦30cmx横200cmx高さ130cm」という文字列)や、センサ情報(図9における、「温度:26℃、湿度:45%、照度:46lx、気圧:990hPa」という文字列)を付記するようにしてもよい。これにより、オペレータOPは、ロボット10のカメラ画像(映像情報)や、ロボット10が発見した障害物の障害物情報やロボット10が存在する位置の環境情報(温度等)を閲覧しながら遠隔操作を行うことができる。 As shown in FIG. 9, on the remote control screen, along with the camera image (image in the direction in which the robot 10 moves) captured by the robot 10, obstacle information (characters "cardboard length 30 cm x width 200 cm x height 130 cm" in FIG. 9). (Column) and sensor information (character string "temperature: 26 ° C., humidity: 45%, illuminance: 46 lp, atmospheric pressure: 990 hPa" in FIG. 9) may be added. As a result, the operator OP can perform remote control while viewing the camera image (video information) of the robot 10, obstacle information of obstacles found by the robot 10, and environmental information (temperature, etc.) of the position where the robot 10 exists. It can be carried out.

なお、遠隔操作画面に表示される映像情報として、単にカメラ部14が撮像した画像をそのまま表示するようにしてもよいし、加工して表示するようにしてもよい。遠隔操作画面では、例えば、図10に示すように、ロボット10が撮像したカメラ画像に基づいて生成(レンダリング)されたロボット10の俯瞰画像(当該ロボット10周辺の自由視点画像であって当該ロボット10を斜め上方向から俯瞰した画像)に、ロボット10をかたどったグラフィックG101(いわゆるアバター画像)をレンダリングした画像(いわゆるフライングビュー画像)を表示するようにしてもよい。フライングビュー画像をレンダリングする処理については、例えば、参考文献1(沖電気工業株式会社 駒井 英敬著,「フライングビュー」,[Online],INTERNET,[2019年10月8日検索],<URL:https://www.oki.com/jp/iot/doc/2018/img/ceatec/ceatec_flyingview.pdf>の記載技術を適用するようにしてもよい。 As the video information displayed on the remote control screen, the image captured by the camera unit 14 may be simply displayed as it is, or may be processed and displayed. On the remote control screen, for example, as shown in FIG. 10, a bird's-eye view image of the robot 10 generated (rendered) based on a camera image captured by the robot 10 (a free viewpoint image around the robot 10 and the robot 10). An image (so-called flying view image) obtained by rendering a graphic G101 (so-called avatar image) in the shape of the robot 10 may be displayed on the image (an image viewed from diagonally above). Regarding the process of rendering the Flying View image, for example, Reference 1 (Oki Electric Industry Co., Ltd. Hidetaka Komai, "Flying View", [Online], INTERNET, [Searched on October 8, 2019], <URL: https You may apply the description technology of //www.oki.com/jp/iot/doc/2018/img/ceatec/ceatec_flyingview.pdf>.

また、ロボット10の制御部11は、遠隔操作モードにおいて、オペレータOPの手動による操作受付だけでなく、オペレータOPの手動操作による新たな移動予定ルートの設定を受け付けるようにしてもよい。 Further, the control unit 11 of the robot 10 may accept not only the manual operation reception of the operator OP but also the setting of a new planned movement route by the manual operation of the operator OP in the remote control mode.

ここでは具体例として、図11を用いて、ロボット10(制御部11)が遠隔操作モードにおいてオペレータOPの手動操作により新たな移動予定ルートの設定を受け付ける動作の例について説明する。 Here, as a specific example, an example of an operation in which the robot 10 (control unit 11) accepts the setting of a new planned movement route by the manual operation of the operator OP in the remote control mode will be described with reference to FIG.

図11の例では、ロボット10が第1のルートR1を移動予定ルートとして移動中に位置PCで位置PDに存在する障害物OBを発見した場合の例について示している。この場合、操作卓20の制御部21は、表示部23に新たな移動予定ルートの設定を受け付けることが可能な操作画面(例えば、図11に示すような移動ルート情報を表示した操作画面)を表示し、新たな移動予定ルートの指定を受け付けるようにしてもよい。ここでは、例として、オペレータOPにより図11に示す第6のルートR6が新たな移動予定ルートとして設定されたものとする。この場合、操作卓20の制御部21は、ロボットに対して新たな移動予定ルートを含む移動ルート情報を送信する。そして、遠隔操作モードにおいてロボット10の制御部11が新たな移動予定ルートを含む移動ルート情報を受信すると、新たな移動予定ルートを設定して移動の制御を開始する。例えば、図11の例の場合、ロボット10の制御部11は、一端初期の位置PAに戻ってから新たな移動予定ルートである第6のルートR6で目標位置PBに向かって移動を開始するようにしても良い。手動で設定された移動予定ルートで移動する間、ロボット10の制御部11は、カメラ部25により撮像されたカメラ画像(例えば、ロボット10が移動する方向の視野のカメラ画像)を操作卓20に送信し、操作卓20の制御部11は、例えば、図12に示すように、ロボット10から送信されたカメラ画像を表示部23に表示する操作画面を表示するようにしてもよい。図12の画面の例では、ロボット10が位置PCから位置PAに戻って新たな移動予定ルートである第6のルートR6で移動を開始した際のカメラ画像(ロボット10が移動する方向のカメラ画像)を表示した状態について示している。図12の画面の例では、単にカメラ部14が撮像した画像をそのまま表示しているが、ロボット10が撮像したカメラ画像に基づいて生成(レンダリング)されたロボット10の俯瞰画像(当該ロボット10周辺の自由視点画像であって当該ロボット10を斜め上方向から俯瞰した画像)に、ロボット10をかたどったグラフィック(いわゆるアバター画像)をレンダリングした画像(いわゆるフライングビュー画像)を表示するような操作画面としてもよい。 In the example of FIG. 11, an example is shown in which the robot 10 finds an obstacle OB existing in the position PD on the position PC while moving with the first route R1 as the planned movement route. In this case, the control unit 21 of the operation console 20 displays an operation screen (for example, an operation screen displaying the movement route information as shown in FIG. 11) capable of accepting the setting of a new movement route on the display unit 23. It may be displayed and a new planned travel route may be accepted. Here, as an example, it is assumed that the sixth route R6 shown in FIG. 11 is set as a new planned movement route by the operator OP. In this case, the control unit 21 of the console 20 transmits the movement route information including the new movement schedule route to the robot. Then, when the control unit 11 of the robot 10 receives the movement route information including the new movement schedule route in the remote control mode, the new movement schedule route is set and the movement control is started. For example, in the case of the example of FIG. 11, the control unit 11 of the robot 10 returns to the initial position PA and then starts moving toward the target position PB on the sixth route R6, which is a new planned movement route. You can do it. While moving along the manually set planned movement route, the control unit 11 of the robot 10 displays the camera image captured by the camera unit 25 (for example, the camera image of the field of view in the direction in which the robot 10 moves) on the console 20. For example, as shown in FIG. 12, the control unit 11 of the operation console 20 may display an operation screen for displaying the camera image transmitted from the robot 10 on the display unit 23. In the screen example of FIG. 12, the camera image when the robot 10 returns from the position PC to the position PA and starts moving on the sixth route R6, which is a new planned movement route (camera image in the direction in which the robot 10 moves). ) Is displayed. In the screen example of FIG. 12, the image captured by the camera unit 14 is simply displayed as it is, but a bird's-eye view image of the robot 10 generated (rendered) based on the camera image captured by the robot 10 (around the robot 10). As an operation screen that displays a rendered image (so-called flying view image) of a graphic (so-called avatar image) in the shape of the robot 10 on a free-viewpoint image of the robot 10 from an obliquely upward view). May be good.

(A−3)第1の実施形態の効果
第1の実施形態によれば、以下のような効果を奏することができる。
(A-3) Effect of First Embodiment According to the first embodiment, the following effects can be obtained.

第1の実施形態のロボット10(制御部11)は、障害物を認識し、回避不可能な場合には、人間(オペレータOP)の介在が必要であるため、インシデント(自律制御中止インシデント)を検出する。そして、ロボット10は、インシデントを検出した場合、オペレータOPが使用する操作卓20にその旨を通知する。これにより、第1の実施形態では、ロボット10(制御部11)による自律制御が不可能な場合(人間の介在が必須な場合)にのみオペレータOPに操作を引き継がせるため、オペレータOPの作業負荷を軽減させること等の効果を奏する。 The robot 10 (control unit 11) of the first embodiment recognizes an obstacle, and if it cannot be avoided, it requires the intervention of a human (operator OP), so that an incident (autonomous control stop incident) is detected. To detect. Then, when the robot 10 detects an incident, the robot 10 notifies the operation console 20 used by the operator OP to that effect. As a result, in the first embodiment, the operation is taken over by the operator OP only when autonomous control by the robot 10 (control unit 11) is not possible (when human intervention is essential), so that the workload of the operator OP is taken over. It has the effect of reducing the amount of water.

また、第1の実施形態のロボット10(制御部11)は、インシデントの原因(発生源)に関する情報(例えば、障害物に関する情報)も一緒に操作卓20に通知している。これにより、第1の実施形態では、オペレータOPにスムーズに操作(ロボット10の操作)を引き継がせ、さらにリアルタイムに障害物を確認させることで、インシデントに対して状況に応じたきめ細やかな対応をさせることができる。 In addition, the robot 10 (control unit 11) of the first embodiment also notifies the operation console 20 of information regarding the cause (source) of the incident (for example, information regarding obstacles). As a result, in the first embodiment, the operator OP can smoothly take over the operation (operation of the robot 10), and further, by confirming the obstacle in real time, it is possible to respond to the incident in detail according to the situation. Can be made to.

(B)第2の実施形態
以下、本発明による移動物システム、移動物、制御プログラム、及び制御方法の第2の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の移動物システム及び移動物をロボットシステム及びロボットに適用した例について説明する。
(B) Second Embodiment Hereinafter, a second embodiment of the moving object system, the moving object, the control program, and the control method according to the present invention will be described in detail with reference to the drawings. In this embodiment, an example in which the moving object system and the moving object of the present invention are applied to the robot system and the robot will be described.

(B−1)第2の実施形態の構成
図13は、第2の実施形態におけるロボットシステム1Aの全体構成の例について示したブロック図である。図13では、上述の図1と同一部分又は対応部分について、同一符号又は対応符号を付している。なお、図13において括弧内の符号は、後述する第3の実施形態でのみ用いられる符号である。
(B-1) Configuration of Second Embodiment FIG. 13 is a block diagram showing an example of the overall configuration of the robot system 1A in the second embodiment. In FIG. 13, the same reference numerals or corresponding reference numerals are given to the same portions or corresponding portions as those in FIG. 1 described above. The reference numerals in parentheses in FIG. 13 are reference numerals used only in the third embodiment described later.

以下では、第2の実施形態について第1の実施形態との差異を中心に説明する。 Hereinafter, the second embodiment will be described focusing on the differences from the first embodiment.

第2の実施形態のロボットシステム1Aでは、ロボット10及び操作卓20の数が複数となっている。図13に示す第2の実施形態のロボットシステム1Aでは、N台(Nは2以上の整数)のロボット10(10−1〜10−N)と、M台(Mは2以上の整数)の操作卓20(20−1〜20−M)が配置された構成となっている。なお、第2の実施形態において、ロボット10の数(N)は1つであってもよい。また、図13では、M人のオペレータOP(OP−1〜OP−N)がそれぞれ対応する操作卓20(20−1〜20−M)を使用する例について図示している。すなわち、この実施形態では、オペレータOP−1〜OP−Mが操作卓20−1〜20−Mを使用する例となっている。 In the robot system 1A of the second embodiment, the number of the robot 10 and the operating console 20 is a plurality. In the robot system 1A of the second embodiment shown in FIG. 13, N robots (N is an integer of 2 or more) and M robots 10 (10-1 to 10-N) (M is an integer of 2 or more). The console 20 (20-1 to 20-M) is arranged. In the second embodiment, the number (N) of the robots 10 may be one. Further, FIG. 13 illustrates an example in which M operator OPs (OP-1 to OP-N) use the corresponding consoles 20 (20-1 to 20-M). That is, in this embodiment, the operators OP-1 to OP-M use the consoles 20-1 to 20-M.

第2の実施形態における各ロボット10−1〜10−Nでは、制御部11の処理の一部が異なっていること以外は第1の実施形態と同様である。また、第2の実施形態における各操作卓20−1〜20−Nの構成についても、制御部21の処理の一部が異なっていること以外は第1の実施形態と同様である。 Each robot 10-1 to 10-N in the second embodiment is the same as the first embodiment except that a part of the processing of the control unit 11 is different. Further, the configurations of the operating consoles 20-1 to 20-N in the second embodiment are the same as those in the first embodiment except that a part of the processing of the control unit 21 is different.

また、第1の実施形態のロボットシステム1では、ロボット10がオペレータOP(操作卓20)へ通報すべきインシデントとして障害物の発生(障害物により移動予定ルート上の移動が妨げられる事象)を適用する例について説明した。第2の実施形態のロボットシステム1Aでは、ロボット10は障害物の発生以外のインシデント(例えば、傷病者等)も検知し、検知したインシデントの種別に応じたシナリオに従った処理を実行するものとする。制御部11が、インシデントとして傷病者を検出する方法については限定されないものであるが、例えば、カメラ部14が撮像したカメラ画像から、AI処理等により合致する人物を検出するようにしてもよい。 Further, in the robot system 1 of the first embodiment, the occurrence of an obstacle (an event in which the movement on the planned movement route is hindered by the obstacle) is applied as an incident that the robot 10 should report to the operator OP (operation console 20). An example of doing so was explained. In the robot system 1A of the second embodiment, the robot 10 also detects an incident other than the occurrence of an obstacle (for example, an injured person or the like) and executes processing according to a scenario according to the type of the detected incident. To do. The method by which the control unit 11 detects the injured or sick as an incident is not limited, but for example, a matching person may be detected from the camera image captured by the camera unit 14 by AI processing or the like.

さらに、第2の実施形態のロボットシステム1Aでは、ロボット10でインシデントが検出された場合、当該インシデントを通報すべきオペレータOP(操作卓20)を、所定のルールに基づいて選択し、選択したオペレータOP(操作卓20)へ通報する処理を行う。例えば、ロボット10の制御部11でインシデントが検出された場合、各オペレータOPの状態(以下、「オペレータ状態」と呼ぶ)や、予め設定された各オペレータOPに関する情報(例えば、各オペレータの能力、役割、職責等の情報;以下、「オペレータ情報」と呼ぶ)を考慮して当該インシデントを通知するオペレータOPが選択(振分)されるものとする。各オペレータOP状態とは、例えば、操作卓20のカメラ部25により撮像されたオペレータOPの画像やセンサ部26をオペレータOPに対して検知を行った場合の結果(センサ情報)に基づいて推定されるオペレータOPの心身の状態や、オペレータOPが現在実行しているタスク(例えば、他のロボット10の遠隔操作を行っていること等)を含む情報としてもよい。 Further, in the robot system 1A of the second embodiment, when an incident is detected by the robot 10, an operator OP (operation console 20) for reporting the incident is selected based on a predetermined rule, and the selected operator is selected. Performs a process of notifying the OP (operation console 20). For example, when an incident is detected by the control unit 11 of the robot 10, the state of each operator OP (hereinafter referred to as "operator state") and preset information about each operator OP (for example, the ability of each operator, etc.) It is assumed that the operator OP for notifying the incident is selected (sorted) in consideration of information such as roles and responsibilities; hereinafter referred to as "operator information"). Each operator OP state is estimated based on, for example, an image of the operator OP captured by the camera unit 25 of the console 20 and a result (sensor information) when the sensor unit 26 is detected for the operator OP. It may be information including the mental and physical state of the operator OP and the task currently being executed by the operator OP (for example, remote control of another robot 10).

オペレータOPの心身の状態とは、例えば、オペレータOPの顔の画像から分析される感情の状態(例えば、喜怒哀楽の度合い)や、瞳孔の状態(例えば、瞳孔の位置や大きさ)等から分析される作業集中度等が挙げられる。 The mental and physical state of the operator OP is, for example, the emotional state analyzed from the facial image of the operator OP (for example, the degree of emotions), the state of the pupil (for example, the position and size of the pupil), and the like. The degree of work concentration to be analyzed can be mentioned.

以上のように、制御部11は、各オペレータOPのオペレータ状態やオペレータ情報等に基づいて当該インシデント(例えば、当該インシデント種別)に対して適切なオペレータOPを選択するようにしてもよい。 As described above, the control unit 11 may select an appropriate operator OP for the incident (for example, the incident type) based on the operator state, operator information, and the like of each operator OP.

ロボットシステム1Aにおいて、各オペレータOPのオペレータ情報及びオペレータ状態の情報について各ロボット10(制御部11)で共有する構成については限定されないものである。例えば、各オペレータOPに関するオペレータ情報として、各オペレータOPの能力(例えば、「どのような異常対応に適しているか」、「ロボット10の操作への習熟度や場面への得意、不得意」、「警備知識を保有しているか」、「救命救急に関する知識を保有しているか」等)に関する情報を図示しないデータベース(例えば、IP網NWに接続可能な図示しないデータベースサーバ)に登録しておき、各ロボット10(制御部11)で共有可能な情報とするようにしてもよい。 In the robot system 1A, the configuration in which the operator information of each operator OP and the information on the operator state are shared by each robot 10 (control unit 11) is not limited. For example, as operator information regarding each operator OP, the ability of each operator OP (for example, "what kind of abnormality is suitable for dealing with", "proficiency in operation of robot 10, strength in scene, weakness", " Information about "Do you have security knowledge", "Do you have knowledge about life-saving emergency", etc.) is registered in a database (for example, a database server (not shown) that can be connected to the IP network NW) and each is registered. The information may be shared by the robot 10 (control unit 11).

また、ロボットシステム1Aにおいて、各操作卓20の制御部21が、センサ部26によるセンサ情報(オペレータOPを検知した結果のセンサ情報)やカメラ部25が撮像した画像(オペレータOPを撮像した画像)等に基づいてオペレータ情報を取得し、各操作卓20が取得したオペレータ情報(各オペレータOPのオペレータ情報)を、図示しないデータベース(例えば、IP網NWに接続可能な図示しないデータベースサーバ)にリアルタイムに更新登録しておき、各ロボット10(制御部11)で共有可能な情報とするようにしてもよい。 Further, in the robot system 1A, the control unit 21 of each console 20 captures sensor information (sensor information as a result of detecting the operator OP) by the sensor unit 26 and an image captured by the camera unit 25 (image captured by the operator OP). Operator information is acquired based on the above, and the operator information (operator information of each operator OP) acquired by each operation console 20 is transferred to a database (for example, a database server (not shown) that can be connected to the IP network NW) in real time. The information may be updated and registered so that the information can be shared by each robot 10 (control unit 11).

そして、各ロボット10の制御部11は、各オペレータOPのオペレータ情報及びオペレータ状態を取得し、インシデント(検出した異常の種類等)と照らし合わせて、適切なオペレータOPを選択するようにしてもよい。例えば、あるロボット10が警備のオペレーションために配置されている場合を想定する。このとき、当該ロボット10(制御部11)がインシデント(例えば、倒れている人間等の異常を検知した場合)、各オペレータOPのオペレータ情報に基づいて警備知識を保有しており、現地の地図情報を把握しているオペレータOPを選択することができる。また、このとき、当該ロボット10(制御部11)は、各オペレータOPのオペレータ状態に基づいて、感情が安定したオペレータOP(例えば、喜怒哀楽の偏りが所定以下で、且つ、作業集中度が所定以上のオペレータOP)を選択すること等が可能となる。 Then, the control unit 11 of each robot 10 may acquire the operator information and the operator state of each operator OP, compare them with the incident (type of detected abnormality, etc.), and select an appropriate operator OP. .. For example, suppose a robot 10 is deployed for security operations. At this time, the robot 10 (control unit 11) possesses security knowledge based on the incident (for example, when an abnormality such as a fallen human being is detected) and the operator information of each operator OP, and the local map information. You can select the operator OP who knows. Further, at this time, the robot 10 (control unit 11) has an operator OP whose emotions are stable (for example, the bias of emotions is less than a predetermined value and the work concentration ratio is less than a predetermined value) based on the operator state of each operator OP. It is possible to select an operator OP) that is greater than or equal to a predetermined value.

なお、ロボットシステム1Aにおいて、各ロボット10の制御部11で、インシデントが検出された場合におけるオペレータOPを選択(振分)する処理(以下、「オペレータ選択処理」又は「オペレータ振分処理」と呼ぶ)は、各ロボット10の制御部11側で行うようにしてもよいし、図示しないサーバ(IP網NWに接続するサーバ)で行うようにしてもよい。 In the robot system 1A, the control unit 11 of each robot 10 selects (sorts) the operator OP when an incident is detected (hereinafter, referred to as "operator selection process" or "operator sorting process". ) May be performed on the control unit 11 side of each robot 10, or may be performed on a server (a server connected to the IP network NW) (not shown).

(B−2)第2の実施形態の動作
次に、以上のような構成を有する第2の実施形態のロボットシステム1Aの動作(実施形態に係る制御方法)を説明する。
(B-2) Operation of the Second Embodiment Next, the operation of the robot system 1A of the second embodiment having the above configuration (control method according to the embodiment) will be described.

図14は、この実施形態におけるロボット10の動作について示したフローチャートである。 FIG. 14 is a flowchart showing the operation of the robot 10 in this embodiment.

図14は、ロボット10が、オペレーションの過程で、開始位置から第1の目標位置へ移動する際の動作(制御部11が実行する処理)について示したフローチャートとなっている。 FIG. 14 is a flowchart showing an operation (process executed by the control unit 11) when the robot 10 moves from the start position to the first target position in the process of operation.

ロボット10の制御部11は、開始位置から第1の目標地点への移動を開始する際、まず、開始位置から第1の目標位置へ到達するための移動予定ルートの計算を行う(S201)。 When the control unit 11 of the robot 10 starts moving from the start position to the first target point, the control unit 11 first calculates a planned movement route for reaching the first target position from the start position (S201).

次に、制御部11は、計算した移動予定ルートに従って移動するように、移動部13に対する制御を行う(S202)。 Next, the control unit 11 controls the moving unit 13 so as to move according to the calculated movement scheduled route (S202).

このとき、制御部11は、移動しながら、第1の目標位置に到達したか否かの確認(S203)、及びインシデントの有無の検知(S204)を行う。このとき、移動部13は、第1の目標地点への到達を確認した場合当該フローチャートの処理を終了し、インシデントを検知した場合には、後述するステップS205に移行し、第1の目標地点に到達しておらず且つインシデントの検知も無い場合には上述のステップS202から動作し移動予定ルート上の移動を継続する。 At this time, the control unit 11 confirms whether or not the first target position has been reached (S203) and detects the presence or absence of an incident (S204) while moving. At this time, when the moving unit 13 confirms the arrival at the first target point, the processing of the flowchart is terminated, and when an incident is detected, the moving unit 13 proceeds to step S205 described later and moves to the first target point. If it has not arrived and no incident has been detected, the operation is performed from step S202 described above, and the movement on the planned movement route is continued.

一方、第1の目標位置へ移動中にインシデントが検出された場合、制御部11は、検出したインシデントの種別に応じたシナリオ(行動内容)を決定する(S205)。 On the other hand, when an incident is detected while moving to the first target position, the control unit 11 determines a scenario (action content) according to the type of the detected incident (S205).

例えば、制御部11では、インシデントの種別ごとに対応するシナリオ(行動内容)を定義したデータ(以下、「シナリオ定義データ」又は「行動内容定義データ」と呼ぶ)が保持可能であるものとする。シナリオ定義データは、制御部11自体が保持していてもよいし、図示しないサーバから制御部11がダウンロードして保持するようにしてもよい。 For example, it is assumed that the control unit 11 can hold data (hereinafter, referred to as “scenario definition data” or “action content definition data”) that defines a scenario (action content) corresponding to each type of incident. The scenario definition data may be held by the control unit 11 itself, or may be downloaded and held by the control unit 11 from a server (not shown).

ここでは、制御部11は、インシデントとして、傷病者(例えば、倒れている人)を検出したものとする。そして、ここでは、制御部11は、傷病者のインシデントに対応するシナリオ定義データを保持したものとする。そして、その傷病者のインシデントに対応するシナリオ定義データでは、インシデント源(傷病者)の近傍(例えば、インシデント源の顔から1m程度の位置)に移動し、オペレータOPへ通知する処理が定義されているものとする。 Here, it is assumed that the control unit 11 has detected an injured person (for example, a person who has fallen down) as an incident. Then, here, it is assumed that the control unit 11 holds the scenario definition data corresponding to the incident of the injured person. Then, in the scenario definition data corresponding to the incident of the injured person, a process of moving to the vicinity of the incident source (injured person) (for example, a position of about 1 m from the face of the incident source) and notifying the operator OP is defined. It is assumed that there is.

制御部11は、取得したシナリオ定義データに基づいた行動を開始すると、まず、インシデント源の近傍(例えば、1m程度の距離)まで移動可能かを判断し(S206)、移動可能である場合は後述するステップS207に移行し、そうでない場合には、後述するステップS211に移行する。 When the control unit 11 starts an action based on the acquired scenario definition data, it first determines whether it can move to the vicinity of the incident source (for example, a distance of about 1 m) (S206), and if it can move, it will be described later. The process proceeds to step S207, and if not, the process proceeds to step S211 described later.

上述のステップS206で、インシデント源の近傍まで移動可能であると判断した場合、制御部11は、現在位置から当該インシデント源の近傍に到達するための移動予定ルートの計算を行い(S207)、新たな移動予定ルートによりインシデント源の近傍を第2の目標位置として設定する(S208)。 When it is determined in step S206 described above that the vehicle can move to the vicinity of the incident source, the control unit 11 calculates a planned movement route from the current position to reach the vicinity of the incident source (S207), and newly calculates the route to be moved. The neighborhood of the incident source is set as the second target position according to the planned movement route (S208).

次に、制御部11は、計算した移動予定ルートに従って第2の目標位置に向けて移動するように、移動部13に対する制御を行う(S209)。 Next, the control unit 11 controls the moving unit 13 so as to move toward the second target position according to the calculated movement scheduled route (S209).

このとき、制御部11は、移動しながら、第2の目標位置に到達したか否かの確認(S210)を行う。このとき、制御部11は、第2の目標地点への到達を確認した場合、後述するステップS211に移行し、第2の目標地点に到達していない場合は、上述のステップS209から動作し、移動予定ルート上の移動を継続する。 At this time, the control unit 11 confirms whether or not the second target position has been reached (S210) while moving. At this time, when the control unit 11 confirms that it has reached the second target point, it proceeds to step S211 described later, and if it has not reached the second target point, it operates from step S209 described above. Continue moving on the planned movement route.

上述のステップS210又は上述のステップS208からステップS211に移行すると制御部11は、当該インシデントの通知先についていずれかのオペレータOP(操作卓20)を選択する処理を行う(S211)。 When the process proceeds from step S210 or step S208 to step S211 above, the control unit 11 performs a process of selecting one of the operator OPs (operation console 20) for the notification destination of the incident (S211).

そして、制御部11は、選択オペレータOPが使用する操作卓20に、当該インシデントに関する通知を行い(S212)、操作卓20からの応答(通知に対する応答)の有無を確認する(S213)。このとき、制御部11は、移動部13を制御して移動を一旦中止する。 Then, the control unit 11 notifies the operation console 20 used by the selection operator OP about the incident (S212), and confirms whether or not there is a response (response to the notification) from the operation console 20 (S213). At this time, the control unit 11 controls the moving unit 13 to temporarily stop the movement.

そして、制御部11は、通知に対する応答が操作卓20からあった場合は後述するステップS214移行し、通知に対する応答がない場合(例えば、直前の通知から一定時間内に応答がない場合)は、上述のステップS212に戻って再度通知処理を行う。 Then, when there is a response to the notification from the operation console 20, the control unit 11 proceeds to step S214, which will be described later, and when there is no response to the notification (for example, when there is no response within a certain time from the immediately preceding notification), the control unit 11 proceeds to step S214. Returning to step S212 described above, the notification process is performed again.

上述のステップS213で、操作卓20からの応答を受信した場合、制御部11は、操作卓20からの制御信号に応じて動作する遠隔操作モードに移行して、応答のあった操作卓20に操作権を移譲し、当該フローチャートの処理を終了する。 When the response from the console 20 is received in step S213 described above, the control unit 11 shifts to the remote control mode that operates in response to the control signal from the console 20, and the response console 20 is displayed. The operation right is transferred, and the processing of the flowchart is terminated.

(B−3)第2の実施形態の効果
第2の実施形態によれば、以下のような効果を奏することができる。
(B-3) Effect of Second Embodiment According to the second embodiment, the following effects can be obtained.

第2の実施形態では、オペレータ情報やオペレータ状態をデータベース化し、ロボット10(制御部11)が検出したインシデントの種別等と照らし合わせて、インシデントの通知先のオペレータOP(操作卓20)を選択(変更)している。これにより、第2の実施啓太では、オペレータOPの操作への切り替わりがスムーズになり、さらに切り替わったあとのオペレータOPの操作にかかる時間も短くなる。 In the second embodiment, the operator information and the operator status are stored in a database, and the operator OP (operation console 20) of the incident notification destination is selected by comparing with the type of incident detected by the robot 10 (control unit 11) (control unit 11). Changed). As a result, in the second implementation Keita, the switching to the operation of the operator OP becomes smooth, and the time required for the operation of the operator OP after the switching becomes shorter.

(C)第3の実施形態
以下、本発明による移動物システム、移動物、制御プログラム、及び制御方法の第3の実施形態を、図面を参照しながら詳述する。この実施形態では、本発明の移動物システム及び移動物をロボットシステム及びロボットに適用した例について説明する。
(C) Third Embodiment Hereinafter, a third embodiment of the moving object system, the moving object, the control program, and the control method according to the present invention will be described in detail with reference to the drawings. In this embodiment, an example in which the moving object system and the moving object of the present invention are applied to the robot system and the robot will be described.

(C−1)第3の実施形態の構成
第3の実施形態のロボットシステム1Bの構成についても上述の図13を用いて示すことができる。なお、図13において括弧内の符号は、第3の実施形態でのみ用いられる符号である。
(C-1) Configuration of Third Embodiment The configuration of the robot system 1B of the third embodiment can also be shown with reference to FIG. 13 described above. The reference numerals in parentheses in FIG. 13 are reference numerals used only in the third embodiment.

以下では、第3の実施形態のロボットシステム1Bの構成について、第2の実施形態との差異を説明する。 Hereinafter, the configuration of the robot system 1B of the third embodiment will be described as being different from that of the second embodiment.

第3の実施形態における各ロボット10−1〜10−Nでは、制御部11の処理の一部が異なっていること以外は第2の実施形態と同様である。また、第3の実施形態における各操作卓20−1〜20−Nの構成についても、制御部21の処理の一部が異なっていること以外は第2の実施形態と同様である。 Each robot 10-1 to 10-N in the third embodiment is the same as the second embodiment except that a part of the processing of the control unit 11 is different. Further, the configurations of the operating consoles 20-1 to 20-N in the third embodiment are the same as those in the second embodiment except that a part of the processing of the control unit 21 is different.

具体的には、第3の実施形態のロボット10の制御部11は、発生したインシデントの種別に応じて、ロボット10(制御部11)が、自律的にコミュニケーション処理(例えば、オペレータOP及び又はインシデント源に対してインシデントに対する対処(解決)を誘導する処理)を行う点で第2の実施形態と異なっている。 Specifically, in the control unit 11 of the robot 10 of the third embodiment, the robot 10 (control unit 11) autonomously performs communication processing (for example, operator OP and / or incident) according to the type of incident that has occurred. It differs from the second embodiment in that it performs a process of inducing an incident response (solution) to the source.

例えば、ロボット10の制御部11は、検出したインシデントの種別が「傷病者(例えば、倒れている人)の発見」の場合、インシデント源(傷病者)に対してカメラ部25で撮像したカメラ画像やセンサ部26で検知したセンサ情報に基づいて分析処理を行い、その分析結果の情報(以下、「インシデント源分析情報」と呼ぶ)を取得するようにしてもよい。そして、ロボットの制御部11は、当該インシデントをオペレータOP(操作卓20)に通知する際に、取得したインシデント源分析情報も送信する処理を行う。具体的には、例えば、インシデント源(インシデント種別)が傷病者である場合、センサ部15により、当該傷病者の脈拍や体温などの状態を測定してインシデント源分析情報として取得してオペレータOP(操作卓20)に通知するようにしてもよい。また例えば、制御部11は、インシデントとして、火災による煙や、地震による落下物、雨漏り、浸水、倒木、土砂崩れなど、自然災害による異常を検知した場合は、インシデント源に対してカメラ部25で撮像したカメラ画像やセンサ部26で検知したセンサ情報に基づいてその範囲や深刻度などをセンシングし、インシデント源分析情報として取得し、オペレータOP(操作卓20)に通知するようにしてもよい。 For example, when the type of the detected incident is "discovery of a victim (for example, a fallen person)", the control unit 11 of the robot 10 captures a camera image of the incident source (victim) with the camera unit 25. Or, analysis processing may be performed based on the sensor information detected by the sensor unit 26, and information on the analysis result (hereinafter, referred to as “incident source analysis information”) may be acquired. Then, when the robot control unit 11 notifies the operator OP (operation console 20) of the incident, the robot control unit 11 also performs a process of transmitting the acquired incident source analysis information. Specifically, for example, when the incident source (incident type) is an injured person, the sensor unit 15 measures the state of the injured person such as pulse and body temperature and acquires it as incident source analysis information, and the operator OP ( The operation console 20) may be notified. Further, for example, when the control unit 11 detects an abnormality due to a natural disaster such as smoke due to a fire, a falling object due to an earthquake, a rain leak, flooding, a fallen tree, or a landslide, the camera unit 25 takes an image of the incident source. The range, severity, and the like may be sensed based on the camera image and the sensor information detected by the sensor unit 26, acquired as incident source analysis information, and notified to the operator OP (operation console 20).

また、例えば、制御部11は、インシデントの種別が「不審者の発見」や「迷子の発見」等である場合は、オペレータOPに対してインシデント源(例えば、不審者や迷子)に対する声掛け(会話)を誘導する処理を行うようにしてもよい。例えば、インシデント種別が迷子や不審人物の発見である場合、制御部11は、自律的にオペレータOP(操作卓20)に対してインシデント種別(例えば、迷子や不審人物を発見した旨の情報)を通知すると共に、オペレータOP(操作卓20)との間でビデオ通話が確立するように、通信部12、カメラ部14、スピーカ17、及びマイク18を制御し、オペレータOPとインシデント源との間でビデオ通話が可能とするようにしてもよい。これにより、ロボット10(制御部11)は、オペレータOPにインシデント源(例えば、迷子や不審者)に対して声かけや、会話、案内等を行わせることを誘導することができる。 Further, for example, when the incident type is "discovery of suspicious person", "discovery of lost child", or the like, the control unit 11 calls out to the operator OP to the incident source (for example, suspicious person or lost child) (for example). The process of inducing the conversation) may be performed. For example, when the incident type is the discovery of a lost child or a suspicious person, the control unit 11 autonomously informs the operator OP (operation console 20) of the incident type (for example, information that a lost child or a suspicious person has been found). The communication unit 12, the camera unit 14, the speaker 17, and the microphone 18 are controlled so as to notify and establish a video call with the operator OP (operation console 20), and between the operator OP and the incident source. Video calls may be enabled. As a result, the robot 10 (control unit 11) can guide the operator OP to speak, talk, guide, or the like to the incident source (for example, a lost child or a suspicious person).

制御部11が、インシデントとして迷子や不審人物を検出する方法については限定されないものであるが、例えば、カメラ部14が撮像したカメラ画像から、予め設定された人物像(例えば、顔や服装の特徴や、挙動)に合致する人物を検出するようにしてもよい。また、制御部11は、周辺の地図情報等に基づいて、屋外や屋内、立ち入り禁止区域、貴重品の置かれている場所等、ロボット10の置かれている状態を考慮して、インシデント源となる人物を検出するようにしてもよい。 The method by which the control unit 11 detects a lost child or a suspicious person as an incident is not limited, but for example, a preset person image (for example, features of a face or clothes) is obtained from a camera image captured by the camera unit 14. Or, a person who matches the behavior) may be detected. In addition, the control unit 11 can be used as an incident source in consideration of the state in which the robot 10 is placed, such as outdoors or indoors, an exclusion zone, a place where valuables are placed, etc., based on map information of the surrounding area. The person may be detected.

また、制御部11は、インシデント検出や回避ルート(動的代替ルート等)の識別に際して、移動予定ルート周辺における動的な地図情報(例えば、施設内で停止しているエスカレータ/エレベータや工事中で封鎖されている道路等通行できない箇所に関する情報)を考慮するようにしてもよい。例えば、制御部11は、動的な地図情報を外部(例えば、図示しない通行できない箇所等の警備情報を保持しているサーバ)から保持して、自装置の保持する地図情報に反映した上で、インシデント検出や回避ルートの識別に用いるようにしてもよい。例えば、制御部11は、動的な地図情報に基づいて、現在時刻において通行可能な通路/道路のみを用いて回避ルート(動的代替ルート等)の識別を行うようにしてもよい。また、制御部11は、工事中で封鎖されている道路があった場合でも、予め動的な地図情報で確認可能な位置と一致する場合には、それらをインシデントとは検出せずに自律制御を継続するようにしてもよい。ロボット10が、予定されている工事等に基づいてインシデントを発生させないようにすることで、オペレータOPの効率的な作業を促すことが可能となる。 In addition, when detecting an incident or identifying an avoidance route (dynamic alternative route, etc.), the control unit 11 has dynamic map information (for example, an escalator / elevator stopped in the facility or under construction) around the planned movement route. Information on impassable areas such as blocked roads) may be considered. For example, the control unit 11 holds dynamic map information from the outside (for example, a server that holds security information such as an impassable part (not shown)) and reflects it in the map information held by its own device. , It may be used for incident detection and avoidance route identification. For example, the control unit 11 may identify the avoidance route (dynamic alternative route, etc.) using only the passages / roads that can be passed at the current time based on the dynamic map information. Further, even if there are roads that are blocked during construction, the control unit 11 autonomously controls them without detecting them as incidents if they match the positions that can be confirmed in advance by the dynamic map information. May be continued. By preventing the robot 10 from generating an incident based on a scheduled construction work or the like, it is possible to promote the efficient work of the operator OP.

(C−2)第3の実施形態の動作
次に、以上のような構成を有する第3の実施形態のロボットシステム1Bの動作(実施形態に係る制御方法)を説明する。
(C-2) Operation of the Third Embodiment Next, the operation of the robot system 1B of the third embodiment having the above configuration (control method according to the embodiment) will be described.

図15は、第3の実施形態におけるロボット10の動作の第1の例について示したフローチャートである。図15のフローチャート(第1の例)では、ロボット10の制御部11が、インシデントの種別に応じて、インシデント源に対してセンシング処理を行ってセンシング分析情報を取得してオペレータOPに通知するシナリオを実行する場合の例について示している。 FIG. 15 is a flowchart showing a first example of the operation of the robot 10 in the third embodiment. In the flowchart of FIG. 15 (first example), a scenario in which the control unit 11 of the robot 10 performs sensing processing on an incident source according to the type of incident, acquires sensing analysis information, and notifies the operator OP. An example of executing is shown.

図15のフローチャートについて第2の実施形態(上述の図14のフローチャート)との差異を説明する。図15のフローチャートでは、第2の実施形態と同様の動作については同一の符号(ステップ番号)を付与している。 The difference between the flowchart of FIG. 15 and the second embodiment (the flowchart of FIG. 14 described above) will be described. In the flowchart of FIG. 15, the same reference numerals (step numbers) are assigned to the operations similar to those of the second embodiment.

図15に示すフローチャートでは、ステップS205、S212が、それぞれステップS301、S302に置き換わり、ステップS211の前にステップS302が挿入されている点で、第2の実施形態(図14のフローチャート)と異なっている。 The flowchart shown in FIG. 15 is different from the second embodiment (flow chart of FIG. 14) in that steps S205 and S212 are replaced with steps S301 and S302, respectively, and step S302 is inserted before step S211. There is.

制御部11は、ステップS301において、第1の目標位置へ移動中にインシデントが検出された場合、検出したインシデントの種別に応じたシナリオ(行動内容)を決定する。ここでは、制御部11は、インシデントとして、傷病者(例えば、倒れている人)を検出したものとする。そして、ここでは、制御部11は、傷病者のインシデントに対応するシナリオ定義データを保持したものとする。そして、その傷病者のインシデントに対応するシナリオ定義データでは、インシデント源(傷病者)の近傍(例えば、インシデント源の顔から1m程度の位置)に移動し、インシデント源(傷病者)に対してセンシング処理を行ってセンシング源分析情報を取得し、オペレータOPへ通知(センシング源分析情報と共に通知)する処理が定義されているものとする。 When an incident is detected while moving to the first target position in step S301, the control unit 11 determines a scenario (action content) according to the type of the detected incident. Here, it is assumed that the control unit 11 has detected an injured person (for example, a person who has fallen down) as an incident. Then, here, it is assumed that the control unit 11 holds the scenario definition data corresponding to the incident of the injured person. Then, in the scenario definition data corresponding to the incident of the victim, the user moves to the vicinity of the incident source (victim) (for example, about 1 m from the face of the incident source) and senses the incident source (victim). It is assumed that the process of performing the process, acquiring the sensing source analysis information, and notifying the operator OP (notifying together with the sensing source analysis information) is defined.

そして、制御部11は、ステップS302において、シナリオ定義データに従い第2の目標位置(インシデント源の近傍)に到達すると、カメラ部25及びセンサ部26を制御してインシデント源に対してセンシング処理を行ってセンシング源分析情報を取得する。 Then, when the control unit 11 reaches the second target position (near the incident source) according to the scenario definition data in step S302, the control unit 11 controls the camera unit 25 and the sensor unit 26 to perform sensing processing on the incident source. Acquire sensing source analysis information.

そして、制御部11は、ステップS303において、選択したオペレータOPの操作卓20に、センシング源分析情報とともに通知する処理を行う。このとき、操作卓20の制御部21は、オペレータOPに対してロボット10からの通知があった旨を、受信したセンシング源分析情報と共に通知することができる。これにより、オペレータOPは、センシング源分析情報に基づいて迅速できめ細やかな対応(例えば、傷病者に対する声掛けや救急車を要請する等)を行うことができる。 Then, in step S303, the control unit 11 performs a process of notifying the operation console 20 of the selected operator OP together with the sensing source analysis information. At this time, the control unit 21 of the console 20 can notify the operator OP that the robot 10 has notified the operator OP together with the received sensing source analysis information. As a result, the operator OP can perform a quick and detailed response (for example, calling out to the injured or sick or requesting an ambulance) based on the sensing source analysis information.

図16は、第3の実施形態におけるロボット10の動作の第2の例について示したフローチャートである。図16のフローチャート(第2の例)では、ロボット10の制御部11が、インシデントの種別に応じて、オペレータOPとインシデント源の人物との間の会話(例えば、ビデオ通話)を誘導するシナリオを実行する場合の例について示している。 FIG. 16 is a flowchart showing a second example of the operation of the robot 10 in the third embodiment. In the flowchart of FIG. 16 (second example), a scenario in which the control unit 11 of the robot 10 guides a conversation (for example, a video call) between the operator OP and the person at the incident source according to the type of incident. An example of executing it is shown.

図16のフローチャートについて第2の実施形態(上述の図14のフローチャート)との差異を説明する。図16のフローチャートでは、第2の実施形態と同様の動作については同一の符号(ステップ番号)を付与している。 The difference between the flowchart of FIG. 16 and the second embodiment (the flowchart of FIG. 14 described above) will be described. In the flowchart of FIG. 16, the same reference numerals (step numbers) are assigned to the operations similar to those of the second embodiment.

図16に示すフローチャートでは、ステップS205以後(ステップS205〜ステップS214)が、ステップS401〜S405に置き換わっている点で、第2の実施形態(図14のフローチャート)と異なっている。 The flowchart shown in FIG. 16 is different from the second embodiment (flow chart of FIG. 14) in that steps S205 and subsequent steps (steps S205 to S214) are replaced with steps S401 to S405.

制御部11は、ステップS401において、第1の目標位置へ移動中にインシデントが検出された場合、検出したインシデントの種別に応じたシナリオ(行動内容)を決定する。ここでは、制御部11は、インシデントとして、迷子(例えば、顔の特徴や表情分析から困惑の度合いが所定以上で且つ年齢6歳以下の人)を検出したものとする。そして、ここでは、制御部11は、迷子のインシデントに対応するシナリオ定義データを保持したものとする。そして、その迷子のインシデントに対応するシナリオ定義データでは、オペレータOPとインシデント源(迷子)との会話(ビデオ通話)を誘導する処理が定義されているものとする。 When an incident is detected while moving to the first target position in step S401, the control unit 11 determines a scenario (action content) according to the type of the detected incident. Here, it is assumed that the control unit 11 detects a lost child (for example, a person whose degree of confusion is equal to or higher than a predetermined value and is 6 years old or younger from facial feature analysis or facial expression analysis) as an incident. Then, here, it is assumed that the control unit 11 holds the scenario definition data corresponding to the incident of the lost child. Then, in the scenario definition data corresponding to the incident of the lost child, it is assumed that the process of inducing the conversation (video call) between the operator OP and the incident source (lost child) is defined.

次に、制御部11は、当該インシデントに対するオペレータOPを選択(上述のステップS211と同様の処理)する(S402)。 Next, the control unit 11 selects the operator OP for the incident (the same process as in step S211 described above) (S402).

次に、制御部11は、選択したオペレータOP(操作卓20)に対してインシデント種別(例えば、迷子を発見した旨の情報)を通知して(S403)、操作卓20からの応答(通知に対する応答)の有無を確認する(S404)。 Next, the control unit 11 notifies the selected operator OP (operation console 20) of the incident type (for example, information that a lost child has been found) (S403), and responds (to the notification) from the operation console 20. The presence or absence of (response) is confirmed (S404).

操作卓20からの応答があると、制御部11は、操作卓20からの制御信号に応じて動作する遠隔操作モードに移行して、操作権を応答のあった操作卓20に移譲すると共に、インシデント源(迷子)とオペレータOP(操作卓20)との間でビデオ通話が確立するように、通信部12、カメラ部14、スピーカ17、及びマイク18を制御する(S405)。これにより、オペレータOPに、スムーズにロボット10を介してインシデント源(迷子)に対する声掛けや会話を誘導することができる。 When there is a response from the console 20, the control unit 11 shifts to the remote control mode that operates in response to the control signal from the console 20, transfers the operation right to the responding console 20, and at the same time. The communication unit 12, the camera unit 14, the speaker 17, and the microphone 18 are controlled so that a video call is established between the incident source (lost child) and the operator OP (control console 20) (S405). As a result, it is possible to smoothly guide the operator OP to speak or talk to the incident source (lost child) via the robot 10.

(C−3)第3の実施形態の効果
第3の実施形態によれば、以下のような効果を奏することができる。
(C-3) Effect of Third Embodiment According to the third embodiment, the following effects can be obtained.

第3の実施形態では、ロボット10(制御部11)が、検出したインシデントに応じたコミュニケーション処理(例えば、オペレータOP及び又はインシデント源に対してインシデントに対する対処(解決)を誘導する処理)を行う。これにより、例えば、ロボット10からオペレータOPに操作が移った場合、インシデントに対して対応(例えば、迷子や不審者に対する声掛けや状況確認)する時間を短縮すること等、効率的なオペレータOPの作業を促すことができる。 In the third embodiment, the robot 10 (control unit 11) performs communication processing according to the detected incident (for example, processing for inducing the operator OP and / or the incident source to deal with (solve) the incident). As a result, for example, when the operation is transferred from the robot 10 to the operator OP, the time for responding to the incident (for example, calling out to a lost child or a suspicious person or checking the situation) can be shortened, and the efficient operator OP can be used. Work can be encouraged.

(D)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(D) Other Embodiments The present invention is not limited to each of the above embodiments, and modified embodiments as illustrated below can also be mentioned.

(D−1)第3の実施形態では、オペレータOP、ロボット10及び操作卓20が複数の例について説明したが、第1の実施形態と同様に、オペレータOP、ロボット10及び操作卓20がそれぞれ単数であってもよい。 (D-1) In the third embodiment, a plurality of examples of the operator OP, the robot 10 and the console 20 have been described, but as in the first embodiment, the operator OP, the robot 10 and the console 20 have been described, respectively. It may be singular.

(D−2)上記の実施形態において、2以上のロボット10を連結して動作させ、必要に応じて分離した動作を行うことが可能な構成としてもよい。例えば、通常時は地上を移動する第1のロボット10に、回転翼で空中を移動可能な第2のロボット10を搭載して移動させ、必要な場合(例えば、第1のロボット10ではインシデント源までの移動路が確保できない場合)に第2のロボット10を分離して動作(例えば、空中からインシデント源の近傍に移動)させるように構成してもよい。このとき、第1のロボット10(制御部11)は、第2のロボット10(制御部11)に対して自律的にオペレーションを与える(オペレータOPを介さずに直接第2のロボット10にオペレーションを与える)ようにしてもよい。 (D-2) In the above embodiment, two or more robots 10 may be connected and operated, and may be separated from each other as needed. For example, a second robot 10 that normally moves on the ground is mounted on a second robot 10 that can move in the air with rotary wings and is moved, and when necessary (for example, the incident source in the first robot 10). The second robot 10 may be separated and operated (for example, moved from the air to the vicinity of the incident source) when the movement path to the robot 10 cannot be secured. At this time, the first robot 10 (control unit 11) autonomously gives an operation to the second robot 10 (control unit 11) (the operation is directly performed on the second robot 10 without going through the operator OP). Give).

1、1A、1B…ロボットシステム、10、10−1〜10−N…ロボット、11…制御部、12…通信部、13…移動部、14…カメラ部、15…センサ部、16…表示部、17…スピーカ、18…マイク、20、20−1〜20−N…操作卓、21…制御部、22…通信部、23…表示部、24…操作部、25…カメラ部、26…センサ部、27…スピーカ、28…マイク、NW…IP網、OP…オペレータ。 1, 1A, 1B ... Robot system, 10, 10-1 to 10-N ... Robot, 11 ... Control unit, 12 ... Communication unit, 13 ... Moving unit, 14 ... Camera unit, 15 ... Sensor unit, 16 ... Display unit , 17 ... speaker, 18 ... microphone, 20, 20-1 to 20-N ... console, 21 ... control unit, 22 ... communication unit, 23 ... display unit, 24 ... operation unit, 25 ... camera unit, 26 ... sensor Department, 27 ... Speaker, 28 ... Microphone, NW ... IP network, OP ... Operator.

Claims (13)

移動物と、オペレータが使用する端末とを有する移動物システムにおいて、
前記移動物は、
前記移動物の周囲に係る情報を取得する情報取得部と、
前記移動物を任意の方向に移動させる移動部と、
前記移動物の自律制御処理を行うものであって、前記自律制御処理の過程で、前記情報取得部が取得した結果を利用して、前記自律制御処理を中止するか否かを識別する自律制御識別処理を行い、前記自律制御識別処理の結果、前記自律制御処理の継続をしないと判断すると、前記端末へ通知を行うことが可能な制御部とを有する
ことを特徴とする移動物システム。
In a moving object system having a moving object and a terminal used by an operator
The moving object is
An information acquisition unit that acquires information related to the surroundings of the moving object,
A moving part that moves the moving object in an arbitrary direction,
Autonomous control for identifying whether or not to stop the autonomous control process by using the result acquired by the information acquisition unit in the process of the autonomous control process. A moving object system, characterized in that it has a control unit capable of notifying the terminal when the identification process is performed and, as a result of the autonomous control identification process, it is determined that the autonomous control process is not continued.
前記制御部は、前記自律制御処理の過程で、前記情報取得部が取得した結果を利用して、前記自律制御処理を中止すべき自律制御中止インシデントを検出した場合、前記端末に前記移動物の遠隔操作を依頼する遠隔操作依頼を含む通知を行い、前記端末からの制御信号に応じて前記移動物の制御を行い、
前記端末は、オペレータから操作入力を受け付け可能な操作部と、前記移動物からの通知に前記遠隔操作依頼が含まれている場合に、前記操作部の操作入力の内容に応じた制御信号を前記移動物に送信する遠隔操作手段とをさらに有する
ことを特徴とする請求項1に記載の移動物システム。
When the control unit detects an autonomous control stop incident that should stop the autonomous control process by using the result acquired by the information acquisition unit in the process of the autonomous control process, the moving object is connected to the terminal. Requesting remote control A notification including a remote control request is given, and the moving object is controlled according to a control signal from the terminal.
The terminal outputs an operation unit capable of receiving an operation input from an operator and a control signal corresponding to the content of the operation input of the operation unit when the notification from the moving object includes the remote operation request. The moving object system according to claim 1, further comprising a remote control means for transmitting to a moving object.
前記制御部は、目標地点へ移動中に前記目標地点へ到達するための第1のルート上に障害物があった場合、前記第1のルート以外の代替ルートを取得し、取得した前記代替ルートから前記障害物を回避して前記目標地点に到達可能な回避ルートを識別して取得する回避ルート取得処理を行い、前記回避ルート取得処理により前記回避ルートが取得できなかった場合に、前記障害物を発生源とする自律制御中止インシデントを検出したと判断することを特徴とする請求項2に記載の移動物システム。 When there is an obstacle on the first route for reaching the target point while moving to the target point, the control unit acquires an alternative route other than the first route, and the acquired alternative route. When the avoidance route acquisition process of avoiding the obstacle and identifying and acquiring the avoidance route that can reach the target point is performed and the avoidance route cannot be acquired by the avoidance route acquisition process, the obstacle The moving object system according to claim 2, wherein it is determined that an autonomous control discontinuation incident originating from the above is detected. 当該移動物システムは、それぞれオペレータの異なる複数の前記端末を備え、
前記制御部は、自律制御中止インシデントが発生した場合、それぞれのオペレータに関する情報を保持し、保持した情報に基づいて通知する先のオペレータを選択するオペレータ選択処理を行い、オペレータ選択処理の結果選択されたオペレータが使用する前記端末に、当該自律制御中止インシデントに関する通知を行う
ことを特徴とする請求項1〜3のいずれかに記載の移動物システム。
The moving object system includes a plurality of the terminals, each having a different operator.
When an autonomous control stop incident occurs, the control unit holds information about each operator, performs an operator selection process for selecting a destination operator to be notified based on the held information, and is selected as a result of the operator selection process. The moving object system according to any one of claims 1 to 3, wherein the terminal used by the operator is notified of the autonomous control cancellation incident.
前記制御部は、前記オペレータ選択処理で、それぞれの前記オペレータの属性情報を考慮して、自律制御中止インシデントを通知する通知先のオペレータを選択することを特徴とする請求項4に記載の移動物システム。 The moving object according to claim 4, wherein the control unit selects a notification destination operator for notifying an autonomous control stop incident in consideration of the attribute information of each operator in the operator selection process. system. それぞれの前記端末は、使用するオペレータの状態を示すオペレータ状態を検知するオペレータ検知手段をさらに備え、
前記制御部は、それぞれのオペレータのオペレータ状態を考慮して、自律制御中止インシデントに関する通知先のオペレータを選択する
ことを特徴とする請求項4又は5に記載の移動物システム。
Each of the terminals further comprises an operator detecting means for detecting an operator state indicating the state of the operator to be used.
The moving object system according to claim 4 or 5, wherein the control unit selects an operator to be notified of an autonomous control stop incident in consideration of the operator state of each operator.
前記制御部は、前記自律制御処理の過程で、自律制御中止インシデントを検出した場合、当該自律制御中止インシデントの種別に応じて、前記端末を介してオペレータとコミュニケーション処理を行うことが可能であることを特徴とする請求項1〜6のいずれかに記載の移動物システム。 When the control unit detects an autonomous control stop incident in the process of the autonomous control process, the control unit can perform communication processing with the operator via the terminal according to the type of the autonomous control stop incident. The moving object system according to any one of claims 1 to 6. 前記制御部は、検出した自律制御中止インシデントの種別に応じて、当該自律制御中止インシデントの発生源の近傍に移動し、前記情報取得部が取得した結果に基づいて前記発生源に関するインシデント発生源情報を取得し、前記端末に通知するコミュニケーション処理を実行可能であることを特徴とする請求項7に記載の移動物システム。 The control unit moves to the vicinity of the source of the autonomous control stop incident according to the type of the detected autonomous control stop incident, and the incident source information regarding the source is based on the result acquired by the information acquisition unit. The moving object system according to claim 7, wherein the communication process of acquiring the information and notifying the terminal can be executed. 前記制御部は、検出した自律制御中止インシデントの種別に応じて、当該自律制御中止インシデントの発生源と、前記オペレータとの間の通話を誘導するコミュニケーション処理を実行可能であることを特徴とする請求項7に記載の移動物システム。 The claim is characterized in that the control unit can execute a communication process for inducing a call between the source of the autonomous control cancellation incident and the operator according to the type of the detected autonomous control cancellation incident. Item 7. The moving object system according to item 7. 前記情報取得部は、前記移動物の周囲を撮像する撮像部と、1又は複数のセンサを用いて前記移動物の周囲に対するセンシングを行うセンサ部とを有していることを特徴とする請求項1〜9のいずれかに記載の移動物システム。 The information acquisition unit includes an imaging unit that images the surroundings of the moving object, and a sensor unit that senses the surroundings of the moving object using one or a plurality of sensors. The moving object system according to any one of 1 to 9. 移動物において、
当該移動物の周囲に係る情報を取得する情報取得部と、
当該移動物を任意の方向に移動させる移動部と、
当該移動物の自律制御処理を行うものであって、前記自律制御処理の過程で、前記情報取得部が取得した結果を利用して、前記自律制御処理を中止するか否かを識別する自律制御識別処理を行い、前記自律制御識別処理の結果、前記自律制御処理の継続をしないと判断すると、オペレータが使用する外部の端末へ通知を行うことが可能な制御部とを有する
ことを特徴とする移動物。
In moving objects
The information acquisition department that acquires information related to the surroundings of the moving object,
A moving part that moves the moving object in any direction,
Autonomous control for identifying whether or not to stop the autonomous control process by using the result acquired by the information acquisition unit in the process of the autonomous control process. It is characterized by having a control unit capable of notifying an external terminal used by the operator when the identification process is performed and, as a result of the autonomous control identification process, it is determined that the autonomous control process is not continued. Moving objects.
自装置の周囲に係る情報を取得する情報取得部と、自装置を任意の方向に移動させる移動部とを有する移動物に搭載されたコンピュータを、
当該移動物の自律制御処理を行うものであって、前記自律制御処理の過程で、前記情報取得部が取得した結果を利用して、前記自律制御処理を中止するか否かを識別する自律制御識別処理を行い、前記自律制御識別処理の結果、前記自律制御処理の継続をしないと判断すると、オペレータが使用する外部の端末へ通知を行うことが可能な制御部と
して機能させることを特徴とする制御プログラム。
A computer mounted on a moving object having an information acquisition unit for acquiring information related to the surroundings of the own device and a moving unit for moving the own device in an arbitrary direction.
Autonomous control for identifying whether or not to stop the autonomous control process by using the result acquired by the information acquisition unit in the process of the autonomous control process. When the identification process is performed and, as a result of the autonomous control identification process, it is determined that the autonomous control process is not continued, the control unit functions as a control unit capable of notifying an external terminal used by the operator. Control program.
移動物の制御方法において、
前記移動物は、情報取得部、移動部、及び制御部を有し、
前記情報取得部は、前記移動物の周囲に係る情報を取得し、
前記移動部は、前記移動物を任意の方向に移動させ、
前記制御部は、当該移動物の自律制御処理を行うものであって、前記自律制御処理の過程で、前記情報取得部が取得した結果を利用して、前記自律制御処理を中止するか否かを識別する自律制御識別処理を行い、前記自律制御識別処理の結果、前記自律制御処理の継続をしないと判断すると、オペレータが使用する外部の端末へ通知を行うことが可能である
ことを特徴とする制御方法。
In the method of controlling moving objects
The moving object has an information acquisition unit, a moving unit, and a control unit.
The information acquisition unit acquires information related to the surroundings of the moving object, and obtains information about the surroundings of the moving object.
The moving unit moves the moving object in an arbitrary direction.
The control unit performs autonomous control processing of the moving object, and whether or not to stop the autonomous control processing by using the result acquired by the information acquisition unit in the process of the autonomous control processing. When it is determined that the autonomous control processing is not continued as a result of the autonomous control identification processing, it is possible to notify an external terminal used by the operator. Control method to do.
JP2019188210A 2019-10-11 2019-10-11 Moving object system, moving object, control program, and control method Active JP7408991B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019188210A JP7408991B2 (en) 2019-10-11 2019-10-11 Moving object system, moving object, control program, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019188210A JP7408991B2 (en) 2019-10-11 2019-10-11 Moving object system, moving object, control program, and control method

Publications (2)

Publication Number Publication Date
JP2021064147A true JP2021064147A (en) 2021-04-22
JP7408991B2 JP7408991B2 (en) 2024-01-09

Family

ID=75486308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188210A Active JP7408991B2 (en) 2019-10-11 2019-10-11 Moving object system, moving object, control program, and control method

Country Status (1)

Country Link
JP (1) JP7408991B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310698A (en) * 2006-05-19 2007-11-29 Hitachi Ltd Unmanned vehicle
JP2008234447A (en) * 2007-03-22 2008-10-02 Yaskawa Electric Corp Movable body control device and movable body equipped with the same
JP2019005819A (en) * 2017-06-21 2019-01-17 富士ゼロックス株式会社 Remote control type mobile robot and robot control system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310698A (en) * 2006-05-19 2007-11-29 Hitachi Ltd Unmanned vehicle
JP2008234447A (en) * 2007-03-22 2008-10-02 Yaskawa Electric Corp Movable body control device and movable body equipped with the same
JP2019005819A (en) * 2017-06-21 2019-01-17 富士ゼロックス株式会社 Remote control type mobile robot and robot control system

Also Published As

Publication number Publication date
JP7408991B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
WO2019138836A1 (en) Information processing device, information processing system, information processing method, and program
JP5747191B2 (en) Mobile remote control system and control program therefor
CN103885444B (en) Information processing method, mobile electronic equipment and decision-making control equipment
US20110270584A1 (en) Building structure discovery and display from various data artifacts at scene
US20190217131A1 (en) Method and Arrangement for Identifying Obstacles on Escape Routes
JP2008084135A (en) Movement control method, mobile robot and movement control program
JP2019175015A (en) Disaster information processing apparatus and disaster information processing model learning apparatus
JP4787813B2 (en) Detection target detection system
JP2006113858A (en) Method and system for supporting remote operation for mobile object
JP2008260107A (en) Mobile robot system
KR20150136399A (en) Collision detection robot remote control system and method thereof
JP6609588B2 (en) Autonomous mobility system and autonomous mobility control method
US20220291685A1 (en) Method and system to improve autonomous robotic systems responsive behavior
CN113134187B (en) Multi-fire-fighting inspection cooperative robot system based on integral reinforcement learning
JP7408991B2 (en) Moving object system, moving object, control program, and control method
KR102225456B1 (en) Road mate system, and road mate service providing method
US20220308556A1 (en) Delivery robot and notification method
CN115431266A (en) Inspection method, inspection device and inspection robot
US20230297086A1 (en) Environmental change proposing system and computer-readable storage medium storing an environmental change proposing program
JP7095220B2 (en) Robot control system
KR20120053096A (en) Network robot system, robot control apparatus, robot control method and robot control program
EP4024152A1 (en) Transport system, control device, transport method, and program
WO2022004444A1 (en) Route planning system, mobile robot, route planning program, and mobile robot control program
JP2022116483A (en) Remote control device, remote control method, and program
US20230294288A1 (en) Regulated region management system, mobile body management system, regulated region management method, and non-transitory storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7408991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150