JP2022083725A - Management device, management system, management method, and program - Google Patents

Management device, management system, management method, and program Download PDF

Info

Publication number
JP2022083725A
JP2022083725A JP2020195235A JP2020195235A JP2022083725A JP 2022083725 A JP2022083725 A JP 2022083725A JP 2020195235 A JP2020195235 A JP 2020195235A JP 2020195235 A JP2020195235 A JP 2020195235A JP 2022083725 A JP2022083725 A JP 2022083725A
Authority
JP
Japan
Prior art keywords
information
target person
vehicle
guardian
management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020195235A
Other languages
Japanese (ja)
Inventor
正英 小林
Masahide Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020195235A priority Critical patent/JP2022083725A/en
Publication of JP2022083725A publication Critical patent/JP2022083725A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To surely guide an object person taken by a protector to a destination.SOLUTION: A management device for managing a robot device includes: an acquisition part for acquiring identification information of an object person who is a protection object made by a protector, and confirmation information for confirming that the object person is taken by the protector to reach a meeting place from a vehicle or a terminal device; and a provision part for providing the robot device with instruction information including the identification information and the confirmation information for causing the robot device to guide the object person from the meeting place to a destination on the basis of the identification information and the confirmation information acquired by the acquisition part.SELECTED DRAWING: Figure 1

Description

本発明は、管理装置、管理システム、管理方法、およびプログラムに関する。 The present invention relates to a management device, a management system, a management method, and a program.

従来、バリアフリー化された経路を判別して走行する案内車両が走行したバリアフリー化された経路を含む経路情報を、前記案内車両から収集して記憶する記憶部と、ユーザの待機位置及びユーザの目的位置を受信する受信部と、前記待機位置から前記目的位置までの前記経路情報を、前記記憶部により記憶された前記経路情報から取得する取得部と、前記取得部により取得された前記経路情報を、前記待機位置から前記目的位置までのバリアフリー化された経路として提供する提供部とを備える経路管理装置が開示されている(例えば特許文献1参照)。 Conventionally, a storage unit that collects and stores route information including a barrier-free route traveled by a guide vehicle that discriminates and travels on a barrier-free route from the guide vehicle, a user's standby position, and a user. A receiving unit that receives the target position, an acquisition unit that acquires the route information from the standby position to the target position from the route information stored by the storage unit, and the route acquired by the acquisition unit. A route management device including a providing unit that provides information as a barrier-free route from the standby position to the target position is disclosed (see, for example, Patent Document 1).

特開2020-91142号公報Japanese Unexamined Patent Publication No. 2020-91142

しかしながら、上記のシステムでは、保護者に連れられた対象者を目的地まで案内することについては考慮されていない。 However, the above system does not consider guiding the target person taken by the guardian to the destination.

本発明は、このような事情を考慮してなされたものであり、保護者に連れられた対象者を目的地まで確実に案内することができる管理装置、管理システム、管理方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides a management device, a management system, a management method, and a program capable of reliably guiding a target person taken by a guardian to a destination. One of the purposes is to do.

この発明に係る管理装置、管理システム、管理方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る管理装置は、ロボット装置を管理する管理装置であって、車両または端末装置から保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを確認するための確認情報とを取得する取得部と、前記取得部により取得された前記識別情報および前記確認情報に基づいて、前記対象者を前記待ち合わせ場所から目的地まで前記ロボット装置に案内させるための、前記識別情報を含む指示情報および前記確認情報を、前記ロボット装置に提供する提供部と、を備える管理装置である。
The management device, management system, management method, and program according to the present invention have adopted the following configurations.
(1): The management device according to one aspect of the present invention is a management device that manages a robot device, and protects the identification information of the target person to be protected by the guardian from the vehicle or the terminal device and the target person. Based on the acquisition unit that acquires confirmation information for confirming that the person has arrived at the meeting place, the identification information acquired by the acquisition unit, and the confirmation information, the target person is arranged for the meeting. It is a management device including a providing unit that provides the robot device with instruction information including the identification information and the confirmation information for guiding the robot device from a place to a destination.

(2):上記(1)の態様において、前記確認情報は、前記保護者が撮像された画像、前記保護者が撮像された画像から抽出された特徴を示す特徴情報、前記保護者の声の特徴を示す特徴情報、前記車両の位置情報、前記端末装置の位置情報、予め設定されたパスワードである。 (2): In the embodiment of (1) above, the confirmation information includes an image captured by the guardian, feature information indicating features extracted from the image captured by the guardian, and a voice of the guardian. The feature information indicating the feature, the position information of the vehicle, the position information of the terminal device, and the preset password.

(3):上記(1)または(2)の態様において、前記対象者の識別情報は、前記対象者が撮像された画像、前記対象者が撮像された画像から抽出された特徴を示す特徴情報、前記対象者の声の特徴を示す特徴情報、前記対象者が保持する装置の位置情報、または予め設定されたパスワードである。 (3): In the aspect of (1) or (2) above, the identification information of the subject is the feature information indicating the characteristics extracted from the image captured by the subject and the image captured by the subject. , Feature information indicating the characteristics of the voice of the subject, position information of the device held by the subject, or a preset password.

(4):上記(1)から(3)のいずれかの態様において、前記指示情報は、前記待ち合わせ場所付近に到着する予定の時刻に、前記ロボット装置を待機させ、且つ前記対象者が前記待ち合わせ場所に到着後に前記対象者を目的地に誘導する指示を含む。 (4): In any of the above embodiments (1) to (3), the instruction information causes the robot device to stand by at a time when it is scheduled to arrive near the meeting place, and the subject makes the meeting. Includes instructions to guide the subject to the destination after arriving at the location.

(5):上記(1)から(4)のいずれかの態様において、前記提供部は、前記ロボット装置が前記対象者を前記目的地まで案内したことが完了したことを示す完了情報を前記ロボット装置から取得した場合、前記完了情報を前記車両または端末装置に提供する。 (5): In any of the above embodiments (1) to (4), the providing unit provides completion information indicating that the robot device has guided the target person to the destination. When obtained from the device, the completion information is provided to the vehicle or terminal device.

(6):上記(1)から(5)のいずれかの態様において、前記提供部は、前記対象者を前記目的地に案内する前記ロボット装置の特徴を示す情報を前記車両または前記端末装置に提供する。 (6): In any of the above embodiments (1) to (5), the providing unit transfers information indicating the characteristics of the robot device that guides the target person to the destination to the vehicle or the terminal device. offer.

(7):上記(1)から(6)のいずれかの態様の管理装置と、前記管理装置の提供部により提供された指示情報に基づいて、前記対象者を前記待ち合わせ場所から前記目的地に案内するロボット装置とを備える管理システムである。 (7): Based on the management device according to any one of the above (1) to (6) and the instruction information provided by the providing unit of the management device, the subject is moved from the meeting place to the destination. It is a management system equipped with a robot device that guides.

(8):上記(7)の態様において、前記ロボット装置は、前記管理装置から前記識別情報を含む前記指示情報および確認情報を取得し、前記確認情報に基づく処理が完了し、且つ前記待ち合わせ場所に到着した前記対象者が入力した識別情報と前記提供部により提供された識別情報が合致した場合、前記対象者を前記待ち合わせ場所から前記目的地に案内する。 (8): In the embodiment of the above (7), the robot device acquires the instruction information and the confirmation information including the identification information from the management device, the process based on the confirmation information is completed, and the meeting place. When the identification information input by the target person arriving at is matched with the identification information provided by the providing unit, the target person is guided from the meeting place to the destination.

(9):上記(7)または(8)の態様において、前記ロボット装置は、前記車両または前記端末装置から前記対象者の到着予定時刻を取得し、前記到着予定時刻に前記待ち合わせ場所で待機する。 (9): In the embodiment (7) or (8), the robot device acquires the estimated time of arrival of the target person from the vehicle or the terminal device, and waits at the meeting place at the estimated time of arrival. ..

(10):上記(7)から(9)のいずれかの態様の管理システムは、前記ロボット装置は、前記対象者を前記待ち合わせ場所から前記目的地まで案内しているときに、前記ロボット装置に搭載された撮像装置により撮像された画像を解析して、前記対象者に異常が発生したか否かを判定し、前記異常が発生したと判定した場合に、前記異常が発生したことを示す情報を前記車両または端末装置に提供する。 (10): In the management system according to any one of the above (7) to (9), when the robot device guides the target person from the meeting place to the destination, the robot device is connected to the robot device. Information that indicates that the abnormality has occurred by analyzing the image captured by the on-board imaging device to determine whether or not the abnormality has occurred in the subject, and if it is determined that the abnormality has occurred. To the vehicle or terminal device.

(11):上記(7)から(10)のいずれかの態様の管理システムは、前記ロボット装置は、前記対象者を前記待ち合わせ場所から前記目的地まで案内しているときに、前記ロボット装置に搭載された撮像装置により撮像された画像を解析して、前記対象者に異常が発生したか否かを判定し、前記異常が発生したと判定した場合に、前記異常が発生したことを示す情報を前記ロボット装置が搭載する出力部に出力させる。 (11): In the management system according to any one of the above (7) to (10), when the robot device guides the target person from the meeting place to the destination, the robot device is connected to the robot device. Information that indicates that the abnormality has occurred by analyzing the image captured by the on-board imaging device to determine whether or not the abnormality has occurred in the subject, and if it is determined that the abnormality has occurred. Is output to the output unit mounted on the robot device.

(12):上記(7)から(11)のいずれかの態様の管理システムは、前記保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを確認するための確認情報とを前記管理装置に送信する車両とを更に含む。 (12): In the management system according to any one of the above (7) to (11), the identification information of the target person to be protected by the guardian and the target person are taken to the meeting place by the guardian. Further includes a vehicle for transmitting confirmation information for confirming arrival to the management device.

(13):上記(1)から(6)のいずれかの態様の管理装置と、前記保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを確認するための確認情報とを前記管理装置に送信する車両とを備える管理システムである。 (13): The management device according to any one of the above (1) to (6), the identification information of the target person to be protected by the guardian, and the target person being taken to the meeting place by the guardian. It is a management system including a vehicle for transmitting confirmation information for confirming arrival to the management device.

(14):この発明の一態様に係る管理方法は、ロボット装置を管理する管理方法であって、コンピュータが、車両または端末装置から保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを示す確認情報とを取得し、前記取得された前記識別情報および前記確認情報に基づいて、前記対象者を、前記待ち合わせ場所から目的地まで前記ロボット装置に案内させるための、前記識別情報を含む指示情報および前記確認情報を、前記ロボット装置に提供する管理方法である。 (14): The management method according to one aspect of the present invention is a management method for managing a robot device, in which a computer identifies information of a target person to be protected by a guardian from a vehicle or a terminal device, and the target. The confirmation information indicating that the person has arrived at the meeting place with the guardian is acquired, and the target person is moved from the meeting place to the destination based on the acquired identification information and the confirmation information. It is a management method that provides the robot device with instruction information including the identification information and the confirmation information for guiding the robot device.

(15):この発明の一態様に係るプログラムは、ロボット装置を管理するためのプログラムであって、コンピュータに、車両または端末装置から保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを示す確認情報とを取得させ、前記取得された前記識別情報および前記確認情報に基づいて、前記対象者を、前記待ち合わせ場所から目的地まで前記ロボット装置に案内させるための、前記識別情報を含む指示情報および前記確認情報を、前記ロボット装置に提供させるプログラムである。 (15): The program according to one aspect of the present invention is a program for managing a robot device, and includes identification information of a target person protected by a guardian from a vehicle or a terminal device on a computer and the target. The person is made to acquire confirmation information indicating that the person has arrived at the meeting place with the guardian, and based on the acquired identification information and the confirmation information, the target person is moved from the meeting place to the destination. This is a program for causing the robot device to provide instruction information including the identification information and the confirmation information for guiding the robot device.

(1)~(15)によれば、管理装置が、対象者の識別情報と、対象者が保護者に連れられて待ち合わせ場所に到着したことを示す確認情報に基づいて、対象者を、待ち合わせ場所から目的地までロボット装置に案内させるための、識別情報を含む指示情報および確認情報を、ロボット装置に提供することにより、保護者に連れられた対象者を目的地まで確実に案内することができる。 According to (1) to (15), the management device waits for the target person based on the identification information of the target person and the confirmation information indicating that the target person has arrived at the meeting place with the guardian. By providing the robot device with instruction information including identification information and confirmation information for guiding the robot device from the place to the destination, it is possible to reliably guide the target person taken by the guardian to the destination. can.

(5)によれば、管理装置が、ロボット装置が対象者を目的地まで案内したことが完了したことを示す完了情報を車両または端末装置に提供することにより、保護者の安心感を向上させることができる。 According to (5), the management device improves the sense of security of the guardian by providing the vehicle or the terminal device with the completion information indicating that the robot device has guided the target person to the destination. be able to.

(6)によれば、管理装置が、対象者を目的地に案内するロボット装置の特徴を示す情報を車両または端末装置に提供することにより、保護者または対象者は、対象者を目的地に案内するロボット装置を容易に認識することができる。 According to (6), the management device provides information indicating the characteristics of the robot device that guides the target person to the destination to the vehicle or the terminal device, so that the guardian or the target person makes the target person the destination. The guiding robot device can be easily recognized.

(10)によれば、ロボット装置が、対象者を待ち合わせ場所に案内している際に、異常が発生した場合に、異常が発生したことを示す情報を車両または端末装置に提供することにより、保護者は、異常を迅速に認識することができる。 According to (10), when the robot device guides the target person to the meeting place and an abnormality occurs, the robot device provides information indicating that the abnormality has occurred to the vehicle or the terminal device. Parents can quickly recognize the anomaly.

(11)によれば、ロボット装置が、対象者を待ち合わせ場所に案内している際に、異常が発生したことを示す情報をロボット装置が搭載する出力部に出力させることにより、迅速に周囲に異常の発生を知らせることができる。 According to (11), when the robot device guides the target person to the meeting place, information indicating that an abnormality has occurred is output to the output unit mounted on the robot device, thereby promptly surrounding the surroundings. It is possible to notify the occurrence of an abnormality.

管理装置を含む管理システム1の構成の一例を示す図である。It is a figure which shows an example of the structure of the management system 1 including the management apparatus. 車両システム2の構成図である。It is a block diagram of the vehicle system 2. 管理装置500の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of management apparatus 500. ロボット装置600の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a robot apparatus 600. 管理システム1により提供されるサービスの概要について説明するための図である。It is a figure for demonstrating the outline of the service provided by management system 1. 車両Mの処理部170により実行される処理の流れの一例を示す図である。It is a figure which shows an example of the flow of processing executed by the processing unit 170 of a vehicle M. 車両MのHMI30に表示される画像IM1の一例を示す図である。It is a figure which shows an example of the image IM1 displayed on the HMI30 of a vehicle M. 管理装置500が実行する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process which the management apparatus 500 executes. 管理装置500が車両Mから取得した情報(加工前の情報、サービス情報522)と、ロボット装置600に送信した情報(加工後の情報、タスク管理情報632)との一例を示す図である。It is a figure which shows an example of the information (information before processing, service information 522) which the management apparatus 500 acquired from a vehicle M, and the information (information after processing, task management information 632) transmitted to the robot apparatus 600. ロボット装置600に実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process executed in the robot apparatus 600. ロボット装置、管理装置、および車両により実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of processing executed by a robot device, a management device, and a vehicle. 第2実施形態のロボット装置600に実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process executed in the robot apparatus 600 of 2nd Embodiment.

以下、図面を参照し、本発明の管理装置、管理システム、管理方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the management device, management system, management method, and program of the present invention will be described with reference to the drawings.

<第1実施形態>
[全体構成]
図1は、管理装置を含む管理システム1の構成の一例を示す図である。管理システム1は、例えば、車両Mと、端末装置400と、管理装置500と、ロボット装置600とを備える。これらは、ネットワークNWを介して通信する。ネットワークNWは、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、プロバイダ装置、専用回線、無線基地局などを含む。
<First Embodiment>
[overall structure]
FIG. 1 is a diagram showing an example of a configuration of a management system 1 including a management device. The management system 1 includes, for example, a vehicle M, a terminal device 400, a management device 500, and a robot device 600. These communicate via the network NW. The network NW includes the Internet, WAN (Wide Area Network), LAN (Local Area Network), public line, provider device, dedicated line, wireless base station and the like.

[車両]
図2は、車両システム2の構成図である。車両システム2が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
[vehicle]
FIG. 2 is a configuration diagram of the vehicle system 2. The vehicle on which the vehicle system 2 is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and the drive source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. The electric motor operates by using the electric power generated by the generator connected to the internal combustion engine or the electric power generated by the secondary battery or the fuel cell.

車両システム2は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220と、エージェント装置300と、車室内カメラ310とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 2 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, a navigation device 50, and the like. MPU (Map Positioning Unit) 60, driving controller 80, automatic driving control device 100, traveling driving force output device 200, braking device 210, steering device 220, agent device 300, vehicle interior camera 310. To prepare for. These devices and devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム2が搭載される車両(以下、車両M)の任意の箇所に取り付けられる。レーダ装置12は、車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。 The camera 10 is, for example, a digital camera using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is attached to an arbitrary position on the vehicle (hereinafter, vehicle M) on which the vehicle system 2 is mounted. The radar device 12 radiates radio waves such as millimeter waves around the vehicle M, and also detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object. The finder 14 is a LIDAR (Light Detection and Ranging). The finder 14 irradiates the periphery of the vehicle M with light and measures the scattered light. The finder 14 detects the distance to the target based on the time from light emission to light reception.

物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。 The object recognition device 16 performs sensor fusion processing on the detection results of a part or all of the camera 10, the radar device 12, and the finder 14, and recognizes the position, type, speed, and the like of the object. The object recognition device 16 outputs the recognition result to the automatic operation control device 100.

通信装置20は、例えば、ネットワークNW、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 communicates with other vehicles existing in the vicinity of the vehicle M by using, for example, a network NW, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or various types via a wireless base station. Communicate with the server device.

HMI30は、車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。 The HMI 30 presents various information to the occupant of the vehicle M and accepts input operations by the occupant. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like.

車両センサ40は、車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両Mの向きを検出する方位センサ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the vehicle M, an acceleration sensor that detects the acceleration, a yaw rate sensor that detects the angular velocity around the vertical axis, an orientation sensor that detects the direction of the vehicle M, and the like.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、車両Mの位置を特定する。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a routing unit 53. The navigation device 50 holds the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. The GNSS receiver 51 identifies the position of the vehicle M based on the signal received from the GNSS satellite. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partially or wholly shared with the above-mentioned HMI 30. The route determination unit 53, for example, is a route from the position of the vehicle M specified by the GNSS receiver 51 (or an arbitrary position input) to the destination input by the occupant using the navigation HMI 52 (hereinafter, a map). The upper route) is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. The navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by an occupant. The navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。 The MPU 60 includes, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route on the map provided by the navigation device 50 into a plurality of blocks (for example, divides the route into 100 [m] units with respect to the vehicle traveling direction), and refers to the second map information 62. Determine the recommended lane for each block. The recommended lane determination unit 61 determines which lane to drive from the left.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is map information with higher accuracy than the first map information 54. The second map information 62 includes, for example, information on the center of the lane, information on the boundary of the lane, and the like. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. The second map information 62 may be updated at any time by the communication device 20 communicating with another device.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving controller 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a deformed steering wheel, a joystick, and other controls. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the operation controller 80, and the detection result is the automatic operation control device 100, or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to a part or all of 220.

自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、処理部170とを備える。第1制御部120と第2制御部160と処理部170とは、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。 The automatic operation control device 100 includes, for example, a first control unit 120, a second control unit 160, and a processing unit 170. The first control unit 120, the second control unit 160, and the processing unit 170 are realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). In addition, some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). It may be realized by the part; including circuitry), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the automatic operation control device 100, or may be detachable such as a DVD or a CD-ROM. It is stored in a storage medium, and may be installed in the HDD or flash memory of the automatic operation control device 100 by mounting the storage medium (non-transient storage medium) in the drive device.

第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。 The first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 140. The first control unit 120, for example, realizes a function by AI (Artificial Intelligence) and a function by a model given in advance in parallel. For example, the function of "recognizing an intersection" is executed in parallel with the recognition of an intersection by deep learning or the like and the recognition based on a predetermined condition (there is a signal that can be pattern matched, a road marking, etc.). It may be realized by scoring and comprehensively evaluating. This ensures the reliability of autonomous driving.

認識部130は、物体認識装置16を介して入力された情報に基づいて、車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The recognition unit 130 recognizes the position, speed, acceleration, and other states of objects around the vehicle M based on the information input via the object recognition device 16. The position of the object is recognized as, for example, a position on absolute coordinates with the representative point of the vehicle M (center of gravity, center of drive axis, etc.) as the origin, and is used for control. The "state" of an object may include the object's acceleration, jerk, or "behavioral state" (eg, whether it is changing lanes or is about to change lanes).

行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、車両Mの周辺状況に対応できるように、車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。 In principle, the action plan generation unit 140 travels in the recommended lane determined by the recommended lane determination unit 61, and the vehicle M automatically (operates by the driver) so as to be able to respond to the surrounding conditions of the vehicle M. Generate a target track to travel in the future (regardless of). The target trajectory contains, for example, a velocity element. For example, the target track is expressed as an arrangement of points (track points) to be reached by the vehicle M in order. The track point is a point to be reached by the vehicle M for each predetermined mileage (for example, about several [m]) along the road, and separately, a predetermined sampling time (for example, about 0 comma number [sec]). A target velocity and a target acceleration for each are generated as part of the target trajectory.

行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベント、自動駐車イベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。 The action plan generation unit 140 may set an event for automatic driving when generating a target trajectory. Autonomous driving events include constant speed driving events, low speed following driving events, lane change events, branching events, merging events, takeover events, automatic parking events, and the like. The action plan generation unit 140 generates a target trajectory according to the activated event.

自動駐車イベントは、乗員の操作に依らずに、車両Mが自動で所定の駐車位置に駐車するイベントである。所定の駐車位置は、不図示の駐車場管理装置により指定された駐車位置であってもよいし、車両Mが認識した、駐車可能な駐車位置(空いている駐車位置)であってもよい。車両Mは、上記の駐車場管理装置または端末装置400と連携して、自動駐車イベントを実行してもよい。例えば、車両Mは、駐車場管理装置により送信された指示に基づいて、指定された方向や位置に移動したり、駐車したりする。また、車両Mは、乗員が降車した後、端末装置400の指示に基づいて自動駐車イベントを実行してもよい。 The automatic parking event is an event in which the vehicle M automatically parks in a predetermined parking position without depending on the operation of the occupant. The predetermined parking position may be a parking position designated by a parking lot management device (not shown), or may be a parkingable parking position (vacant parking position) recognized by the vehicle M. The vehicle M may execute an automatic parking event in cooperation with the parking lot management device or the terminal device 400 described above. For example, the vehicle M moves or parks in a designated direction or position based on the instruction transmitted by the parking lot management device. Further, the vehicle M may execute an automatic parking event based on the instruction of the terminal device 400 after the occupant gets off.

第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 160 controls the traveling driving force output device 200, the brake device 210, and the steering device 220 so that the vehicle M passes the target track generated by the action plan generation unit 140 at the scheduled time. do.

第2制御部160は、例えば、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。第2制御部160は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。第2制御部160は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。 The second control unit 160 acquires, for example, information on the target trajectory (orbit point) generated by the action plan generation unit 140 and stores it in a memory (not shown). The second control unit 160 controls the traveling driving force output device 200 or the brake device 210 based on the speed element associated with the target trajectory stored in the memory. The second control unit 160 controls the steering device 220 according to the degree of bending of the target trajectory stored in the memory.

処理部170は、管理装置500に送信する情報を生成したり、エージェント装置300と連携して車両Mの目的地を設定したりする。また、処理部170は、車室内カメラ310により撮像された画像を解析する。処理部170の処理の詳細については後述する。 The processing unit 170 generates information to be transmitted to the management device 500, and sets the destination of the vehicle M in cooperation with the agent device 300. Further, the processing unit 170 analyzes the image captured by the vehicle interior camera 310. The details of the processing of the processing unit 170 will be described later.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The traveling driving force output device 200 outputs a traveling driving force (torque) for the vehicle to travel to the drive wheels. The brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the second control unit 160 or the information input from the operation controller 80 so that the brake torque corresponding to the braking operation is output to each wheel. The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, exerts a force on the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the second control unit 160 or the information input from the operation controller 80, and changes the direction of the steering wheel.

エージェント装置300は、車両Mの乗員と対話したり、乗員にサービスを提供したりする。サービスとは、情報提供や、後述するタスクの設定などである。エージェント装置300は、乗員の音声を認識し、認識結果に基づいて乗員に提供する情報を選択し、選択した情報をHMI30に出力させる。この機能の一部または全部は、AI(Artificial Intelligence)技術によって実現されてよい。また、エージェント装置300は、ネットワークNWを介して不図示のエージェントサーバ装置と連携して乗員と対話したり、サービスを提供したりしてもよい。 The agent device 300 interacts with the occupant of the vehicle M and provides services to the occupant. The service is information provision and task setting described later. The agent device 300 recognizes the voice of the occupant, selects the information to be provided to the occupant based on the recognition result, and causes the HMI 30 to output the selected information. Part or all of this function may be realized by AI (Artificial Intelligence) technology. Further, the agent device 300 may interact with an occupant or provide a service in cooperation with an agent server device (not shown) via the network NW.

エージェント装置300は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより処理を行う。エージェント装置300に含まれる構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。車室内カメラ310は、車両Mの車両内に設けられ、利用者の顔を中心に撮像するカメラである。 The agent device 300 performs processing by, for example, a hardware processor such as a CPU executing a program (software). Some or all of the components included in the agent device 300 may be realized by hardware (circuit unit; including circuitry) such as LSI, ASIC, FPGA, GPU, or cooperation between software and hardware. May be realized by. The program may be stored in advance in a storage device such as an HDD or a flash memory (a storage device including a non-transient storage medium), or a removable storage medium (non-transient) such as a DVD or a CD-ROM. It is stored in a sex storage medium) and may be installed by mounting the storage medium in a drive device. The vehicle interior camera 310 is provided inside the vehicle of the vehicle M and is a camera that mainly captures the face of the user.

[端末装置]
端末装置400は、例えば、スマートフォンやタブレット端末などである。端末装置400は、例えば車両Mの乗員(利用者)が保持する端末装置である。端末装置400において、管理システム1が提供するサービスを利用するためのアプリケーションプログラム、或いはブラウザなどが起動し、以下に説明するサービスをサポートする。以下の説明では端末装置400がスマートフォンであり、サービスを受けるためのアプリケーションプログラム(サービスアプリ410)が起動していることを前提とする。サービスアプリ410は、管理装置500と通信し、利用者に情報を提供したり、利用者が端末装置400に対して行った操作に基づく情報を管理装置500または端末装置400に提供したりする。
[Terminal device]
The terminal device 400 is, for example, a smartphone or a tablet terminal. The terminal device 400 is, for example, a terminal device held by an occupant (user) of the vehicle M. In the terminal device 400, an application program for using the service provided by the management system 1, a browser, or the like is activated to support the service described below. In the following description, it is assumed that the terminal device 400 is a smartphone and an application program (service application 410) for receiving a service is activated. The service application 410 communicates with the management device 500 to provide information to the user, and provides information based on the operation performed by the user to the terminal device 400 to the management device 500 or the terminal device 400.

[管理装置]
図3は、管理装置500の機能構成の一例を示す図である。管理装置500は、例えば、通信部502と、取得部504と、情報生成部506と、提供部508と、記憶部520とを備える。提供部508、または情報生成部506と提供部508とを合わせた機能構成は、「提供部」の一例である。
[Management device]
FIG. 3 is a diagram showing an example of the functional configuration of the management device 500. The management device 500 includes, for example, a communication unit 502, an acquisition unit 504, an information generation unit 506, a provision unit 508, and a storage unit 520. The functional configuration in which the providing unit 508 or the information generation unit 506 and the providing unit 508 are combined is an example of the “providing unit”.

通信部502は、例えば、ネットワークNWに接続したり、他の端末装置などと直接通信したりするための無線通信モジュールである。 The communication unit 502 is, for example, a wireless communication module for connecting to a network NW or directly communicating with another terminal device or the like.

取得部504、情報生成部506、および提供部508の一部または全部は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め管理装置500のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで管理装置500のHDDやフラッシュメモリにインストールされてもよい。記憶部520は、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。 A part or all of the acquisition unit 504, the information generation unit 506, and the provision unit 508 are realized by, for example, a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (circuit part; including circuitry), or realized by the cooperation of software and hardware. May be good. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the management device 500, or a removable storage medium such as a DVD or a CD-ROM. A storage medium (non-transient storage medium) may be attached to the drive device and installed in the HDD or flash memory of the management device 500. The storage unit 520 is realized by, for example, an HDD, a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), a RAM (Random Access Memory), or the like.

記憶部520には、例えば、サービス情報522や、地図情報524などが記憶されている。サービス情報522は、例えば、車両Mから取得した情報であって利用者に提供するサービスに関する情報である。サービス情報522には、利用者(保護者)の識別情報や、保護者が指定したロボット装置600に実行させるタスク、保護者の画像、対象者の画像、車両Mとロボット装置600とが待ち合わせる場所、時刻、保護者が設定したパスワードなどが関連付けられた情報である(図7、図9参照)。地図情報524は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。 For example, service information 522, map information 524, and the like are stored in the storage unit 520. The service information 522 is, for example, information acquired from the vehicle M and related to a service provided to the user. The service information 522 includes identification information of the user (guardian), a task to be executed by the robot device 600 designated by the guardian, an image of the guardian, an image of the target person, and a place where the vehicle M and the robot device 600 meet. , Time, password set by the guardian, etc. (see FIGS. 7 and 9). The map information 524 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link.

保護者とは、対象者が所定の目的地に向かう際に、この移動をサポートする者である。保護者とは、例えば、対象者が子供の場合、その親である。また、保護者は、親子の関係に限らず、単に、対象者をサポートする人であってもよい。 A guardian is a person who supports this movement when the target person heads for a predetermined destination. The guardian is, for example, the parent of the subject if the subject is a child. Further, the guardian is not limited to the parent-child relationship, but may simply be a person who supports the target person.

取得部504は、車両Mまたはロボット装置600により提供された情報を取得する。取得された情報は、記憶部520に記憶される。取得部504は、例えば、車両Mまたは端末装置400から保護者が保護対象としている対象者の識別情報と、対象者が保護者に連れられて待ち合わせ場所に到着したことを確認するための確認情報とを取得する。識別情報は、例えば、対象者が撮像された画像から抽出された特徴量であり、確認情報は、例えば、保護者が撮像された画像から抽出された特徴量である。特徴量とは、例えば、輝度値の分布や、輝度の変化を示す指標(例えば、輝度勾配を示す指標)の分布などである。 The acquisition unit 504 acquires the information provided by the vehicle M or the robot device 600. The acquired information is stored in the storage unit 520. The acquisition unit 504, for example, identifies the target person to be protected by the guardian from the vehicle M or the terminal device 400, and confirmation information for confirming that the target person has arrived at the meeting place with the guardian. And get. The identification information is, for example, a feature amount extracted from an image captured by the subject, and the confirmation information is, for example, a feature amount extracted from an image captured by a guardian. The feature amount is, for example, a distribution of a luminance value or an index indicating a change in luminance (for example, an index indicating a luminance gradient).

情報生成部506は、識別情報および確認情報に基づいて、対象者を待ち合わせ場所から目的地までロボット装置600に案内させるための、識別情報を含む指示情報および確認情報を、ロボット装置600に提供する。提供部508は、生成された指示情報および確認情報をロボット装置600に提供する。これらの詳細については、後述する。 The information generation unit 506 provides the robot device 600 with instruction information and confirmation information including the identification information for guiding the target person from the meeting place to the destination based on the identification information and the confirmation information. .. The providing unit 508 provides the generated instruction information and confirmation information to the robot device 600. Details of these will be described later.

[ロボット装置]
図4は、ロボット装置600の機能構成の一例を示す図である。ロボット装置600は、例えば、通信部602と、カメラ604と、タッチパネル606と、位置特定部608と、駆動部610と、駆動制御部612と、情報管理部614と、特定部616と、制御部618と、記憶部630とを備える。駆動制御部612、情報管理部614、特定部616、および制御部618の一部または全部は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めロボット装置600のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることでロボット装置600のHDDやフラッシュメモリにインストールされてもよい。記憶部630は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。
[Robot device]
FIG. 4 is a diagram showing an example of the functional configuration of the robot device 600. The robot device 600 includes, for example, a communication unit 602, a camera 604, a touch panel 606, a position specifying unit 608, a drive unit 610, a drive control unit 612, an information management unit 614, a specific unit 616, and a control unit. 618 and a storage unit 630 are provided. A part or all of the drive control unit 612, the information management unit 614, the specific unit 616, and the control unit 618 are realized by, for example, a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (circuit part; including circuitry), or realized by the cooperation of software and hardware. May be good. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the robot device 600, or a removable storage medium such as a DVD or a CD-ROM. A storage medium (non-transient storage medium) may be attached to the drive device and installed in the HDD or flash memory of the robot device 600. The storage unit 630 is realized by, for example, an HDD, a flash memory, an EEPROM, a ROM, a RAM, or the like.

記憶部630には、管理装置500により提供された情報が記憶される。記憶部630には、例えば、タスク管理情報632や、地図情報634が記憶されている。タスク管理情報632は、保護者および対象者を識別するための情報や、タスクの内容など、ロボット装置600がタスクを実行するために必要な情報である(後述する図9)。タスク管理情報632は、「指示情報」および「確認情報」の一例である。 The information provided by the management device 500 is stored in the storage unit 630. For example, task management information 632 and map information 634 are stored in the storage unit 630. The task management information 632 is information necessary for the robot device 600 to execute a task, such as information for identifying a guardian and a target person and the contents of the task (FIG. 9 described later). The task management information 632 is an example of "instruction information" and "confirmation information".

通信部602は、例えば、ネットワークNWに接続したり、他の端末装置などと直接的に通信したりするための無線通信モジュールである。通信部602は、DSRC、Bluetooth、その他の通信規格に基づいて無線通信を行う。 The communication unit 602 is, for example, a wireless communication module for connecting to a network NW or directly communicating with another terminal device or the like. The communication unit 602 performs wireless communication based on DSRC, Bluetooth, and other communication standards.

カメラ604は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。カメラ604は、ロボット装置600の任意の箇所に取り付けられる。カメラ604は、ロボット装置600の周辺に存在する人物を撮像可能な位置に取り付けられる。 The camera 604 is, for example, a digital camera using a solid-state image sensor such as a CCD or CMOS. The camera 604 is attached to any part of the robot device 600. The camera 604 is attached to a position where a person existing around the robot device 600 can be imaged.

タッチパネル606は、表示装置と入力装置とが組み合わされた装置である。利用者は、表示装置に表示された画像に対して、タッチ操作やスワイプ操作等を行い、情報を選択したり、情報を入力したりする。 The touch panel 606 is a device in which a display device and an input device are combined. The user performs a touch operation, a swipe operation, or the like on the image displayed on the display device to select information or input information.

位置特定部608は、例えば、GNSS衛星(例えばGPS衛星)から到来する電波に基づいて自機の位置を測位する。 The position specifying unit 608 determines the position of its own machine based on radio waves arriving from, for example, a GNSS satellite (for example, a GPS satellite).

駆動部610は、例えば、モータなどの駆動源や、駆動源が駆動されて発生した動力を伝達する伝達機構等を含む。駆動部610により伝達される動力により、走行部(例えば車輪)が稼働して、ロボット装置600を走行させる。例えば、駆動源がモータの場合、ロボット装置600にはモータに電力を供給するバッテリを備える。駆動制御部612は、例えば、モータなどの駆動源を制御する。ロボット装置600は、二足歩行型のロボットであってもよい。 The drive unit 610 includes, for example, a drive source such as a motor, a transmission mechanism for transmitting the power generated by driving the drive source, and the like. The traveling unit (for example, wheels) is operated by the power transmitted by the driving unit 610 to drive the robot device 600. For example, when the drive source is a motor, the robot device 600 includes a battery that supplies electric power to the motor. The drive control unit 612 controls a drive source such as a motor. The robot device 600 may be a bipedal walking type robot.

情報管理部614は、管理装置500から取得した情報を管理する。情報管理部614は、例えば、管理装置500により送信された情報を取得し、取得した情報を記憶部630に記憶させる。 The information management unit 614 manages the information acquired from the management device 500. The information management unit 614 acquires, for example, the information transmitted by the management device 500, and stores the acquired information in the storage unit 630.

特定部616は、情報管理部614が管理する情報を利用して、ロボット装置600が案内対象とする対象者を特定し、更に保護者が対象者をロボット装置600との待ち合わせ場所に対象者を連れてきたことを特定する。特定部616は、管理装置500により提供されたタスク管理情報632に含まれる特徴量と、カメラ604により撮像された画像から得られた特徴量とに基づいて、案内対象の対象者を特定する。特定部616は、カメラ604に撮像された画像に含まれる人物の特徴を示す情報と、タスク管理情報632に含まれる特徴情報とが合致する場合、カメラ604により撮像された人物は案内対象の対象者であると特定する。合致とは完全一致に限らず、所定の度合以上一致していることであってもよい。また、同様に、特定部616は、タスク管理情報632に含まれる保護者の特徴量を用いて、保護者が対象者を待ち合わせ場所に連れてきたことを特定する。 The identification unit 616 uses the information managed by the information management unit 614 to specify the target person to be guided by the robot device 600, and the guardian places the target person at the meeting place with the robot device 600. Identify what you brought. The specifying unit 616 identifies the target person to be guided based on the feature amount included in the task management information 632 provided by the management device 500 and the feature amount obtained from the image captured by the camera 604. When the information indicating the characteristics of the person included in the image captured by the camera 604 and the feature information included in the task management information 632 match, the specific unit 616 targets the person captured by the camera 604 to be guided. Identify as a person. The match is not limited to an exact match, and may be a match of a predetermined degree or more. Similarly, the specifying unit 616 identifies that the guardian has brought the target person to the meeting place by using the feature amount of the guardian included in the task management information 632.

制御部618は、タスク管理情報632に基づいて、対象者を目的地に案内するためにロボット装置600を制御する。制御部618は、ロボット装置600を所定の待ち合わせ場所に待機させたり、対象者を誘導しながらロボット装置600を目的地に移動させたりする。また、制御部618は、タッチパネル606の表示部に情報を表示させたり、不図示のスピーカに音声を出力させたりする。 The control unit 618 controls the robot device 600 to guide the target person to the destination based on the task management information 632. The control unit 618 makes the robot device 600 stand by at a predetermined meeting place, or moves the robot device 600 to the destination while guiding the target person. Further, the control unit 618 displays information on the display unit of the touch panel 606, and outputs voice to a speaker (not shown).

[管理システムにより提供されるサービスの概要]
図5は、管理システム1により提供されるサービスの概要について説明するための図である。
(1)車両Mは、例えば、車室内で取得した保護者および対象者の画像や、パスワード、タスク、待ち合わせ場所に到着する予定の到着予定時刻等を管理装置500に送信する。
(2)管理装置500は、車両Mから取得した情報(または取得した情報を加工した情報)を、対象者を案内するロボット装置600に送信する。
(3)ロボット装置600は、対象者を誘導および警護して、対象者を目的地に案内する。
(4)ロボット装置600は、対象者を目的地に案内している際に対象者に異常が生じた場合に、異常が生じたことを示す情報を管理装置500に送信する。そして、管理装置500は、車両Mまたは端末装置400に異常が生じたことを示す情報を送信する。
[Overview of services provided by the management system]
FIG. 5 is a diagram for explaining an outline of the service provided by the management system 1.
(1) The vehicle M transmits, for example, an image of a guardian and a target person acquired in the vehicle interior, a password, a task, an estimated time of arrival to arrive at the meeting place, and the like to the management device 500.
(2) The management device 500 transmits the information acquired from the vehicle M (or the information obtained by processing the acquired information) to the robot device 600 that guides the target person.
(3) The robot device 600 guides and guards the target person and guides the target person to the destination.
(4) When the target person has an abnormality while guiding the target person to the destination, the robot device 600 transmits information indicating that the abnormality has occurred to the management device 500. Then, the management device 500 transmits information indicating that an abnormality has occurred in the vehicle M or the terminal device 400.

[車両が実行する処理]
図6は、車両Mの処理部170により実行される処理の流れの一例を示す図である。まず、処理部170は、車両Mの乗員である保護者のHMI30に対する操作に基づいて、タスクを設定する(ステップS100)。タスクとは、ロボット装置600に実行させるタスクである。タスクは、例えば、ロボット装置600に待ち合わせ場所である地点Aから地点Bまで対象者を案内させることである。
[Processes performed by the vehicle]
FIG. 6 is a diagram showing an example of a processing flow executed by the processing unit 170 of the vehicle M. First, the processing unit 170 sets a task based on the operation of the guardian who is the occupant of the vehicle M with respect to the HMI 30 (step S100). The task is a task to be executed by the robot device 600. The task is, for example, to have the robot device 600 guide the target person from the point A to the point B, which is the meeting place.

次に、処理部170は、車両Mの乗員である保護者のHMI30に対する操作に基づいて、パスワードを設定する(ステップS102)。次に、処理部170は、車両Mの乗員である保護者のHMI30に対する操作に基づいて、または自動で、保護者および対象者の画像を取得する(ステップS104)。画像は、車室内カメラ310により撮像された画像である。 Next, the processing unit 170 sets a password based on the operation of the guardian who is the occupant of the vehicle M on the HMI 30 (step S102). Next, the processing unit 170 acquires images of the guardian and the target person based on or automatically by the operation of the guardian who is the occupant of the vehicle M with respect to the HMI 30 (step S104). The image is an image taken by the vehicle interior camera 310.

次に、処理部170は、車両Mが待ち合わせ場所に到着する予定の到着予定時刻を取得する(ステップS106)。到着予定時刻は、例えば、ナビゲーション装置50により推定された時刻である。次に、処理部170は、上述したステップS100-S106で取得した各情報を関連付けて、関連付けた情報を含むリクエストを管理装置500に送信する(ステップS108)。これにより、本フローチャートの1ルーチンが終了する。 Next, the processing unit 170 acquires the estimated time of arrival when the vehicle M is scheduled to arrive at the meeting place (step S106). The estimated time of arrival is, for example, the time estimated by the navigation device 50. Next, the processing unit 170 associates the information acquired in steps S100 to S106 described above, and transmits a request including the associated information to the management device 500 (step S108). This ends one routine in this flowchart.

図7は、車両MのHMI30に表示される画像IM1の一例を示す図である。保護者は、HMI30に対して所定の操作を行うことで各情報を入力する。画像IM1は、入力された情報等を含み、保護者が入力した情報を確認するための画像である。画像IM1には、例えば、設定されたタスクや、設定されたパスワード、待ち合わせ場所、待ち合わせ場所への到着予測時刻、保護者の画像、対象者の画像等が含まれる。また、画像IM1の誘導経路確認ボタンが操作されると、待ち合わせ場所から目的地までの経路を示す情報がHMI30に表示される。画像IM1の設定ボタンが操作されると、画像IM1に表示された情報を含むリクエスト(関連付けた情報を含むリクエスト)が管理装置500に送信される。 FIG. 7 is a diagram showing an example of the image IM1 displayed on the HMI 30 of the vehicle M. The guardian inputs each information by performing a predetermined operation on the HMI 30. The image IM1 is an image for confirming the information input by the guardian, including the input information and the like. The image IM1 includes, for example, a set task, a set password, a meeting place, an estimated arrival time at the meeting place, an image of a guardian, an image of a target person, and the like. Further, when the guidance route confirmation button of the image IM1 is operated, information indicating the route from the meeting place to the destination is displayed on the HMI 30. When the setting button of the image IM1 is operated, a request including the information displayed on the image IM1 (a request including the associated information) is transmitted to the management device 500.

上記のタスクの設定は、例えば、予め設定された人物が行うことができる。例えば、管理装置500は、予め設定されたパスワードが入力された場合に、タスクの設定を許可してもよいし、予め設定された人物の画像の特徴量を取得した場合、タスクの設定を許可してもよい。人物の画像の特徴量は、例えば、車両Mで撮像された画像から得られた特徴量である。また、タスクの終了(例えばタスクのキャンセルや、ロボット装置600が対象者を案内中に、ロボット装置600に案内を中止させること)も、予め設定された人物のみが行うことができるようにされてもよい。 The setting of the above task can be performed by, for example, a preset person. For example, the management device 500 may allow the task setting when the preset password is input, or may allow the task setting when the feature amount of the preset image of the person is acquired. You may. The feature amount of the image of the person is, for example, the feature amount obtained from the image captured by the vehicle M. Further, the end of the task (for example, cancellation of the task or stopping the guidance by the robot device 600 while the robot device 600 is guiding the target person) can be performed only by a preset person. May be good.

上記のように、保護者は、タスクを容易に設定し、設定したタスクの内容を容易に確認することができる。 As described above, the guardian can easily set the task and easily confirm the content of the set task.

また、上記のように、タスクが設定されると、自動運転制御装置100は、待ち合わせ場所を目的地に設定し、設定した目的地に向けて自動運転で走行する。これにより、保護者の利便性が向上する。 Further, as described above, when the task is set, the automatic operation control device 100 sets the meeting place as the destination and automatically drives toward the set destination. This improves the convenience of parents.

[管理装置が実行する処理]
図8は、管理装置500が実行する処理の流れの一例を示すフローチャートである。まず、管理装置500は、リクエストを受信したか否かを判定する(ステップS200)。リクエストを受信した場合、管理装置500は、受信したリクエストに基づいて、ロボット装置600を抽出する(ステップS202)。例えば、管理装置500は、管理対象の複数のロボット装置600からサービスを提供可能なロボット装置600を抽出する。
[Processes executed by the management device]
FIG. 8 is a flowchart showing an example of the flow of processing executed by the management device 500. First, the management device 500 determines whether or not the request has been received (step S200). When the request is received, the management device 500 extracts the robot device 600 based on the received request (step S202). For example, the management device 500 extracts a robot device 600 capable of providing a service from a plurality of robot devices 600 to be managed.

次に、管理装置500は、車両Mから取得した保護者および対象者の画像から特徴量を抽出する(ステップS204)。管理装置500は、対象者の画像から対象者の特徴量を抽出し、保護者の画像から保護者の特徴量を抽出する。 Next, the management device 500 extracts the feature amount from the images of the guardian and the target person acquired from the vehicle M (step S204). The management device 500 extracts the feature amount of the target person from the image of the target person, and extracts the feature amount of the guardian from the image of the guardian.

次に、管理装置500は、車両Mから取得した情報や上記の特徴量を用いて、依頼情報を生成し(ステップS206)、生成した依頼情報を、サービスを提供するロボット装置600に送信する(ステップS208)。依頼情報とは、ロボット装置600にリクエストを送信した保護者に対応する対象者を目的地に案内する依頼を示す情報である。これにより、本フローチャートの1ルーチンが終了する。 Next, the management device 500 generates request information using the information acquired from the vehicle M and the above-mentioned feature amount (step S206), and transmits the generated request information to the robot device 600 that provides the service (step S206). Step S208). The request information is information indicating a request to guide the target person corresponding to the guardian who sent the request to the robot device 600 to the destination. This ends one routine in this flowchart.

図9は、管理装置500が車両Mから取得した情報(加工前の情報、サービス情報522)と、ロボット装置600に送信した情報(加工後の情報、タスク管理情報632)との一例を示す図である。管理装置500は、車両Mから取得した情報を加工した情報であるタスク管理情報632をロボット装置600に送信する。例えば、管理装置500は、保護者の画像および対象者の画像に代えて、保護者の特徴量および対象者の特徴量を、タスクや、パスワード、到着予測時刻、待ち合わせ場所、経路等に関連付けて、関連付けた情報をロボット装置600に送信する。 FIG. 9 is a diagram showing an example of information acquired from the vehicle M by the management device 500 (information before processing, service information 522) and information transmitted to the robot device 600 (information after processing, task management information 632). Is. The management device 500 transmits the task management information 632, which is the processed information obtained from the vehicle M, to the robot device 600. For example, the management device 500 associates the feature amount of the guardian and the feature amount of the target person with the task, the password, the estimated arrival time, the meeting place, the route, etc., instead of the image of the guardian and the image of the target person. , The associated information is transmitted to the robot device 600.

上記のように、管理装置500が、車両Mから取得した情報をロボット装置600がタスクを実行するために必要な情報に加工して、加工した情報(指示情報)をロボット装置600に提供する。これにより、ロボット装置600は、情報の加工を行う負担が軽減される。 As described above, the management device 500 processes the information acquired from the vehicle M into the information necessary for the robot device 600 to execute the task, and provides the processed information (instruction information) to the robot device 600. As a result, the robot device 600 reduces the burden of processing information.

上記の例では、管理装置500が、画像から特徴量を抽出するものとして説明したが、管理装置500は、画像をロボット装置600に提供し、ロボット装置600が特徴量を抽出してもよい。また、車両Mが、画像から特徴量を抽出し、抽出した特徴量を管理装置500に提供してもよい。 In the above example, the management device 500 has been described as extracting the feature amount from the image, but the management device 500 may provide the image to the robot device 600, and the robot device 600 may extract the feature amount. Further, the vehicle M may extract a feature amount from the image and provide the extracted feature amount to the management device 500.

また、上記の例において、管理装置500は、対象者を案内するロボット装置600を抽出し、そのロボット装置600にタスクを依頼した場合、ロボット装置600の画像や、特徴を示す情報(色や、形状などの特徴)を車両Mまたは端末装置400に提供してもよい。管理装置500により送信された画像や特徴を示す情報は、車両Mまたは端末装置400の表示部に表示される。保護者または対象者は、これらの情報を確認することで、待ち合わせ場所でタスクを行うロボット装置600を容易に認識することができる。 Further, in the above example, when the management device 500 extracts the robot device 600 that guides the target person and requests the robot device 600 to perform a task, the image of the robot device 600 and information (colors, etc.) indicating the features are shown. Features such as shape) may be provided to the vehicle M or the terminal device 400. The image and the information indicating the feature transmitted by the management device 500 are displayed on the display unit of the vehicle M or the terminal device 400. By confirming this information, the guardian or the target person can easily recognize the robot device 600 that performs the task at the meeting place.

[ロボット装置が実行する処理]
図10は、ロボット装置600に実行される処理の流れの一例を示すフローチャートである。ロボット装置600は、到着予測時刻に待ち合わせ場所で待機する。到着予測時刻は、適宜、更新されてもよい。到着予測時刻は、車両Mの位置情報や、車両Mにおいて再度推定された到着予測時刻により更新される。以下、保護者および対象者が待ち合わせ場所に到着した後に実行される処理である。
[Processes executed by the robot device]
FIG. 10 is a flowchart showing an example of the flow of processing executed by the robot device 600. The robot device 600 stands by at the meeting place at the estimated arrival time. The estimated arrival time may be updated as appropriate. The estimated arrival time is updated by the position information of the vehicle M and the estimated arrival time re-estimated in the vehicle M. The following is the process executed after the guardian and the target person arrive at the meeting place.

まず、ロボット装置600が、ロボット装置のタッチパネル606にパスワードが入力されたか否かを判定する(ステップS300)。パスワードが入力された場合、ロボット装置600は、入力されたパスワードが、管理装置500により送信されたパスワードに一致するか否かを判定する(ステップS302)。 First, the robot device 600 determines whether or not a password has been input to the touch panel 606 of the robot device (step S300). When the password is input, the robot device 600 determines whether or not the input password matches the password transmitted by the management device 500 (step S302).

パスワードが一致する場合、ロボット装置600は、対象者の画像および保護者の画像が撮像されたか否を判定する(ステップS304)。例えば、ロボット装置600は、人物が近づいてきた場合、パスワードの入力や、画像を撮像するための位置に顔を近づけるように人物にアナウンスする。顔が所定の位置に近づいた場合、ロボット装置600は、自動で画像を撮像する。 If the passwords match, the robot device 600 determines whether or not the image of the target person and the image of the guardian have been captured (step S304). For example, when a person approaches, the robot device 600 announces to the person to enter a password or bring the face closer to a position for capturing an image. When the face approaches a predetermined position, the robot device 600 automatically captures an image.

画像が撮像された場合、ロボット装置600は、対象者の画像の特徴量と管理装置500により送信された対象者の画像の特徴量とが合致し、更に、保護者の画像の特徴量と管理装置500により送信された保護者の画像の特徴量とが合致するか否を判定する(ステップS305)。これらが合致すると判定された場合、ロボット装置600は、対象者を目的地まで案内する処理を開始する(ステップS308)。対象者の画像の特徴量と管理装置500により送信された対象者の画像の特徴量とが合致することは、「対象者が入力した識別情報と前記提供部により提供された識別情報が合致した」ことの一例である。保護者の画像の特徴量と管理装置500により送信された保護者の画像の特徴量とが合致することは、「確認情報に基づく処理が完了」したことの一例である。 When the image is captured, the robot device 600 matches the feature amount of the image of the target person with the feature amount of the image of the target person transmitted by the management device 500, and further manages the feature amount of the image of the guardian. It is determined whether or not the feature amount of the guardian's image transmitted by the device 500 matches (step S305). When it is determined that these match, the robot device 600 starts a process of guiding the target person to the destination (step S308). The fact that the feature amount of the image of the target person and the feature amount of the image of the target person transmitted by the management device 500 match means that "the identification information input by the target person and the identification information provided by the providing unit match". This is an example of that. Matching the feature amount of the guardian's image with the feature amount of the guardian's image transmitted by the management device 500 is an example of "the processing based on the confirmation information is completed".

これにより、本フローチャートの1ルーチンが終了する。また、ステップS302、ステップS304、またはステップS306で否定的な判定結果が得られた場合、本フローチャートの1ルーチンが終了する。 This ends one routine in this flowchart. If a negative determination result is obtained in step S302, step S304, or step S306, one routine in this flowchart ends.

上記のように、管理装置500は、保護者および対象者が待ち合わせ場所に到着したことを認証するための情報をロボット装置600に提供する。そして、ロボット装置600は、提供された情報に基づいて、保護者が連れてきた対象者を特定し、特定できた場合に対象者を目的地に案内する。これにより、ロボット装置600は、対象者が保護者に連れてこられたことを、より確実に確認し、対象者を確実に目的地に案内することができる。 As described above, the management device 500 provides the robot device 600 with information for authenticating that the guardian and the target person have arrived at the meeting place. Then, the robot device 600 identifies the target person brought by the guardian based on the provided information, and guides the target person to the destination when the target person can be identified. As a result, the robot device 600 can more reliably confirm that the target person has been brought to the guardian and can surely guide the target person to the destination.

更に、上記のように、ロボット装置600は、パスワードと画像とに基づく二重の判断を行うことで、より確実に保護者が対象者を待ち合わせ場所に連れてきたかを判定することができる。 Further, as described above, the robot device 600 can more reliably determine whether the guardian has brought the target person to the meeting place by making a double judgment based on the password and the image.

[ロボット装置、管理装置、および車両が実行する処理]
図11は、ロボット装置、管理装置、および車両により実行される処理の流れの一例を示すフローチャートである。本処理は、案内が開始された後に実行される処理である。
[Processes performed by robot devices, management devices, and vehicles]
FIG. 11 is a flowchart showing an example of a flow of processing executed by a robot device, a management device, and a vehicle. This process is a process executed after the guidance is started.

まず、ロボット装置600は、案内中に対象者の画像(または動画)を取得する(ステップS400)。次に、ロボット装置600は、取得した画像を管理装置500に送信する(ステップS402)。管理装置500は、取得した画像を車両M(または端末装置400)に送信する(ステップS500)。これにより、車両Mの表示部に対象者の様子を示す画像が表示され、保護者は、車両Mにおいて対象者の様子を確認することができるため、保護者の安心感が向上する。 First, the robot device 600 acquires an image (or moving image) of the target person during guidance (step S400). Next, the robot device 600 transmits the acquired image to the management device 500 (step S402). The management device 500 transmits the acquired image to the vehicle M (or the terminal device 400) (step S500). As a result, an image showing the state of the target person is displayed on the display unit of the vehicle M, and the guardian can confirm the state of the target person in the vehicle M, so that the guardian's sense of security is improved.

次に、ロボット装置600は、ステップS402で撮像された画像を解析し(ステップS406)、解析結果に基づいて異常が発生したか否かを判定する(ステップS406)。異常とは、事故や災害、犯罪、対象者とロボット装置600とがはぐれてしまったこと等である。例えば、ロボット装置600は、記憶部に記憶されたニューラルネットワークを用いて、上記の異常が発生したか否かを判定したり、記憶部に記憶されたパターン情報を用いてパターンマッチング手法に基づいて上記の異常が発生したか否かを判定したりしてもよい。 Next, the robot device 600 analyzes the image captured in step S402 (step S406), and determines whether or not an abnormality has occurred based on the analysis result (step S406). Abnormalities include accidents, disasters, crimes, and the fact that the target person and the robot device 600 are separated from each other. For example, the robot device 600 uses a neural network stored in the storage unit to determine whether or not the above abnormality has occurred, or uses pattern information stored in the storage unit to determine based on a pattern matching method. It may be determined whether or not the above abnormality has occurred.

異常が発生した場合、ロボット装置600は、管理装置500に異常が発生したことを通知する(ステップS408)。管理装置500は、通知を取得した場合、異常が発生したことを車両Mに通知する(ステップS502)。また、管理装置500は、異常が発生したことを、所定の機関や予め設定された通知先に通知してもよい。次に、ロボット装置600は、異常が発生したことを認識した場合、出力部に警報を出力させる(ステップS410)。 When an abnormality occurs, the robot device 600 notifies the management device 500 that the abnormality has occurred (step S408). When the management device 500 obtains the notification, the management device 500 notifies the vehicle M that an abnormality has occurred (step S502). Further, the management device 500 may notify a predetermined organization or a preset notification destination that an abnormality has occurred. Next, when the robot device 600 recognizes that an abnormality has occurred, it causes the output unit to output an alarm (step S410).

上記のように、ロボット装置600は、対象者に不利益が起こらないように異常の発生を所定の通知先に通知したり、警報を出力したりする。これにより、対象者に不利益が生じることを抑制でき、更に、保護者の安心感を向上させることができる。 As described above, the robot device 600 notifies a predetermined notification destination of the occurrence of an abnormality or outputs an alarm so as not to cause a disadvantage to the target person. As a result, it is possible to prevent the target person from being disadvantaged, and further to improve the sense of security of the guardian.

次に、管理装置500は、ロボット装置600が目的地に到着したか否かを判定する(ステップS412)。ロボット装置600が目的地に到着していない場合、ステップS400の処理に戻る。ロボット装置600が目的地に到着した場合、本フローチャートの1ルーチンが終了する。 Next, the management device 500 determines whether or not the robot device 600 has arrived at the destination (step S412). If the robot device 600 has not arrived at the destination, the process returns to the process of step S400. When the robot device 600 arrives at the destination, one routine of this flowchart ends.

ロボット装置600は、上記の案内中の画像や音声を記憶部630に記憶させ、記憶させた情報を管理装置500に提供してもよい。例えば、管理装置500は、保護者のリクエストや所定の機関のリクエストに応じて案内中の画像や音声を車両Mまたは端末装置400に提供する。例えば、事故などが起こった場合に、記憶された情報が解析されることで、事故の原因などが確認される。 The robot device 600 may store the image or voice being guided in the storage unit 630 and provide the stored information to the management device 500. For example, the management device 500 provides the vehicle M or the terminal device 400 with images and sounds being guided in response to a request from a guardian or a request from a predetermined organization. For example, when an accident occurs, the stored information is analyzed to confirm the cause of the accident.

上記のように、ロボット装置600と管理装置500と車両とは、互いに連携して、対象者が目的地に到着するまで、見守ることができるため、確実に対象者を目的地に案内すると共に、保護者の安心感を向上させることができる。 As described above, the robot device 600, the management device 500, and the vehicle can cooperate with each other to watch over the target person until the target person arrives at the destination. It is possible to improve the sense of security of parents.

なお、上記の例において、ロボット装置600は、自装置の異常や故障を検知した場合、この情報を管理装置500や、車両M、端末装置400に提供してもよい。 In the above example, when the robot device 600 detects an abnormality or failure of its own device, the robot device 600 may provide this information to the management device 500, the vehicle M, or the terminal device 400.

また、ロボット装置600が、目的地に到着した場合、目的地に待機する人物が所定のパスワードを入力した場合や、その人物の画像から得られた特徴量と予め設定された特徴量とが合致する場合に、目的地に到着したことを示す情報(完了情報)を管理装置500や車両M、端末装置400に送信してもよい。これにより、保護者は、対象者が目的地に到着したことを認識することができる。また、目的地に到着したことを示す情報は、リクエストを送信した端末装置400や車両Mとは異なる指定された端末装置400や車両Mに送信されてもよい。 Further, when the robot device 600 arrives at the destination, when a person waiting at the destination inputs a predetermined password, or when the feature amount obtained from the image of the person matches the preset feature amount. In this case, information (completion information) indicating that the vehicle has arrived at the destination may be transmitted to the management device 500, the vehicle M, or the terminal device 400. This allows the guardian to recognize that the subject has arrived at the destination. Further, the information indicating that the user has arrived at the destination may be transmitted to a designated terminal device 400 or vehicle M different from the terminal device 400 or vehicle M that sent the request.

以上説明した第1実施形態によれば、管理装置500が、対象者を待ち合わせ場所から目的地までロボット装置600に案内させるための、車両Mまたは端末装置400から取得された情報を加工した情報を、ロボット装置に提供することで、保護者に連れられた対象者を目的地まで確実に案内することができる。 According to the first embodiment described above, the management device 500 processes the information acquired from the vehicle M or the terminal device 400 for guiding the target person from the meeting place to the destination to the robot device 600. By providing the robot device, it is possible to reliably guide the target person taken by the guardian to the destination.

<第2実施形態>
以下、第2実施形態について説明する。第1実施形態では、保護者の画像から得られた特徴量がロボット装置600に提供されるものとした。第2実施形態では、保護者の画像から得られた特徴量に代えて(または加えて)車両Mの位置情報(確認情報)がロボット装置600に送信される。以下、第2実施形態について説明する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. In the first embodiment, the feature amount obtained from the image of the guardian is provided to the robot device 600. In the second embodiment, the position information (confirmation information) of the vehicle M is transmitted to the robot device 600 in place of (or in addition to) the feature amount obtained from the image of the guardian. Hereinafter, the second embodiment will be described.

第2実施形態では、リクエストを送信した車両Mが、待ち合わせ場所(待ち合わせ場所から所定の範囲内)に到着した場合、管理装置500は、保護者が待ち合わせ場所に到着したと推定する。 In the second embodiment, when the vehicle M that has transmitted the request arrives at the meeting place (within a predetermined range from the meeting place), the management device 500 estimates that the guardian has arrived at the meeting place.

図12は、第2実施形態のロボット装置600に実行される処理の流れの一例を示すフローチャートである。ロボット装置600は、到着予測時刻までに待ち合わせ場所で待機する。 FIG. 12 is a flowchart showing an example of the flow of processing executed by the robot device 600 of the second embodiment. The robot device 600 stands by at the meeting place by the estimated arrival time.

まず、ロボット装置600が、管理装置500からリクエストを送信した車両Mが待ち合わせ場所に到着したことを示す情報を取得したか否かを判定する(ステップS600)。管理装置500は、車両Mの位置情報を所定の間隔で取得し、取得した位置情報が待ち合わせ場所に近づいた、または位置情報が待ち合わせ場所に対応する位置情報に合致した場合、リクエストを送信した車両Mが待ち合わせ場所に到着したと推定する。保車両Mが待ち合わせ場所に到着したことを示す情報を取得したことは、「確認情報に基づく処理が完了」したことの一例である。 First, it is determined whether or not the robot device 600 has acquired the information indicating that the vehicle M that has transmitted the request from the management device 500 has arrived at the meeting place (step S600). The management device 500 acquires the position information of the vehicle M at predetermined intervals, and when the acquired position information approaches the meeting place or the position information matches the position information corresponding to the meeting place, the management device 500 transmits the request. It is estimated that M has arrived at the meeting place. Acquiring the information indicating that the maintenance vehicle M has arrived at the meeting place is an example of "the processing based on the confirmation information is completed".

リクエストを送信した車両Mが待ち合わせ場所に到着したことを示す情報を取得した場合、ロボット装置600は、対象者の画像が撮像されたか否を判定する(ステップS602)。画像が撮像された場合、ロボット装置600は、対象者の画像の特徴量と管理装置500により送信された対象者の画像の特徴量とが合致するか否を判定する(ステップS604)。合致すると判定された場合、ロボット装置600は、対象者を目的地まで案内する処理を開始する(ステップS606)。これにより、本フローチャートの1ルーチンが終了する。また、ステップS602、またはステップS604で否定的な判定結果が得られた場合、本フローチャートの1ルーチンが終了する。 When the robot device 600 acquires the information indicating that the vehicle M that has transmitted the request has arrived at the meeting place, the robot device 600 determines whether or not the image of the target person has been captured (step S602). When the image is captured, the robot device 600 determines whether or not the feature amount of the image of the target person matches the feature amount of the image of the target person transmitted by the management device 500 (step S604). If it is determined that the robot device 600 matches, the robot device 600 starts a process of guiding the target person to the destination (step S606). This ends one routine in this flowchart. If a negative determination result is obtained in step S602 or step S604, one routine in this flowchart ends.

上記のように、管理装置500は、車両Mの位置情報を用いることにより、より簡易に保護者が対象者を待ち合わせ場所に連れてきたことをロボット装置600に認識させることができる。 As described above, the management device 500 can make the robot device 600 more easily recognize that the guardian has brought the target person to the meeting place by using the position information of the vehicle M.

以上説明した第2実施形態によれば、管理システム1は、より簡便に、保護者に連れられた対象者を目的地まで確実に案内することができる。 According to the second embodiment described above, the management system 1 can more easily and surely guide the target person taken by the guardian to the destination.

上述した各実施形態では、ロボット装置600が、保護者または対象者を確認する際に、画像が用いてられる例について説明したが、これに代えて(加えて)、その他の識別情報が用いられてもよい。その他の識別情報とは、パスワードであってもよいし、保護者または対象者が有する固有の情報であってもよい。固有の情報とは、保護者または対象者の指紋情報や、声紋情報(声の特徴を示す特徴情報)、虹彩情報などである。その他の識別情報は、「対象者の識別情報」または「確認情報」の一例である。 In each of the above embodiments, an example in which an image is used when the robot device 600 confirms a guardian or a target person has been described, but instead (in addition), other identification information is used. You may. The other identification information may be a password, or may be unique information possessed by a guardian or a target person. The unique information includes fingerprint information of a guardian or a target person, voiceprint information (characteristic information indicating the characteristics of voice), iris information, and the like. Other identification information is an example of "identification information of the subject" or "confirmation information".

管理装置500に含まれる機能構成の一部または全部はロボット装置600に含まれ、ロボット装置600に含まれる機能構成の一部は管理装置500に含まれてもよい。例えば、管理装置500の機能構成の全部は、ロボット装置600に含まれ、車両Mとロボット装置600とが協働した上述した処理を実行してもよい。また、管理装置500またはロボット装置600の機能構成の一部は、車両Mに含まれてもよいし、車両Mの機能構成の一部は、管理装置500またはロボット装置600に含まれてもよい。 A part or all of the functional configurations included in the management device 500 may be included in the robot apparatus 600, and a part of the functional configurations included in the robot apparatus 600 may be included in the management apparatus 500. For example, the entire functional configuration of the management device 500 may be included in the robot device 600, and the above-mentioned processing in which the vehicle M and the robot device 600 cooperate may be executed. Further, a part of the functional configuration of the management device 500 or the robot device 600 may be included in the vehicle M, and a part of the functional configuration of the vehicle M may be included in the management device 500 or the robot device 600. ..

また、上記の例では保護者が車両Mにおいてリクエストを送信したり、待ち合わせ場所に向かったりするものとして説明したが、これに代えて(または加えて)、他の移動手段を用いて待ち合わせ場所に向かってもよい。この場合、保護者は、端末装置400を用いてリクエストを入力したり、リクエストを管理装置500に送信したりする。 Further, in the above example, the guardian sends a request in the vehicle M or goes to the meeting place, but instead (or in addition), another means of transportation is used to reach the meeting place. You may head for it. In this case, the guardian inputs a request using the terminal device 400 or sends the request to the management device 500.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1‥管理システム、2‥車両システム、300‥エージェント装置、400‥端末装置、410‥サービスアプリ、500‥管理装置、502‥通信部、504‥取得部、506‥情報生成部、508‥提供部、520‥記憶部、522‥サービス情報、600‥ロボット装置、632‥タスク管理情報 1 Management system, 2 Vehicle system, 300 Agent device, 400 Terminal device, 410 Service application, 500 Management device, 502 Communication unit, 504 Acquisition unit, 506 Information generation unit, 508 Provision unit 520 ... Storage unit, 522 ... Service information, 600 ... Robot device, 632 ... Task management information

Claims (15)

ロボット装置を管理する管理装置であって、
車両または端末装置から保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを確認するための確認情報とを取得する取得部と、
前記取得部により取得された前記識別情報および前記確認情報に基づいて、前記対象者を前記待ち合わせ場所から目的地まで前記ロボット装置に案内させるための、前記識別情報を含む指示情報および前記確認情報を、前記ロボット装置に提供する提供部と、
を備える管理装置。
It is a management device that manages robot devices.
An acquisition unit that acquires identification information of the target person protected by the guardian from the vehicle or terminal device and confirmation information for confirming that the target person has arrived at the meeting place with the guardian.
Based on the identification information and the confirmation information acquired by the acquisition unit, the instruction information including the identification information and the confirmation information for guiding the target person from the meeting place to the destination to the robot device are provided. , The providing unit provided to the robot device,
A management device equipped with.
前記確認情報は、前記保護者が撮像された画像、前記保護者が撮像された画像から抽出された特徴を示す特徴情報、前記保護者の声の特徴を示す特徴情報、前記車両の位置情報、前記端末装置の位置情報、予め設定されたパスワードである、
請求項1に記載の管理装置。
The confirmation information includes an image captured by the guardian, feature information indicating features extracted from the image captured by the guardian, feature information indicating the characteristics of the voice of the guardian, and position information of the vehicle. The location information of the terminal device, a preset password,
The management device according to claim 1.
前記対象者の識別情報は、前記対象者が撮像された画像、前記対象者が撮像された画像から抽出された特徴を示す特徴情報、前記対象者の声の特徴を示す特徴情報、前記対象者が保持する装置の位置情報、または予め設定されたパスワードである、
請求項1または2に記載の管理装置。
The subject identification information includes an image captured by the subject, feature information indicating features extracted from the image captured by the subject, feature information indicating the characteristics of the voice of the subject, and the subject. The location information of the device held by, or the preset password,
The management device according to claim 1 or 2.
前記指示情報は、前記待ち合わせ場所付近に到着する予定の時刻に、前記ロボット装置を待機させ、且つ前記対象者が前記待ち合わせ場所に到着後に前記対象者を目的地に誘導する指示を含む、
請求項1から3のうちいずれか1項に記載の管理装置。
The instruction information includes an instruction to make the robot device stand by at a time scheduled to arrive near the meeting place and to guide the target person to a destination after the target person arrives at the meeting place.
The management device according to any one of claims 1 to 3.
前記提供部は、前記ロボット装置が前記対象者を前記目的地まで案内したことが完了したことを示す完了情報を前記ロボット装置から取得した場合、前記完了情報を前記車両または端末装置に提供する、
請求項1から4のうちいずれか1項に記載の管理装置。
When the providing unit acquires the completion information from the robot device indicating that the robot device has guided the target person to the destination, the providing unit provides the completion information to the vehicle or the terminal device.
The management device according to any one of claims 1 to 4.
前記提供部は、前記対象者を前記目的地に案内する前記ロボット装置の特徴を示す情報を前記車両または前記端末装置に提供する、
請求項1から5のうちいずれか1項に記載の管理装置。
The providing unit provides information indicating the characteristics of the robot device that guides the target person to the destination to the vehicle or the terminal device.
The management device according to any one of claims 1 to 5.
請求項1から6のうちいずれか1項に記載の管理装置と、
前記管理装置の提供部により提供された指示情報に基づいて、前記対象者を前記待ち合わせ場所から前記目的地に案内するロボット装置と、
を備える管理システム。
The management device according to any one of claims 1 to 6 and the management device.
A robot device that guides the target person from the meeting place to the destination based on the instruction information provided by the management device providing unit.
Management system equipped with.
前記ロボット装置は、
前記管理装置から前記識別情報を含む前記指示情報および確認情報を取得し、
前記確認情報に基づく処理が完了し、且つ前記待ち合わせ場所に到着した前記対象者が入力した識別情報と前記提供部により提供された識別情報が合致した場合、前記対象者を前記待ち合わせ場所から前記目的地に案内する、
請求項7に記載の管理システム。
The robot device is
The instruction information and the confirmation information including the identification information are acquired from the management device, and the instruction information and the confirmation information are acquired.
When the process based on the confirmation information is completed and the identification information input by the target person arriving at the meeting place and the identification information provided by the providing unit match, the target person is referred from the meeting place to the purpose. Guide to the ground,
The management system according to claim 7.
前記ロボット装置は、
前記車両または前記端末装置から前記対象者の到着予定時刻を取得し、前記到着予定時刻に前記待ち合わせ場所で待機する、
請求項7または8に記載の管理システム。
The robot device is
The estimated time of arrival of the target person is acquired from the vehicle or the terminal device, and the person waits at the meeting place at the estimated time of arrival.
The management system according to claim 7 or 8.
前記ロボット装置は、
前記対象者を前記待ち合わせ場所から前記目的地まで案内しているときに、前記ロボット装置に搭載された撮像装置により撮像された画像を解析して、前記対象者に異常が発生したか否かを判定し、
前記異常が発生したと判定した場合に、前記異常が発生したことを示す情報を前記車両または端末装置に提供する、
請求項7から9のうちいずれか1項に記載の管理システム。
The robot device is
While guiding the subject from the meeting place to the destination, the image captured by the image pickup device mounted on the robot device is analyzed to determine whether or not an abnormality has occurred in the subject. Judgment,
When it is determined that the abnormality has occurred, information indicating that the abnormality has occurred is provided to the vehicle or the terminal device.
The management system according to any one of claims 7 to 9.
前記ロボット装置は、
前記対象者を前記待ち合わせ場所から前記目的地まで案内しているときに、前記ロボット装置に搭載された撮像装置により撮像された画像を解析して、前記対象者に異常が発生したか否かを判定し、
前記異常が発生したと判定した場合に、前記異常が発生したことを示す情報を前記ロボット装置が搭載する出力部に出力させる、
請求項7から10のうちいずれか1項に記載の管理システム。
The robot device is
While guiding the target person from the meeting place to the destination, the image captured by the image pickup device mounted on the robot device is analyzed to determine whether or not an abnormality has occurred in the target person. Judgment,
When it is determined that the abnormality has occurred, information indicating that the abnormality has occurred is output to the output unit mounted on the robot device.
The management system according to any one of claims 7 to 10.
前記保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを確認するための確認情報とを前記管理装置に送信する車両とを更に含む、
請求項7から11のうちいずれか1項に記載の管理システム。
Further, the vehicle that transmits the identification information of the target person to be protected by the guardian and the confirmation information for confirming that the target person has arrived at the meeting place with the guardian to the management device. include,
The management system according to any one of claims 7 to 11.
請求項1から6のうちいずれか1項に記載の管理装置と、
前記保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを確認するための確認情報とを前記管理装置に送信する車両と、
を備える管理システム。
The management device according to any one of claims 1 to 6 and the management device.
A vehicle that transmits identification information of a target person to be protected by the guardian and confirmation information for confirming that the target person has arrived at the meeting place with the guardian, and a vehicle.
Management system equipped with.
ロボット装置を管理する管理方法であって、
コンピュータが、
車両または端末装置から保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを示す確認情報とを取得し、
前記取得された前記識別情報および前記確認情報に基づいて、前記対象者を、前記待ち合わせ場所から目的地まで前記ロボット装置に案内させるための、前記識別情報を含む指示情報および前記確認情報を、前記ロボット装置に提供する、
管理方法。
It is a management method for managing robot devices.
The computer
The identification information of the target person to be protected by the guardian and the confirmation information indicating that the target person has arrived at the meeting place with the guardian are obtained from the vehicle or the terminal device.
Based on the acquired identification information and confirmation information, the instruction information including the identification information and the confirmation information for guiding the target person from the meeting place to the destination to the robot device are described. Provide to robot equipment,
Management method.
ロボット装置を管理するためのプログラムであって、
コンピュータに、
車両または端末装置から保護者が保護対象としている対象者の識別情報と、前記対象者が保護者に連れられて待ち合わせ場所に到着したことを示す確認情報とを取得させ、
前記取得された前記識別情報および前記確認情報に基づいて、前記対象者を、前記待ち合わせ場所から目的地まで前記ロボット装置に案内させるための、前記識別情報を含む指示情報および前記確認情報を、前記ロボット装置に提供させる、
プログラム。
A program for managing robot devices,
On the computer
The vehicle or the terminal device is made to acquire the identification information of the target person to be protected by the guardian and the confirmation information indicating that the target person has arrived at the meeting place by the guardian.
Based on the acquired identification information and confirmation information, the instruction information including the identification information and the confirmation information for guiding the target person from the meeting place to the destination to the robot device are described. Have the robot device provide it,
program.
JP2020195235A 2020-11-25 2020-11-25 Management device, management system, management method, and program Pending JP2022083725A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020195235A JP2022083725A (en) 2020-11-25 2020-11-25 Management device, management system, management method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020195235A JP2022083725A (en) 2020-11-25 2020-11-25 Management device, management system, management method, and program

Publications (1)

Publication Number Publication Date
JP2022083725A true JP2022083725A (en) 2022-06-06

Family

ID=81855637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020195235A Pending JP2022083725A (en) 2020-11-25 2020-11-25 Management device, management system, management method, and program

Country Status (1)

Country Link
JP (1) JP2022083725A (en)

Similar Documents

Publication Publication Date Title
US20200269835A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7032295B2 (en) Vehicle control systems, vehicle control methods, and programs
CN110023168B (en) Vehicle control system, vehicle control method, and vehicle control program
JP7065765B2 (en) Vehicle control systems, vehicle control methods, and programs
US10858014B2 (en) Vehicle control system, vehicle control method, and storage medium
US20200086764A1 (en) Vehicle control system, vehicle control method, and vehicle control program
US20200311623A1 (en) Parking management apparatus, method for controlling parking management apparatus, and storage medium
CN111986505B (en) Control device, boarding/alighting facility, control method, and storage medium
US11027651B2 (en) Vehicle control device, vehicle control system, vehicle control method, and storage medium
JP2020152197A (en) Vehicle control system, vehicle control method, and program
JP2020152198A (en) Vehicle control system, vehicle control method, and program
JP7080684B2 (en) Vehicle usage system and vehicle usage method
CN111932927B (en) Management device, management method, and storage medium
JP2022030594A (en) Management device, management system, management method, and program
JP7079744B2 (en) Vehicle control system and vehicle control method
JP7035204B2 (en) Vehicle control devices, self-driving car development systems, vehicle control methods, and programs
JP2020074030A (en) Map update device, map update system, map update method, and program
JP7468411B2 (en) Autonomous vehicles, vehicle dispatch management devices, and terminal equipment
CN115374423A (en) Method for a vehicle, vehicle and non-transitory storage medium
JP2018124911A (en) Vehicle control device, vehicle control method, and vehicle control program
US20210188325A1 (en) Control device and control method
US11117571B2 (en) Vehicle control device, vehicle control method, and storage medium
JP7210336B2 (en) Vehicle control system, vehicle control method, and program
JP6858110B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2022083725A (en) Management device, management system, management method, and program