JP2020154996A - Information processing system, agent system, information processing method, and program - Google Patents

Information processing system, agent system, information processing method, and program Download PDF

Info

Publication number
JP2020154996A
JP2020154996A JP2019054895A JP2019054895A JP2020154996A JP 2020154996 A JP2020154996 A JP 2020154996A JP 2019054895 A JP2019054895 A JP 2019054895A JP 2019054895 A JP2019054895 A JP 2019054895A JP 2020154996 A JP2020154996 A JP 2020154996A
Authority
JP
Japan
Prior art keywords
vehicle
user
state
ride
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019054895A
Other languages
Japanese (ja)
Inventor
佐和子 古屋
Sawako Furuya
佐和子 古屋
善史 我妻
Yoshifumi Wagatsuma
善史 我妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019054895A priority Critical patent/JP2020154996A/en
Publication of JP2020154996A publication Critical patent/JP2020154996A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing system configured to improve convenience of a user using a ride-share service, an agent system, an information processing method, and a program.SOLUTION: An information processing system includes: a ride-share server device (300) which generates an operation schedule of a vehicle (M) on the basis of a ride request from a user, and provides a ride-share service using the vehicle; and an agent system (E) which observes a state of the user on the vehicle on the basis of information acquired by at least one of a mobile terminal device (D) of the user and an in-vehicle device mounted on the vehicle, and communicates with the ride-share server device when it is detected that the state of the user using the ride-share service is changed to a predetermined state.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、エージェントシステム、情報処理方法、およびプログラムに関する。 The present invention relates to information processing systems, agent systems, information processing methods, and programs.

従来、車両の乗員と対話を行いながら、乗員の要求に応じた運転支援に関する情報や車両の制御、その他のアプリケーションなどを提供するエージェント機能に関する技術が開示されている(例えば、特許文献1参照)。 Conventionally, a technology related to an agent function that provides information on driving support according to a request of a occupant, vehicle control, other applications, etc. while interacting with a vehicle occupant has been disclosed (see, for example, Patent Document 1). ..

特開2006−335231号公報Japanese Unexamined Patent Publication No. 2006-335231

ところで、今後の新しいサービスとして、複数の利用者が同一の共同車両を利用するいわゆるライドシェアサービスが提案されている。しかしながら、従来の技術では、ライドシェアサービスを利用中の乗員の体調に異変が生じた場合について考慮がなされておらず、利用者にとっての利便性が十分でなかった。 By the way, as a new service in the future, a so-called ride-sharing service in which a plurality of users use the same shared vehicle has been proposed. However, in the conventional technique, consideration is not given to the case where the physical condition of the occupant who is using the ride sharing service changes, and the convenience for the user is not sufficient.

本発明は、このような事情を考慮してなされたものであり、ライドシェアサービスの利用者の利便性の向上を図ることができる情報処理システム、エージェントシステム、情報処理方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides an information processing system, an agent system, an information processing method, and a program capable of improving convenience for users of a ride sharing service. That is one of the purposes.

この発明に係る情報処理システム、エージェントシステム、情報処理方法、およびプログラムは以下の構成を採用した。
(1):この発明の一態様は、利用者からの乗車リクエストに基づき車両の運行計画を生成し、前記車両によるライドシェアサービスを提供するライドシェアサーバ装置と、前記利用者の携帯端末装置と前記車両に搭載された車載機器とのうち少なくとも一方により取得された情報に基づき前記車両に乗車中の前記利用者の状態を観察し、前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置と通信を行うエージェントシステムと、を備えた情報処理システムである。
The information processing system, agent system, information processing method, and program according to the present invention have adopted the following configurations.
(1): One aspect of the present invention includes a ride-sharing server device that generates a vehicle operation plan based on a boarding request from a user and provides a ride-sharing service by the vehicle, and a mobile terminal device of the user. Based on the information acquired by at least one of the in-vehicle devices mounted on the vehicle, the state of the user while riding in the vehicle is observed, and the state of the user is determined while using the ride sharing service. This is an information processing system including an agent system that communicates with the ride-sharing server device when it is detected that the vehicle has changed to the above state.

(2):上記(1)の態様において、前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記利用者の状態に基づき救急車の手配の必要性を判定し、前記救急車の手配が必要と判定した場合、前記ライドシェアサーバ装置に救急車の手配を依頼する。 (2): In the aspect of (1) above, when it is detected that the state of the user has changed to the predetermined state, the agent system needs to arrange an ambulance based on the state of the user. When the sex is judged and it is determined that the ambulance needs to be arranged, the ride sharing server device is requested to arrange the ambulance.

(3):上記(1)または(2)の態様において、前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置に前記車両の目的地の変更を依頼する。 (3): In the embodiment (1) or (2), when the agent system detects that the state of the user has changed to the predetermined state, the ride-sharing server device informs the vehicle. Request a change of destination.

(4):上記(1)から(3)のうちいずれか1つの態様において、前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置に前記車両の同乗者に対する連絡を行うことを依頼する。 (4): In any one of the above (1) to (3), the agent system detects that the state of the user has changed to the predetermined state, and the rideshare Request the server device to contact the passengers of the vehicle.

(5):上記(1)から(4)のうちいずれか1つの態様において、前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置に前記車両の同乗者が利用する代替車両の手配を依頼する。 (5): In any one of the above (1) to (4), the agent system detects that the state of the user has changed to the predetermined state, and the ride share. Request the server device to arrange an alternative vehicle to be used by the passengers of the vehicle.

(6):上記(1)から(5)のうちいずれか1つの態様において、前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置に前記利用者の状態を示す情報を送信する。 (6): In any one of the above (1) to (5), the agent system detects that the state of the user has changed to the predetermined state, and the rideshare Information indicating the state of the user is transmitted to the server device.

(7):上記(1)から(6)のうちいずれか1つの態様において、前記ライドシェアサーバ装置は、前記エージェントシステムにより前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記エージェントシステムから受け取る情報に基づき救急車の手配の必要性を判定し、前記救急車の手配が必要と判定した場合、救急車を手配する。 (7): In any one of the above (1) to (6), the ride-sharing server device has detected that the state of the user has changed to the predetermined state by the agent system. In this case, the necessity of arranging an ambulance is determined based on the information received from the agent system, and if it is determined that the ambulance needs to be arranged, the ambulance is arranged.

(8):上記(1)から(7)のうちいずれか1つの態様において、前記ライドシェアサーバ装置は、前記エージェントシステムにより前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記車両の目的地を変更する。 (8): In any one of the above (1) to (7), the ride-sharing server device has detected that the state of the user has changed to the predetermined state by the agent system. In some cases, the destination of the vehicle is changed.

(9):上記(1)から(8)のうちいずれか1つの態様において、前記ライドシェアサーバ装置は、前記エージェントシステムにより前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記車両の同乗者に対する連絡を行う。 (9): In any one of the above (1) to (8), the ride-sharing server device has detected that the state of the user has changed to the predetermined state by the agent system. In this case, the passenger of the vehicle is contacted.

(10):上記(1)から(9)のうちいずれか1つの態様において、前記ライドシェアサーバ装置は、前記エージェントシステムにより前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記車両の同乗者が利用する代替車両を手配する。 (10): In any one of the above (1) to (9), the ride-sharing server device has detected that the state of the user has changed to the predetermined state by the agent system. In this case, an alternative vehicle to be used by the passengers of the vehicle is arranged.

(11):この発明の他の態様は、第1コンピュータが、利用者からの乗車リクエストに基づき車両の運行計画を生成し、前記車両によるライドシェアサービスを提供し、第2コンピュータが、前記利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方により取得された情報に基づき前記車両に乗車中の前記利用者の状態を観察し、前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが検知された場合に、前記第1コンピュータと通信を行う、情報処理方法である。 (11): In another aspect of the present invention, the first computer generates a vehicle operation plan based on a boarding request from the user, provides the ride sharing service by the vehicle, and the second computer uses the vehicle. Based on the information acquired by at least one of the mobile terminal device of the person and the in-vehicle device mounted on the vehicle, the state of the user while riding in the vehicle is observed, and during the use of the ride sharing service. This is an information processing method that communicates with the first computer when it is detected that the state of the user has changed to a predetermined state.

(12):この発明の他の態様は、第1コンピュータに、利用者からの乗車リクエストに基づき車両の運行計画を生成させ、前記車両によるライドシェアサービスを提供させ、第2コンピュータに、前記利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方により取得された情報に基づき前記車両に乗車中の前記利用者の状態を観察させ、前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが検知された場合に、前記第1コンピュータと通信を行わせる、プログラムである。 (12): In another aspect of the present invention, the first computer is made to generate a vehicle operation plan based on a boarding request from the user, the ride sharing service by the vehicle is provided, and the second computer is made to use the vehicle. Based on the information acquired by at least one of the mobile terminal device of the person and the in-vehicle device mounted on the vehicle, the state of the user while riding in the vehicle is observed, and the ride sharing service is being used. This is a program that causes communication with the first computer when it is detected that the state of the user has changed to a predetermined state.

(13):この発明の他の態様は、車両のライドシェアサービスを利用する利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方に基づき、前記車両に乗車中の前記利用者の状態を観察する状態観察部と、前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが前記状態観察部により検知された場合に、前記ライドシェアサービスを管理するライドシェアサーバ装置と通信を行う通知部と、を備えたエージェントシステムである。 (13): Another aspect of the present invention is based on at least one of a mobile terminal device of a user who uses the ride-sharing service of the vehicle and an in-vehicle device mounted on the vehicle, and is in the vehicle. The ride-sharing service when the state-observing unit for observing the state of the user and the state-observing unit detect that the state of the user has changed to a predetermined state while using the ride-sharing service. It is an agent system equipped with a notification unit that communicates with a ride-sharing server device that manages the vehicle.

(14):この発明の他の態様は、コンピュータが、車両のライドシェアサービスを利用する利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方に基づき、前記車両に乗車中の前記利用者の状態を観察し、前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが前記状態観察部により検知された場合に、前記ライドシェアサービスを管理するライドシェアサーバ装置と通信を行う、情報処理方法である。 (14): In another aspect of the present invention, the computer is attached to the vehicle based on at least one of a user's mobile terminal device that uses the vehicle ride sharing service and an in-vehicle device mounted on the vehicle. When the state of the user while riding is observed and the state observation unit detects that the state of the user has changed to a predetermined state while using the ride sharing service, the ride sharing service is provided. It is an information processing method that communicates with the ride-sharing server device to be managed.

(15):この発明の他の態様は、コンピュータに、車両のライドシェアサービスを利用する利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方に基づき、前記車両に乗車中の前記利用者の状態を観察させ、前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが前記状態観察部により検知された場合に、前記ライドシェアサービスを管理するライドシェアサーバ装置と通信を行わせる、プログラムである。 (15): Another aspect of the present invention is based on the computer based on at least one of a mobile terminal device of a user who uses the ride sharing service of the vehicle and an in-vehicle device mounted on the vehicle. When the state of the user is observed while riding and the state observation unit detects that the state of the user has changed to a predetermined state while using the ride sharing service, the ride sharing service is provided. It is a program that communicates with the ride-sharing server device that it manages.

(1)〜(15)によれば、ライドシェアサービスの利用者の利便性の向上を図ることができる。 According to (1) to (15), it is possible to improve the convenience of the user of the ride sharing service.

第1実施形態の情報処理システム1の構成図である。It is a block diagram of the information processing system 1 of 1st Embodiment. 走行に関する車両Mの構成図である。It is a block diagram of the vehicle M with respect to traveling. エージェント装置100に関する車両Mの構成図である。It is a block diagram of the vehicle M about the agent device 100. 車両Mの内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the vehicle M. エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す構成図である。It is a block diagram which shows the structure of the agent server 200 and a part of the structure of the agent apparatus 100. 状態観察部230の構成図である。It is a block diagram of the state observation part 230. 画像IM1の内容の一例を示す図である。It is a figure which shows an example of the content of image IM1. 病歴情報252aの内容の一例を示す図である。It is a figure which shows an example of the contents of the medical history information 252a. 乗員異変時行動内容決定部232の構成図である。It is a block diagram of the action content determination unit 232 at the time of an accident of an occupant. 画像IM2の内容の一例を示す図である。It is a figure which shows an example of the content of image IM2. ライドシェアサーバ300の構成図である。It is a block diagram of a ride-sharing server 300. 乗車条件情報384の内容の一例を示す図である。It is a figure which shows an example of the content of boarding condition information 384. 運行スケジュール情報388の内容の一例を示す図である。It is a figure which shows an example of the contents of the operation schedule information 388. 乗員異変時対応部340の構成図である。It is a block diagram of the occupant accident response part 340. 第2実施形態のエージェントサーバ200Aの構成図である。It is a block diagram of the agent server 200A of the 2nd Embodiment. 第2実施形態のライドシェアサーバ300Aの構成図である。It is a block diagram of the ride-sharing server 300A of the 2nd Embodiment. 変形例のエージェントサーバ200Bの構成図である。It is a block diagram of the agent server 200B of a modification.

以下、図面を参照し、本発明の情報処理システム、エージェントシステム、情報処理方法、およびプログラムの実施形態について説明する。情報処理システムは、例えば、ライドシェアサーバ装置(以下、「ライドシェアサーバ」と称する)と、エージェントシステムとの協働により実現される。 Hereinafter, the information processing system, the agent system, the information processing method, and the embodiment of the program of the present invention will be described with reference to the drawings. The information processing system is realized, for example, in cooperation with a ride-sharing server device (hereinafter, referred to as "ride-sharing server") and an agent system.

ライドシェアサーバは、複数の利用者によって一以上の車両を共同で利用すること(ライドシェア)を支援するための装置である。ライドシェアに利用される車両は、例えば、基本的には運転操作を必要としない自動運転車両である。以下、自動運転車両がライドシェアに用いられるものとして説明するが、手動運転車両が用いられても構わない。ライドシェアサーバは、利用者の端末装置から通信によって乗車リクエストを取得すると、その乗車リクエストにおいて定義された乗車条件に合致する車両(配車可能な車両)を検索する。通信には、データ通信と、音声通信すなわち電話との双方が含まれてよい。ライドシェアサーバは、検索により選定された車両の運行計画を生成し、利用者に対してライドシェアサービスを提供する。 The ride-sharing server is a device for supporting the joint use (ride-sharing) of one or more vehicles by a plurality of users. The vehicle used for ride sharing is, for example, an autonomous driving vehicle that basically does not require a driving operation. Hereinafter, the self-driving vehicle will be described as being used for ride sharing, but a manually driven vehicle may be used. When the ride-sharing server acquires a boarding request from the user's terminal device by communication, it searches for a vehicle (vehicle that can be dispatched) that matches the boarding conditions defined in the boarding request. Communication may include both data communication and voice communication or telephone. The ride-sharing server generates an operation plan of the vehicle selected by the search and provides the ride-sharing service to the user.

エージェントシステムの一部または全部は、エージェント装置により実現される。以下では、エージェント装置の一例として、車両に搭載され、複数種類のエージェント機能を備えたエージェント装置について説明する。エージェント機能とは、例えば、車両の乗員と対話をしながら、乗員の発話の中に含まれる要求(コマンド)に基づく各種の情報提供を行ったり、ネットワークサービスを仲介したりする機能である。複数種類のエージェントはそれぞれに果たす機能、処理手順、制御、出力態様・内容がそれぞれ異なってもよい。また、エージェント機能の中には、車両内の機器(例えば運転制御や車体制御に関わる機器)の制御などを行う機能を有するものがあってよい。 Part or all of the agent system is realized by the agent device. Hereinafter, as an example of the agent device, an agent device mounted on a vehicle and having a plurality of types of agent functions will be described. The agent function is, for example, a function of providing various information based on a request (command) included in the utterance of the occupant or mediating a network service while interacting with the occupant of the vehicle. The functions, processing procedures, controls, output modes and contents of each of the plurality of types of agents may be different. In addition, some of the agent functions may have a function of controlling devices in the vehicle (for example, devices related to driving control and vehicle body control).

エージェント機能は、例えば、乗員の音声を認識する音声認識機能(音声をテキスト化する機能)に加え、自然言語処理機能(テキストの構造や意味を理解する機能)、対話管理機能、ネットワークを介して他装置を検索し、或いは自装置が保有する所定のデータベースを検索するネットワーク検索機能などを統合的に利用して実現される。これらの機能の一部または全部は、AI(Artificial Intelligence)技術によって実現されてよい。また、これらの機能を行うための構成の一部(特に、音声認識機能や自然言語処理解釈機能)は、車両の車載通信装置または車両に持ち込まれた汎用通信装置と通信可能なエージェントサーバ装置(外部装置)に搭載されてもよい。以下の説明では、構成の一部がエージェントサーバ装置(以下、「エージェントサーバ」と称する)に搭載されており、エージェント装置とエージェントサーバが協働してエージェントシステムを実現することを前提とする。また、エージェント装置とエージェントサーバが協働して仮想的に出現させるサービス提供主体(サービス・エンティティ)をエージェントと称する。なお、エージェントシステムの一部または全部は、利用者の携帯端末装置で起動されるアプリケーションプログラムまたはブラウザなどにより実現されてもよい。また本明細書において「利用者」という表現と「乗員」という表現は、ほぼ同じ意味で用いられており、互いに読み替え可能である。 Agent functions include, for example, a voice recognition function that recognizes the voice of an occupant (a function that converts voice into text), a natural language processing function (a function that understands the structure and meaning of text), a dialogue management function, and a network. It is realized by using a network search function that searches for other devices or a predetermined database owned by the own device in an integrated manner. Some or all of these functions may be realized by AI (Artificial Intelligence) technology. In addition, a part of the configuration for performing these functions (particularly, the voice recognition function and the natural language processing interpretation function) is an agent server device (particularly, an agent server device capable of communicating with the vehicle-mounted communication device of the vehicle or a general-purpose communication device brought into the vehicle). It may be mounted on an external device). In the following description, it is assumed that a part of the configuration is mounted on the agent server device (hereinafter referred to as “agent server”), and the agent device and the agent server cooperate to realize the agent system. Further, a service provider (service entity) in which an agent device and an agent server cooperate to appear virtually is called an agent. A part or all of the agent system may be realized by an application program or a browser started on the user's mobile terminal device. Further, in the present specification, the expressions "user" and "occupant" are used with almost the same meaning and can be read as each other.

[全体構成]
図1は、情報処理システム1の構成図である。情報処理システム1は、例えば、一以上の端末装置Dと、エージェント装置100が搭載された一以上の車両Mと、複数のエージェントサーバ200−1、200−2、200−3、…と、ライドシェアサーバ300とを備える。符号の末尾のハイフン以下の数字は、エージェントを区別するための識別子であるものとする。いずれのエージェントサーバであるかを区別しない場合、単にエージェントサーバ200と称する場合がある。図1では3つのエージェントサーバ200を示しているが、エージェントサーバ200の数は2つであってもよいし、4つ以上であってもよい。それぞれのエージェントサーバ200は、互いに異なるエージェントシステムの提供者が運営するものである。従って、本発明におけるエージェントは、互いに異なる提供者により実現されるエージェントである。提供者としては、例えば、自動車メーカー、ネットワークサービス事業者、電子商取引事業者、携帯端末装置(例えば端末装置D)の販売者や製造者などが挙げられ、任意の主体(法人、団体、個人など)がエージェントシステムの提供者となり得る。本実施形態では、エージェント装置100と1つ以上のエージェントサーバ200とが協働することでエージェントシステムEが実現されている。
[overall structure]
FIG. 1 is a configuration diagram of an information processing system 1. The information processing system 1 includes, for example, one or more terminal devices D, one or more vehicles M on which the agent device 100 is mounted, and a plurality of agent servers 200-1, 200-2, 200-3, ... It includes a share server 300. The number after the hyphen at the end of the code shall be an identifier for distinguishing agents. When it is not distinguished which agent server it is, it may be simply referred to as an agent server 200. Although three agent servers 200 are shown in FIG. 1, the number of agent servers 200 may be two or four or more. Each agent server 200 is operated by a provider of agent systems different from each other. Therefore, the agents in the present invention are agents realized by different providers. Examples of providers include automobile manufacturers, network service providers, e-commerce businesses, sellers and manufacturers of mobile terminal devices (for example, terminal device D), and any entity (corporation, group, individual, etc.). ) Can be the provider of the agent system. In the present embodiment, the agent system E is realized by the cooperation of the agent device 100 and one or more agent servers 200.

エージェント装置100は、ネットワークNWを介して、エージェントサーバ200およびライトシェアサーバ300とそれぞれ通信可能である。エージェント装置100は、車両Mの乗員と対話を行い、乗員からの音声をエージェントサーバ200に送信し、エージェントサーバ200から得られた回答を、音声出力や画像表示の形で乗員に提示する。ネットワークNWは、例えば、インターネット、セルラー網、Wi−Fi網、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、電話回線、無線基地局などのうち一部または全部を含む。ネットワークNWには、各種ウェブサーバ400が接続されている。各種ウェブサーバ400には、例えば、救急車の出動を管理する災害救急情報センターのウェブサーバ400−1と、各医療機関のウェブサーバ400−2とが含まれる。ライドシェアサーバ300は、ネットワークNWを介して、災害救急情報センターのウェブサーバ400−1と各医療機関のウェブサーバ400−2とそれぞれ通信可能である。 The agent device 100 can communicate with the agent server 200 and the write share server 300, respectively, via the network NW. The agent device 100 interacts with the occupant of the vehicle M, transmits the voice from the occupant to the agent server 200, and presents the answer obtained from the agent server 200 to the occupant in the form of voice output or image display. The network NW includes, for example, a part or all of the Internet, a cellular network, a Wi-Fi network, a WAN (Wide Area Network), a LAN (Local Area Network), a public line, a telephone line, a wireless base station, and the like. Various web servers 400 are connected to the network NW. The various web servers 400 include, for example, a web server 400-1 of a disaster emergency information center that manages the dispatch of ambulances, and a web server 400-2 of each medical institution. The ride-sharing server 300 can communicate with the web server 400-1 of the disaster emergency information center and the web server 400-2 of each medical institution via the network NW, respectively.

端末装置Dは、一以上の利用者Uにより使用される端末装置である。なお「利用者Uにより使用される」とは、ネットカフェの端末装置など不特定多数によって使用され得る端末装置が利用者Uにより一時的に使用されることを含んでよい。ライドシェアサーバ300は、例えば端末装置Dを通じてライドシェアサービスの利用者である利用者Uの乗車リクエストを取得し、取得した乗車リクエストに基づき、車両Mの運行計画を生成する。車両Mは、ライドシェアサーバ300が生成した運行計画に基づき、利用者Uの乗車希望地点で利用者Uを乗車させ、利用者Uを目的地まで運ぶ。 The terminal device D is a terminal device used by one or more users U. Note that "used by user U" may include that a terminal device that can be used by an unspecified number of people, such as a terminal device of an Internet cafe, is temporarily used by user U. The ride-sharing server 300 acquires a boarding request of the user U who is a user of the ride-sharing service through, for example, the terminal device D, and generates an operation plan of the vehicle M based on the acquired boarding request. Based on the operation plan generated by the ride-sharing server 300, the vehicle M makes the user U board at the desired boarding point of the user U and carries the user U to the destination.

<第1実施形態>
まず、第1実施形態について説明する。第1実施形態は、ライドシェアサービスを提供する車両Mに乗車中の利用者Uの体調に異変が生じた場合に、エージェントシステムEが利用者Uを保護するための行動内容を主体的に決定する例である。なお以下の説明では、車両Mに乗車した利用者Uのなかで体調に異変が生じた利用者Uを「利用者U1」、車両Mに乗車中の他の利用者Uを「同乗者U2」と称する。また、利用者U1が携行する端末装置Dを「端末装置D1」、同乗者U2が携行する端末装置Dを「端末装置D2」と称する。
<First Embodiment>
First, the first embodiment will be described. In the first embodiment, the agent system E proactively determines the action content for protecting the user U when the physical condition of the user U while riding in the vehicle M that provides the ride sharing service changes. This is an example of In the following explanation, the user U who has a physical condition among the users U who got on the vehicle M is "user U1", and the other user U who is on the vehicle M is "passenger U2". It is called. Further, the terminal device D carried by the user U1 is referred to as "terminal device D1", and the terminal device D carried by the passenger U2 is referred to as "terminal device D2".

[1.端末装置]
端末装置Dは、例えば、スマートフォンやタブレット端末、パーソナルコンピュータなどである。端末装置Dでは、ライドシェアシステムを利用するためのアプリケーションプログラム、或いはブラウザなどが起動し、以下に説明するサービスをサポートする。以下の説明では端末装置Dがスマートフォンのような携帯端末装置であり、アプリケーションプログラム(ライドシェアアプリ)が起動していることを前提とする。ライドシェアアプリは、利用者Uの操作に応じてライドシェアサーバ300と通信し、利用者Uのリクエストをライドシェアサーバ300に送信したり、ライドシェアサーバ300から受信した情報に基づくプッシュ通知を行ったりする。
[1. Terminal device]
The terminal device D is, for example, a smartphone, a tablet terminal, a personal computer, or the like. In the terminal device D, an application program for using the ride sharing system, a browser, or the like is started to support the services described below. In the following description, it is assumed that the terminal device D is a mobile terminal device such as a smartphone and the application program (ride sharing application) is running. The ride-sharing application communicates with the ride-sharing server 300 according to the operation of the user U, sends a request of the user U to the ride-sharing server 300, and performs a push notification based on the information received from the ride-sharing server 300. Or

[2.車両]
[2.1 走行に関する車両の構成]
車両Mは、例えば、複数の利用者Uが乗車可能な四輪以上の車輪を有する車両であるが、自動二輪車その他の車両であっても構わない。図2は、走行に関する車両Mの構成図である。車両Mは、例えば、外界監視ユニット12と、車載通信装置14と、ナビゲーション装置16と、推奨車線決定装置18と、自動運転制御ユニット20と、駆動力出力装置22と、ブレーキ装置24と、ステアリング装置26とを備える。
[2. vehicle]
[2.1 Vehicle configuration for driving]
The vehicle M is, for example, a vehicle having four or more wheels on which a plurality of users U can ride, but may be a motorcycle or other vehicle. FIG. 2 is a configuration diagram of the vehicle M regarding traveling. The vehicle M includes, for example, an outside world monitoring unit 12, an in-vehicle communication device 14, a navigation device 16, a recommended lane determination device 18, an automatic driving control unit 20, a driving force output device 22, a braking device 24, and steering. A device 26 is provided.

外界監視ユニット12は、例えば、カメラやレーダ、LIDAR(Light Detectionand Ranging)、これらの出力に基づいてセンサフュージョン処理を行う物体認識装置などを含む。外界監視ユニット12は、車両Mの周辺に存在する物体の種類(特に、車両、歩行者、および自転車)を推定し、その位置や速度の情報と共に自動運転制御ユニット20に出力する。 The outside world monitoring unit 12 includes, for example, a camera, a radar, a LIDAR (Light Detection and Ranging), an object recognition device that performs sensor fusion processing based on these outputs, and the like. The outside world monitoring unit 12 estimates the types of objects (particularly vehicles, pedestrians, and bicycles) existing around the vehicle M, and outputs the information of the position and speed to the automatic driving control unit 20.

車載通信装置14は、例えば、ネットワークNWに接続したり、他車両や歩行者の端末装置などと直接的に通信したりするための無線通信モジュールである。車載通信装置14は、Wi−Fi、DSRC(Dedicated Short Range Communications)、Bluetooth(登録商標)、その他の通信規格に基づいて無線通信を行う。車載通信装置14として、用途に応じた複数のものが用意されてもよい。 The in-vehicle communication device 14 is, for example, a wireless communication module for connecting to a network NW or directly communicating with a terminal device of another vehicle or a pedestrian. The in-vehicle communication device 14 performs wireless communication based on Wi-Fi, DSRC (Dedicated Short Range Communications), Bluetooth (registered trademark), and other communication standards. As the in-vehicle communication device 14, a plurality of in-vehicle communication devices 14 may be prepared according to the application.

ナビゲーション装置16は、ナビHMI(Human Machine Interface)と、GPS(Global Positioning System)などの位置測位装置と、地図情報を記憶した記憶装置と、経路探索などを行う制御装置(ナビゲーションコントローラ)とを備える。後述するマイク32、車室内カメラ34、表示・操作装置36、およびスピーカユニット38のうち一部または全部がナビHMIとして用いられてもよい。ナビゲーション装置16は、位置測位装置によって特定された車両Mの位置から目的地まで移動するための経路(ナビ経路)を探索し、経路に沿って車両Mが走行できるようにナビHMIを用いて案内情報を出力することができる。経路探索機能は、ネットワークNWを介してアクセス可能なナビゲーションサーバにあってもよい。この場合、ナビゲーション装置16は、ナビゲーションサーバから経路を取得して案内情報を出力する。また本実施形態の場合、目的地までの経路は、ライドシェアサーバ300によって指定される場合もある。なお、エージェント装置100は、ナビゲーション装置16のナビゲーションコントローラを基盤として構築されてもよく、その場合、ナビゲーションコントローラとエージェント装置100は、ハードウェア上は一体に構成される。ナビゲーション装置16は、上記いずれかの方法で決定また取得した経路の情報を推奨車線決定装置18に出力する。 The navigation device 16 includes a navigation HMI (Human Machine Interface), a positioning device such as a GPS (Global Positioning System), a storage device that stores map information, and a control device (navigation controller) that performs route search and the like. .. A part or all of the microphone 32, the vehicle interior camera 34, the display / operation device 36, and the speaker unit 38, which will be described later, may be used as the navigation HMI. The navigation device 16 searches for a route (navigation route) for moving from the position of the vehicle M specified by the positioning device to the destination, and guides the vehicle M using the navigation HMI so that the vehicle M can travel along the route. Information can be output. The route search function may be provided in a navigation server accessible via the network NW. In this case, the navigation device 16 acquires a route from the navigation server and outputs guidance information. Further, in the case of the present embodiment, the route to the destination may be designated by the ride sharing server 300. The agent device 100 may be constructed based on the navigation controller of the navigation device 16, and in that case, the navigation controller and the agent device 100 are integrally configured on the hardware. The navigation device 16 outputs the route information determined or acquired by any of the above methods to the recommended lane determination device 18.

推奨車線決定装置18は、例えば、MPU(Micro Processing Unit)と各種記憶装置を備える。記憶装置には、ナビ地図よりも詳細な高精度地図情報が格納されている。高精度地図情報には、例えば、車線ごとの道路幅や勾配、曲率、信号の位置などの情報が含まれている。推奨車線決定装置18は、ナビゲーション装置16から入力された経路に沿って走行するために好ましい推奨車線を決定し、自動運転制御ユニット20に出力する。 The recommended lane determination device 18 includes, for example, an MPU (Micro Processing Unit) and various storage devices. The storage device stores high-precision map information that is more detailed than the navigation map. The high-precision map information includes, for example, information such as road width, slope, curvature, and signal position for each lane. The recommended lane determination device 18 determines a preferable recommended lane for traveling along the route input from the navigation device 16 and outputs the recommended lane to the automatic driving control unit 20.

自動運転制御ユニット20は、CPU(Central Processing Unit)やMPUなどの一以上のプロセッサと各種記憶装置を備える。自動運転制御ユニット20は、推奨車線決定装置18により決定された推奨車線を走行することを原則として、外界監視ユニット12から位置や速度が入力された物体との接触を避けるように、車両Mを自動的に走行させる。例えば、自動運転制御ユニット20は、車両Mが将来走行する目標軌道を生成し、生成した目標軌道を走行するように駆動力出力装置22、ブレーキ装置24、およびステアリング装置26のうち一部または全部を制御する。 The automatic operation control unit 20 includes one or more processors such as a CPU (Central Processing Unit) and an MPU, and various storage devices. In principle, the automatic driving control unit 20 travels in the recommended lane determined by the recommended lane determining device 18, and the vehicle M is moved so as to avoid contact with an object whose position and speed have been input from the outside world monitoring unit 12. Run automatically. For example, the automatic driving control unit 20 generates a target track on which the vehicle M will travel in the future, and a part or all of the driving force output device 22, the braking device 24, and the steering device 26 so as to travel on the generated target track. To control.

駆動力出力装置22は、車両Mが走行するための走行駆動力(トルク)を駆動輪に出力する。駆動力出力装置22は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するパワーECUとを備える。 The driving force output device 22 outputs a traveling driving force (torque) for the vehicle M to travel to the driving wheels. The driving force output device 22 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and a power ECU that controls them.

ブレーキ装置24は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、自動運転制御ユニット20から入力される情報、或いは運転操作子から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。 The brake device 24 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the automatic operation control unit 20 or the information input from the operation operator so that the brake torque corresponding to the braking operation is output to each wheel.

ステアリング装置26は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、自動運転制御ユニット20から入力される情報、或いは運転操作子から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 26 includes, for example, a steering ECU and an electric motor. The electric motor, for example, applies a force to the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the automatic operation control unit 20 or the information input from the operation operator, and changes the direction of the steering wheel.

[2.2 エージェント装置に関する車両の構成]
図3は、エージェント装置100に関する車両Mの構成図である。車両Mには、例えば、一以上のマイク32と、一以上の車室内カメラ34と、表示・操作装置36と、スピーカユニット38と、車両機器40と、乗員認証装置52と、乗員位置認識装置54と、エージェント装置100とが搭載される。また、スマートフォンなどの汎用通信装置60が車室内に持ち込まれ、通信装置として使用される場合がある。汎用通信装置60の一例は、利用者Uが携行する端末装置Dである。これらの装置は、CAN(Controller Area Network)通信線などの多重通信線やシリアル通信線、無線通信網などによって互いに接続される。なお、図3に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
[2.2 Vehicle configuration related to agent device]
FIG. 3 is a configuration diagram of the vehicle M relating to the agent device 100. The vehicle M includes, for example, one or more microphones 32, one or more vehicle interior cameras 34, a display / operation device 36, a speaker unit 38, a vehicle device 40, an occupant authentication device 52, and an occupant position recognition device. 54 and the agent device 100 are mounted. In addition, a general-purpose communication device 60 such as a smartphone may be brought into the vehicle interior and used as a communication device. An example of the general-purpose communication device 60 is a terminal device D carried by the user U. These devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 3 is merely an example, and a part of the configuration may be omitted or another configuration may be added.

マイク32は、車室内で発せられた音声を収集する収音部である。マイク32は、例えば、車室内の一以上の代表位置に設けられてもよいし、運転席、助手席、後部座席のそれぞれに設けられてもよい。 The microphone 32 is a sound collecting unit that collects the sound emitted in the vehicle interior. The microphone 32 may be provided at one or more representative positions in the vehicle interior, or may be provided at each of the driver's seat, the passenger's seat, and the rear seat.

車室内カメラ34は、車室内の画像(または映像)を取得する情報取得部である。車室内カメラは、車室内に設けられたCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラである。車室内カメラ34は、車室内の一以上の代表位置に設けられてもよいし、例えば、運転席、助手席、後部座席のそれぞれに設けられてもよい。 The vehicle interior camera 34 is an information acquisition unit that acquires an image (or video) of the vehicle interior. The vehicle interior camera is a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera installed in the vehicle interior. The vehicle interior camera 34 may be provided at one or more representative positions in the vehicle interior, or may be provided, for example, in each of the driver's seat, the passenger seat, and the rear seat.

表示・操作装置36は、画像を表示すると共に、入力操作を受付可能な装置(或いは装置群)である。表示・操作装置36は、例えば、タッチパネルとして構成された表示装置を含む。表示・操作装置36は、更に、HUD(Head Up Display)や機械式の入力装置を含んでもよい。表示・操作装置36は、エージェント装置100とナビゲーション装置16とで共用されてもよい。表示・操作装置36は、車室内の一以上の代表位置に設けられてもよいし、例えば、運転席、助手席、後部座席のそれぞれに設けられてもよい。 The display / operation device 36 is a device (or device group) capable of displaying an image and receiving an input operation. The display / operation device 36 includes, for example, a display device configured as a touch panel. The display / operation device 36 may further include a HUD (Head Up Display) or a mechanical input device. The display / operation device 36 may be shared by the agent device 100 and the navigation device 16. The display / operation device 36 may be provided at one or more representative positions in the vehicle interior, or may be provided at each of the driver's seat, the passenger's seat, and the rear seat, for example.

スピーカユニット38は、例えば、車室内に配設された1つ以上のスピーカ(音出力部)を含む。スピーカユニット38は、車室内の一以上の代表位置に設けられてもよいし、例えば、運転席、助手席、後部座席のそれぞれに設けられてもよい。 The speaker unit 38 includes, for example, one or more speakers (sound output units) arranged in the vehicle interior. The speaker unit 38 may be provided at one or more representative positions in the vehicle interior, or may be provided, for example, in each of the driver's seat, the passenger seat, and the rear seat.

マイク32、車室内カメラ34、表示・操作装置36、およびスピーカユニット38の各々は、車両Mに搭載された「車載機器」の一例である。なお、エージェント装置100は、マイク32および車室内カメラ34に代えてまたは加えて、利用者Uの端末装置Dに搭載されたマイクおよびカメラを利用して利用者Uの音声や画像を取得してもよい。また、エージェント装置100は、表示・操作装置36およびスピーカユニット38に代えてまたは加えて、利用者Uの端末装置Dに搭載された表示装置およびスピーカを利用して利用者Uに対して画像を表示したり音声を出力したりしてもよい。このような態様は、例えば、端末装置DにインストールされてエージェントシステムEの一部を実現するアプリケーションプログラム(エージェントアプリ)、または対話型の汎用的なアプリケーションプログラムが起動することで実現される。このため以下の説明において、マイク32、車室内カメラ34、表示・操作装置36、およびスピーカユニット38の各々は、「端末装置D」と読み替えられてもよい。 Each of the microphone 32, the vehicle interior camera 34, the display / operation device 36, and the speaker unit 38 is an example of the "vehicle-mounted device" mounted on the vehicle M. In addition, the agent device 100 acquires the voice and image of the user U by using the microphone and the camera mounted on the terminal device D of the user U in place of or in addition to the microphone 32 and the vehicle interior camera 34. May be good. Further, the agent device 100 uses the display device and the speaker mounted on the terminal device D of the user U in place of or in addition to the display / operation device 36 and the speaker unit 38 to display an image to the user U. It may be displayed or output sound. Such an embodiment is realized by, for example, starting an application program (agent application) installed in the terminal device D and realizing a part of the agent system E, or an interactive general-purpose application program. Therefore, in the following description, each of the microphone 32, the vehicle interior camera 34, the display / operation device 36, and the speaker unit 38 may be read as “terminal device D”.

車両機器40は、例えば、エンジンの始動モータ、ドアロック装置、ドア開閉装置、窓、窓の開閉装置および窓の開閉制御装置、シート、シート位置の制御装置、ルームミラー及びその角度位置制御装置、車両内外の照明装置及びその制御装置、ワイパーやデフォッガー及びそれぞれの制御装置、方向指示灯及びその制御装置、空調装置、走行距離やタイヤの空気圧の情報や燃料の残量情報などの車両情報装置などを含む。 The vehicle equipment 40 includes, for example, an engine start motor, a door lock device, a door opening / closing device, a window, a window opening / closing device, a window opening / closing control device, a seat, a seat position control device, a room mirror and an angle position control device thereof. Lighting devices inside and outside the vehicle and their control devices, wipers and defoggers and their respective control devices, direction indicator lights and their control devices, air conditioning devices, vehicle information devices such as mileage and tire pressure information and fuel level information, etc. including.

乗員認証装置52は、車両Mに乗車しようとする利用者が正規の利用者であるか否かを判定する装置である。例えば、利用者Uの乗車リクエストに基づいて車両Mの予約がライドシェアサーバ300により登録されると、利用者Uの端末装置Dには、予約された車両Mに乗車するための仮想鍵(バーチャルキー)が送信される。仮想鍵は、利用者Uが車両Mの正規の乗員であることを示す情報である。仮想鍵は、例えば利用者Uごとに異なる情報(利用者Uごとに固有の情報)であり、例えば利用者Uを識別する識別情報(利用者ID)を含む。仮想鍵は、例えば、端末装置Dと車両Mの車載通信装置14との間の無線通信により伝達可能な情報であるが、端末装置Dの表示装置に表示される二次元バーコード(例えばQR(登録商標)コード)などでもよい。 The occupant authentication device 52 is a device for determining whether or not the user who intends to board the vehicle M is a legitimate user. For example, when the reservation of the vehicle M is registered by the ride sharing server 300 based on the boarding request of the user U, the terminal device D of the user U has a virtual key (virtual key) for boarding the reserved vehicle M. Key) is sent. The virtual key is information indicating that the user U is a legitimate occupant of the vehicle M. The virtual key is, for example, information different for each user U (information unique to each user U), and includes, for example, identification information (user ID) for identifying the user U. The virtual key is, for example, information that can be transmitted by wireless communication between the terminal device D and the vehicle-mounted communication device 14 of the vehicle M, and is a two-dimensional bar code displayed on the display device of the terminal device D (for example, QR (for example). It may be a registered trademark) code) or the like.

乗員認証装置52は、利用者Uの端末装置Dから取得された仮想鍵に基づき、車両Mに乗車しようとする利用者が正規の利用者であるか否かを判定する。乗員認証装置52は、車両Mに乗車しようとする利用者が正規の利用者Uであると判定した場合、車両Mのドアロックを解除し、利用者Uの乗車を許容する。例えば、乗員認証装置52は、利用者Uの端末装置Dから取得した仮想鍵に含まれる識別情報(利用者ID)を、車載通信装置14およびネットワークNWを介して、エージェントサーバ200およびライドシェアサーバ300に出力する。これにより、エージェントサーバ200およびライドシェアサーバ300は、車両Mに乗車した利用者Uを特定する(識別する)ことができる。 The occupant authentication device 52 determines whether or not the user who intends to board the vehicle M is a legitimate user based on the virtual key acquired from the terminal device D of the user U. When the occupant authentication device 52 determines that the user who intends to board the vehicle M is a legitimate user U, the occupant authentication device 52 releases the door lock of the vehicle M and allows the user U to board. For example, the occupant authentication device 52 transmits the identification information (user ID) included in the virtual key acquired from the terminal device D of the user U to the agent server 200 and the ride sharing server via the in-vehicle communication device 14 and the network NW. Output to 300. As a result, the agent server 200 and the ride sharing server 300 can identify (identify) the user U who has boarded the vehicle M.

乗員位置認識装置54は、例えば着座センサである。着座センサは、座席の下部に設けられた圧力センサ、シートベルトに取り付けられた張力センサなどを含む。乗員位置認識装置54は、車室内での乗員の着座位置を認識する着座位置認識部の一例である。なお、乗員位置認識装置54の一部または全部は、車室内カメラ34と後述する画像処理部113により構成されてもよい。乗員位置認識装置54により検出された乗員の着座位置は、車載通信装置14およびネットワークNWを介してエージェントサーバ200に出力される。これにより、エージェントサーバ200は、鍵情報に含まれる識別情報(利用者ID)に基づき特定された利用者Uと、その利用者Uの着座位置とを紐付けて管理することができる。 The occupant position recognition device 54 is, for example, a seating sensor. The seating sensor includes a pressure sensor provided at the bottom of the seat, a tension sensor attached to the seat belt, and the like. The occupant position recognition device 54 is an example of a seating position recognition unit that recognizes the seating position of an occupant in the vehicle interior. A part or all of the occupant position recognition device 54 may be composed of the vehicle interior camera 34 and the image processing unit 113 described later. The seating position of the occupant detected by the occupant position recognition device 54 is output to the agent server 200 via the vehicle-mounted communication device 14 and the network NW. As a result, the agent server 200 can manage the user U specified based on the identification information (user ID) included in the key information in association with the seating position of the user U.

図4は、車両Mの内部構成の一例を示す図である。車室内には、例えば、プライバシーを確保するためなどの目的で、運転席、助手席、左後部座席、および右後部座席の間を仕切るパーティションPが設けられている。この場合、マイク32、車室内カメラ34、表示・操作装置36、およびスピーカユニット38は、各座席に設けられてもよい。この場合、エージェント装置100は、各座席に個別に設けられた表示・操作装置36およびスピーカユニット38を用いて各座席ごとに異なるエージェントを出現させてもよい。ただし、パーティションPは、必須の構成要素ではなく、従前の車両と同様に座席間は開放されていてもよい。 FIG. 4 is a diagram showing an example of the internal configuration of the vehicle M. A partition P is provided in the vehicle interior to partition the driver's seat, the passenger's seat, the left rear seat, and the right rear seat, for example, for the purpose of ensuring privacy. In this case, the microphone 32, the vehicle interior camera 34, the display / operation device 36, and the speaker unit 38 may be provided in each seat. In this case, the agent device 100 may make a different agent appear for each seat by using the display / operation device 36 and the speaker unit 38 individually provided for each seat. However, the partition P is not an essential component, and the space between the seats may be open as in the conventional vehicle.

[3.エージェント装置]
次に、図3に戻り、エージェント装置100について説明する。エージェント装置100は、管理部110と、エージェント機能部150−1、150−2、150−3と、ペアリングアプリ実行部152とを備える。管理部110は、例えば、音響処理部112と、画像処理部113と、エージェントごとWU(Wake Up)判定部114と、表示制御部116と、音声制御部118とを備える。いずれのエージェント機能部であるか区別しない場合、単にエージェント機能部150と称する。3つのエージェント機能部150を示しているのは、図1におけるエージェントサーバ200の数に対応させた一例に過ぎず、エージェント機能部150の数は、2つであってもよいし、4つ以上であってもよい。図3に示すソフトウェア配置は説明のために簡易に示しており、実際には、例えば、エージェント機能部150と車載通信装置14の間に管理部110が介在してもよいように、任意に改変することができる。
[3. Agent device]
Next, returning to FIG. 3, the agent device 100 will be described. The agent device 100 includes a management unit 110, agent function units 150-1, 150-2, 150-3, and a pairing application execution unit 152. The management unit 110 includes, for example, an sound processing unit 112, an image processing unit 113, a WU (Wake Up) determination unit 114 for each agent, a display control unit 116, and a voice control unit 118. When it is not distinguished which agent function unit it is, it is simply referred to as an agent function unit 150. The three agent function units 150 are shown only as an example corresponding to the number of agent servers 200 in FIG. 1, and the number of agent function units 150 may be two or four or more. It may be. The software layout shown in FIG. 3 is simply shown for the sake of explanation, and is actually modified arbitrarily so that, for example, the management unit 110 may intervene between the agent function unit 150 and the in-vehicle communication device 14. can do.

エージェント装置100の各構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 Each component of the agent device 100 is realized by, for example, a hardware processor such as a CPU executing a program (software). Some or all of these components are hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. It may be realized by (including circuits), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD (Hard Disk Drive) or a flash memory, or a removable storage device such as a DVD or a CD-ROM. It is stored in a medium (non-transient storage medium) and may be installed by mounting the storage medium in a drive device.

管理部110は、OS(Operating System)やミドルウェアなどのプログラムが実行されることで機能する。 The management unit 110 functions by executing a program such as an OS (Operating System) or middleware.

音響処理部112は、エージェントごとに予め設定されているウエイクアップワードを認識するのに適した状態になるように、入力された音に対して音響処理を行う。音響処理部112により音響処理された音は、車載通信装置14およびネットワークNWを介してエージェントサーバ200に出力される。 The sound processing unit 112 performs sound processing on the input sound so as to be in a state suitable for recognizing a wakeup word preset for each agent. The sound processed by the sound processing unit 112 is output to the agent server 200 via the vehicle-mounted communication device 14 and the network NW.

画像処理部113は、車室内カメラ34により取得された画像(または映像)に対して画像処理を行い、利用者Uの姿勢や利用者Uの表情などを認識可能な情報を取得する。画像処理部113により画像処理された画像は、車載通信装置14およびネットワークNWを介してエージェントサーバ200に出力される。 The image processing unit 113 performs image processing on the image (or video) acquired by the vehicle interior camera 34, and acquires information capable of recognizing the posture of the user U, the facial expression of the user U, and the like. The image processed by the image processing unit 113 is output to the agent server 200 via the vehicle-mounted communication device 14 and the network NW.

エージェントごとWU判定部114は、エージェント機能部150−1、150−2、150−3のそれぞれに対応して存在し、エージェントごとに予め定められているウエイクアップワードを認識する。エージェントごとWU判定部114は、音響処理が行われた音声(音声ストリーム)から音声の意味を認識する。まず、エージェントごとWU判定部114は、音声ストリームにおける音声波形の振幅と零交差に基づいて音声区間を検出する。エージェントごとWU判定部114は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づくフレーム単位の音声識別および非音声識別に基づく区間検出を行ってもよい。 The WU determination unit 114 for each agent exists corresponding to each of the agent function units 150-1, 150-2, and 150-3, and recognizes a wakeup word predetermined for each agent. The WU determination unit 114 for each agent recognizes the meaning of the voice from the voice (voice stream) subjected to the acoustic processing. First, the WU determination unit 114 for each agent detects a voice section based on the amplitude and zero intersection of the voice waveform in the voice stream. The WU determination unit 114 for each agent may perform frame-by-frame speech recognition based on a mixture Gaussian mixture model (GMM) and section detection based on non-speech recognition.

次に、エージェントごとWU判定部114は、検出した音声区間における音声をテキスト化し、文字情報とする。そして、エージェントごとWU判定部114は、テキスト化した文字情報がウエイクアップワードに該当するか否かを判定する。ウエイクアップワードであると判定した場合、エージェントごとWU判定部114は、対応するエージェント機能部150を起動させる。なお、エージェントごとWU判定部114に相当する機能がエージェントサーバ200に搭載されてもよい。この場合、管理部110は、音響処理部112によって音響処理が行われた音声ストリームをエージェントサーバ200に送信し、エージェントサーバ200がウエイクアップワードであると判定した場合、エージェントサーバ200からの指示に従ってエージェント機能部150が起動する。なお、各エージェント機能部150は、常時起動しており且つウエイクアップワードの判定を自ら行うものであってよい。この場合、管理部110がエージェントごとWU判定部114を備える必要はない。 Next, the WU determination unit 114 for each agent converts the voice in the detected voice section into text and converts it into character information. Then, the WU determination unit 114 for each agent determines whether or not the textual character information corresponds to the wakeup word. When it is determined that the word is a wakeup word, the WU determination unit 114 for each agent activates the corresponding agent function unit 150. The agent server 200 may be equipped with a function corresponding to the WU determination unit 114 for each agent. In this case, when the management unit 110 transmits the voice stream to which the sound processing has been performed by the sound processing unit 112 to the agent server 200 and determines that the agent server 200 is a wakeup word, the management unit 110 follows an instruction from the agent server 200. The agent function unit 150 starts. It should be noted that each agent function unit 150 may be always activated and may determine the wakeup word by itself. In this case, the management unit 110 does not need to include the WU determination unit 114 for each agent.

エージェント機能部150は、対応するエージェントサーバ200と協働してエージェントを出現させ、車両Mの乗員の発話に応じて、音声による応答を含むサービスを提供する。エージェント機能部150には、車両機器40を制御する権限が付与されたものが含まれてよい。また、エージェント機能部150には、ペアリングアプリ実行部152を介して汎用通信装置60と連携し、エージェントサーバ200と通信するものがあってよい。例えば、エージェント機能部150−1には、車両機器40を制御する権限が付与されている。エージェント機能部150−1は、車載通信装置14を介してエージェントサーバ200−1と通信する。エージェント機能部150−2は、車載通信装置14を介してエージェントサーバ200−2と通信する。エージェント機能部150−3は、ペアリングアプリ実行部152を介して汎用通信装置60と連携し、エージェントサーバ200−3と通信する。ペアリングアプリ実行部152は、例えば、Bluetoothによって汎用通信装置60とペアリングを行い、エージェント機能部150−3と汎用通信装置60とを接続させる。なお、エージェント機能部150−3は、USB(Universal Serial Bus)などを利用した有線通信によって汎用通信装置60に接続されるようにしてもよい。エージェント機能部150−1とエージェントサーバ200−1が協働して出現させるエージェントをエージェント1、エージェント機能部150−2とエージェントサーバ200−2が協働して出現させるエージェントをエージェント2、エージェント機能部150−3とエージェントサーバ200−3が協働して出現させるエージェントをエージェント3と称してもよい。 The agent function unit 150 makes an agent appear in cooperation with the corresponding agent server 200, and provides a service including a voice response in response to the utterance of the occupant of the vehicle M. The agent function unit 150 may include one to which the authority to control the vehicle device 40 is granted. Further, the agent function unit 150 may be one that cooperates with the general-purpose communication device 60 via the pairing application execution unit 152 and communicates with the agent server 200. For example, the agent function unit 150-1 is given the authority to control the vehicle device 40. The agent function unit 150-1 communicates with the agent server 200-1 via the vehicle-mounted communication device 14. The agent function unit 150-2 communicates with the agent server 200-2 via the vehicle-mounted communication device 14. The agent function unit 150-3 cooperates with the general-purpose communication device 60 via the pairing application execution unit 152, and communicates with the agent server 200-3. The pairing application execution unit 152 pairs with the general-purpose communication device 60 by Bluetooth, for example, and connects the agent function unit 150-3 and the general-purpose communication device 60. The agent function unit 150-3 may be connected to the general-purpose communication device 60 by wired communication using USB (Universal Serial Bus) or the like. Agent 1 is the agent that the agent function unit 150-1 and the agent server 200-1 collaborate to appear, and agent 2 is the agent that the agent function unit 150-2 and the agent server 200-2 collaborate to appear. An agent that the unit 150-3 and the agent server 200-3 collaborate to appear may be referred to as an agent 3.

表示制御部116は、エージェント機能部150からの指示に応じて表示・操作装置36の表示装置に画像を表示させる。表示制御部116は、一部のエージェント機能部150の制御により、例えば、車室内で乗員とのコミュニケーションを行う擬人化されたエージェントの画像(以下、「エージェント画像」と称する)を生成し、生成したエージェント画像を表示・操作装置36の表示装置に表示させる。エージェント画像は、例えば、乗員に対して話しかける態様の画像である。エージェント画像は、例えば、少なくとも観者(乗員)によって表情や顔向きが認識される程度の顔画像を含んでよい。また、エージェント画像は、アニメーション画像であってもよい。 The display control unit 116 causes the display device of the display / operation device 36 to display an image in response to an instruction from the agent function unit 150. The display control unit 116 generates, for example, an image of an anthropomorphic agent (hereinafter, referred to as “agent image”) that communicates with an occupant in the vehicle interior under the control of a part of the agent function unit 150. The displayed agent image is displayed on the display device of the display / operation device 36. The agent image is, for example, an image of a mode of talking to an occupant. The agent image may include, for example, a facial image such that the facial expression and the facial orientation are recognized by the viewer (occupant) at least. Further, the agent image may be an animation image.

音声制御部118は、エージェント機能部150からの指示に応じて、スピーカユニット30に含まれるスピーカのうち一部または全部に音声を出力させる。 The voice control unit 118 causes a part or all of the speakers included in the speaker unit 30 to output voice in response to an instruction from the agent function unit 150.

[4.エージェントサーバ]
[4.1 エージェントサーバの全体構成]
図5は、エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す構成図である。以下、エージェントサーバ200の構成と共にエージェント機能部150などの動作について説明する。ここでは、エージェント装置100からネットワークNWまでの物理的な通信についての説明を省略する。
[4. Agent server]
[4.1 Overall configuration of agent server]
FIG. 5 is a configuration diagram showing a configuration of the agent server 200 and a part of the configuration of the agent device 100. Hereinafter, the operation of the agent function unit 150 and the like together with the configuration of the agent server 200 will be described. Here, the description of the physical communication from the agent device 100 to the network NW will be omitted.

エージェントサーバ200は、通信部210を備える。通信部210は、例えばNIC(Network Interface Card)などのネットワークインターフェースである。更に、エージェントサーバ200は、例えば、音声認識部220と、自然言語処理部222と、対話管理部224と、ネットワーク検索部226と、応答文生成部228と、状態観察部230と、乗員異変時行動内容決定部232と、通知部234とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The agent server 200 includes a communication unit 210. The communication unit 210 is a network interface such as a NIC (Network Interface Card). Further, the agent server 200 includes, for example, a voice recognition unit 220, a natural language processing unit 222, a dialogue management unit 224, a network search unit 226, a response sentence generation unit 228, a state observation unit 230, and an occupant change. It includes an action content determination unit 232 and a notification unit 234. These components are realized, for example, by a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (including circuit part; circuitry), or realized by collaboration between software and hardware. May be good. The program may be stored in advance in a storage device such as an HDD or flash memory (a storage device including a non-transient storage medium), or a removable storage medium such as a DVD or a CD-ROM (non-transient). It is stored in a sex storage medium) and may be installed by attaching the storage medium to a drive device.

エージェントサーバ200は、記憶部250を備える。記憶部250は、上記の各種記憶装置により実現される。記憶部250には、パーソナルプロファイル252、辞書DB(データベース)254、知識ベースDB256、応答規則DB258、乗員状態パターンDB260などのデータやプログラムが格納される。パーソナルプロファイル252には、後述する病歴情報252aが含まれる。応答規則DB258には、後述する乗員異変時応答規則258aが含まれる。 The agent server 200 includes a storage unit 250. The storage unit 250 is realized by the above-mentioned various storage devices. Data and programs such as a personal profile 252, a dictionary DB (database) 254, a knowledge base DB 256, a response rule DB 258, and an occupant state pattern DB 260 are stored in the storage unit 250. The personal profile 252 includes medical history information 252a, which will be described later. The response rule DB 258 includes the occupant incident response rule 258a, which will be described later.

エージェント装置100において、エージェント機能部150は、音声ストリーム、或いは圧縮や符号化などの処理が行われた音声ストリームを、エージェントサーバ200に送信する。また、エージェント機能部150は、画像処理部113により画像処理された画像を、エージェントサーバ200に送信する。 In the agent device 100, the agent function unit 150 transmits a voice stream or a voice stream that has undergone processing such as compression or coding to the agent server 200. Further, the agent function unit 150 transmits the image processed by the image processing unit 113 to the agent server 200.

エージェント機能部150は、ローカル処理(エージェントサーバ200を介さない処理)が可能な音声コマンドを認識した場合は、音声コマンドで要求された処理を行ってよい。ローカル処理が可能な音声コマンドとは、エージェント装置100が備える記憶部(不図示)を参照することで回答可能な音声コマンドであったり、エージェント機能部150−1の場合は車両機器40を制御する音声コマンド(例えば、空調装置をオンにするコマンドなど)であったりする。従って、エージェント機能部150は、エージェントサーバ200が備える機能の一部を有してもよい。 When the agent function unit 150 recognizes a voice command capable of local processing (processing that does not go through the agent server 200), the agent function unit 150 may perform the processing requested by the voice command. The voice command that can be locally processed is a voice command that can be answered by referring to a storage unit (not shown) included in the agent device 100, or in the case of the agent function unit 150-1, the vehicle device 40 is controlled. It may be a voice command (for example, a command to turn on the air conditioner). Therefore, the agent function unit 150 may have a part of the functions provided in the agent server 200.

音声ストリームを取得すると、音声認識部220が音声認識を行ってテキスト化された文字情報を出力し、自然言語処理部222が文字情報に対して辞書DB254を参照しながら意味解釈を行う。辞書DB254は、文字情報に対して抽象化された意味情報が対応付けられたものである。辞書DB254は、同義語や類義語の一覧情報を含んでもよい。音声認識部220の処理と、自然言語処理部222の処理は、段階が明確に分かれるものではなく、自然言語処理部222の処理結果を受けて音声認識部220が認識結果を修正するなど、相互に影響し合って行われてよい。 When the voice stream is acquired, the voice recognition unit 220 performs voice recognition and outputs textual character information, and the natural language processing unit 222 interprets the character information with reference to the dictionary DB 254. The dictionary DB 254 is associated with abstract semantic information with respect to character information. The dictionary DB 254 may include list information of synonyms and synonyms. The processing of the voice recognition unit 220 and the processing of the natural language processing unit 222 are not clearly separated in stages, and the voice recognition unit 220 corrects the recognition result in response to the processing result of the natural language processing unit 222. It may be done by influencing each other.

自然言語処理部222は、例えば、認識結果として、「今日の天気は」、「天気はどうですか」などの意味が認識された場合、標準文字情報「今日の天気」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも要求にあった対話をし易くすることができる。また、自然言語処理部222は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、認識結果に基づくコマンドを生成してもよい。 For example, when the natural language processing unit 222 recognizes the meanings such as "today's weather" and "how is the weather" as the recognition result, the natural language processing unit 222 generates a command replaced with the standard character information "today's weather". As a result, even if there is a character fluctuation in the voice of the request, it is possible to facilitate the dialogue according to the request. Further, the natural language processing unit 222 may recognize the meaning of character information by using artificial intelligence processing such as machine learning processing using probability, or may generate a command based on the recognition result.

対話管理部224は、自然言語処理部222の処理結果(コマンド)に基づいて、パーソナルプロファイル252や知識ベースDB256、応答規則DB258を参照しながら車両Mの乗員に対する発話の内容を決定する。パーソナルプロファイル252は、乗員ごと(すなわち利用者IDを紐付けられて)に保存されている乗員の個人情報、趣味嗜好、過去の対話の履歴などを含む。知識ベースDB256は、物事の関係性を規定した情報である。応答規則DB258は、コマンドに対してエージェントが行うべき動作(回答や機器制御の内容など)を規定した情報である。 The dialogue management unit 224 determines the content of the utterance to the occupant of the vehicle M based on the processing result (command) of the natural language processing unit 222 with reference to the personal profile 252, the knowledge base DB 256, and the response rule DB 258. The personal profile 252 includes the personal information of the occupants, hobbies and preferences, the history of past dialogues, etc., which are stored for each occupant (that is, associated with the user ID). The knowledge base DB 256 is information that defines the relationships between things. The response rule DB 258 is information that defines the actions (answers, device control contents, etc.) that the agent should perform in response to the command.

また、対話管理部224は、例えば乗員認証装置52が設けられていない車両Mの場合、音声ストリームから得られる特徴情報と、画像から得られる特徴情報とのうち少なくとも一方を用いて、パーソナルプロファイル252と照合を行うことで、乗員を特定してもよい。この場合、パーソナルプロファイル252には、例えば、音声または外見(見た目)の特徴情報に、個人情報が対応付けられている。音声の特徴情報とは、例えば、声の高さ、イントネーション、リズム(音の高低のパターン)などの喋り方の特徴や、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficients)などによる特徴量に関する情報である。音声の特徴情報は、例えば、乗員の初期登録時に所定の単語や文章等を乗員に発声させ、発声させた音声を認識することで得られる情報である。外見の特徴情報とは、背格好、顔の輪郭、目や鼻など顔の各部位の位置や形状、髪色などによる特徴量に関する情報である。 Further, the dialogue management unit 224 uses at least one of the feature information obtained from the voice stream and the feature information obtained from the image in the case of the vehicle M in which the occupant authentication device 52 is not provided, for example, to use the personal profile 252. The occupant may be identified by collating with. In this case, in the personal profile 252, for example, personal information is associated with voice or appearance (appearance) feature information. Voice feature information is, for example, information on speaking characteristics such as voice pitch, intonation, and rhythm (sound pitch pattern), and feature quantities based on Mel Frequency Cepstrum Coefficients. .. The voice feature information is, for example, information obtained by having the occupant utter a predetermined word or sentence at the time of initial registration of the occupant and recognizing the uttered voice. Appearance feature information is information on the amount of features such as profile, facial contour, position and shape of each part of the face such as eyes and nose, and hair color.

対話管理部224は、コマンドがネットワークNWを介して検索可能な情報を要求するものである場合、ネットワーク検索部226に検索を行わせる。ネットワーク検索部226は、ネットワークNWを介して各種ウェブサーバ400にアクセスし、所望の情報を取得する。 The dialogue management unit 224 causes the network search unit 226 to perform a search when the command requests information that can be searched via the network NW. The network search unit 226 accesses various web servers 400 via the network NW and acquires desired information.

応答文生成部228は、対話管理部224により決定された発話の内容が車両Mの乗員に伝わるように、応答文を生成し、エージェント装置100に送信する。応答文生成部228は、乗員がパーソナルプロファイル252に登録された乗員であることが特定されている場合に、乗員の名前を呼んだり、乗員の話し方に似せた話し方にした応答文を生成してもよい。 The response sentence generation unit 228 generates a response sentence and transmits it to the agent device 100 so that the content of the utterance determined by the dialogue management unit 224 is transmitted to the occupant of the vehicle M. When the occupant is identified as an occupant registered in the personal profile 252, the response sentence generation unit 228 calls the occupant's name or generates a response sentence in a speech style similar to the occupant's speech style. May be good.

エージェント機能部150は、応答文を取得すると、音声合成を行って音声を出力するように音声制御部118に指示する。また、エージェント機能部150は、音声出力に合わせてエージェント画像を表示するように表示制御部116に指示する。このようにして、仮想的に出現したエージェントが車両Mの乗員に応答するエージェント機能が実現される。 When the agent function unit 150 acquires the response sentence, the agent function unit 150 instructs the voice control unit 118 to perform voice synthesis and output the voice. Further, the agent function unit 150 instructs the display control unit 116 to display the agent image in accordance with the audio output. In this way, the agent function in which the virtually appearing agent responds to the occupant of the vehicle M is realized.

[4.2 状態観察部]
状態観察部230は、例えば、車両Mのマイク32および車室内カメラ34により取得された情報に基づき、車両Mに乗車中の利用者Uの状態を観察する。例えば、状態観察部230は、マイク32により取得されて音響処理部112により音響処理が行われた音声ストリームと、車室内カメラ34により取得されて画像処理部113により画像処理された画像とに基づき、車両Mに乗車中の利用者Uの状態を観察する。ただし、状態観察部230は、マイク32により取得された情報と車室内カメラ34により取得された情報とのうちいずれか一方に基づき、車両Mに乗車中の利用者Uの状態を観察してもよい。また、状態観察部230は、マイク32および車室内カメラ34に代えて/加えて、端末装置Dにより取得された情報に基づき、車両Mに乗車中の利用者Uの状態を観察してもよい。
[4.2 Condition Observation Unit]
The state observing unit 230 observes the state of the user U while riding in the vehicle M, for example, based on the information acquired by the microphone 32 of the vehicle M and the vehicle interior camera 34. For example, the state observation unit 230 is based on an audio stream acquired by the microphone 32 and subjected to acoustic processing by the acoustic processing unit 112 and an image acquired by the vehicle interior camera 34 and image-processed by the image processing unit 113. , Observe the state of the user U while riding in the vehicle M. However, the state observing unit 230 may observe the state of the user U while riding in the vehicle M based on either the information acquired by the microphone 32 or the information acquired by the vehicle interior camera 34. Good. Further, the state observing unit 230 may observe the state of the user U while riding in the vehicle M based on the information acquired by the terminal device D in place of / in addition to the microphone 32 and the vehicle interior camera 34. ..

図6は、状態観察部230の構成図である。状態観察部230は、例えば、音声観察部230aと、外見観察部230bと、声掛け部230cと、異変判定部230dとを有する。ここで、記憶部250に記憶された乗員状態パターンDB260には、車室内での利用者Uの状態(様子)をモデル化した複数の状態パターンが登録されている。これら状態パターンは、例えば、体調に異変が生じた場合の典型的な「発話内容」、「声のトーン」、「声の抑揚」、「声の震え」、「声の大きさ」、「体の姿勢」、「顔の表情」、「体や顔に表れる仕草」などである。いくつかの具体例としては、「頭が痛い、手が痺れるなどの発話」、「声がうわずっている」、「声が震えている」、「呂律が回っていない」、「うずくまっている」、「両手で顔を塞いでいる」、「手でお腹を押さえている」、「痙攣している」などである。 FIG. 6 is a configuration diagram of the state observation unit 230. The state observation unit 230 includes, for example, a voice observation unit 230a, an appearance observation unit 230b, a voice call unit 230c, and an incident determination unit 230d. Here, in the occupant state pattern DB 260 stored in the storage unit 250, a plurality of state patterns that model the state (state) of the user U in the vehicle interior are registered. These state patterns are, for example, typical "speech content", "voice tone", "voice intonation", "voice tremor", "voice loudness", and "body" when an abnormality occurs in the physical condition. "Position", "Facial expression", "Gestures appearing on the body and face", etc. Some specific examples are "speech such as headache, numbness, etc.", "voice is cramping", "voice is trembling", "Ritsu is not spinning", "crouching". , "I'm closing my face with both hands", "I'm holding my stomach with my hands", "I'm cramping", etc.

音声観察部230aは、例えば所定の周期で、音響処理部112により得られた音声ストリームと、乗員状態パターンDB260に登録されている音声に関する状態パターンとを比較する。なお、音声観察部230aは、利用者Uごとの正常時(体調良好時)の音声がパーソナルプロファイル252に登録されている場合、上記に代えてまたは加えて、音響処理部112により得られた音声ストリームと、パーソナルプロファイル252に登録されている利用者Uごとの正常時の音声とを比較してもよい。音声観察部230aによる比較結果は、例えば、声掛け部230c、異変判定部230d、および乗員異変時行動内容決定部232に出力される。 The voice observation unit 230a compares the voice stream obtained by the sound processing unit 112 with the state pattern related to the voice registered in the occupant state pattern DB 260, for example, at a predetermined cycle. In addition, when the voice of the normal state (when the physical condition is good) for each user U is registered in the personal profile 252, the voice observation unit 230a replaces or adds the voice obtained by the sound processing unit 112. The stream may be compared with the normal voice for each user U registered in the personal profile 252. The comparison result by the voice observation unit 230a is output to, for example, the voice-calling unit 230c, the accident determination unit 230d, and the occupant change behavior content determination unit 232.

外見観察部230bは、例えば所定の周期で、画像処理部113により得られた画像に含まれる外見(仕草や顔の表情なども含む)と、乗員状態パターンDB260に登録されている外見に関する状態パターンとを比較する。なお、外見観察部230bは、利用者Uごとの正常時(体調良好時)の外見がパーソナルプロファイル252に登録されている場合、上記に代えてまたは加えて、画像処理部113により得られた画像に含まれる外見と、パーソナルプロファイル252に登録されている利用者Uごとの正常時の外見とを比較してもよい。外見観察部230bによる比較結果は、例えば、声掛け部230c、異変判定部230d、および乗員異変時行動内容決定部232に出力される。 The appearance observing unit 230b has, for example, an appearance (including gestures, facial expressions, etc.) included in the image obtained by the image processing unit 113 and a state pattern related to the appearance registered in the occupant state pattern DB 260 at a predetermined cycle. Compare with. In addition, when the appearance in the normal state (when the physical condition is good) for each user U is registered in the personal profile 252, the appearance observation unit 230b is an image obtained by the image processing unit 113 in place of or in addition to the above. The appearance included in the above may be compared with the normal appearance of each user U registered in the personal profile 252. The comparison result by the appearance observation unit 230b is output to, for example, the voice-calling unit 230c, the accident determination unit 230d, and the occupant change behavior content determination unit 232.

声掛け部230cは、音声観察部230aおよび外見観察部230bによる比較結果に基づき、利用者U1の体調に異変が生じている可能性が高いと判定した場合(蓋然性を示す算出値が閾値以上である場合)、エージェント装置100に所定の指示を出力することで、車両Mの表示・操作装置36およびスピーカユニット38を用いて利用者U1に対する声掛け(利用者U1に対する発話)を行う。声掛けは、例えば、表示・操作装置36の表示装置にエージェント画像を表示し、エージェントを仮想的に出現させて行う。 When it is determined that there is a high possibility that the physical condition of the user U1 has changed based on the comparison results of the voice observing unit 230a and the appearance observing unit 230b (the calculated value indicating the probability is equal to or higher than the threshold value). In some cases), by outputting a predetermined instruction to the agent device 100, the display / operation device 36 and the speaker unit 38 of the vehicle M are used to call out to the user U1 (speech to the user U1). For example, the agent image is displayed on the display device of the display / operation device 36, and the agent is virtually made to appear.

図7は、声掛け部230cの指示に基づいて表示・操作装置36に表示される画像IM1の内容の一例を示す図である。エージェントは、例えば、利用者U1に対して「大丈夫ですか?」、「気分が優れないですか?」などの内容の発話を行う。また、エージェントは、利用者U1の名前を呼んでもよい。これら声掛けの内容(発話内容)は、例えば、応答規則DB258に含まれる乗員異変時応答規則DB258aに予め登録されている。これら声掛けに対する利用者U1の反応の有無や程度は、マイク32および車室内カメラ34を通じて取得され、音響処理部112および画像処理部113による処理を経て、エージェントサーバ200の異変判定部230dに出力される。 FIG. 7 is a diagram showing an example of the contents of the image IM1 displayed on the display / operation device 36 based on the instruction of the voice-calling unit 230c. For example, the agent utters the contents such as "Are you okay?" And "Are you feeling unwell?" To the user U1. In addition, the agent may call the name of the user U1. The contents of these calls (utterance contents) are registered in advance in, for example, the response rule DB258a at the time of an accident of an occupant included in the response rule DB258. The presence / absence and degree of the reaction of the user U1 to these calls are acquired through the microphone 32 and the vehicle interior camera 34, processed by the sound processing unit 112 and the image processing unit 113, and output to the incident determination unit 230d of the agent server 200. Will be done.

異変判定部230dは、音声観察部230aによる比較結果、外見観察部230bによる比較結果、および声掛け部230cによる声掛け後の利用者U1の反応などに基づき、利用者U1の体調に異変が生じているか否か(利用者U1の状態が所定の状態に変化したか否か)を判定する。 The incident determination unit 230d changes the physical condition of the user U1 based on the comparison result by the voice observation unit 230a, the comparison result by the appearance observation unit 230b, the reaction of the user U1 after the voice is spoken by the voice observation unit 230c, and the like. Whether or not (whether or not the state of the user U1 has changed to a predetermined state) is determined.

例えば、異変判定部230dは、音響処理部112により得られた音声ストリームと、乗員状態パターンDB260に登録されている音声に関する状態パターン(体調異変時の状態パターン)との一致度が閾値以上である場合に、利用者U1の体調に異変が生じていると判定する。また、異変判定部230dは、音響処理部112により得られた音声ストリームと、パーソナルプロファイル252に登録されている利用者Uごとの正常時の音声との乖離度が閾値以上である場合に、利用者U1の体調に異変が生じていると判定する。 For example, in the incident determination unit 230d, the degree of coincidence between the voice stream obtained by the sound processing unit 112 and the voice-related state pattern (state pattern at the time of physical condition change) registered in the occupant state pattern DB 260 is equal to or higher than the threshold value. In this case, it is determined that the physical condition of the user U1 has changed. Further, the incident determination unit 230d is used when the degree of deviation between the voice stream obtained by the sound processing unit 112 and the normal voice for each user U registered in the personal profile 252 is equal to or higher than the threshold value. It is determined that the physical condition of the person U1 has changed.

同様に、異変判定部230dは、画像処理部113により得られた画像に含まれる外見(仕草や顔の表情なども含む)と、乗員状態パターンDB260に登録されている外見に関する状態パターン(体調異変時の状態パターン)との一致度が閾値以上である場合に、利用者U1の体調に異変が生じていると判定する。また、異変判定部230dは、画像処理部113により得られた画像に含まれる外見と、パーソナルプロファイル252に登録されている利用者Uごとの正常時の外見との乖離度が閾値以上である場合に、利用者U1の体調に異変が生じていると判定する。 Similarly, the incident determination unit 230d has an appearance (including gestures, facial expressions, etc.) included in the image obtained by the image processing unit 113, and a state pattern (physical condition abnormality) related to the appearance registered in the occupant state pattern DB 260. When the degree of agreement with the time state pattern) is equal to or greater than the threshold value, it is determined that the physical condition of the user U1 has changed. Further, when the degree of deviation between the appearance included in the image obtained by the image processing unit 113 and the normal appearance of each user U registered in the personal profile 252 is equal to or higher than the threshold value in the incident determination unit 230d. In addition, it is determined that the physical condition of the user U1 has changed.

また、異変判定部230dは、声掛け部230cによる声掛けを行ったが、声掛けに対する利用者U1の反応が無い場合、または利用者U1の反応の程度が閾値未満である場合、利用者U1の体調に異変が生じていると判定する。異変判定部230dの判定結果は、例えば、乗員異変時行動内容決定部232および通知部234に出力される。 Further, when the incident determination unit 230d makes a voice call by the voice call unit 230c, but there is no reaction of the user U1 to the voice call, or when the degree of the reaction of the user U1 is less than the threshold value, the user U1 Judge that something is wrong with your physical condition. The determination result of the incident determination unit 230d is output to, for example, the occupant accident behavior content determination unit 232 and the notification unit 234.

なお、異変判定部230dは、利用者U1の体調の異変について判定する場合に、パーソナルプロファイル252に含まれる病歴情報252aを参照してもよい。図8は、病歴情報252aの内容の一例を示す図である。病歴情報252aは、利用者Uごとに、利用者Uの持病および既往症が登録された情報である。病歴情報252aは、利用者Uの任意によって登録される情報である。 The abnormality determination unit 230d may refer to the medical history information 252a included in the personal profile 252 when determining an abnormality in the physical condition of the user U1. FIG. 8 is a diagram showing an example of the contents of the medical history information 252a. The medical history information 252a is information in which the chronic disease and the pre-existing illness of the user U are registered for each user U. The medical history information 252a is information registered arbitrarily by the user U.

例えば、異変判定部230dは、病歴情報252aを参照することで、ユーザUごとの持病や既往症で典型的な症状(例えば痙攣や発作)についての異変を敏感に検出できるように、音声観察部230aおよび外見観察部230bによる比較で用いられる1つ以上の閾値を個別に調整(例えば閾値を低くまたは高くする)してもよい。 For example, the abnormality determination unit 230d can sensitively detect an abnormality in a typical symptom (for example, convulsions or seizure) in a chronic disease or a pre-existing condition for each user U by referring to the medical history information 252a. And one or more thresholds used in the comparison by the appearance observer 230b may be individually adjusted (eg, lower or higher).

[4.3 乗員異変時行動内容決定部]
乗員異変時行動内容決定部232(以下、「行動内容決定部232」と称する)は、利用者U1の体調に異変が生じていると異変判定部230dにより判定された場合、利用者U1を保護するために取るべき行動の内容を決定する。図9は、行動内容決定部232の構成図である。行動内容決定部232は、例えば、緊急レベル判定部232aと、要望問いかけ部232bと、行動選択部232cとを有する。
[4.3 Action content determination department when occupants change]
The behavior content determination unit 232 at the time of an occupant change (hereinafter referred to as "behavior content determination unit 232") protects the user U1 when the change determination unit 230d determines that the physical condition of the user U1 has changed. Decide what action to take to do. FIG. 9 is a configuration diagram of the action content determination unit 232. The action content determination unit 232 includes, for example, an emergency level determination unit 232a, a request questioning unit 232b, and an action selection unit 232c.

緊急レベル判定部232aは、状態観察部230により観察された利用者Uの状態(例えば、音声観察部230aおよび外見観察部230bによる比較結果、声掛け部230cによる声掛けに対する反応)に基づき、利用者U1の容体が所定の緊急レベル以上であるか否か判定する。所定の緊急レベルとは、救急車の手配が必要な差し迫った状態である。所定の緊急レベルは、例えば、利用者U1が大きな痙攣を起こしていたり、声掛け部230cによる声掛けに対する反応が無い場合などである。緊急レベル判定部232aの判定結果は、行動選択部232cに出力される。 The emergency level determination unit 232a is used based on the state of the user U observed by the state observation unit 230 (for example, the comparison result by the voice observation unit 230a and the appearance observation unit 230b, the reaction to the voice by the voice observation unit 230c). It is determined whether or not the condition of the person U1 is equal to or higher than a predetermined emergency level. A given emergency level is an imminent condition in which an ambulance needs to be arranged. The predetermined emergency level is, for example, when the user U1 has a large convulsion or there is no response to the voice call by the voice call unit 230c. The determination result of the emergency level determination unit 232a is output to the action selection unit 232c.

要望問いかけ部232bは、利用者U1の意識がある場合(例えば、声掛け部230cによる声掛けに対する反応がある場合)、利用者U1を保護するため行動の内容を利用者U1に選択してもらうための処理を行う。例えば、要望問いかけ部232bは、エージェント装置100に所定の指示を出力することで、車両Mの表示・操作装置36およびスピーカユニット38を用いて利用者U1に対して、利用者U1が希望する行動を選択してもらうための問いかけ(利用者U1に対する発話)を行う。問いかけは、例えば、表示・操作装置36の表示装置にエージェント画像を表示し、エージェントを仮想的に出現させて行う。 The request-questioning unit 232b asks the user U1 to select the content of the action in order to protect the user U1 when the user U1 is conscious (for example, when there is a reaction to the voice by the voice-calling unit 230c). Perform the processing for. For example, the request questioning unit 232b outputs a predetermined instruction to the agent device 100, and then uses the display / operation device 36 and the speaker unit 38 of the vehicle M to give the user U1 an action desired by the user U1. Ask a question (speaking to user U1) to have the user select. The question is asked, for example, by displaying the agent image on the display device of the display / operation device 36 and making the agent appear virtually.

図10は、要望問いかけ部232bの指示に基づいて表示・操作装置36に表示される画像IM2の内容の一例を示す図である。エージェントは、例えば、利用者U1に対して「救急車を呼びますか?」、「このまま近くの病院に行きますか?」、「自宅に戻りますか?」などの内容の発話を行う。要望問いかけ部232bによる問いかけに対する利用者U1の反応は、マイク32および車室内カメラ34を通じて取得され、音響処理部112および画像処理部113の処理を経て、エージェントサーバ200の行動選択部232cに出力される。 FIG. 10 is a diagram showing an example of the contents of the image IM2 displayed on the display / operation device 36 based on the instruction of the request questioning unit 232b. The agent utters to the user U1, for example, "Do you want to call an ambulance?", "Do you want to go to a nearby hospital as it is?", "Do you want to return to your home?" The reaction of the user U1 to the question by the request questioning unit 232b is acquired through the microphone 32 and the vehicle interior camera 34, processed by the sound processing unit 112 and the image processing unit 113, and output to the action selection unit 232c of the agent server 200. To.

図9に戻り、行動選択部232cについて説明する。行動選択部232cは、ライドシェアサービスの利用中に利用者U1の体調に異変が生じたことが異変判定部230dにより検知された場合、利用者U1を保護するために必要な行動を選択して決定する。 Returning to FIG. 9, the action selection unit 232c will be described. The action selection unit 232c selects an action necessary to protect the user U1 when the change determination unit 230d detects that an abnormality has occurred in the physical condition of the user U1 while using the ride sharing service. decide.

例えば、行動選択部232cは、緊急レベル判定部232aの判定結果、および要望問いかけ部232bの問いかけに対する利用者U1の反応(応答内容)などに基づき、ライドシェアサーバ300に依頼すべき内容を決定する。例えば、行動選択部232cは、緊急レベル判定部232aにより利用者U1の状態が所定の緊急レベル以上であると判定された場合、救急車を手配することを決定する。また、行動選択部232cは、要望問いかけ部232bによる問いかけに対する利用者U1の反応として、「救急車を呼んでほしい」という反応があった場合、救急車を手配することを決定する。 For example, the action selection unit 232c determines the content to be requested to the ride sharing server 300 based on the determination result of the emergency level determination unit 232a and the reaction (response content) of the user U1 to the question of the request inquiry unit 232b. .. For example, the action selection unit 232c decides to arrange an ambulance when the emergency level determination unit 232a determines that the state of the user U1 is equal to or higher than a predetermined emergency level. In addition, the action selection unit 232c decides to arrange an ambulance when there is a reaction of "I want you to call an ambulance" as a reaction of the user U1 to the question by the request questioning unit 232b.

一方で、行動選択部232cは、要望問いかけ部232bによる問いかけに対する利用者U1の反応として、このまま病院(例えば近くの病院、或いはエージェントを介して利用者U1により指定された病院)に向かってほしいという反応があった場合、車両Mの目的地を病院に変更することを決定する。また、行動選択部232cは、要望問いかけ部232bによる問いかけに対する利用者U1の反応として、利用者U1の自宅に向かってほしいという反応があった場合、車両Mの目的地を利用者U1の自宅に変更することを決定する。行動選択部232cの決定内容は、通知部234に出力される。 On the other hand, the action selection unit 232c wants the user U1 to go to the hospital (for example, a nearby hospital or a hospital designated by the user U1 via an agent) as it is as a reaction of the user U1 to the question by the request questioning unit 232b. If there is a reaction, it is decided to change the destination of vehicle M to a hospital. Further, when the action selection unit 232c has a reaction that the user U1 wants to go to the home of the user U1 as a reaction of the question by the request questioning unit 232b, the destination of the vehicle M is set to the home of the user U1. Decide to change. The decision content of the action selection unit 232c is output to the notification unit 234.

図5に戻り、通知部234について説明する。通知部234は、ライドシェアサービスの利用中に利用者U1の体調に異変が生じたことが異変判定部230dにより検知された場合、ネットワークNWを介してライドシェアサーバ300と通信を行い、ライドシェアサーバ300に所定の通知を行う。所定の通知は、例えば、利用者U1の体調に異変が生じたことを示す通知である。本実施形態では、通知部234は、更に、行動選択部232cにより選択された(決定された)行動の内容をライドシェアサーバ300に依頼する。 Returning to FIG. 5, the notification unit 234 will be described. When the incident determination unit 230d detects that the physical condition of the user U1 has changed while using the ride sharing service, the notification unit 234 communicates with the ride sharing server 300 via the network NW to share the ride. A predetermined notification is given to the server 300. The predetermined notification is, for example, a notification indicating that an abnormality has occurred in the physical condition of the user U1. In the present embodiment, the notification unit 234 further requests the ride sharing server 300 for the content of the action selected (determined) by the action selection unit 232c.

例えば、通知部234は、救急車を手配することが行動選択部232cにより決定された場合、ライドシェアサーバ300に対して救急車の手配を依頼する。通知部234は、車両Mの目的地を病院に変更することが行動選択部232cにより決定された場合、ライドシェアサーバ300に対して車両Mの目的地の変更を依頼する。同様に、通知部234は、車両Mの目的地を利用者U1の自宅に変更することが行動選択部232cにより決定された場合、ライドシェアサーバ300に対して車両Mの目的地の変更を依頼する。 For example, the notification unit 234 requests the ride sharing server 300 to arrange an ambulance when the action selection unit 232c determines that the ambulance is to be arranged. When the action selection unit 232c determines that the destination of the vehicle M is changed to the hospital, the notification unit 234 requests the ride sharing server 300 to change the destination of the vehicle M. Similarly, when the action selection unit 232c determines that the destination of the vehicle M is changed to the home of the user U1, the notification unit 234 requests the ride sharing server 300 to change the destination of the vehicle M. To do.

また、通知部234は、ライドシェアサーバ300に対して、体調に異変が生じた利用者U1の状態(容体や症状)を示す情報を送信する。通知部234は、利用者U1の着座位置などに基づき、体調に異変が生じた利用者U1を示す識別情報(例えば利用者ID)と、体調に異変が生じた利用者U1の状態とを紐付けてライドシェアサーバ300に送信する。これにより、ライドシェアサーバ300は、どの利用者Uの体調に異変が生じたのか認識することができる。 In addition, the notification unit 234 transmits information indicating the state (condition and symptom) of the user U1 in which the physical condition has changed to the ride sharing server 300. The notification unit 234 links the identification information (for example, the user ID) indicating the user U1 whose physical condition has changed based on the seating position of the user U1 and the state of the user U1 whose physical condition has changed. It is attached and transmitted to the ride sharing server 300. As a result, the ride-sharing server 300 can recognize which user U's physical condition has changed.

更に、通知部234は、ライドシェアサーバ300に対して、利用者U1の体調に異変が生じたことを車両Mの同乗者U2に知らせることを依頼する。通知部234は、救急車を手配することが行動選択部232cにより決定された場合、ライドシェアサーバ300に対して、救急車を手配することを車両Mの同乗者U2に知らせることを依頼する。通知部234は、車両Mの目的地を変更することが行動選択部232cにより決定された場合、ライドシェアサーバ300に対して、車両Mの同乗者U2に車両Mの目的地が変更になったこと、および同乗者U2のために代替車両を手配することを知らせることを依頼する。また、通知部234は、車両Mの目的地を変更することが行動選択部232cにより決定された場合、ライドシェアサーバ300に対して、車両Mの同乗者U2が利用する代替車両の手配を依頼する。 Further, the notification unit 234 requests the ride sharing server 300 to notify the passenger U2 of the vehicle M that the physical condition of the user U1 has changed. When the action selection unit 232c determines that the action selection unit 232c arranges the ambulance, the notification unit 234 requests the ride sharing server 300 to notify the passenger U2 of the vehicle M that the ambulance will be arranged. When the action selection unit 232c determines that the destination of the vehicle M is changed, the notification unit 234 changes the destination of the vehicle M to the passenger U2 of the vehicle M with respect to the ride sharing server 300. I request that you inform me that I will arrange an alternative vehicle for passenger U2. Further, when the action selection unit 232c determines that the destination of the vehicle M is changed, the notification unit 234 requests the ride sharing server 300 to arrange an alternative vehicle to be used by the passenger U2 of the vehicle M. To do.

なお、通知部234は、利用者U1の体調に異変が生じたこと、救急車を手配すること、車両Mの目的地を変更すること、同乗者U2のために代替車両を手配することなどを同乗者U2に知らせることをライドシェアサーバ300に依頼することに代えて、利用者U1の体調に異変が生じたこと、救急車を手配すること、車両Mの目的地を変更すること、同乗者U2のために代替車両を手配することなどを同乗者U2に知らせることを、車両Mのエージェント装置100、または他のエージェントサーバ200(例えば、エージェントサーバ200−1,200−2,200−3のなかで、利用者U1の体調に異変が生じていることを認識しているエージェントサーバ200とは別のエージェントサーバ200)に依頼してもよい。この場合、依頼を受けたエージェント装置100またはエージェントサーバ200は、同乗者U2に対応する表示・操作装置36にエージェント画像を表示させ、仮想的なエージェントを出現させて上記内容を同乗者U2に連絡する。 In addition, the notification unit 234 rides on the fact that the physical condition of the user U1 has changed, arranges an ambulance, changes the destination of the vehicle M, arranges an alternative vehicle for the passenger U2, and the like. Instead of asking the ride-sharing server 300 to notify the person U2, the physical condition of the user U1 has changed, an ambulance is arranged, the destination of the vehicle M is changed, and the passenger U2 In the agent device 100 of the vehicle M or another agent server 200 (for example, the agent servers 200-1, 200-2, 200-3), the passenger U2 is informed that an alternative vehicle will be arranged for the purpose. , You may request an agent server 200) different from the agent server 200 that recognizes that the physical condition of the user U1 has changed. In this case, the agent device 100 or the agent server 200 that has received the request causes the display / operation device 36 corresponding to the passenger U2 to display the agent image, causes a virtual agent to appear, and informs the passenger U2 of the above contents. To do.

[5.ライドシェアサーバ]
[5.1 ライドシェアサーバの構成]
図11は、ライドシェアサーバ300の構成図である。ライドシェアサーバ300は、例えば、通信部310と、取得部320と、運行管理部330と、乗員異変時対応部340と、記憶部380とを備える。
[5. Ride share server]
[5.1 Rideshare server configuration]
FIG. 11 is a configuration diagram of the ride sharing server 300. The ride-sharing server 300 includes, for example, a communication unit 310, an acquisition unit 320, an operation management unit 330, an occupant accident response unit 340, and a storage unit 380.

通信部310は、例えば、ネットワークNWに接続するためのネットワークカードである。通信部310は、ネットワークNWを介して端末装置Dや車両Mと通信する。また、記憶部380は、HDD(Hard Disk Drive)やフラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)などにより実現される。 The communication unit 310 is, for example, a network card for connecting to the network NW. The communication unit 310 communicates with the terminal device D and the vehicle M via the network NW. Further, the storage unit 380 is realized by an HDD (Hard Disk Drive), a flash memory, a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.

取得部320、運行管理部330、および乗員異変時対応部340は、例えば、CPUなどのプロセッサが記憶部380に格納されたプログラム(ソフトウェア)を実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。 The acquisition unit 320, the operation management unit 330, and the occupant accident response unit 340 are realized by, for example, a processor such as a CPU executing a program (software) stored in the storage unit 380. Further, some or all of these functional parts may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or software. And may be realized by the cooperation of hardware.

取得部320は、通信部310およびネットワークNWを介して、利用者Uの端末装置Dから発せられた乗車リクエストを取得し、乗車リクエストに含まれる乗車条件を、乗車条件情報384として記憶部380に登録する。なお、利用者情報382は、サービス申込者A、サービス利用者U、サービス提供者Sの個人情報などを含む。利用者情報382には、利用者Uの自宅住所が含まれる。 The acquisition unit 320 acquires a boarding request issued from the terminal device D of the user U via the communication unit 310 and the network NW, and stores the boarding conditions included in the boarding request as boarding condition information 384 in the storage unit 380. sign up. The user information 382 includes personal information of the service applicant A, the service user U, the service provider S, and the like. The user information 382 includes the home address of the user U.

図12は、乗車条件情報384の内容の一例を示す図である。乗車条件情報384は、予め登録された利用者Uの識別情報である利用者IDに対し、乗車希望地点、目的地、乗車希望時刻、配車決定済であるか否かを示す配車フラグ(例えば1が配車決定済、0が配車未決定を示す)などが対応付けられた情報である。配車フラグ以外の情報は、端末装置Dのライドシェアアプリが利用者Uの入力を受け付けることで内容が決定され、乗車リクエストとしてライドシェアサーバ300に送信される。以下、乗車条件情報384における一つの利用者IDに対応付けられた一連の情報をレコードと称する場合がある。 FIG. 12 is a diagram showing an example of the contents of the boarding condition information 384. The boarding condition information 384 is a vehicle allocation flag (for example, 1) indicating a desired boarding point, a destination, a desired boarding time, and whether or not the vehicle allocation has been decided for the user ID which is the identification information of the user U registered in advance. Is the information that has been decided to be dispatched, and 0 indicates that the vehicle has not been dispatched). The content of the information other than the vehicle allocation flag is determined by the ride sharing application of the terminal device D accepting the input of the user U, and is transmitted to the ride sharing server 300 as a boarding request. Hereinafter, a series of information associated with one user ID in the boarding condition information 384 may be referred to as a record.

運行管理部330は、乗車条件情報384と、地図情報386と、運行スケジュール情報388とを参照し、配車可能な車両Mを検索する。地図情報386は、ノードやリンクの情報に加えて、各種の施設の概要を示す施設情報が含まれている(車両Mのナビ地図や高精度地図にも、そのような情報が含まれてもよい)。例えば、運行管理部330は、乗車条件情報384に含まれる各レコードの中から、時間帯と、乗車希望地点から目的地までの走行区間が近いものを粗くグループ化し、更に、一台の車両Mで運ぶことの可能な一以上の利用者Uに対応する一以上のレコードを抽出し、運行スケジュール情報388の一部として記憶部380に登録する。 The operation management unit 330 refers to the boarding condition information 384, the map information 386, and the operation schedule information 388, and searches for the vehicle M that can be dispatched. The map information 386 includes facility information showing an outline of various facilities in addition to node and link information (even if such information is included in the navigation map and high-precision map of vehicle M). Good). For example, the operation management unit 330 roughly groups the records included in the boarding condition information 384 that are close to the time zone and the traveling section from the desired boarding point to the destination, and further, one vehicle M. One or more records corresponding to one or more users U that can be carried by the user U are extracted and registered in the storage unit 380 as a part of the operation schedule information 388.

図13は、運行スケジュール情報388の内容の一例を示す図である。運行スケジュール情報388は、ライドシェアサーバ300が管理する車両Mの識別情報である車両IDに対し、出発地、経由地、および到達地のそれぞれの座標と、車両Mの想定到着時刻、並びに各経由地において乗車する利用者Uの利用者IDおよび降車する利用者Uの利用者IDが対応付けられた情報である。出発地や到達地は、通常、車庫などである。運行スケジュール情報388には、未だ運行スケジュールが決定されない「空き車両」の情報も併せて登録される。この場合、空き車両に対しては、出発地の座標のみが登録される。運行管理部330は、前述したように複数の利用者Uからの乗車リクエストをまとめて一台の車両Mの運行スケジュールを決定してもよいし、既に決定されている運行スケジュールを検索し、別の利用者Uの乗車リクエストを盛り込む形で運行スケジュールを変更してもよい。すなわち、運行管理部330は、配車可能な車両Mを検索する際に、運行スケジュールが未だ決定されていない車両Mを検索してもよいし、既に決定された車両Mの運行スケジュールの中から、利用者Uの乗車リクエストを盛り込むことが可能なものを検索してもよい。運行管理部330は、所定のタイミングで、運行スケジュール情報388に基づく経路(経由地)と想定通過時刻の情報を、車両Mに送信する。なお、運行管理部330は、車両Mが手動運転車両である場合、その車両Mの運転者の端末装置または車載端末装置へ乗車リクエストの変更要求を通知する。 FIG. 13 is a diagram showing an example of the contents of the operation schedule information 388. The operation schedule information 388 is the coordinates of the departure place, the waypoint, and the arrival place, the estimated arrival time of the vehicle M, and each way for the vehicle ID which is the identification information of the vehicle M managed by the ride sharing server 300. This is information in which the user ID of the user U who gets on the ground and the user ID of the user U who gets off the vehicle are associated with each other. The departure and arrival points are usually garages and the like. In the operation schedule information 388, information on "vacant vehicles" whose operation schedule has not yet been determined is also registered. In this case, only the coordinates of the departure place are registered for the vacant vehicle. As described above, the operation management unit 330 may collectively determine the operation schedule of one vehicle M by collecting the boarding requests from the plurality of users U, or search for the already determined operation schedule and separate it. The operation schedule may be changed by incorporating the boarding request of the user U. That is, when searching for a vehicle M that can be dispatched, the operation management unit 330 may search for a vehicle M whose operation schedule has not yet been determined, or may search for a vehicle M whose operation schedule has already been determined. You may search for the one that can include the boarding request of the user U. The operation management unit 330 transmits information on the route (waypoint) based on the operation schedule information 388 and the estimated passing time to the vehicle M at a predetermined timing. When the vehicle M is a manually driven vehicle, the operation management unit 330 notifies the terminal device of the driver of the vehicle M or the in-vehicle terminal device of the change request of the boarding request.

[5.2 乗員異変時対応部]
乗員異変時対応部340は、ライドシェアサービスの利用中に利用者U1の体調に異変が生じたことがエージェントシステムEにより検知され、エージェントサーバ200から所定の依頼を受信した場合、エージェントサーバ200から依頼された行動を実行する。図14は、乗員異変時対応部340の構成図を示す。乗員異変時対応部340は、例えば、救急車手配部340aと、医療機関連絡部340bと、運行計画変更部340cと、代替車両手配部340dと、変更後運転計画案内部340eとを有する。
[5.2 Crew Accident Response Department]
When the agent system E detects that the physical condition of the user U1 has changed while using the ride-sharing service, and receives a predetermined request from the agent server 200, the occupant accident response unit 340 receives a predetermined request from the agent server 200. Perform the requested action. FIG. 14 shows a configuration diagram of the occupant accident response unit 340. The occupant accident response unit 340 has, for example, an ambulance arrangement unit 340a, a medical institution communication unit 340b, an operation plan change unit 340c, an alternative vehicle arrangement unit 340d, and a post-change operation plan guidance unit 340e.

救急車手配部340aは、救急車の手配をエージェントサーバ200から依頼された場合、救急車を手配する。例えば、救急車手配部340aは、ネットワークNWを介して災害救急情報センターのウェブサーバ400−1と通信を行う。救急車手配部340aは、ウェブサーバ400−1に対して、救急車の手配が必要な利用者U1がいること、車両M1の現在位置、後述する運行計画変更部340cにより生成された救急車と車両Mの合流候補位置、エージェントサーバ200から伝達された利用者U1の状態(容体や症状)などをウェブサーバ400−1に通知する。 When the agent server 200 requests the ambulance arrangement unit 340a, the ambulance arrangement unit 340a arranges the ambulance. For example, the ambulance arrangement unit 340a communicates with the web server 400-1 of the disaster emergency information center via the network NW. The ambulance arranging unit 340a indicates that there is a user U1 who needs to arrange an ambulance for the web server 400-1, the current position of the vehicle M1, and the ambulance and the vehicle M generated by the operation plan changing unit 340c described later. The web server 400-1 is notified of the merging candidate position, the state (condition and symptom) of the user U1 transmitted from the agent server 200, and the like.

医療機関連絡部340bは、車両Mの目的地が病院に変更された場合、記憶部380に登録された医療機関情報390に基づき、車両Mが向かう病院の候補を検索する。医療機関情報290には、各医療機関の位置、受付時間、休診日などの情報が登録されている。医療機関連絡部340bは、車両Mの現在位置、曜日、時刻などに基づき、車両Mが向かう病院の候補を選択する。医療機関連絡部340bは、車両Mが向かう病院の候補を選択した場合、選択した病院のウェブサーバ400−2と通信を行う。医療機関連絡部340bは、選択した病院のウェブサーバ400−2に対して、受け入れを希望する利用者U1がいること、車両Mの現在位置、後述する運行計画変更部340cにより算出された車両Mの到着予定時刻、エージェントサーバ200から伝達された利用者U1の状態(容体や症状)などをウェブサーバ400−2に通知する。なお、ウェブサーバ400−2が病院の受け入れ可能状況をレスポンス可能な場合、医療機関連絡部340bは、ウェブサーバ400−2と通信を行うことで、病院側が受け入れ可能かどうかを確認してもよい。 When the destination of the vehicle M is changed to a hospital, the medical institution liaison unit 340b searches for a candidate hospital to which the vehicle M heads based on the medical institution information 390 registered in the storage unit 380. In the medical institution information 290, information such as the location of each medical institution, reception hours, and holidays is registered. The medical institution liaison unit 340b selects a candidate for the hospital to which the vehicle M is heading based on the current position, day of the week, time, and the like of the vehicle M. When the medical institution liaison unit 340b selects a candidate for the hospital to which the vehicle M heads, it communicates with the web server 400-2 of the selected hospital. The medical institution liaison unit 340b indicates that there is a user U1 who wishes to be accepted by the web server 400-2 of the selected hospital, the current position of the vehicle M, and the vehicle M calculated by the operation plan change unit 340c described later. Notifies the web server 400-2 of the estimated time of arrival of the user, the state (condition and symptom) of the user U1 transmitted from the agent server 200, and the like. If the web server 400-2 can respond to the acceptance status of the hospital, the medical institution liaison unit 340b may confirm whether the hospital accepts the status by communicating with the web server 400-2. ..

運行計画変更部340cは、車両Mの運行計画を変更する。例えば、運行計画変更部340cは、救急車の手配をエージェントサーバ200から依頼された場合、地図情報386に基づいて救急車との合流に適した合流候補位置を探索する。合流候補位置は、例えば、車両Mおよび救急車が停車しても交通の邪魔にならない場所であり、例えば、車両Mの現在位置の近くにある公園や公共施設の駐車場などである。運行計画変更部340cは、合流候補位置が決定されると、合流候補位置に移動するための移動計画を生成し、生成した行動計画を車両Mに通知する。 The operation plan change unit 340c changes the operation plan of the vehicle M. For example, when the agent server 200 requests the arrangement of an ambulance, the operation plan change unit 340c searches for a merging candidate position suitable for merging with the ambulance based on the map information 386. The merging candidate position is, for example, a place where the vehicle M and the ambulance do not interfere with the traffic even if the vehicle M stops, for example, a parking lot of a park or a public facility near the current position of the vehicle M. When the merging candidate position is determined, the operation plan changing unit 340c generates a movement plan for moving to the merging candidate position, and notifies the vehicle M of the generated action plan.

また、運行計画変更部340cは、車両Mの目的地の変更をエージェントサーバ200から依頼された場合、車両Mの同乗者U2を降車させる降車候補位置を探索する。降車候補位置は、例えば、地図情報386と、記憶部380に記録された提携施設情報392に基づいて探索される。提携施設情報392には、ライドシェアサービスの運営者と提携している提携施設が登録されている。提携施設は、カフェなどの座席がある施設であると好適である。また、提携施設には、ライドシェアサービスの利用者専用の席が設けてあったり、ライドシェアサービスの利用者向けの割引サービスがなされていると好適である。運行計画変更部340cは、降車候補位置が決定されると、降車候補位置を経由して変更後の目的地(例えば病院または自宅)に移動するための移動計画を生成し、生成した行動計画を車両Mに通知する。 Further, when the agent server 200 requests the change of the destination of the vehicle M, the operation plan change unit 340c searches for a candidate position for disembarking the passenger U2 of the vehicle M. The disembarkation candidate position is searched based on, for example, map information 386 and affiliated facility information 392 recorded in the storage unit 380. In the affiliated facility information 392, affiliated facilities affiliated with the operator of the ride sharing service are registered. The affiliated facility is preferably a facility with seats such as a cafe. In addition, it is preferable that the affiliated facilities are provided with seats exclusively for ride-sharing service users, or that discount services are provided for ride-sharing service users. When the disembarkation candidate position is determined, the operation plan change unit 340c generates a movement plan for moving to the changed destination (for example, a hospital or home) via the disembarkation candidate position, and generates an action plan. Notify vehicle M.

代替車両手配部340dは、同乗者U2の乗車条件情報384と、地図情報386と、運行スケジュール情報388とを参照し、新しく配車可能な車両Mを検索する。代替車両手配部340dは、新しく配車可能な車両Mを代替車両として決定する。代替車両手配部340dは、運行計画変更部340cにより決定された上記降車候補位置に、新しく配車された車両M(代替車両)を向かわせる移動計画を生成し、決定した移動計画を車両M(代替車両)に通知する。 The alternative vehicle arranging unit 340d searches for a new vehicle M that can be dispatched by referring to the boarding condition information 384 of the passenger U2, the map information 386, and the operation schedule information 388. The alternative vehicle arranging unit 340d determines the newly dispatchable vehicle M as the alternative vehicle. The alternative vehicle arranging unit 340d generates a movement plan for directing the newly dispatched vehicle M (alternative vehicle) to the disembarkation candidate position determined by the operation plan changing unit 340c, and uses the determined movement plan as the vehicle M (alternative vehicle). Notify the vehicle).

変更後運転計画案内部340eは、運行計画変更部340cにより生成された降車候補位置と、代替車両手配部340dにより手配された車両M(代替車両)が降車候補位置に到着する到着予定時刻を同乗者U2に報知する。例えば、変更後運転計画案内部340eは、エージェントサーバ200と通信し、車両Mの表示・操作装置36およびスピーカユニット38を用いて同乗者U2に対応する仮想的なエージェントを出現させ、エージェントにより上記情報を同乗者U2に報知する。 After the change, the driving plan guide unit 340e rides the disembarkation candidate position generated by the operation plan changing unit 340c and the estimated arrival time when the vehicle M (alternative vehicle) arranged by the alternative vehicle arranging unit 340d arrives at the disembarkation candidate position. Notify person U2. For example, the changed driving plan guide unit 340e communicates with the agent server 200, uses the display / operation device 36 of the vehicle M and the speaker unit 38 to make a virtual agent corresponding to the passenger U2 appear, and the agent causes the above. The information is notified to the passenger U2.

なお、どの同乗者U2がどのエージェントを利用しているかを示す情報は、例えば、同乗者U2の識別情報(利用者ID)と、車両Mで同乗者U2が最も高頻度で利用しているエージェントを示す情報とが紐付けられて、エージェント装置100からライドシェアサーバ300に予め送信されている。これにより、変更後運転計画案内部340eは、各同乗者U2に対応するエージェントを出現させるために、エージェントサーバ200−1,200−2,200−3のうちどのエージェントサーバ200と通信を行えばよいかを特定することができる。 The information indicating which passenger U2 is using which agent is, for example, the identification information (user ID) of the passenger U2 and the agent that the passenger U2 is using most frequently in the vehicle M. Is associated with the information indicating the above and is transmitted in advance from the agent device 100 to the ride sharing server 300. As a result, the changed operation plan guide unit 340e should communicate with any of the agent servers 200-1, 200-2, and 200-3 in order to make the agent corresponding to each passenger U2 appear. You can specify whether it is good or not.

このような構成によれば、ライドシェアサービスの利用中に利用者Uの状態が所定の状態に変化したことが検知された場合に、ライドシェアサーバ300と通信を行うエージェントシステムEを備えることで、ライドシェアサービスの利用者Uの利便性の向上を図ることができる。例えば、利用者U1の体調に異変が生じた場合、エージェントシステムEとライドシェアサーバ300とが連携することにより、利用者U1が適切な保護を受けることができる。これにより、利用者Uの利便性の向上を図ることができる。 According to such a configuration, when it is detected that the state of the user U has changed to a predetermined state while using the ride sharing service, the agent system E that communicates with the ride sharing server 300 is provided. , The convenience of the ride-sharing service user U can be improved. For example, when the physical condition of the user U1 changes, the agent system E and the ride sharing server 300 cooperate with each other to allow the user U1 to receive appropriate protection. As a result, the convenience of the user U can be improved.

本実施形態では、利用者U1の体調に異変が生じ、車両Mの目的地が変更された場合、同乗者U2には、代替車両が手配される。このような構成によれば、利用者U1を保護しつつ、同乗者U2に不利益が生じることを低減することができる。 In the present embodiment, when the physical condition of the user U1 changes and the destination of the vehicle M is changed, a substitute vehicle is arranged for the passenger U2. According to such a configuration, it is possible to reduce the disadvantage to the passenger U2 while protecting the user U1.

<第2実施形態>
次に、第2実施形態について説明する。第2実施形態は、ライドシェアサービスを提供する車両Mに乗車中の利用者Uに体調に異変があった場合に、ライドシェアサーバ300が利用者Uを保護するための行動内容を主体的に決定する例である。なお以下に説明する以外の構成は、第1実施形態と同じである。
<Second Embodiment>
Next, the second embodiment will be described. In the second embodiment, when the physical condition of the user U who is riding in the vehicle M that provides the ride sharing service changes, the ride sharing server 300 proactively takes action to protect the user U. This is an example of determining. The configuration other than that described below is the same as that of the first embodiment.

図15は、第2実施形態に係るエージェントサーバ200Aの構成図である。本実施形態のエージェントサーバ200Aは、行動内容決定部232を有しない。また、本実施形態のエージェントサーバ200Aは、第1実施形態の通知部234に代えて、通知部234Aを有する。それ以外のエージェントサーバ200Aの構成は、第1実施形態のエージェントサーバ200と同じである。 FIG. 15 is a configuration diagram of the agent server 200A according to the second embodiment. The agent server 200A of the present embodiment does not have an action content determination unit 232. Further, the agent server 200A of the present embodiment has a notification unit 234A instead of the notification unit 234 of the first embodiment. Other than that, the configuration of the agent server 200A is the same as that of the agent server 200 of the first embodiment.

本実施形態では、状態観察部230の異変判定部230dによる判定結果は、通知部234Aに出力される。通知部234Aは、利用者U1の体調に異変が生じていると異変判定部230dにより判定された場合、ライドシェアサーバ300Aに所定の通知を行う。所定の通知は、例えば、利用者U1の体調に異変が生じたことを示す通知である。通知部234Aは、更に、利用者U1の状態(容体や症状)を示す情報(音響処理部112により得られた音声ストリームおよび画像処理部113により得られた画像)をライドシェアサーバ300Aに送信する。 In the present embodiment, the determination result by the incident determination unit 230d of the state observation unit 230 is output to the notification unit 234A. When the incident determination unit 230d determines that the physical condition of the user U1 has changed, the notification unit 234A gives a predetermined notification to the ride sharing server 300A. The predetermined notification is, for example, a notification indicating that an abnormality has occurred in the physical condition of the user U1. The notification unit 234A further transmits information indicating the state (condition and symptom) of the user U1 (voice stream obtained by the sound processing unit 112 and an image obtained by the image processing unit 113) to the ride sharing server 300A. ..

図16は、第2実施形態に係るライドシェアサーバ300Aの構成図であり、説明の便宜上、乗員異変対応部340Aのみを図示している。本実施形態の乗員異変対応部340Aは、行動内容決定部232を有する。それ以外のライドシェアサーバ300Aの構成は、第1実施形態のライドシェアサーバ300と同じである。ライドシェアサーバ300Aの行動内容決定部232(乗員異変時行動内容決定部232)は、第1実施形態のエージェントサーバ200Aの行動内容決定部232と略同じ構成および機能を有する。 FIG. 16 is a configuration diagram of the ride-sharing server 300A according to the second embodiment, and for convenience of explanation, only the occupant accident response unit 340A is shown. The occupant accident response unit 340A of the present embodiment has an action content determination unit 232. Other than that, the configuration of the ride-sharing server 300A is the same as that of the ride-sharing server 300 of the first embodiment. The action content determination unit 232 of the ride-sharing server 300A (action content determination unit 232 when the occupant changes) has substantially the same configuration and function as the action content determination unit 232 of the agent server 200A of the first embodiment.

すなわち本実施形態では、ライドシェアサーバ300Aの行動内容決定部232は、利用者U1の体調に異変が生じたことを示す通知をエージェントサーバ200Aから受信した場合(エージェントシステムEにより利用者U1の状態が所定の状態に変化したことが検知された場合)、第1実施形態の行動内容決定部232と同様に、利用者U1の状態(容体や症状)を示す情報に基づき、救急車を手配すること、車両Mの目的地を病院に変更すること、車両Mの目的地を自宅に変更することなどのうちいずれか1つを選択して決定する。本実施形態では、ライドシェアサーバ300Aの救急車手配部340a、医療機関連絡部340b、運行計画変更部340c、代替車両手配部340d、および変更後運転計画案内部340eは、ライドシェアサーバ300Aの行動内容決定部232により決定された行動内容に基づき、各種手配を行う。 That is, in the present embodiment, when the action content determination unit 232 of the ride sharing server 300A receives a notification from the agent server 200A indicating that the physical condition of the user U1 has changed (the state of the user U1 by the agent system E). (When it is detected that the vehicle has changed to a predetermined state), arrange an ambulance based on the information indicating the state (condition and symptom) of the user U1 as in the action content determination unit 232 of the first embodiment. , The destination of the vehicle M is changed to a hospital, the destination of the vehicle M is changed to a home, and the like is selected and determined. In the present embodiment, the ambulance arrangement unit 340a, the medical institution communication unit 340b, the operation plan change unit 340c, the alternative vehicle arrangement unit 340d, and the changed operation plan guidance unit 340e of the ride share server 300A are the action contents of the ride share server 300A. Various arrangements are made based on the action content determined by the decision unit 232.

このような構成によっても、第1実施形態と同様に、ライドシェアサービスの利用者Uの利便性の向上を図ることができる。 Even with such a configuration, it is possible to improve the convenience of the ride-sharing service user U as in the first embodiment.

<変形例>
次に、第1および第2実施形態の変形例について説明する。本変形例は、利用者U1の体調に異変が生じている可能性が高い場合、同乗者U2に対して、利用者U1の様子を確認することを促すようにエージェントが機能する点で、第1および第2実施形態とは異なる。なお以下に説明する以外の構成は、第1または第2実施形態と同じである。なお本変形例では、例えば、車室内に座席間を区切るパーティションPが無い、またはパーティションPが同乗者U2の邪魔になららない退避位置に移動可能である場合を想定している。
<Modification example>
Next, modifications of the first and second embodiments will be described. In this modified example, when there is a high possibility that the physical condition of the user U1 has changed, the agent functions to prompt the passenger U2 to check the state of the user U1. It is different from the first and second embodiments. The configuration other than that described below is the same as that of the first or second embodiment. In this modification, it is assumed that, for example, there is no partition P in the vehicle interior that separates the seats, or the partition P can be moved to a retracted position that does not interfere with the passenger U2.

図17は、変形例に係るエージェントサーバ200Bの構成図である。本変形例のエージェントサーバ200Bは、同乗者声掛け促進部230eを有する。同業者声掛け促進部230eは、音声観察部230aおよび外見観察部230bによる比較結果に基づき、利用者U1の体調に異変が生じている可能性が高いと判定した場合(蓋然性を示す算出値が閾値以上である場合)、エージェント装置100に所定の指示を出力することで、車両Mの表示・操作装置36およびスピーカユニット38を用いて同業者U2に対する案内を行う。 FIG. 17 is a configuration diagram of the agent server 200B according to the modified example. The agent server 200B of this modification has a passenger voice promotion unit 230e. When the peer-speaking promotion unit 230e determines that there is a high possibility that the physical condition of the user U1 has changed based on the comparison results of the voice observation unit 230a and the appearance observation unit 230b (the calculated value indicating the probability is calculated). (When it is equal to or more than the threshold value), by outputting a predetermined instruction to the agent device 100, guidance to the same trader U2 is performed using the display / operation device 36 and the speaker unit 38 of the vehicle M.

同業者U2に対する案内は、利用者U1の体調に異変が生じている可能性があること、利用者U1に対して所定の所作を行ってほしいことを示すお願いを含む。所定の所作は、例えば、利用者U1に声を掛けたり、利用者U1の肩を揺するなど利用者U1の状態をより深く確認するための所作である。同業者U2に対する案内は、同乗者U2に対応する表示・操作装置36の表示装置にエージェント画像を表示し、エージェントを仮想的に出現させて行う。この場合、エージェントは、例えば、車両Mで同乗者U2が最も高頻度で利用しているエージェントが好適である。なお、同業者U2に対する案内は、同業者U2が携行する端末装置D2を用いて行ってもよい。 The guidance to the same trader U2 includes a request indicating that there is a possibility that the physical condition of the user U1 has changed and that the user U1 should perform a predetermined action. The predetermined action is an action for confirming the state of the user U1 more deeply, for example, by calling out to the user U1 or shaking the shoulder of the user U1. Guidance to the same trader U2 is performed by displaying the agent image on the display device of the display / operation device 36 corresponding to the passenger U2 and making the agent appear virtually. In this case, the agent is preferably, for example, the agent that the passenger U2 frequently uses in the vehicle M. The guidance to the same trader U2 may be performed by using the terminal device D2 carried by the same trader U2.

本変形例では、同乗者U2の所定の所作に対する利用者U1の反応の有無や程度は、マイク32および車室内カメラ34を通じて取得され、音響処理部112および画像処理部113による処理を経て、エージェントサーバ200の異変判定部230dに出力される。異変判定部230dは、同乗者U2による所定の所作が行われた場合であって、所定の所作に対する利用者U1の反応が無い場合、または利用者U1の反応の程度が閾値未満である場合、利用者U1の体調に異変が生じていると判定する。異変判定部230dの判定結果は、乗員異変時行動内容決定部232および通知部234に出力される。 In this modification, the presence or absence and degree of reaction of the user U1 to a predetermined action of the passenger U2 are acquired through the microphone 32 and the vehicle interior camera 34, processed by the sound processing unit 112 and the image processing unit 113, and then processed by the agent. It is output to the incident determination unit 230d of the server 200. When the passenger U2 performs a predetermined action and there is no reaction of the user U1 to the predetermined action, or when the degree of the reaction of the user U1 is less than the threshold value, the incident determination unit 230d is used. It is determined that the physical condition of the user U1 has changed. The determination result of the incident determination unit 230d is output to the occupant accident behavior content determination unit 232 and the notification unit 234.

このような構成によっても、第1実施形態と同様に、ライドシェアサービスの利用者Uの利便性の向上を図ることができる。また本実施形態では、利用者U1の体調に関する判定に同乗者U2に協力してもらうことで、利用者U1の体調に関する判定をより精度良く行うことができる。 Even with such a configuration, it is possible to improve the convenience of the ride-sharing service user U as in the first embodiment. Further, in the present embodiment, by having the passenger U2 cooperate in the determination regarding the physical condition of the user U1, the determination regarding the physical condition of the user U1 can be performed more accurately.

なお本明細書で「XXに基づく」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また「XXに基づく」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば任意の情報)である。本明細書で「コンピュータ」とは、例えば、CPUやMPUなどの一以上のハードウェアプロセッサにより実現される情報処理機能部を意味する。 In the present specification, "based on XX" means "based on at least XX", and includes the case where it is based on another element in addition to XX. Further, "based on XX" is not limited to the case where XX is directly used, but also includes the case where it is based on the case where calculation or processing is performed on XX. "XX" is an arbitrary element (for example, arbitrary information). As used herein, the term "computer" means an information processing function unit realized by one or more hardware processors such as a CPU and an MPU.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。例えば、エージェントサーバ200の機能の一部または全部(例えば、状態検出部230、乗員異変時行動内容決定部232、通知部234の一部または全部)は、エージェント装置100に設けられてもよく、端末装置Dにインストールされたアプリケーションプログラムなどで実現されてもよい。ライドシェアサーバ300は、ライドシェア管理装置として車両Mに搭載されてもよい。また、車両Mが手動運転車両である場合、通信部310は、ネットワークNWを介して車両Mの運転者の端末装置と通信してよい。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added. For example, a part or all of the functions of the agent server 200 (for example, a state detection unit 230, a occupant change action content determination unit 232, and a part or all of the notification unit 234) may be provided in the agent device 100. It may be realized by an application program installed in the terminal device D or the like. The ride-sharing server 300 may be mounted on the vehicle M as a ride-sharing management device. Further, when the vehicle M is a manually driven vehicle, the communication unit 310 may communicate with the terminal device of the driver of the vehicle M via the network NW.

1 情報処理システム
32 マイク(車載機器)
34 車室内カメラ(車載機器)
36 表示・操作装置
38 スピーカユニット
100 エージェント装置
200 エージェントサーバ
230 状態観察部
232 乗員異変時行動内容決定部
234 通知部
300 ライドシェアサーバ
340 乗員異変時対応部
E エージェントシステム
M 車両
D 端末装置(携帯端末装置)
1 Information processing system 32 Microphone (vehicle-mounted device)
34 In-vehicle camera (vehicle-mounted device)
36 Display / operation device 38 Speaker unit 100 Agent device 200 Agent server 230 Status observation unit 232 Crew change action content determination unit 234 Notification unit 300 Ride share server 340 Crew change response unit E Agent system M Vehicle D Terminal device (mobile terminal) apparatus)

Claims (15)

利用者からの乗車リクエストに基づき車両の運行計画を生成し、前記車両によるライドシェアサービスを提供するライドシェアサーバ装置と、
前記利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方により取得された情報に基づき前記車両に乗車中の前記利用者の状態を観察し、前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置と通信を行うエージェントシステムと、
を備えた情報処理システム。
A ride-sharing server device that generates a vehicle operation plan based on a boarding request from a user and provides a ride-sharing service using the vehicle.
Use of the ride-sharing service by observing the state of the user while riding in the vehicle based on information acquired by at least one of the user's mobile terminal device and the in-vehicle device mounted on the vehicle. An agent system that communicates with the ride-sharing server device when it is detected that the user's state has changed to a predetermined state.
Information processing system equipped with.
前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記利用者の状態に基づき救急車の手配の必要性を判定し、前記救急車の手配が必要と判定した場合、前記ライドシェアサーバ装置に救急車の手配を依頼する、
請求項1に記載の情報処理システム。
When it is detected that the state of the user has changed to the predetermined state, the agent system determines the necessity of arranging an ambulance based on the state of the user, and the ambulance needs to be arranged. If it is determined, request the ride-sharing server device to arrange an ambulance.
The information processing system according to claim 1.
前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置に前記車両の目的地の変更を依頼する、
請求項1または請求項2に記載の情報処理システム。
When it is detected that the state of the user has changed to the predetermined state, the agent system requests the ride-sharing server device to change the destination of the vehicle.
The information processing system according to claim 1 or 2.
前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置に前記車両の同乗者に対する連絡を行うことを依頼する、
請求項1から請求項3のうちいずれか1項に記載の情報処理システム。
The agent system requests the ride-sharing server device to contact the passenger of the vehicle when it is detected that the state of the user has changed to the predetermined state.
The information processing system according to any one of claims 1 to 3.
前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置に前記車両の同乗者が利用する代替車両の手配を依頼する、
請求項1から請求項4のうちいずれか1項に記載の情報処理システム。
When it is detected that the state of the user has changed to the predetermined state, the agent system requests the ride-sharing server device to arrange an alternative vehicle to be used by a passenger of the vehicle.
The information processing system according to any one of claims 1 to 4.
前記エージェントシステムは、前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記ライドシェアサーバ装置に前記利用者の状態を示す情報を送信する、
請求項1から請求項5のうちいずれか1項に記載の情報処理システム。
When it is detected that the state of the user has changed to the predetermined state, the agent system transmits information indicating the state of the user to the ride-sharing server device.
The information processing system according to any one of claims 1 to 5.
前記ライドシェアサーバ装置は、前記エージェントシステムにより前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記エージェントシステムから受け取る情報に基づき救急車の手配の必要性を判定し、前記救急車の手配が必要と判定した場合、救急車を手配する、
請求項1から請求項6のうちいずれか1項に記載の情報処理システム。
When the agent system detects that the user's state has changed to the predetermined state, the ride-sharing server device determines the necessity of arranging an ambulance based on the information received from the agent system. If it is determined that the ambulance needs to be arranged, the ambulance will be arranged.
The information processing system according to any one of claims 1 to 6.
前記ライドシェアサーバ装置は、前記エージェントシステムにより前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記車両の目的地を変更する、
請求項1から請求項7のうちいずれか1項に記載の情報処理システム。
The ride-sharing server device changes the destination of the vehicle when it is detected by the agent system that the state of the user has changed to the predetermined state.
The information processing system according to any one of claims 1 to 7.
前記ライドシェアサーバ装置は、前記エージェントシステムにより前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記車両の同乗者に対する連絡を行う、
請求項1から請求項8のうちいずれか1項に記載の情報処理システム。
The ride-sharing server device contacts the passenger of the vehicle when it is detected by the agent system that the state of the user has changed to the predetermined state.
The information processing system according to any one of claims 1 to 8.
前記ライドシェアサーバ装置は、前記エージェントシステムにより前記利用者の状態が前記所定の状態に変化したことが検知された場合に、前記車両の同乗者が利用する代替車両を手配する、
請求項1から請求項9のうちいずれか1項に記載の情報処理システム。
The ride-sharing server device arranges an alternative vehicle to be used by a passenger of the vehicle when the agent system detects that the state of the user has changed to the predetermined state.
The information processing system according to any one of claims 1 to 9.
第1コンピュータが、利用者からの乗車リクエストに基づき車両の運行計画を生成し、前記車両によるライドシェアサービスを提供し、
第2コンピュータが、前記利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方により取得された情報に基づき前記車両に乗車中の前記利用者の状態を観察し、前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが検知された場合に、前記第1コンピュータと通信を行う、
情報処理方法。
The first computer generates a vehicle operation plan based on a boarding request from the user, and provides a ride sharing service by the vehicle.
The second computer observes the state of the user while riding in the vehicle based on the information acquired by at least one of the user's mobile terminal device and the in-vehicle device mounted on the vehicle, and the state of the user is observed. When it is detected that the state of the user has changed to a predetermined state while using the ride sharing service, communication with the first computer is performed.
Information processing method.
第1コンピュータに、利用者からの乗車リクエストに基づき車両の運行計画を生成させ、前記車両によるライドシェアサービスを提供させ、
第2コンピュータに、前記利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方により取得された情報に基づき前記車両に乗車中の前記利用者の状態を観察させ、前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが検知された場合に、前記第1コンピュータと通信を行わせる、
プログラム。
Let the first computer generate a vehicle operation plan based on the boarding request from the user, and provide the ride sharing service by the vehicle.
The second computer is made to observe the state of the user while riding in the vehicle based on the information acquired by at least one of the user's mobile terminal device and the in-vehicle device mounted on the vehicle. When it is detected that the state of the user has changed to a predetermined state while using the ride sharing service, communication with the first computer is performed.
program.
車両のライドシェアサービスを利用する利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方に基づき、前記車両に乗車中の前記利用者の状態を観察する状態観察部と、
前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが前記状態観察部により検知された場合に、前記ライドシェアサービスを管理するライドシェアサーバ装置と通信を行う通知部と、
を備えたエージェントシステム。
A state observing unit that observes the state of the user while riding in the vehicle based on at least one of the mobile terminal device of the user who uses the ride sharing service of the vehicle and the in-vehicle device mounted on the vehicle. ,
A notification unit that communicates with the rideshare server device that manages the rideshare service when the state observation unit detects that the user's state has changed to a predetermined state while using the rideshare service. When,
Agent system with.
コンピュータが、
車両のライドシェアサービスを利用する利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方に基づき、前記車両に乗車中の前記利用者の状態を観察し、
前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが前記状態観察部により検知された場合に、前記ライドシェアサービスを管理するライドシェアサーバ装置と通信を行う、
情報処理方法。
The computer
Based on at least one of the mobile terminal device of the user who uses the ride sharing service of the vehicle and the in-vehicle device mounted on the vehicle, the state of the user while riding in the vehicle is observed.
When the state observing unit detects that the state of the user has changed to a predetermined state while using the ride-sharing service, it communicates with the ride-sharing server device that manages the ride-sharing service.
Information processing method.
コンピュータに、
車両のライドシェアサービスを利用する利用者の携帯端末装置と、前記車両に搭載された車載機器とのうち少なくとも一方に基づき、前記車両に乗車中の前記利用者の状態を観察させ、
前記ライドシェアサービスの利用中に前記利用者の状態が所定の状態に変化したことが前記状態観察部により検知された場合に、前記ライドシェアサービスを管理するライドシェアサーバ装置と通信を行わせる、
プログラム。
On the computer
Based on at least one of the mobile terminal device of the user who uses the ride sharing service of the vehicle and the in-vehicle device mounted on the vehicle, the state of the user while riding in the vehicle is observed.
When the state observing unit detects that the state of the user has changed to a predetermined state while using the ride sharing service, the ride sharing server device that manages the ride sharing service is made to communicate with the ride sharing server device.
program.
JP2019054895A 2019-03-22 2019-03-22 Information processing system, agent system, information processing method, and program Pending JP2020154996A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019054895A JP2020154996A (en) 2019-03-22 2019-03-22 Information processing system, agent system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019054895A JP2020154996A (en) 2019-03-22 2019-03-22 Information processing system, agent system, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2020154996A true JP2020154996A (en) 2020-09-24

Family

ID=72559342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019054895A Pending JP2020154996A (en) 2019-03-22 2019-03-22 Information processing system, agent system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2020154996A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124090A1 (en) * 2020-12-09 2022-06-16 株式会社デンソー Occupant condition determination device and occupant condition determination method
WO2022201400A1 (en) * 2021-03-24 2022-09-29 日本電気株式会社 Operation management system, operation management device, operation management method, and program
JP2023071199A (en) * 2021-11-11 2023-05-23 三菱電機株式会社 passenger transport system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124090A1 (en) * 2020-12-09 2022-06-16 株式会社デンソー Occupant condition determination device and occupant condition determination method
WO2022201400A1 (en) * 2021-03-24 2022-09-29 日本電気株式会社 Operation management system, operation management device, operation management method, and program
JP2023071199A (en) * 2021-11-11 2023-05-23 三菱電機株式会社 passenger transport system
JP7317089B2 (en) 2021-11-11 2023-07-28 三菱電機株式会社 passenger transport system

Similar Documents

Publication Publication Date Title
KR102562227B1 (en) Dialogue system, Vehicle and method for controlling the vehicle
KR20200001188A (en) Dialogue system, Vehicle and method for controlling the vehicle
US11380325B2 (en) Agent device, system, control method of agent device, and storage medium
JP2020154996A (en) Information processing system, agent system, information processing method, and program
KR20200006739A (en) Dialogue processing apparatus, vehicle having the same and dialogue processing method
KR20200000155A (en) Dialogue system and vehicle using the same
KR20200000604A (en) Dialogue system and dialogue processing method
US11532303B2 (en) Agent apparatus, agent system, and server device
KR20200004054A (en) Dialogue system, and dialogue processing method
CN111746435B (en) Information providing apparatus, information providing method, and storage medium
JP7235554B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP7239359B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP7266418B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP7274903B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP7222757B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
US11437035B2 (en) Agent device, method for controlling agent device, and storage medium
US20200301654A1 (en) On-vehicle device, method of controlling on-vehicle device, and storage medium
US20200320997A1 (en) Agent apparatus, agent apparatus control method, and storage medium
JP7252029B2 (en) SERVER DEVICE, INFORMATION PROVISION METHOD, AND PROGRAM
US20200320998A1 (en) Agent device, method of controlling agent device, and storage medium
JP7175221B2 (en) AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP7245695B2 (en) Server device, information providing system, and information providing method
JP7340943B2 (en) Agent device, agent device control method, and program
JP2020154994A (en) Agent system, agent server, control method of agent server, and program
JP2020160640A (en) Ride-share server device, information processing system, agent system, control method of ride-share server device, and program