JP2024018437A - Management method of driving characteristic improvement support data - Google Patents

Management method of driving characteristic improvement support data Download PDF

Info

Publication number
JP2024018437A
JP2024018437A JP2022121788A JP2022121788A JP2024018437A JP 2024018437 A JP2024018437 A JP 2024018437A JP 2022121788 A JP2022121788 A JP 2022121788A JP 2022121788 A JP2022121788 A JP 2022121788A JP 2024018437 A JP2024018437 A JP 2024018437A
Authority
JP
Japan
Prior art keywords
driver
driving
vehicle
driving characteristic
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022121788A
Other languages
Japanese (ja)
Inventor
敏広 宮道
Toshihiro MIYAMICHI
剛 西尾
Takeshi Nishio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022121788A priority Critical patent/JP2024018437A/en
Priority to PCT/JP2022/032660 priority patent/WO2023074116A1/en
Publication of JP2024018437A publication Critical patent/JP2024018437A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To support management of driving characteristic data of a driver collected in a different vehicle and takeover of the driving characteristic data of the driver between vehicles.
SOLUTION: A control method can be executed by a computer which can be linked with at least a first vehicle and a second vehicle. The computer receives input of individual characteristic data that is acquired by the first vehicle, used for improvement support of driving characteristics of a driver who drives the first vehicle and corresponds to the driver, and outputs the individual characteristic data corresponding to the driver to be usable in the second vehicle when a predetermined condition is satisfied.
SELECTED DRAWING: Figure 39
COPYRIGHT: (C)2024,JPO&INPIT

Description

本開示は、運転特性改善支援データの管理方法に関する。 The present disclosure relates to a method for managing driving characteristic improvement support data.

従来、運転者による運転中の安全確認、運転操作等を支援する車両用警報装置および運転支援装置が知られている。 2. Description of the Related Art Vehicle warning devices and driving support devices that support a driver's safety confirmation, driving operations, etc. while driving are conventionally known.

例えば、特許文献1には、車輌の運転者の生体情報を取得し、取得した生体情報に基づいて、運転者を特定する運転者特定システムが開示されている。運転者特定システムは、車輌に搭載された電子機器からの情報が、定期的に且つ所定条件を満たすと判定した場合に、生体情報の取得を行う。 For example, Patent Document 1 discloses a driver identification system that acquires biometric information of a driver of a vehicle and identifies the driver based on the acquired biometric information. The driver identification system periodically acquires biometric information when it is determined that information from an electronic device installed in a vehicle satisfies a predetermined condition.

例えば、特許文献2には、車両が走行する道路の所定道路パラメータとステアリング操舵角との関係に基づいて、運転者の安全確認を必要とする状況にあるか否かを判別し、安全確認が行われていないと判別された場合に、運転者に対して警告を与える車両用警報装置が開示されている。また、特許文献3には、運転者の運転操作の履歴に基づいて、運転者の運転習熟度を学習し、運転習熟度に基づく運転支援度に応じて運転の支援を行う運転支援装置が開示されている。また、特許文献4には、車両の外部環境により運転者の運転操作に要求される環境難易度と、運転者の運転操作に基づく運転技量とから外部環境に対する運転者の運転者状態を推定し、運転技量と運転者状態とに応じて運転支援を行ったり禁止したりする運転支援装置が開示されている。 For example, Patent Document 2 discloses that it is determined based on the relationship between predetermined road parameters of the road on which the vehicle is traveling and the steering angle, and whether or not the driver is in a situation that requires safety confirmation. A vehicle warning device has been disclosed that gives a warning to the driver when it is determined that the vehicle is not being used. Additionally, Patent Document 3 discloses a driving support device that learns the driver's driving proficiency level based on the history of the driver's driving operations and provides driving support according to the driving support level based on the driving proficiency level. has been done. Furthermore, Patent Document 4 describes a method for estimating the driving state of a driver relative to the external environment based on the environmental difficulty level required for the driver's driving operation due to the external environment of the vehicle and the driving skill based on the driver's driving operation. , a driving support device is disclosed that provides or prohibits driving support depending on the driving skill and driver condition.

例えば、特許文献5には、人工知能の引き継ぎ指示を受けた場合、第1人工知能の学習に用いられた学習データを第2人工知能に渡す処理を制御するプロセッサを有する情報処理装置が開示されている。また、特許文献6には、ユーザ生体情報を含むユーザデータの入力を受け付けて、ベース人工知能モデルをユーザデータの特性に適するように変換するユーザ適応訓練により生成された人工知能モデルを適用して人工知能サービスを提供する人工知能サービス提供方法が開示されている。また、特許文献7には、人工知能システムの外部からアクセス可能な非セキュア環境において、ユーザの情報を取得し、かつ、ユーザの情報に基づく学習結果を外部に出力する第1人工知能部と、外部からアクセス不可能なセキュア環境において、ユーザの情報を第1人工知能から取得してユーザの情報に関するデータを蓄積する第2人工知能部とを備え、外部から取得したユーザの情報を第2人工知能部に引き渡した場合、当該ユーザの情報を第1人工知能部にかかる非セキュア環境から削除する人工知能システムが開示されている。 For example, Patent Document 5 discloses an information processing device having a processor that controls a process of passing learning data used for learning of a first artificial intelligence to a second artificial intelligence when an instruction to take over the artificial intelligence is received. ing. Furthermore, in Patent Document 6, an artificial intelligence model generated by user adaptive training that accepts input of user data including user biometric information and converts a base artificial intelligence model to suit the characteristics of the user data is applied. An artificial intelligence service providing method for providing an artificial intelligence service is disclosed. Further, Patent Document 7 describes a first artificial intelligence unit that acquires user information in a non-secure environment that is accessible from outside the artificial intelligence system and outputs learning results based on the user information to the outside; and a second artificial intelligence unit that acquires user information from the first artificial intelligence and accumulates data related to the user information in a secure environment that cannot be accessed from the outside. An artificial intelligence system is disclosed that deletes the user's information from the non-secure environment of the first artificial intelligence unit when the user's information is handed over to the intelligence unit.

特開2015-71319号公報JP 2015-71319 Publication 特開2007-233476号公報Japanese Patent Application Publication No. 2007-233476 特開2009-48307号公報Japanese Patent Application Publication No. 2009-48307 特開2015-110417号公報Japanese Patent Application Publication No. 2015-110417 特開2021-18457号公報JP 2021-18457 Publication 特開2021-529978号公報JP2021-529978A 特開2021-105796号公報JP 2021-105796 Publication

しかしながら、上述した情報処理装置、人工知能サービス提供方法および人工知能システムでは、異なる複数の車両で同一運転者に対する運転支援を行う場合、各車両で実現可能な運転支援が異なるという点で、更なる改善の余地があった。 However, with the above-mentioned information processing device, artificial intelligence service providing method, and artificial intelligence system, when multiple different vehicles provide driving assistance to the same driver, the driving assistance that can be realized by each vehicle is different. There was room for improvement.

本開示は、上述した従来の事情に鑑みて案出され、異なる車両で収集された運転者の運転特性データの管理と、車両間における運転者の運転特性データの引き継ぎとを支援する制御方法を提供することを目的とする。 The present disclosure has been devised in view of the above-mentioned conventional circumstances, and provides a control method that supports the management of driver driving characteristic data collected in different vehicles and the handing over of driver driving characteristic data between vehicles. The purpose is to provide.

本開示は、少なくとも第1車両及び第2車両と連携可能であるコンピュータが実行可能な制御方法であって、前記第1車両により取得され、前記第1車両を運転する運転者の運転特性の改善支援に用いられ、前記運転者に対応する個人特性データの入力を受け、所定の条件を満たす場合、前記運転者に対応する前記個人特性データを前記第2車両で利用可能にするために出力する、制御方法を提供する。 The present disclosure is a control method executable by a computer that can cooperate with at least a first vehicle and a second vehicle, the control method being acquired by the first vehicle to improve driving characteristics of a driver driving the first vehicle. used for support, receives input of personal characteristic data corresponding to the driver, and outputs the personal characteristic data corresponding to the driver in order to make it available to the second vehicle if a predetermined condition is met. , provides a control method.

本開示によれば、異なる車両で収集された運転者の運転特性データの管理と、車両間における運転者の運転特性データの引き継ぎとを支援できる。 According to the present disclosure, it is possible to support the management of driver driving characteristic data collected in different vehicles and the handing over of driver driving characteristic data between vehicles.

実施の形態1に係る運転特性管理システムのユースケース例を示す図A diagram showing an example use case of the driving characteristics management system according to Embodiment 1 実施の形態1における車両の内部構成例を示すブロック図Block diagram showing an example of internal configuration of a vehicle in Embodiment 1 実施の形態1における運転特性サーバの内部構成例を示すブロック図Block diagram showing an example of internal configuration of the driving characteristics server in Embodiment 1 実施の形態1における免許証サーバの内部構成例を示すブロック図Block diagram showing an example of internal configuration of a license server in Embodiment 1 実施の形態1に係る運転特性管理システムの運転者の初期登録手順例を示すシーケンス図Sequence diagram showing an example of initial driver registration procedure of the driving characteristics management system according to Embodiment 1 車両における運転者の初期登録手順例を示すフローチャートFlowchart showing an example of the initial registration procedure for a driver in a vehicle 車両における車両ID登録手順例を示すフローチャートFlowchart showing an example of vehicle ID registration procedure in a vehicle 車両における免許証ID登録手順例を示すフローチャートFlowchart showing an example of the procedure for registering a license ID in a vehicle 車両における運転者の顔画像登録手順例を示すフローチャートFlowchart showing an example of a driver's face image registration procedure in a vehicle 運転特性サーバにおける運転者の初期登録手順例を示すフローチャートFlowchart showing an example of the initial registration procedure of a driver in the driving characteristics server 運転特性サーバにおける車両ID登録手順例を示すフローチャートFlowchart showing an example of vehicle ID registration procedure in the driving characteristics server 運転特性サーバにおける免許証ID登録手順例を示すフローチャートFlowchart showing an example of license ID registration procedure in the driving characteristics server 運転特性サーバにおける運転者の顔画像登録手順例を示すフローチャートFlowchart showing an example of the driver's face image registration procedure in the driving characteristics server 実施の形態1に係る運転特性管理システムの運転者の運転特性データ収集手順例を示すシーケンス図Sequence diagram showing an example of a driver's driving characteristic data collection procedure of the driving characteristic management system according to Embodiment 1 車両における運転者の運転特性データ取得手順例を示すフローチャートFlowchart showing an example of a procedure for acquiring driving characteristic data of a driver in a vehicle 運転特性サーバにおける運転者の運転特性データ収集手順例を示すフローチャートFlowchart showing an example of the procedure for collecting driver driving characteristic data on the driving characteristic server 実施の形態2に係る運転特性改善支援システムのユースケース例を示す図A diagram showing an example of a use case of the driving characteristic improvement support system according to Embodiment 2 実施の形態2における車両の内部構成例を示すブロック図Block diagram showing an example of internal configuration of a vehicle in Embodiment 2 運転特性履歴テーブルの一例を示す図Diagram showing an example of a driving characteristics history table 実施の形態2における運転特性改善サーバの内部構成例を示すブロック図Block diagram showing an example of internal configuration of the driving characteristic improvement server in Embodiment 2 運転特性改善管理テーブルの一例を示す図Diagram showing an example of a driving characteristics improvement management table 左折時の安全確認行動例を説明する図Diagram explaining an example of safety confirmation behavior when turning left 右折時の安全確認行動例を説明する図Diagram explaining an example of safety confirmation behavior when turning right 後退時の安全確認行動例を説明する図Diagram explaining an example of safety confirmation behavior when reversing 長距離直線道路を前進時の安全確認行動例を説明する図Diagram explaining an example of safety confirmation behavior when moving forward on a long-distance straight road 運転場面ごとの運転者の安全確認行動のセンシング例を説明する図Diagram explaining sensing examples of driver safety confirmation behavior for each driving situation 警告表示灯の配置例を説明する図Diagram explaining an example of the arrangement of warning indicator lights スピーカの配置例を説明する図Diagram explaining an example of speaker placement 運転特性改善支援の変更例を説明する図Diagram explaining an example of changing driving characteristic improvement support 実施の形態2に係る運転特性改善支援システムの動作手順例を示すフローチャートFlowchart showing an example of the operation procedure of the driving characteristic improvement support system according to Embodiment 2 実施の形態2に係る運転特性改善支援システムの動作手順例を説明するフローチャートFlowchart illustrating an example of the operation procedure of the driving characteristic improvement support system according to Embodiment 2 実施の形態3に係る運転特性改善支援システムのユースケース例を示す図A diagram showing an example of a use case of the driving characteristic improvement support system according to Embodiment 3 実施の形態3における車両の内部構成例を示すブロック図Block diagram showing an example of internal configuration of a vehicle in Embodiment 3 実施の形態3における運転特性改善サーバの内部構成例を示すブロック図Block diagram showing an example of internal configuration of the driving characteristic improvement server in Embodiment 3 実施の形態3における操作端末の内部構成例を示すブロック図Block diagram showing an example of internal configuration of an operating terminal in Embodiment 3 個人情報/個人特性データテーブルの一例を示す図Diagram showing an example of personal information/personal characteristics data table 実施の形態3に係る運転特性管理システムの運転者の引継ぎデータの引継ぎ手順例1を示すシーケンス図Sequence diagram showing example 1 of handover procedure of driver handover data of the driving characteristics management system according to Embodiment 3 実施の形態3に係る運転特性管理システムの運転者の引継ぎデータの引継ぎ手順例2を示すシーケンス図Sequence diagram illustrating example 2 of handover procedure of driver handover data of the driving characteristics management system according to Embodiment 3 運転者の引継ぎデータの引き継ぎ例1,2を説明する図Diagram illustrating examples 1 and 2 of handing over driver handover data 車両間の運転特性改善支援動作の変更例1を説明する図Diagram illustrating modification example 1 of inter-vehicle driving characteristic improvement support operation 車両間の運転特性改善支援動作の変更例2を説明する図Diagram illustrating modification example 2 of inter-vehicle driving characteristic improvement support operation 引継ぎデータの削除例を説明する画面遷移図Screen transition diagram explaining an example of deleting inherited data 引継ぎデータの設定例を説明する画面遷移図Screen transition diagram explaining an example of settings for transfer data 引継ぎデータの検索例を説明する画面遷移図Screen transition diagram explaining an example of searching for inherited data 引継ぎデータの編集例を説明する画面遷移図Screen transition diagram explaining an example of editing inherited data

(実施の形態1に至る経緯)
近年、ユーザに対する本人確認をオンライン上で実現可能なシステムの一種として、例えばeKYC(electronic Know Your Customer)がある。eKYCは、ユーザ端末(例えば、PC(Personal Computer),スマートフォン,タブレット端末等)から送信されたユーザの顔が撮像された顔画像または動画と、ユーザの氏名,住所,生年月日等の個人情報とユーザの顔画像とが共に記載された本人確認書類(例えば、運転免許証,在留カード,パスポート,マイナンバーカード等)の動画像とを取得する。eKYCは、事前に登録されたこのユーザに関する登録情報(例えば、動画像,本人確認書類に記載された各種個人情報等)と、取得されたユーザの顔画像または動画および本人確認書類の動画像とを照合することで、ユーザの本人確認を行う。
(Details leading to Embodiment 1)
In recent years, eKYC (electronic know your customer), for example, is a type of system that can realize user identity verification online. eKYC is a facial image or video of the user's face sent from a user terminal (e.g., PC (Personal Computer), smartphone, tablet device, etc.) and personal information such as the user's name, address, and date of birth. and a moving image of an identification document (for example, a driver's license, residence card, passport, My Number card, etc.) on which the user's face image is written. eKYC uses pre-registered information about this user (e.g., video images, various personal information written on identity verification documents, etc.), the acquired facial image or video of the user, and video images of identity verification documents. The user's identity is verified by verifying the identity of the user.

従来、車両から運転者の生体情報と、運転者の運転操作に関する情報とを取得して、運転者を特定するとともに、特定された運転者の運転特徴情報と、運転者が運転する車輌IDとを対応付けて記録する運転者特定システムがある(例えば、特許文献1:特開2015-71319号公報)。しかし、車輌がレンタカー,シェアカー等の異なる複数の運転者により運転される車輌である場合、運転者特定システムは、運転者の運転特徴情報と、運転者が運転する車輌IDとを対応付けて記録するため、運転者ごとに運転特徴情報を記録し、管理することは困難だった。 Conventionally, the driver is identified by acquiring the driver's biometric information and information regarding the driver's driving operations from the vehicle, and the identified driver's driving characteristic information and the ID of the vehicle the driver drives. There is a driver identification system that records the information in association with each other (for example, Patent Document 1: Japanese Unexamined Patent Publication No. 2015-71319). However, if the vehicle is a rental car, shared car, or other vehicle driven by multiple different drivers, the driver identification system associates the driver's driving characteristic information with the ID of the vehicle being driven by the driver. Therefore, it was difficult to record and manage driving characteristic information for each driver.

また、近年、高齢運転者(高齢ドライバー)の加齢に伴う運転操作ミスに起因する事故が増加している。このような事故を防ぐための取り組みとして、例えば、運転免許証の更新時の高齢運転者の認知機能検査、所定の年齢以上の高齢運転者への運転免許証の返納推奨等がある。しかし、運転免許証を返納した場合、高齢運転者は、自律した日常生活に欠かせない移動手段を失う可能性があった。そこで、運転免許証の返納要否の判断にあたって、収集された運転特性データを用いて高齢運転者の運転操作を客観的に評価することで、高齢運転者の運転操作の変化を可視化することが望まれるが、運転者特定システムは、上述した運転者ごとの運転評価を得る目的で運転特性データを収集,管理することは想定していない。 Furthermore, in recent years, accidents caused by driving errors caused by aging of elderly drivers (elderly drivers) have been increasing. Efforts to prevent such accidents include, for example, conducting cognitive function tests for elderly drivers when renewing their driver's licenses, and recommending that elderly drivers over a certain age return their driving licenses. However, if elderly drivers surrender their driver's licenses, they could lose the means of transportation that is essential to their independent daily lives. Therefore, when determining whether or not to return a driver's license, it is possible to objectively evaluate the driving behavior of elderly drivers using the collected driving characteristic data and visualize changes in the driving behavior of elderly drivers. Although desired, the driver identification system is not intended to collect and manage driving characteristic data for the purpose of obtaining the above-mentioned driving evaluation for each driver.

そこで、以下の実施の形態1では、運転者ごとの運転特性データをより効率的に収集し、収集された運転特性データの管理を支援する運転特性データの管理方法および車載器の例を説明する。 Therefore, in Embodiment 1 below, an example of a driving characteristic data management method and an on-vehicle device that more efficiently collects driving characteristic data for each driver and supports management of the collected driving characteristic data will be described. .

以下、適宜図面を参照しながら、本開示に係る運転特性データの管理方法、車載器、および運転特性改善支援データの管理方法を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長化することを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 EMBODIMENT OF THE INVENTION Hereinafter, each embodiment which specifically disclosed the management method of driving characteristic data, the on-vehicle device, and the management method of driving characteristic improvement support data according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of well-known matters or redundant explanations of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter recited in the claims.

(実施の形態1)
図1を参照して、実施の形態1に係る運転特性管理システム100のユースケース例について説明する。図1は、実施の形態1に係る運転特性管理システム100のユースケース例を示す図である。図1における運転特性管理システム100は、生体情報の一例として運転者の顔画像を送信する例を図示している。
(Embodiment 1)
An example use case of the driving characteristics management system 100 according to the first embodiment will be described with reference to FIG. 1. FIG. 1 is a diagram illustrating an example use case of the driving characteristics management system 100 according to the first embodiment. The driving characteristic management system 100 in FIG. 1 illustrates an example in which a facial image of a driver is transmitted as an example of biometric information.

運転特性管理システム100は、1台以上の車両C1,…のそれぞれと、運転特性サーバS1と、免許証サーバS2と、ネットワークNWと、を含んで構成される。なお、運転特性管理システム100は、無線端末装置P1を含む構成であってよい。 The driving characteristics management system 100 includes one or more vehicles C1, . . . , a driving characteristics server S1, a license server S2, and a network NW. Note that the driving characteristic management system 100 may include a wireless terminal device P1.

運転特性管理システム100は、1台以上の車両C1,…のそれぞれに搭載された通信機器11(図2参照)から送信された車両を運転する運転者の運転特性データを取得する。運転特性管理システム100は、取得された運転特性データと、運転者の免許証ID(Identification)とを紐付けて、運転特性サーバS1に蓄積して、管理する。また、運転特性管理システム100は、免許証サーバS2で事前に登録された複数の運転者のそれぞれの免許証IDを管理する。運転特性管理システム100は、運転特性サーバS1あるいは免許証サーバS2により運転者ごとの運転評価を実行し、運転評価結果を無線端末装置P1あるいはカーナビゲーション装置12に送信して、出力させる。 The driving characteristic management system 100 acquires driving characteristic data of a driver who drives a vehicle transmitted from a communication device 11 (see FIG. 2) mounted on each of one or more vehicles C1, . . . . The driving characteristic management system 100 associates the acquired driving characteristic data with the driver's license ID (Identification), stores the data in the driving characteristic server S1, and manages the data. Further, the driving characteristic management system 100 manages the respective license IDs of a plurality of drivers registered in advance in the license server S2. The driving characteristics management system 100 executes a driving evaluation for each driver using the driving characteristics server S1 or the license server S2, and transmits the driving evaluation results to the wireless terminal device P1 or the car navigation device 12 for output.

なお、ここでいう運転特性データは、運転者の運転特性を示すデータであって、車両C1,…のそれぞれに搭載された、各種センサ(例えば車内カメラ13,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,速度センサ18,車外センサ/カメラ19,GPSセンサ20,あるいはステアリング17D等(図2参照))により取得される。 The driving characteristic data referred to here is data indicating the driving characteristics of the driver, and includes various sensors (for example, in-vehicle camera 13, gyro sensor 14, accelerator pedal 17A, brake The information is acquired by the pedal 17B, turn lamp 17C, speed sensor 18, external sensor/camera 19, GPS sensor 20, steering wheel 17D, etc. (see FIG. 2).

例えば、運転特性データは、運転特性パラメータあるいは運転特性ベクトルの少なくとも一方により示されるデータであって、走行時の加速度,躍度,横G(つまり、進行方向と直角に発生する加速度),操舵角度,走行中の道路の種類、走行中の道路の制限速度に対する超過速度,運転者の視線方向等の1以上のデータである。なお、運転特性データは、上述の例に限定されず、これらのデータを2以上組み合わせることで得られる運転者の運転特性を示すデータであってもよい。 For example, the driving characteristic data is data indicated by at least one of a driving characteristic parameter or a driving characteristic vector, and includes acceleration, jerk, lateral G (that is, acceleration that occurs perpendicular to the direction of travel), and steering angle when driving. , the type of road on which the vehicle is traveling, the speed exceeding the speed limit of the road on which the vehicle is traveling, and the direction of the driver's line of sight. Note that the driving characteristic data is not limited to the above-mentioned example, and may be data indicating the driver's driving characteristics obtained by combining two or more of these data.

運転特性パラメータは、運転特性データに含まれるデータごとの値(パラメータ)である。運転特性ベクトルは、運転特性データに含まれるデータ数と、データごとの値とに基づいて算出される加算平均値である。例えば、運転特性ベクトルは、運転特性データのデータ数がN(N:1以上の整数)である場合、N次ベクトルにより表される。 The driving characteristic parameter is a value (parameter) for each data included in the driving characteristic data. The driving characteristic vector is an average value calculated based on the number of data included in the driving characteristic data and the value of each data. For example, when the number of driving characteristic data is N (N: an integer greater than or equal to 1), the driving characteristic vector is represented by an N-dimensional vector.

車両C1,…のそれぞれは、ネットワークNWを介して運転特性サーバS1との間で無線通信可能に接続される。なお、ここでいう無線通信は、例えばWi-Fi(登録商標)に代表される無線LAN等であって、その種類は特に限定されない。車両C1,…のそれぞれは、運転者が自車両を初めて運転する場合に、この運転者の初期登録を要求する制御指令を生成して、初期登録対象である運転者の免許証IDと生体情報と車両IDとを紐付けて、運転特性サーバS1に送信する。また、車両C1,…のそれぞれは、運転者により運転されている間、運転者の運転特性データと車両IDとを紐付けて運転特性サーバS1に送信し、運転者の運転特性データと車両IDとを、初期登録済みの運転者の免許証IDに紐付けて記録させる。 Each of the vehicles C1, . . . is connected to the driving characteristic server S1 via the network NW so as to be able to communicate wirelessly. Note that the wireless communication referred to here is, for example, a wireless LAN represented by Wi-Fi (registered trademark), and the type thereof is not particularly limited. When the driver drives the own vehicle for the first time, each of the vehicles C1, ... generates a control command requesting the initial registration of the driver, and receives the driver's license ID and biometric information for the initial registration. and the vehicle ID are linked and transmitted to the driving characteristic server S1. Further, while each of the vehicles C1,... is being driven by the driver, the driver's driving characteristic data and vehicle ID are linked and transmitted to the driving characteristic server S1, and is recorded in association with the initially registered driver's license ID.

初期登録において、車両C1,…のそれぞれは、カーナビゲーション装置12の入力部12D(図2参照)を介して、運転者による運転特性サーバS1への免許証IDの初期登録を要求する操作を受け付ける。車両C1,…のそれぞれは、運転者の免許証IDと、運転者の生体情報とを取得し、取得された運転者の免許証IDと生体情報と、自車両を識別可能な車両ID(例えば、ナンバープレート情報)とを紐付けて、運転特性サーバS1に送信する。 In the initial registration, each of the vehicles C1, . . Each of the vehicles C1, ... acquires the driver's license ID and the driver's biometric information, and uses the acquired driver's license ID and biometric information with a vehicle ID that can identify the own vehicle (e.g. , license plate information), and transmits it to the driving characteristics server S1.

運転特性データ収集時において、車両C1,…のそれぞれは、運転者の乗車を検知したタイミングから各種センサによる運転特性データの取得を開始し、取得された運転特性データと、車両IDとを紐付けて、運転特性サーバS1に送信する。また、車両C1,…のそれぞれは、運転者の乗車を検知したタイミングから運転者の生体情報の取得を開始し、取得された運転者の生体情報と、車両IDとを紐付けて、運転特性サーバS1に送信し、運転特性サーバS1に運転者認証(つまり、運転者の特定)を要求する。なお、車両C1,…のそれぞれは、運転特性データと、運転者の生体情報と、車両IDとを紐付けて、運転特性サーバS1に送信してもよい。さらに、車両C1,…のそれぞれは、運転特性サーバS1から送信された運転者認証が完了した(つまり、送信された運転者の生体情報と、運転特性サーバS1に登録済みの生体情報とが照合した)旨の電気信号を取得した場合、運転者の生体情報の取得および送信を終了する。 When collecting driving characteristic data, each of the vehicles C1, ... starts acquiring driving characteristic data using various sensors from the timing when the driver's boarding is detected, and links the acquired driving characteristic data with the vehicle ID. and transmits it to the driving characteristics server S1. In addition, each of the vehicles C1, ... starts acquiring the driver's biometric information from the timing when the driver's boarding is detected, and links the acquired driver's biometric information with the vehicle ID to determine the driving characteristics. The information is transmitted to the server S1 to request driver authentication (that is, identification of the driver) from the driving characteristics server S1. Note that each of the vehicles C1, . . . may link the driving characteristic data, the driver's biometric information, and the vehicle ID and transmit them to the driving characteristic server S1. Furthermore, each of the vehicles C1, ... has completed the driver authentication sent from the driving characteristics server S1 (that is, the sent biometric information of the driver is compared with the biological information already registered in the driving characteristics server S1). If an electric signal indicating that the vehicle has been used) is obtained, the acquisition and transmission of the driver's biometric information is terminated.

車両C1,…のそれぞれは、運転者による運転終了を検知したタイミングで各種センサによる運転特性データおよび生体情報のそれぞれの取得を終了する。 Each of the vehicles C1, . . . ends acquisition of driving characteristic data and biological information by various sensors at the timing when the end of driving by the driver is detected.

ここでいう免許証IDは、車内カメラ13により撮像された車両を運転する運転者の運転免許証の撮像画像、あるいは、運転免許証に記載された免許証IDを読み取り可能な免許証リーダ(不図示)により取得された運転免許証に関する情報(例えば、運転者の顔画像,運転者に関する情報,運転者を特定可能に割り当てられた各種番号等)である。免許証リーダは、NFC(Near Field Communication),Bluetooth(登録商標)等の近距離無線通信により読み取られた免許証IDをプロセッサ12Aに送信可能であってもよいし、USB(Universal Serial Bus)等によりカーナビゲーション装置12との間で有線通信により読み取られた免許証IDをプロセッサ12Aに送信可能であってもよい。 The license ID referred to here is an image of the driver's license of the driver driving the vehicle taken by the in-vehicle camera 13, or a license reader (not installed) that can read the license ID written on the driver's license. Information regarding the driver's license (for example, a facial image of the driver, information regarding the driver, various numbers assigned to enable identification of the driver, etc.) obtained by the driver's license (as shown in the figure). The license reader may be able to transmit the license ID read by near field communication such as NFC (Near Field Communication) or Bluetooth (registered trademark) to the processor 12A, or may be able to transmit the license ID to the processor 12A using a USB (Universal Serial Bus) or the like. The driver's license ID read by wire communication with the car navigation device 12 may be transmitted to the processor 12A.

また、免許証IDは、車内カメラ13により撮像された撮像画像を画像解析することで取得される運転免許証に関する情報、あるいは運転者によるカーナビゲーション装置12の入力部12D(図2参照)への入力操作により入力された運転免許証に関する情報であってもよい。 Further, the license ID may be information related to the driver's license obtained by analyzing an image taken by the in-vehicle camera 13, or information provided by the driver to the input section 12D of the car navigation device 12 (see FIG. 2). The information may be information related to a driver's license input through an input operation.

また、ここでいう運転者の生体情報は、1枚以上の運転者の顔画像,虹彩,指紋,静脈,音声等である。運転者の生体情報が運転者の虹彩,指紋,静脈,音声等である場合、車両C1,…のそれぞれは、運転者の虹彩,指紋,静脈,音声を取得可能な装置(不図示)あるいはセンサ(不図示)を備えてよい。 Further, the biological information of the driver referred to here includes one or more facial images, irises, fingerprints, veins, voice, etc. of the driver. When the driver's biometric information is the driver's iris, fingerprint, vein, voice, etc., each of the vehicles C1,... is equipped with a device (not shown) or a sensor capable of acquiring the driver's iris, fingerprint, vein, voice, etc. (not shown).

運転者の顔画像は、車内カメラ13により撮像される。また、初期登録時に撮像される運転者の顔画像は、複数枚であることが望ましく、運転者が正面を向いている時に撮像された顔画像(以降、「正面顔画像」と表記)を少なくとも1枚含む。初期登録時に撮像される顔画像の枚数が2枚以上である場合、車内カメラ13は、運転者の顔の向きを画像解析により解析し、正面顔画像と、運転者が正面以外の他の方向(例えば、左方向,右方向等)を向いている時に撮像された1枚以上の顔画像とを撮像する。なお、以降の説明では、左方向を向いている時に撮像された顔画像を「左向き顔画像」と表記し、右方向を向いている時に撮像された顔画像を「右向き顔画像」と表記する。 The driver's face image is captured by the in-vehicle camera 13. In addition, it is desirable that a plurality of facial images of the driver are captured at the time of initial registration, and at least a facial image captured while the driver is facing forward (hereinafter referred to as a "frontal facial image") Contains 1 piece. If the number of face images captured at the time of initial registration is two or more, the in-vehicle camera 13 analyzes the direction of the driver's face through image analysis, and displays the front face image and other directions other than the driver's front face. One or more facial images taken while the person is facing (for example, leftward, rightward, etc.) are captured. In addition, in the following explanation, a face image captured while facing to the left will be referred to as a "left-facing face image", and a face image captured while facing to the right will be referred to as a "right-facing face image". .

虹彩は、車内カメラ13により撮像された運転者の顔画像を用いて、車両C1,…に搭載されたICM(Intelligent Control Module,不図示)、カーナビゲーション装置12あるいは運転特性サーバS1による画像解析により取得されてよい。 The iris is determined by image analysis by an ICM (Intelligent Control Module, not shown) installed in the vehicle C1,..., the car navigation device 12, or the driving characteristic server S1 using the driver's face image captured by the in-vehicle camera 13. May be obtained.

指紋は、車内カメラ13により撮像された運転者の1本以上の指先画像を用いて、車両C1,…に搭載されたICM、カーナビゲーション装置12あるいは運転特性サーバS1による画像解析により取得されてもよいし、車両C1,…が備える指紋センサ(不図示)、あるいは指紋センサ機能を有するステアリング17D等により取得されてもよい。 The fingerprint may be obtained by image analysis by the ICM installed in the vehicle C1, the car navigation device 12, or the driving characteristics server S1 using one or more fingertip images of the driver captured by the in-vehicle camera 13. Alternatively, the information may be acquired by a fingerprint sensor (not shown) included in the vehicle C1, . . . or a steering wheel 17D having a fingerprint sensor function.

静脈は、車内カメラ13により撮像された運転者の手画像を用いて、車両C1,…に搭載されたICM、カーナビゲーション装置12あるいは運転特性サーバS1による画像解析により取得されてもよいし、車両C1,…が備える静脈センサ(不図示)により取得されてもよい。 The veins may be obtained by image analysis by the ICM, car navigation device 12, or driving characteristic server S1 mounted on the vehicle C1, using an image of the driver's hand captured by the in-vehicle camera 13, or It may be acquired by a vein sensor (not shown) provided in C1, .

音声は、カーナビゲーション装置12が備えるマイク、あるいは他のマイク(不図示)により収音される運転者の音声である。ここで収音される音声は、所定のキーワード等であってよい。 The voice is the driver's voice collected by a microphone included in the car navigation device 12 or another microphone (not shown). The audio collected here may be a predetermined keyword or the like.

運転特性サーバS1は、ネットワークNWを介して、車両C1,…のそれぞれと、無線端末装置P1と、免許証サーバS2との間でそれぞれデータ通信可能に接続される。運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の初期登録を要求する制御指令に基づいて、初期登録を実行する。また、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の運転特性データを収集し、収集された運転者の運転特性データを、初期登録済みの運転者の免許証IDに紐付けて記録する。 The driving characteristic server S1 is connected via the network NW to each of the vehicles C1, . . . , the wireless terminal device P1, and the license server S2 so as to enable data communication. The driving characteristic server S1 performs initial registration based on a control command requesting initial registration of a driver transmitted from each of the vehicles C1, . Further, the driving characteristic server S1 collects the driving characteristic data of the driver transmitted from each of the vehicles C1, ..., and assigns the collected driving characteristic data of the driver to the initially registered driver's license ID. Link and record.

初期登録において、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の初期登録を要求する制御指令と、初期登録対象である運転者の生体情報と、免許証IDと、車両IDとを取得する。運転特性サーバS1は、取得された運転者の生体情報と免許証IDとを照合して、生体情報が示す運転者と免許証IDが示す運転者とが同一人物であるか否か(つまり、本人確認)を実行する。運転特性サーバS1は、取得された生体情報と免許証IDが示す運転者とが同一人物であると判定した場合、この運転者の免許証IDと、運転者の顔画像と、車両IDとを紐付けて登録(初期登録)する。なお、ここで登録される運転者の顔画像は、1枚の正面顔画像であってもよいし、1枚の正面顔画像と1枚以上の右向き顔画像または左向き顔画像であってもよい。 In the initial registration, the driving characteristic server S1 receives a control command requesting the initial registration of the driver sent from each of the vehicles C1, ..., biometric information of the driver who is the subject of initial registration, the license ID, and the vehicle. Get the ID. The driving characteristic server S1 collates the acquired biometric information of the driver with the license ID and determines whether the driver indicated by the biometric information and the driver indicated by the license ID are the same person (that is, (identity verification). If the driving characteristics server S1 determines that the acquired biometric information and the driver indicated by the license ID are the same person, the driving characteristic server S1 stores the driver's license ID, the driver's face image, and the vehicle ID. Link and register (initial registration). Note that the driver's face image registered here may be one front face image, or one front face image and one or more right-facing face images or left-facing face images. .

運転特性データ収集時において、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の生体情報と運転特性データと車両IDとを取得し、取得された運転者の生体情報と、初期登録済みの複数の運転者の生体情報のそれぞれとを照合する。運転特性サーバS1は、複数の運転者の生体情報のそれぞれのうち照合する運転者がいると判定した場合、運転者の免許証IDに、取得された運転特性データと車両IDとを紐付けて記録する。 When collecting driving characteristic data, the driving characteristic server S1 acquires the driver's biometric information, driving characteristic data, and vehicle ID transmitted from each of the vehicles C1, . The biometric information of a plurality of initially registered drivers is compared with each other. If the driving characteristics server S1 determines that there is a driver to be compared among the biometric information of a plurality of drivers, the driving characteristics server S1 links the acquired driving characteristics data and the vehicle ID to the driver's license ID. Record.

運転特性サーバS1は、免許証サーバS2から送信された所定の運転者の運転評価結果を要求する制御指令に基づいて、この所定の運転者の運転特性データを用いて、運転評価を実行する。運転特性サーバS1は、運転評価結果を生成して、無線端末装置P1に送信する。このような場合、無線端末装置P1は、例えば、運転者の免許更新を判断する警察庁の職員、自動車に関する保険(商品)を取り扱う保険会社の社員等により所持される。これにより、警察庁の職員は、無線端末装置P1に表示された所定の運転者の運転評価結果に基づいて、運転者の免許更新に関する判断を行うことができる。同様に、保険会社の社員は、無線端末装置P1に表示された所定の運転者の運転評価結果(つまり、安全運転の度合いを示す指標)に基づいて、所定の運転者の自動車保険料を算出できる。 The driving characteristic server S1 executes a driving evaluation using the driving characteristic data of the predetermined driver based on the control command requesting the driving evaluation result of the predetermined driver transmitted from the license server S2. The driving characteristic server S1 generates a driving evaluation result and transmits it to the wireless terminal device P1. In such a case, the wireless terminal device P1 is possessed by, for example, an employee of the National Police Agency who decides whether to renew a driver's license, an employee of an insurance company that handles insurance (products) related to automobiles, or the like. Thereby, the staff of the National Police Agency can make a decision regarding renewal of a driver's license based on the driving evaluation result of a predetermined driver displayed on the wireless terminal device P1. Similarly, an employee of the insurance company calculates the car insurance premium for a given driver based on the driving evaluation result (that is, an index indicating the degree of safe driving) of the given driver displayed on the wireless terminal device P1. can.

また、運転特性サーバS1は、運転者が所有する無線端末装置P1から送信された所定の運転者の運転特性データを要求する制御指令を取得する。運転特性サーバS1は、無線端末装置P1から送信された制御指令に含まれる免許証IDあるいは生体情報と、登録済みの複数の運転者の免許証IDあるいは生体情報とを照合する。運転特性サーバS1は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データと、運転特性データが取得された車両の車両IDとを抽出して、無線端末装置P1あるいはカーナビゲーション装置12に送信する。 The driving characteristic server S1 also acquires a control command requesting driving characteristic data of a predetermined driver transmitted from the wireless terminal device P1 owned by the driver. The driving characteristics server S1 compares the license ID or biometric information included in the control command transmitted from the wireless terminal device P1 with the license IDs or biometric information of a plurality of registered drivers. Based on the verification results, the driving characteristic server S1 extracts the driving characteristic data of the driver corresponding to the license ID or biometric information included in the control command and the vehicle ID of the vehicle from which the driving characteristic data has been acquired. , to the wireless terminal device P1 or the car navigation device 12.

なお、ここで、運転特性サーバS1が蓄積された運転特性データに基づいて、この運転者の運転評価を実行する場合、運転特性サーバS1は、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転評価結果を生成して、無線端末装置P1あるいはカーナビゲーション装置12に送信してもよい。 Note that when the driving characteristic server S1 executes a driving evaluation of this driver based on the accumulated driving characteristic data, the driving characteristic server S1 performs a driving evaluation based on the driving characteristic data that corresponds to the license ID or biometric information included in the control command. A driving evaluation result of the driver may be generated and transmitted to the wireless terminal device P1 or the car navigation device 12.

免許証サーバS2は、ネットワークNWを介して、運転特性サーバS1と、無線端末装置P1との間でそれぞれデータ通信可能に接続される。免許証サーバS2は、複数の運転者の免許証IDを記録、管理する。なお、免許証サーバS2により記録、管理される情報は、免許証IDに限定されず、例えば運転免許証の更新に関する情報、運転特性データを用いた運転評価結果等であってよい。 The license server S2 is connected to the driving characteristic server S1 and the wireless terminal device P1 via the network NW so as to enable data communication between them. The license server S2 records and manages license IDs of multiple drivers. Note that the information recorded and managed by the license server S2 is not limited to the license ID, and may be, for example, information regarding driver's license renewal, driving evaluation results using driving characteristic data, and the like.

免許証サーバS2は、無線端末装置P1から送信された所定の運転者の運転特性データを要求する制御指令を取得する。免許証サーバS2は、無線端末装置P1から送信された制御指令に含まれる免許証IDあるいは生体情報と、登録済みの複数の運転者の免許証IDあるいは生体情報とを照合し、照合結果を運転特性サーバS1に送信する。運転特性サーバS1は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データと、運転特性データが取得された車両の車両IDとを抽出して、免許証サーバS2に送信する。 The license server S2 acquires a control command requesting driving characteristic data of a predetermined driver transmitted from the wireless terminal device P1. The license server S2 collates the license ID or biometric information included in the control command transmitted from the wireless terminal device P1 with the license IDs or biometric information of multiple registered drivers, and uses the collation results as a driver's license. Send to characteristic server S1. Based on the verification results, the driving characteristic server S1 extracts the driving characteristic data of the driver corresponding to the license ID or biometric information included in the control command and the vehicle ID of the vehicle from which the driving characteristic data has been acquired. , is transmitted to the license server S2.

なお、ここで、運転特性サーバS1が蓄積された運転特性データに基づいて、この運転者の運転評価を実行する場合、運転特性サーバS1は、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転評価結果を生成して、免許証サーバS2に送信してもよい。 Note that when the driving characteristic server S1 executes a driving evaluation of this driver based on the accumulated driving characteristic data, the driving characteristic server S1 performs a driving evaluation based on the driving characteristic data that corresponds to the license ID or biometric information included in the control command. A driving evaluation result of the driver may be generated and transmitted to the license server S2.

無線端末装置P1は、ネットワークNWを介して、運転特性サーバS1との間で通信可能に接続される。無線端末装置P1は、例えば運転者、運転者の親族、警察官、保険会社の社員等が所有するPC(Personal Computer),ノートPC,タブレット端末,あるいはスマートフォン等である。なお、無線端末装置P1は、上述した例に限定されず、車両C1,…に搭載されたカーナビゲーション装置12であってもよい。 The wireless terminal device P1 is communicably connected to the driving characteristic server S1 via the network NW. The wireless terminal device P1 is, for example, a PC (Personal Computer), a notebook PC, a tablet terminal, or a smartphone owned by a driver, a relative of the driver, a police officer, an employee of an insurance company, or the like. Note that the wireless terminal device P1 is not limited to the example described above, and may be a car navigation device 12 mounted on the vehicle C1, . . . .

無線端末装置P1は、運転者,運転者の親族等による入力操作を受け付け可能であって、入力操作に基づいて、運転者の運転評価結果を要求する制御指令を生成する。無線端末装置P1は、運転者の免許証IDあるいは生体情報を取得し、取得された運転者の免許証IDあるいは生体情報と、制御指令とを紐付けて運転特性サーバS1に送信する。また、無線端末装置P1は、運転特性サーバS1から送信された運転者の運転評価結果を取得した場合、取得された運転者の運転評価結果を無線端末装置P1のモニタ(不図示)に出力する。なお、無線端末装置P1がカーナビゲーション装置12により実現される場合、無線端末装置P1(つまり、カーナビゲーション装置12)は、取得された運転者の運転評価結果をカーナビゲーション装置12の表示部12Cに出力する。 The wireless terminal device P1 can accept input operations from the driver, the driver's relatives, etc., and generates a control command requesting the driver's driving evaluation result based on the input operations. The wireless terminal device P1 acquires the driver's license ID or biometric information, associates the acquired driver's license ID or biometric information with a control command, and transmits the link to the driving characteristic server S1. Further, when the wireless terminal device P1 acquires the driver's driving evaluation result transmitted from the driving characteristics server S1, the wireless terminal device P1 outputs the acquired driver's driving evaluation result to the monitor (not shown) of the wireless terminal device P1. . Note that when the wireless terminal device P1 is realized by the car navigation device 12, the wireless terminal device P1 (that is, the car navigation device 12) displays the acquired driver's driving evaluation result on the display unit 12C of the car navigation device 12. Output.

ネットワークNWは、複数の車両C1,…のそれぞれと、運転特性サーバS1と、免許証サーバS2との間、および、運転特性サーバS1と無線端末装置P1との間を、無線通信可能に接続する。 The network NW connects each of the plurality of vehicles C1, ..., the driving characteristics server S1, and the license server S2, and between the driving characteristics server S1 and the wireless terminal device P1 to enable wireless communication. .

次に、図2を参照して、実施の形態1における車両C1,…の内部構成例について説明する。図2は、実施の形態1における車両C1,…の内部構成例を示すブロック図である。なお、図2に示す車両C1,…の内部構成は、生体情報として運転者の顔画像を用いる場合の内部構成例を図示し、他の生体情報を取得するためのセンサ、および免許証リーダ等の図示を省略している。また、車両C1,…のそれぞれは、同様の内部構成であるため、以降の説明では車両C1の内部構成について説明する。 Next, with reference to FIG. 2, an example of the internal configuration of the vehicles C1, . . . in the first embodiment will be described. FIG. 2 is a block diagram showing an example of the internal configuration of the vehicles C1, . . . in the first embodiment. The internal configuration of the vehicle C1,... shown in FIG. 2 is an example of the internal configuration when using the driver's face image as biometric information, and includes sensors for acquiring other biometric information, a driver's license reader, etc. illustration is omitted. Moreover, since each of the vehicles C1, . . . has a similar internal configuration, the internal configuration of the vehicle C1 will be described in the following description.

車両C1は、通信機器11と、カーナビゲーション装置12と、車内カメラ13と、ジャイロセンサ14と、メモリ15と、ECU(Electronic Control Unit)16と、を少なくとも含んで構成される。車両C1内部の各部は、CAN(Controller Area Network)等によりデータ送受信可能に接続される。 The vehicle C1 is configured to include at least a communication device 11, a car navigation device 12, an in-vehicle camera 13, a gyro sensor 14, a memory 15, and an ECU (Electronic Control Unit) 16. Each part inside the vehicle C1 is connected to enable data transmission and reception via a CAN (Controller Area Network) or the like.

なお、通信機器11、カーナビゲーション装置12、車内カメラ13、およびジャイロセンサ14は、1つのカーナビゲーション装置10として一体的に構成されてもよい。また、図2に示す車両C1に搭載されるセンサは一例であってこれに限定されない。 Note that the communication device 11, car navigation device 12, in-vehicle camera 13, and gyro sensor 14 may be integrally configured as one car navigation device 10. Moreover, the sensor mounted on the vehicle C1 shown in FIG. 2 is an example, and the sensor is not limited thereto.

通信機器11は、ネットワークNWを介して、車両C1と運転特性サーバS1との間で無線通信によるデータの送受信を実行する。通信機器11は、運転者の免許証ID、生体情報(ここでは、1枚以上の顔画像)、車両ID、運転特性データ等を運転特性サーバS1に送信する。通信機器11は、運転特性サーバS1から送信された初期登録完了を通知する電気信号、運転者の特定完了を通知する電気信号等を受信して、プロセッサ12Aに出力する。 The communication device 11 transmits and receives data by wireless communication between the vehicle C1 and the driving characteristic server S1 via the network NW. The communication device 11 transmits the driver's license ID, biometric information (here, one or more facial images), vehicle ID, driving characteristic data, etc. to the driving characteristic server S1. The communication device 11 receives an electrical signal notifying the completion of initial registration, an electrical signal notifying the completion of driver identification, etc. transmitted from the driving characteristics server S1, and outputs them to the processor 12A.

カーナビゲーション装置12は、運転者操作を受け付け可能な装置である。また、カーナビゲーション装置12は、例えばカーナビゲーション機能、位置情報提供サービス機能、インターネット接続機能、マルチメディア再生機能等を提供可能なIVI(In-Vehicle Infotainment)装置であってもよい。カーナビゲーション装置12は、プロセッサ12Aと、メモリ12Bと、表示部12Cと、入力部12Dとを含んで構成される。 The car navigation device 12 is a device that can accept driver operations. Furthermore, the car navigation device 12 may be an IVI (In-Vehicle Infotainment) device that can provide, for example, a car navigation function, a location information providing service function, an Internet connection function, a multimedia playback function, and the like. The car navigation device 12 includes a processor 12A, a memory 12B, a display section 12C, and an input section 12D.

プロセッサ12Aは、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、各部の動作を制御する。プロセッサ12Aは、メモリ12Bと協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ12Aは、メモリ12Bに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。 The processor 12A is configured using, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array), and controls the operation of each part. The processor 12A cooperates with the memory 12B to perform various types of processing and control in an integrated manner. Specifically, the processor 12A refers to programs and data held in the memory 12B, and executes the programs to realize the functions of each section.

プロセッサ12Aは、入力部12Dから出力された運転特性サーバS1への運転者の初期登録を開始するための制御指令に基づいて、初期登録処理を開始する。プロセッサ12Aは、車内カメラ13により撮像された1枚以上の運転者の顔画像と、運転免許証が撮像された撮像画像(免許証ID)と、車両IDと、運転者の初期登録を要求する制御指令とを紐付けて、運転特性サーバS1に送信する。なお、免許証IDは、運転者操作により入力部12Dに入力された免許証情報であってもよい。同様に、運転者操作により入力部12Dに入力されたナンバープレート情報であってもよい。 The processor 12A starts the initial registration process based on the control command for starting the initial registration of the driver in the driving characteristics server S1, which is output from the input unit 12D. The processor 12A requests one or more facial images of the driver captured by the in-vehicle camera 13, a captured image of the driver's license (license ID), a vehicle ID, and initial registration of the driver. It is associated with the control command and transmitted to the driving characteristic server S1. Note that the license ID may be license information input into the input unit 12D by the driver's operation. Similarly, the information may be license plate information input into the input section 12D by the driver's operation.

プロセッサ12Aは、ECU16あるいは通信機器11から運転者の乗車を検知した旨の制御指令を取得したタイミングから、運転者の運転特性データの取得を開始する。プロセッサ12Aは、ジャイロセンサ14から出力された電気信号に基づいて、運転特性データとして車両C1の角速度を取得したり、ECU16を介して、各種センサ(例えば車内カメラ13,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,速度センサ18,車外センサ/カメラ19,GPSセンサ20,あるいはステアリング17D等)により取得された各種運転特性データを取得したりする。なお、各種センサにより取得される運転特性データは、それぞれ後述する。プロセッサ12Aは、取得された運転特性データと、車両IDとを紐付けて、運転特性サーバS1に送信する。また、プロセッサ12Aは、運転特性サーバS1により実行される運転者の登録あるいは特定に用いられる運転者の生体情報として、車内カメラ13に運転者の顔画像を撮像させる。プロセッサ12Aは、車内カメラ13から出力された運転者の顔画像と車両IDとを紐付けて、運転特性サーバS1に送信する。 The processor 12A starts acquiring the driver's driving characteristic data from the timing at which the processor 12A acquires a control command from the ECU 16 or the communication device 11 indicating that the driver's boarding is detected. The processor 12A acquires the angular velocity of the vehicle C1 as driving characteristic data based on the electric signal output from the gyro sensor 14, and acquires the angular velocity of the vehicle C1 as driving characteristic data, and acquires the angular velocity of the vehicle C1 as driving characteristic data, and acquires the angular velocity of the vehicle C1 via the ECU 16, and acquires the angular velocity of the vehicle C1 based on the electric signal output from the gyro sensor 14. , brake pedal 17B, turn lamp 17C, speed sensor 18, external sensor/camera 19, GPS sensor 20, steering wheel 17D, etc.). Note that the driving characteristic data acquired by the various sensors will be described later. The processor 12A associates the acquired driving characteristic data with the vehicle ID and transmits it to the driving characteristic server S1. Further, the processor 12A causes the in-vehicle camera 13 to capture a face image of the driver as the driver's biometric information used for registration or identification of the driver performed by the driving characteristics server S1. The processor 12A associates the driver's face image output from the in-vehicle camera 13 with the vehicle ID and transmits the linked image to the driving characteristic server S1.

プロセッサ12Aは、ECU16あるいは通信機器11から運転者の降車を検知した旨の制御指令を取得したタイミングで、運転者の運転特性データの取得処理、および運転特性サーバS1への運転特性データの送信処理を終了する。なお、プロセッサ12Aは、運転特性サーバS1から送信された初期登録あるいは運転者の顔照合が完了した旨の制御指令に基づいて、車内カメラ13による撮像処理を終了させてよい。 The processor 12A acquires the driver's driving characteristic data and transmits the driving characteristic data to the driving characteristic server S1 at the timing when the processor 12A receives a control command from the ECU 16 or the communication device 11 indicating that the driver's alighting is detected. end. Note that the processor 12A may terminate the imaging process by the in-vehicle camera 13 based on a control command sent from the driving characteristics server S1 to the effect that initial registration or face verification of the driver has been completed.

また、プロセッサ12Aは、車内カメラ13から出力された運転者の顔画像を画像解析し、運転者の視線検知,眠気検知,感情検知等を実行してもよい。プロセッサ12Aは、検知された検知結果を運転特性データとして、車両IDと紐付けて運転特性サーバS1に送信する。 Further, the processor 12A may perform image analysis of the driver's face image output from the in-vehicle camera 13, and perform detection of the driver's line of sight, drowsiness, emotion, etc. The processor 12A sends the detected detection result as driving characteristic data to the driving characteristic server S1 in association with the vehicle ID.

メモリ12Bは、例えばプロセッサ12Aの各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ12Aの動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ12Aにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ12Aの動作を規定するプログラムが書き込まれている。また、メモリ12Bは、車両C1の車両IDを記憶する。 The memory 12B includes, for example, a RAM (Random Access Memory) as a work memory used when executing each process of the processor 12A, and a ROM (Read Only Memory) that stores programs and data that define the operations of the processor 12A. have Data or information generated or acquired by the processor 12A is temporarily stored in the RAM. A program that defines the operation of the processor 12A is written in the ROM. The memory 12B also stores the vehicle ID of the vehicle C1.

表示部12Cは、例えばLCD(Liquid Crystal Display)もしくは有機EL(Electroluminescence)を用いて構成される。 The display unit 12C is configured using, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence).

入力部12Dは、表示部12Cと一体的に構成されたユーザインタフェースである。入力部12Dは、受け付けられた運転者操作を電気信号(制御指令)に変換して、プロセッサ12Aに出力する。入力部12Dは、運転者による初期登録を開始するための入力操作を受け付けたり、免許証IDあるいは車両IDの入力操作を受け付けたりする。 The input section 12D is a user interface configured integrally with the display section 12C. The input unit 12D converts the received driver operation into an electrical signal (control command) and outputs it to the processor 12A. The input unit 12D accepts an input operation by the driver to start initial registration, or an input operation for a driver's license ID or vehicle ID.

車内カメラ13は、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCD(Charged-Coupled Device)あるいはCMOS(Complementary Metal-Oxide-Semiconductor)等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。 The in-vehicle camera 13 includes at least a lens (not shown) and an image sensor (not shown). The image sensor is a solid-state imaging device such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and converts an optical image formed on an imaging surface into an electrical signal.

車内カメラ13は、入力部12Dを介した運転者による入力操作あるいは運転者の乗車検知に基づいて、運転席に座る運転者の顔を撮像して、プロセッサ12Aに出力する。プロセッサ12Aは、撮像された運転者の顔画像を画像解析し、運転者の顔の向きを検出する。プロセッサ12Aは、検出された運転者の顔の向きが事前に設定された顔の向きであると判定した場合、この顔画像と車両IDとを紐付けて、通信機器11から運転特性サーバS1に送信させる。なお、顔画像から運転者の顔の向きを検出する処理は、運転特性サーバS1により実行されてもよい。 The in-vehicle camera 13 images the face of the driver sitting in the driver's seat based on an input operation by the driver via the input unit 12D or detection of the driver's boarding, and outputs the image to the processor 12A. The processor 12A analyzes the captured facial image of the driver and detects the orientation of the driver's face. When the processor 12A determines that the detected driver's face orientation is the preset face orientation, the processor 12A links this face image with the vehicle ID and sends the information from the communication device 11 to the driving characteristics server S1. Let it be sent. Note that the process of detecting the direction of the driver's face from the face image may be executed by the driving characteristics server S1.

例えば、初期登録時の運転者認証、あるいは運転特性データの記録時の運転者の特定において、正面顔画像が必要である場合、プロセッサ12Aは、検出された運転者の顔の向きが正面であると判定した正面顔画像と、車両IDとを紐付けて、運転特性サーバS1に送信する。 For example, if a front face image is required for driver authentication at the time of initial registration or driver identification at the time of recording driving characteristic data, the processor 12A determines that the detected face direction of the driver is front. The front face image determined as such is linked with the vehicle ID and transmitted to the driving characteristic server S1.

また、例えば、初期登録の運転者認証、あるいは運転特性データの記録時の運転者の特定において、運転者が異なる複数の方向を向いている顔画像が必要である場合、プロセッサ12Aは、検出された運転者の顔の向きが正面であると判定した正面顔画像と、右向きであると判定した右向き顔画像、あるいは左向きであると判定した左向き顔画像のそれぞれのうち1枚以上の顔画像とを選定する。プロセッサ12Aは、選定された2枚以上の顔画像と車両IDとを紐付けて、運転特性サーバS1に送信する。これにより、車両C1は、事前に撮像された運転者の正面顔画像を用いた運転者へのなりすまし行為をより効果的に抑制することができる。 Further, for example, if facial images of the driver facing a plurality of different directions are required for driver authentication during initial registration or identification of the driver when recording driving characteristic data, the processor 12A may detect one or more face images of each of a front face image determined to be facing forward, a right facing face image determined to be facing right, or a left facing face image determined to be facing left. Select. The processor 12A associates the selected two or more facial images with the vehicle ID and transmits them to the driving characteristic server S1. Thereby, the vehicle C1 can more effectively suppress impersonation of the driver using the driver's front face image captured in advance.

また、車内カメラ13は、入力部12Dを介した運転者による入力操作に基づいて、運転者の運転免許証を撮像してもよい。このような場合、プロセッサ12Aは、車内カメラ13により撮像された撮像画像をプロセッサ12Aに出力して表示部12Cに表示させ、表示部12Cに表示された撮像画像に、運転免許証の撮像領域を示す枠線を重畳してもよい。これにより、カーナビゲーション装置10は、運転者の特定に使用される運転免許証の顔画像の撮像、あるいは運転免許証に記載された各種情報を読み取り可能な運転免許証の撮像を支援できる。 Further, the in-vehicle camera 13 may take an image of the driver's driver's license based on an input operation by the driver via the input unit 12D. In such a case, the processor 12A outputs the captured image captured by the in-vehicle camera 13 to the processor 12A, displays it on the display section 12C, and adds the captured image area of the driver's license to the captured image displayed on the display section 12C. The indicated frame lines may be superimposed. Thereby, the car navigation device 10 can support the capturing of a facial image of a driver's license used to identify the driver, or the capturing of a driver's license that can read various information written on the driver's license.

ジャイロセンサ14は、所謂角速度センサであって、機械式,光学式あるいは振動式等のいずれであってもよい。ジャイロセンサ14は、車両C1の回転,向きの変化を角速度として検知し、電気信号に変換してプロセッサ12Aに出力する。 The gyro sensor 14 is a so-called angular velocity sensor, and may be a mechanical type, an optical type, a vibration type, or the like. The gyro sensor 14 detects changes in the rotation and orientation of the vehicle C1 as angular velocity, converts it into an electrical signal, and outputs it to the processor 12A.

メモリ15は、例えばECU16の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、ECU16の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、ECU16により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、ECU16の動作を規定するプログラムが書き込まれている。また、メモリ15は、車両C1の車両IDを記憶していてよい。 The memory 15 includes, for example, a RAM (Random Access Memory) as a work memory used when executing each process of the ECU 16, and a ROM (Read Only Memory) that stores programs and data that define the operation of the ECU 16. Data or information generated or acquired by the ECU 16 is temporarily stored in the RAM. A program that defines the operation of the ECU 16 is written in the ROM. Further, the memory 15 may store the vehicle ID of the vehicle C1.

ECU16は、各部の処理および制御をそれぞれ統括的に実行する。ECU16は、所謂電子回路制御装置を用いて構成され、メモリ15に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ECU16は、操作部17から出力された電気信号に基づいて、運転者によるアクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D等の各種操作情報(例えば、急加速,急減速,点灯情報、操舵(トルク)情報等)を、運転特性データとして取得する。ECU16は、取得された操作部17の操作情報に基づく運転特性データをプロセッサ12Aに出力する。 The ECU 16 collectively executes processing and control of each section. The ECU 16 is configured using a so-called electronic circuit control device, refers to programs and data held in the memory 15, and implements the functions of each part by executing the programs. The ECU 16 receives various operation information (for example, sudden acceleration, sudden deceleration, lighting information, Steering (torque) information, etc.) is acquired as driving characteristic data. The ECU 16 outputs driving characteristic data based on the acquired operation information of the operation unit 17 to the processor 12A.

また、ECU16は、運転者の乗車検知条件として、例えば運転席のドアの閉扉、運転席のシートベルトの着用、イグニッションON後のサイドブレーキの解除、運転席に設けられた荷重センサ(不図示)による運転者の着座検知、あるいはステアリング17Dのトルク検知等を実行する。ECU16は、1以上あるいは2以上の運転者の乗車検知条件を満たすか否かに基づいて、運転者の乗車を検知する。ECU16は、運転者の乗車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aあるいは通信機器11に出力する。 In addition, the ECU 16 determines conditions for detecting the presence of the driver, such as closing the door of the driver's seat, fastening the seat belt of the driver's seat, releasing the handbrake after turning on the ignition, and installing a load sensor (not shown) provided on the driver's seat. Detects whether the driver is seated or detects the torque of the steering wheel 17D. The ECU 16 detects the driver's entry based on whether one or more or two or more driver entry detection conditions are satisfied. The ECU 16 generates a control command indicating that the driver's boarding is detected, and outputs it to the processor 12A of the car navigation device 12 or the communication device 11.

また、ECU16は、運転者の降車検知条件として、例えば運転席のドアの開扉、運転席のシートベルトの解除、イグニッションOFFの検知、あるいは運転席に設けられた荷重センサ(不図示)による運転者の離席検知等を実行する。ECU16は、1以上あるいは2以上の運転者の降車検知条件を満たすか否かに基づいて、運転者の降車を検知する。ECU16は、運転者の降車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aあるいは通信機器11に出力する。 In addition, the ECU 16 detects conditions for detecting the driver's exit from the vehicle, such as opening the driver's door, releasing the driver's seat belt, detecting that the ignition is turned off, or detecting that the driver is driving using a load sensor (not shown) installed in the driver's seat. Detection of people leaving their seats, etc. The ECU 16 detects the driver's exit from the vehicle based on whether one or more or two or more driver exit detection conditions are satisfied. The ECU 16 generates a control command indicating that the driver has exited the vehicle, and outputs it to the processor 12A of the car navigation device 12 or the communication device 11.

速度センサ18は、車両C1内部の駆動軸の回転数により発生する車速パルスに基づいて、車両C1の速度を計測する。速度センサ18は、計測された車両C1の速度をプロセッサ12Aに出力する。 The speed sensor 18 measures the speed of the vehicle C1 based on a vehicle speed pulse generated by the rotation speed of the drive shaft inside the vehicle C1. Speed sensor 18 outputs the measured speed of vehicle C1 to processor 12A.

車外センサ/カメラ19は、車両C1に備えられたレーダ,ソナー等の1つ以上のセンサ、車両C1の周囲(車外)を撮像可能な1つ以上のカメラである。ここでいうカメラは、ドライブレコーダであってもよい。車外センサ/カメラ19は、車両C1の周辺に存在する物体(例えば、壁,障害物,他車両,人物等)の位置および方向を検知したり、標識を検知したり、道路上の白線等を検知したりする。車外センサ/カメラ19は、検知された検知情報をプロセッサ12Aに出力する。プロセッサ12Aは、車外センサ/カメラ19から出力された検知情報と運転特性データとして運転特性サーバS1に送信する。 The external sensor/camera 19 is one or more sensors such as radar and sonar provided in the vehicle C1, and one or more cameras capable of capturing images of the surroundings of the vehicle C1 (outside the vehicle). The camera here may be a drive recorder. The external sensor/camera 19 detects the position and direction of objects around the vehicle C1 (for example, walls, obstacles, other vehicles, people, etc.), detects signs, and detects white lines on the road. Detect. The external sensor/camera 19 outputs detected detection information to the processor 12A. The processor 12A transmits the detection information output from the external sensor/camera 19 and the driving characteristic data to the driving characteristic server S1.

GPSセンサ20は、米国のGPS(Global Positioning System)の信号に限らず、例えばロシアのGLONASS(Global Navigation Satellite System)または欧州のGalileo等の衛星測位サービスを提供可能な人工衛星(不図示)、あるいは準天頂衛星(不図示)から送信された衛星測位信号を受信する。GPSセンサ20は、受信された衛星測位信号に基づいて、車両C1の走行速度および走行位置の情報を演算によって算出し、プロセッサ12Aに出力する。なお、衛星測位信号あるいは準天頂衛星に基づく車両C1の走行速度および走行位置の情報の演算は、GPSセンサ20によって実行されてもよい。 The GPS sensor 20 is not limited to US GPS (Global Positioning System) signals, but may also be an artificial satellite (not shown) capable of providing satellite positioning services, such as Russia's GLONASS (Global Navigation Satellite System) or European Galileo, or A satellite positioning signal transmitted from a quasi-zenith satellite (not shown) is received. GPS sensor 20 calculates information on the traveling speed and traveling position of vehicle C1 based on the received satellite positioning signal, and outputs the information to processor 12A. Note that the calculation of information on the traveling speed and traveling position of the vehicle C1 based on the satellite positioning signal or the quasi-zenith satellite may be performed by the GPS sensor 20.

次に、図3を参照して、実施の形態1における運転特性サーバS1の内部構成について説明する。図3は、実施の形態1における運転特性サーバS1の内部構成例を示すブロック図である。なお、以降の説明では、説明を分かり易くするために、一例として運転特性テーブルTB1を用いて運転特性サーバS1により収集(記録),管理される各種データまたは情報について説明するが、運転特性テーブルTB1は必須でなく、省略されてよい。 Next, with reference to FIG. 3, the internal configuration of the driving characteristic server S1 in the first embodiment will be described. FIG. 3 is a block diagram showing an example of the internal configuration of the driving characteristic server S1 in the first embodiment. In the following description, in order to make the explanation easier to understand, various data or information collected (recorded) and managed by the driving characteristics server S1 will be explained using the driving characteristics table TB1 as an example. is not required and may be omitted.

運転特性サーバS1は、通信部31と、プロセッサ32と、メモリ33と、を含んで構成される。 The driving characteristics server S1 includes a communication section 31, a processor 32, and a memory 33.

通信部31は、ネットワークNWを介して、車両C1,…のそれぞれ、無線端末装置P1、および免許証サーバS2との間でそれぞれデータ送受信可能に接続される。 The communication unit 31 is connected to each of the vehicles C1, . . . , the wireless terminal device P1, and the license server S2 via the network NW so as to be able to transmit and receive data.

プロセッサ32は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ32は、メモリ33と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ32は、メモリ33に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。プロセッサ32は、運転特性テーブルTB1を生成して、メモリ33に記憶する。 The processor 32 is configured using, for example, a CPU, a DSP, or an FPGA, and controls the operations of each section. The processor 32 cooperates with the memory 33 to perform various types of processing and control in an integrated manner. Specifically, the processor 32 references programs and data held in the memory 33 and executes the programs to realize the functions of each part. The processor 32 generates a driving characteristic table TB1 and stores it in the memory 33.

運転特性テーブルTB1は、車両IDと、運転特性データと、生体情報(図3に示す例では運転者の顔画像)と、を免許証IDに紐付けて記録し、管理する。なお、図3に示す運転特性テーブルTB1は、一例として、運転者ごとに割り当てられ、運転者を識別可能な利用者IDを免許証IDにさらに紐付けて記録する。また、運転特性テーブルTB1に記録される生体情報は、初期登録時に登録(格納)された生体情報である。 The driving characteristic table TB1 records and manages a vehicle ID, driving characteristic data, and biometric information (in the example shown in FIG. 3, a driver's face image) in association with a license ID. In addition, the driving characteristic table TB1 shown in FIG. 3 is assigned to each driver as an example, and further records a user ID that can identify the driver in association with the license ID. Furthermore, the biometric information recorded in the driving characteristic table TB1 is the biometric information registered (stored) at the time of initial registration.

例えば、図3に示す運転特性テーブルTB1は、免許証ID「XXX」に、車両ID「KKK」と、利用者ID「AAA」と、顔画像のデータと、運転特性データとを紐付け、免許証ID「YYY」に、車両ID「KKK」と、利用者ID「BBB」と、顔画像のデータと、運転特性データとを紐付け、免許証ID「ZZZ」に、車両ID「MMM」と、利用者ID「CCC」と、顔画像のデータと、運転特性データとを紐付けて、それぞれ記録する。これにより、運転特性テーブルTB1は、同一の車両ID「KKK」を有する車両を、異なる複数の運転者のそれぞれ(例えば、2人の利用者「AAA」,「BBB」のそれぞれ)が運転する場合であっても、免許証IDごとに運転特性データを記録できるため、運転者ごとに運転特性データを管理できる。 For example, the driving characteristics table TB1 shown in FIG. Link the license ID "YYY" with the vehicle ID "KKK", the user ID "BBB", the facial image data, and the driving characteristics data, and link the license ID "ZZZ" with the vehicle ID "MMM". , the user ID "CCC", the facial image data, and the driving characteristic data are linked and recorded. As a result, the driving characteristic table TB1 is configured such that when a plurality of different drivers (for example, two users "AAA" and "BBB" each) drive a vehicle having the same vehicle ID "KKK", However, since driving characteristic data can be recorded for each license ID, driving characteristic data can be managed for each driver.

プロセッサ32は、車両C1,…のそれぞれから送信された初期登録を要求する制御指令に基づいて、初期登録処理を開始する。プロセッサ32は、車両C1,…のそれぞれから送信された免許証IDと、運転者の生体情報と、車両IDとを紐付けて、運転特性テーブルTB1に登録(格納)する。なお、プロセッサ32は、取得された免許証IDが、運転特性テーブルTB1に登録済みであると判定した場合、登録済みの免許証IDに紐付けられた運転者の生体情報と、取得された生体情報とを照合する。プロセッサ32は、登録済みの免許証IDに紐付けられた運転者の生体情報と、取得された生体情報とが照合すると判定した場合、運転特性テーブルTB1において登録済みの免許証IDに、取得された車両IDをさらに紐付けて記録する。 The processor 32 starts the initial registration process based on a control command requesting initial registration transmitted from each of the vehicles C1, . The processor 32 associates the driver's license ID, the driver's biometric information, and the vehicle ID transmitted from each of the vehicles C1, . . . with the vehicle ID, and registers (stores) them in the driving characteristic table TB1. Note that when the processor 32 determines that the acquired license ID has been registered in the driving characteristic table TB1, the processor 32 stores the driver's biometric information linked to the registered license ID and the acquired biometric information. Check the information. If the processor 32 determines that the biometric information of the driver linked to the registered license ID matches the acquired biometric information, the processor 32 selects the acquired biometric information from the registered license ID in the driving characteristic table TB1. The vehicle ID is further linked and recorded.

プロセッサ32は、車両C1,…のそれぞれから送信された車両IDと、運転特性データとを取得した場合、取得された車両IDごとの運転特性データを、メモリ33に一時保存する。また、プロセッサ32は、車両C1,…のそれぞれから送信された車両IDと、運転者の生体情報とを取得した場合、取得された運転者の生体情報と、運転特性テーブルTB1に登録(格納)された生体情報とを照合し、取得された生体情報に対応する運転者が登録済みであるか否かを判定する。 When the processor 32 acquires the vehicle ID and driving characteristic data transmitted from each of the vehicles C1, . . . , the processor 32 temporarily stores the driving characteristic data for each acquired vehicle ID in the memory 33. Further, when the processor 32 acquires the vehicle ID and the driver's biometric information transmitted from each of the vehicles C1,..., the processor 32 registers (stores) the acquired driver's biometric information in the driving characteristic table TB1. It is determined whether or not the driver corresponding to the obtained biometric information has been registered.

プロセッサ32は、取得された生体情報に対応する運転者が登録済みである(つまり、取得された運転者の生体情報と、運転特性テーブルTB1に登録(格納)された生体情報とが照合する)と判定した場合、この生体情報に紐付けられた免許証IDを特定する。プロセッサ32は、特定された免許証IDに、取得された車両IDと、運転特性データと、を紐付けて、運転特性テーブルTB1に記録する。これにより、プロセッサ32は、免許証ID(つまり、運転者)ごとに運転特性データを記録し、管理できる。 The processor 32 has already registered the driver corresponding to the acquired biometric information (that is, the acquired biometric information of the driver is compared with the biometric information registered (stored) in the driving characteristics table TB1). If it is determined that this biometric information is determined, the driver's license ID linked to this biometric information is specified. The processor 32 associates the specified license ID with the acquired vehicle ID and driving characteristic data and records them in the driving characteristic table TB1. Thereby, the processor 32 can record and manage driving characteristic data for each license ID (that is, driver).

また、プロセッサ32は、無線端末装置P1から送信された所定の運転者に対する運転評価を要求する制御指令と、所定の運転者に対応する免許証IDあるいは生体情報とを取得する。プロセッサ32は、取得された免許証IDあるいは生体情報と、運転特性テーブルTB1に登録済みの複数の運転者の免許証IDあるいは生体情報とを照合する。プロセッサ32は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データを用いて、運転者の運転評価を実行する。プロセッサ32は、運転評価結果を生成し、無線端末装置P1に送信する。 Further, the processor 32 acquires a control command requesting a driving evaluation for a predetermined driver and the license ID or biometric information corresponding to the predetermined driver, which are transmitted from the wireless terminal device P1. The processor 32 compares the acquired license ID or biometric information with the license IDs or biometric information of a plurality of drivers registered in the driving characteristic table TB1. Based on the verification result, the processor 32 evaluates the driver's driving using the driver's driving characteristic data corresponding to the driver's license ID or biometric information included in the control command. The processor 32 generates a driving evaluation result and transmits it to the wireless terminal device P1.

同様に、プロセッサ32は、免許証サーバS2から送信された所定の運転者に対する運転評価を要求する制御指令と、所定の運転者に対応する免許証IDあるいは生体情報とを取得する。プロセッサ32は、取得された免許証IDあるいは生体情報と、メモリ33に登録済みの複数の運転者の免許証IDあるいは生体情報とを照合する。プロセッサ32は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データを用いて、運転者の運転評価を実行する。プロセッサ32は、運転評価結果を生成し、免許証サーバS2に送信する。 Similarly, the processor 32 acquires a control command requesting a driving evaluation for a predetermined driver sent from the license server S2, and the license ID or biometric information corresponding to the predetermined driver. The processor 32 compares the acquired license ID or biometric information with the license IDs or biometric information of a plurality of drivers registered in the memory 33. Based on the verification result, the processor 32 evaluates the driver's driving using the driver's driving characteristic data corresponding to the driver's license ID or biometric information included in the control command. The processor 32 generates a driving evaluation result and sends it to the license server S2.

メモリ33は、例えばプロセッサ32の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ32の動作を規定したプログラムおよびデータを格納するROMとを有する。なお、メモリ33は、SSDあるいはHDD等によるストレージデバイスのうちいずれかを含む記憶デバイスを有してもよい。RAMには、プロセッサ32により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ32の動作を規定するプログラムが書き込まれている。メモリ33は、プロセッサ32により生成された運転特性テーブルTB1を記憶する。 The memory 33 includes, for example, a RAM as a work memory used when the processor 32 executes each process, and a ROM that stores programs and data that define the operations of the processor 32. Note that the memory 33 may have a storage device including either a storage device such as an SSD or an HDD. Data or information generated or acquired by the processor 32 is temporarily stored in the RAM. A program that defines the operation of the processor 32 is written in the ROM. The memory 33 stores the driving characteristic table TB1 generated by the processor 32.

なお、メモリ33は、運転者ごとに所定期間、あるいは所定回数分の運転の運転特性データを蓄積してよい。なお、ここでいう所定期間は、例えば直近6ヶ月分,直近50回分等である。また、1回の運転は、車両C1,…により運転者の乗車が検知されたタイミングから運転者の降車が検知されたタイミングまでの間に行われた運転である。 Note that the memory 33 may store driving characteristic data of driving for a predetermined period or a predetermined number of times for each driver. Note that the predetermined period here is, for example, the most recent six months, the most recent 50 times, etc. Further, one drive is a drive performed between the timing when the driver's boarding of the vehicle C1, . . . is detected and the timing when the driver's alighting is detected.

このような場合、プロセッサ32は、同一の免許証IDに紐付けて蓄積された複数の運転特性データのうち所定期間以上蓄積されている運転特性データがあると判定した場合、所定期間以上蓄積されている運転特性データを削除する。また、プロセッサ32は、同一の免許証IDに紐付けて蓄積された運転特性データのうち直近の所定回数以上の運転の運転特性データがあると判定した場合、直近の所定回数以上の運転の運転特性データを削除する。これにより、運転特性サーバS1は、直近の運転者の運転技能の変化を評価可能な運転特性データを優先して蓄積できる。 In such a case, if the processor 32 determines that there is driving characteristic data that has been accumulated for a predetermined period or longer among a plurality of driving characteristic data that have been accumulated in association with the same license ID, the processor 32 determines that there is driving characteristic data that has been accumulated for a predetermined period or longer. Delete the driving characteristic data that is currently in use. In addition, if the processor 32 determines that there is driving characteristic data for driving the most recent predetermined number of times or more among the driving characteristic data stored in association with the same license ID, the processor 32 determines that there is driving characteristic data for driving the most recent predetermined number of times or more. Delete characteristic data. Thereby, the driving characteristic server S1 can preferentially accumulate driving characteristic data that can evaluate the most recent change in the driving skill of the driver.

次に、図4を参照して、実施の形態1における免許証サーバS2の内部構成について説明する。図4は、実施の形態1における免許証サーバS2の内部構成例を示すブロック図である。なお、以降の説明では、説明を分かり易くするために、一例として免許証テーブルTB2を用いて免許証サーバS2により収集(記録),管理される各種データまたは情報について説明するが、免許証テーブルTB2は必須でなく、省略されてよい。 Next, with reference to FIG. 4, the internal configuration of the license server S2 in the first embodiment will be described. FIG. 4 is a block diagram showing an example of the internal configuration of the license server S2 in the first embodiment. In the following explanation, in order to make the explanation easier to understand, various data or information collected (recorded) and managed by the license server S2 will be explained using the license table TB2 as an example. is not required and may be omitted.

免許証サーバS2は、通信部41と、プロセッサ42と、メモリ43と、を含んで構成される。 The license server S2 includes a communication section 41, a processor 42, and a memory 43.

通信部41は、ネットワークNWを介して、運転特性サーバS1、および無線端末装置P1との間でそれぞれデータ送受信可能に接続される。なお、無線端末装置P1がカーナビゲーション装置12により実現される場合、通信部41は、ネットワークNWを介して、車両C1,…のそれぞれに搭載されたカーナビゲーション装置12との間でデータ送受信可能に接続されてよい。 The communication unit 41 is connected to the driving characteristic server S1 and the wireless terminal device P1 via the network NW so as to be able to transmit and receive data, respectively. In addition, when the wireless terminal device P1 is realized by the car navigation device 12, the communication unit 41 can transmit and receive data to and from the car navigation device 12 installed in each of the vehicles C1, . . . via the network NW. May be connected.

プロセッサ42は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ42は、メモリ43と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ42は、メモリ43に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。 The processor 42 is configured using, for example, a CPU, a DSP, or an FPGA, and controls the operations of each section. The processor 42 cooperates with the memory 43 to perform various types of processing and control in an integrated manner. Specifically, the processor 42 references programs and data held in the memory 43 and executes the programs to realize the functions of each part.

プロセッサ42は、例えば、運転者,警察官,保険会社の社員等が所有する無線端末装置P1のそれぞれから送信された複数の運転者のそれぞれの免許証IDと、運転者に関する情報(例えば、運転者の氏名,住所,生体情報の一例としての顔画像データ等)とを取得する。プロセッサ42は、取得された免許証IDに、この免許証IDに対応する運転者に関する情報を紐付けて、免許証テーブルTB2を生成する。プロセッサ42は、生成された免許証テーブルTB2をメモリ43に記憶する。 The processor 42 receives, for example, the license IDs of each of the plurality of drivers transmitted from each of the wireless terminal devices P1 owned by the driver, a police officer, an employee of an insurance company, etc., and information regarding the driver (for example, the driver). The person's name, address, facial image data as an example of biometric information, etc.) are acquired. The processor 42 creates a license table TB2 by linking the acquired license ID with information regarding the driver corresponding to the license ID. The processor 42 stores the generated license table TB2 in the memory 43.

免許証テーブルTB2は、運転者に関する情報(図4では、運転者の氏名,住所)と、運転者の生体情報(図4に示す例では運転者の顔画像)と、を免許証IDに紐付けて記録し、管理する。なお、免許証テーブルTB2で免許証IDに紐づけられる情報は、図4に示す例に限定されず、例えば運転免許証の有効期限日,更新日等の情報等がさらに紐づけられていてもよい。 The license table TB2 links information about the driver (in the example shown in FIG. 4, the driver's name and address) and the driver's biometric information (in the example shown in FIG. 4, the driver's facial image) to the license ID. Attach, record, and manage information. Note that the information linked to the license ID in the license table TB2 is not limited to the example shown in FIG. good.

例えば、図4に示す免許証テーブルTB2は、免許証ID「AAA」に、運転者の氏名「○○×」と、住所「***」と、顔画像のデータとを紐付け、免許証ID「BBB」に、運転者の氏名「△△□」と、住所「***」と、顔画像のデータとを紐付け、免許証ID「CCC」に、運転者の氏名「○△×」と、住所「***」と、顔画像のデータとを紐付けて、それぞれ記録する。 For example, the license table TB2 shown in FIG. The driver's name "△△□", address "***", and facial image data are linked to the ID "BBB", and the driver's name "○△×" is linked to the driver's license ID "CCC". ”, the address “***”, and the facial image data are linked and recorded.

また、プロセッサ42は、無線端末装置P1から送信された所定の運転者の運転評価を要求する制御指令と、所定の運転者に対応する免許証IDを取得する。プロセッサ42は、所定の運転者に対する運転評価を要求する制御指令を生成し、生成された制御指令と取得された免許証IDとを紐付けて、運転特性サーバS1に送信する。プロセッサ42は、通信部41を介して、運転特性サーバS1から送信された所定の運転者の運転評価結果を取得した場合、取得された運転評価結果を無線端末装置P1に送信する。 Further, the processor 42 acquires a control command requesting a driving evaluation of a predetermined driver and a license ID corresponding to the predetermined driver transmitted from the wireless terminal device P1. The processor 42 generates a control command requesting a driving evaluation for a predetermined driver, links the generated control command with the acquired license ID, and transmits the link to the driving characteristics server S1. When the processor 42 acquires the driving evaluation result of a predetermined driver transmitted from the driving characteristic server S1 via the communication unit 41, the processor 42 transmits the acquired driving evaluation result to the wireless terminal device P1.

メモリ43は、例えばプロセッサ42の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ42の動作を規定したプログラムおよびデータを格納するROMとを有する。なお、メモリ43は、SSDあるいはHDD等によるストレージデバイスのうちいずれかを含む記憶デバイスを有してもよい。RAMには、プロセッサ42により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ42の動作を規定するプログラムが書き込まれている。メモリ43は、プロセッサ42により生成された免許証テーブルTB2を記憶する。 The memory 43 includes, for example, a RAM as a work memory used when the processor 42 executes each process, and a ROM that stores programs and data that define the operations of the processor 42. Note that the memory 43 may have a storage device including either a storage device such as an SSD or an HDD. Data or information generated or acquired by the processor 42 is temporarily stored in the RAM. A program that defines the operation of the processor 42 is written in the ROM. The memory 43 stores the license table TB2 generated by the processor 42.

次に、図5を参照して、運転特性管理システム100により実行される運転者の初期登録手順について説明する。図5は、実施の形態1に係る運転特性管理システム100の運転者の初期登録手順例を示すシーケンス図である。なお、以降の説明では、運転者の生体情報として運転者の正面顔画像、左向き顔画像および右向き顔画像のそれぞれを用いる例について説明するが、これに限定されないことは言うまでもない。 Next, with reference to FIG. 5, a driver initial registration procedure executed by the driving characteristics management system 100 will be described. FIG. 5 is a sequence diagram illustrating an example of the initial driver registration procedure of the driving characteristic management system 100 according to the first embodiment. Note that in the following description, an example will be described in which a front face image, a left-facing face image, and a right-facing face image of the driver are used as the driver's biometric information, but it goes without saying that the present invention is not limited to this.

運転特性管理システム100を利用する利用者の一例としての運転者は、カーナビゲーション装置12を操作し、表示部12Cに表示された初期登録ボタン(不図示)を選択(押下)することで、入力部12Dを介して、初期登録を要求する操作を行う(St101)。 A driver, who is an example of a user who uses the driving characteristics management system 100, operates the car navigation device 12 and selects (presses) an initial registration button (not shown) displayed on the display unit 12C to input information. An operation for requesting initial registration is performed via the unit 12D (St101).

カーナビゲーション装置12は、入力部12Dにより受け付けられた運転者操作に基づいて、車内カメラ13により運転者の顔画像(生体情報の一例)を撮像させる。車内カメラ13は、カーナビゲーション装置12により制御され、運転者の顔を撮像する(St102)。また、車内カメラ13は、運転者により車内カメラ13の画角内にかざされた運転者の運転免許証(免許証IDの一例)を撮像する(St103)。車内カメラ13は、撮像された運転者の顔画像と、免許証IDとを紐付けて、カーナビゲーション装置12に送信する(St104)。 The car navigation device 12 causes the in-vehicle camera 13 to capture a facial image (an example of biological information) of the driver based on the driver's operation accepted by the input unit 12D. The in-vehicle camera 13 is controlled by the car navigation device 12 and captures an image of the driver's face (St102). Further, the in-vehicle camera 13 captures an image of the driver's driver's license (an example of a license ID) held up within the field of view of the in-vehicle camera 13 by the driver (St103). The in-vehicle camera 13 links the captured facial image of the driver with the driver's license ID and transmits it to the car navigation device 12 (St104).

カーナビゲーション装置12は、運転者の顔画像と、免許証IDと、自車両の車両IDとを紐付ける(St105)。なお、ここで紐付けられる車両IDは、運転者により入力部12Dに入力された、あるいはカーナビゲーション装置12に記憶された車両のナンバープレート情報、自車両を識別可能な情報等であってよい。カーナビゲーション装置12は、紐付けられた運転者の顔画像、免許証ID、および自車両の車両ID(初期登録データ)と、初期登録を要求する制御指令(初期登録要求)とを、通信機器11を介して、運転特性サーバS1に送信する(St106)。 The car navigation device 12 links the driver's facial image, license ID, and vehicle ID of the own vehicle (St105). Note that the vehicle ID linked here may be vehicle license plate information input by the driver into the input unit 12D or stored in the car navigation device 12, information by which the own vehicle can be identified, or the like. The car navigation device 12 transmits the linked driver's face image, license ID, and own vehicle ID (initial registration data), and a control command requesting initial registration (initial registration request) to a communication device. 11 to the driving characteristics server S1 (St106).

運転特性サーバS1は、カーナビゲーション装置12から送信された初期登録データと、初期登録を要求する制御指令とを受信する(St107)。 The driving characteristics server S1 receives the initial registration data transmitted from the car navigation device 12 and a control command requesting initial registration (St107).

運転特性サーバS1は、初期登録を要求する制御指令に基づいて、取得された免許証IDに映る運転者の正面顔画像と、登録済みの顔画像とを照合する(St108)。運転特性サーバS1は、免許証IDに映る運転者の正面顔画像と、登録済みの顔画像とが照合する(つまり、同一の運転者である)と判定した場合、運転者の顔画像と、免許証IDと、車両IDとを紐付けてメモリ33に登録(格納)して、運転者の初期登録を完了する(St109)。運転特性サーバS1は、初期登録完了後、初期登録が完了した旨の初期登録完了通知を生成して、ネットワークNWを介して、通信機器11に送信する(St110)。 Based on the control command requesting initial registration, the driving characteristic server S1 compares the front face image of the driver reflected in the acquired license ID with the registered face image (St108). If the driving characteristics server S1 determines that the front face image of the driver reflected in the license ID matches the registered face image (that is, they are the same driver), the driver's face image and The driver's license ID and vehicle ID are linked and registered (stored) in the memory 33, thereby completing the initial registration of the driver (St109). After completing the initial registration, the driving characteristic server S1 generates an initial registration completion notification indicating that the initial registration has been completed, and transmits it to the communication device 11 via the network NW (St110).

カーナビゲーション装置12は、通信機器11を介して、運転特性サーバS1から送信された初期登録完了通知を表示部12Cに出力して、運転者に初期登録完了を通知する(St111)。 The car navigation device 12 outputs the initial registration completion notification transmitted from the driving characteristic server S1 to the display unit 12C via the communication device 11, and notifies the driver of the completion of the initial registration (St111).

なお、運転特性サーバS1は、登録済みの複数の運転者の免許証IDと、取得された免許証IDまたは顔画像とを照合し、照合の結果、登録済みの複数の運転者の免許証IDと、取得された免許証IDまたは顔画像とが照合しない(つまり、同一の運転者が登録済みでない)と判定した場合にのみ、ステップSt108の処理を実行し、初期登録を実行してもよい。運転特性サーバS1は、登録済みの複数の運転者の免許証IDと、取得された免許証IDまたは顔画像とが照合する(つまり、同一の運転者が登録済みである)と判定した場合には、登録済みの免許証IDに取得された車両IDを紐付けて記録することで、初期登録を完了してもよい。 Note that the driving characteristics server S1 compares the license IDs of the multiple registered drivers with the acquired license ID or face image, and as a result of the collation, the license IDs of the multiple registered drivers. Only when it is determined that the obtained driver's license ID or face image does not match (that is, the same driver is not registered), the process of step St108 may be executed to perform initial registration. . When the driving characteristics server S1 determines that the license IDs of multiple registered drivers are matched with the acquired license ID or face image (that is, the same driver is registered), The initial registration may be completed by recording the acquired vehicle ID in association with the registered license ID.

以上により、実施の形態1に係る運転特性管理システム100は、運転者の免許証IDを登録(格納)と、車両IDとを紐付けて管理できる。 As described above, the driving characteristic management system 100 according to the first embodiment can manage the registration (storage) of the driver's license ID and the vehicle ID in association with each other.

次に、図6を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図6は、車両C1,…における運転者の初期登録手順例を示すフローチャートである。 Next, with reference to FIG. 6, the initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 6 is a flowchart illustrating an example of the initial registration procedure for the driver in the vehicle C1, .

車両C1,…のそれぞれは、カーナビゲーション装置12の入力部12Dに、運転者の初期登録を要求する操作があるか否かを判定する(St11)。 Each of the vehicles C1, . . . determines whether there is an operation on the input unit 12D of the car navigation device 12 to request initial registration of the driver (St11).

車両C1,…のそれぞれは、ステップSt11の処理において、運転者の初期登録を要求する操作があると判定した場合(St11,YES)、初期登録手順を示す画面を生成して、カーナビゲーション装置12の表示部12Cに出力して表示する(St12)。ここでいう初期登録手順を示す画面は、初期登録データの一例である運転者が運転する車両IDと、運転者の免許証IDと、運転者の生体情報とをそれぞれ取得するための手順を示す1以上の画面である。 If each of the vehicles C1,... determines in the process of step St11 that there is an operation requesting initial registration of the driver (St11, YES), each of the vehicles C1,... generates a screen showing the initial registration procedure and displays the car navigation device 12. It is output and displayed on the display section 12C (St12). The screen showing the initial registration procedure here shows the procedure for acquiring the vehicle ID driven by the driver, the driver's license ID, and the driver's biometric information, which are examples of initial registration data. 1 or more screens.

一方、車両C1,…のそれぞれは、ステップSt11の処理において、運転者の初期登録を要求する操作がないと判定した場合(St11,NO)、図6に示す初期登録手順を終了する。 On the other hand, in the process of step St11, each of the vehicles C1, .

車両C1,…のそれぞれは、車両IDの登録を実行し(St13)、免許証IDの登録を実行し(St14)、顔画像の登録を実行する(St15)。車両C1,…のそれぞれは、ステップSt13~ステップSt15のそれぞれの処理(つまり、初期登録)がすべて完了したか否かを判定する(St16)。 Each of the vehicles C1, . . . registers a vehicle ID (St13), registers a license ID (St14), and registers a face image (St15). Each of the vehicles C1, . . . determines whether or not the respective processes of steps St13 to St15 (that is, initial registration) are all completed (St16).

車両C1,…のそれぞれは、ステップSt16の処理において、ステップSt13~ステップSt15のそれぞれの処理(つまり、初期登録)がすべて完了したと判定した場合(St16,YES)、図6に示す初期登録手順を終了する。 If each of the vehicles C1,... determines in the process of step St16 that the processes of steps St13 to St15 (that is, initial registration) are all completed (St16, YES), the initial registration procedure shown in FIG. 6 is performed. end.

一方、車両C1,…のそれぞれは、ステップSt16の処理において、ステップSt13~ステップSt15のそれぞれの処理(つまり、初期登録)がすべて完了していないと判定した場合(St16,NO)、ステップSt12の処理に移行し、未完了であるステップSt13~ステップSt15の処理に対応する初期登録手順を表示し、未完了であるステップSt13~ステップSt15に対応する処理のみを再度実行する。例えば、車両C1,…のそれぞれは、ステップSt13の処理が未完了である場合には、ステップSt13の処理(車両IDの登録処理)に対応する初期登録手順を表示し、ステップSt13の処理(車両IDの登録処理)を再度実行する。 On the other hand, in the process of step St16, each of the vehicles C1, ..., if it is determined that the processes of steps St13 to St15 (that is, initial registration) are not all completed (St16, NO), the process of step St12 is performed. The process moves to display the initial registration procedure corresponding to the uncompleted steps St13 to St15, and only the uncompleted processes corresponding to steps St13 to St15 are executed again. For example, if the process of step St13 is not completed for each of the vehicles C1,..., the initial registration procedure corresponding to the process of step St13 (vehicle ID registration process) is displayed, and the process of step St13 (vehicle ID registration process) is displayed. ID registration process) is executed again.

次に、図7を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図7は、車両C1,…における車両ID登録手順例を示すフローチャートである。具体的に、図7は、図6に示すステップSt13の処理を示すフローチャートである。 Next, with reference to FIG. 7, the initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 7 is a flowchart showing an example of a vehicle ID registration procedure for vehicles C1, . Specifically, FIG. 7 is a flowchart showing the process of step St13 shown in FIG.

カーナビゲーション装置12は、メモリ12Bに記録された車両IDの登録手順に対応する画像、映像あるいは音声等を表示部12Cに出力する(St131)。 The car navigation device 12 outputs images, videos, audio, etc. corresponding to the vehicle ID registration procedure recorded in the memory 12B to the display unit 12C (St131).

車両C1,…のそれぞれは、以下に示すステップSt132A,ステップSt132BあるいはステップSt132Cのいずれかの処理により、自車両の車両IDを取得する(St132)。 Each of the vehicles C1, . . . acquires the vehicle ID of its own vehicle by performing any one of steps St132A, St132B, and St132C shown below (St132).

カーナビゲーション装置12は、運転者操作により、入力部12Dへの車両ID(例えば、車両のナンバープレート情報等)の入力を受け付ける(St132A)。 The car navigation device 12 accepts input of a vehicle ID (for example, vehicle license plate information, etc.) to the input unit 12D by the driver's operation (St132A).

ECU16は、メモリ15に記録された自車両の車両IDを取得する(St132B)。 The ECU 16 acquires the vehicle ID of the host vehicle recorded in the memory 15 (St132B).

車内カメラ13は、運転者により画角内にかざされた自車両の車検証を撮像し、撮像された車検証の撮像画像をカーナビゲーション装置12のプロセッサ12Aに出力する。カーナビゲーション装置12は、出力された車検証の撮像画像を画像解析し、撮像画像に映る車両IDを取得する(St132C)。 The in-vehicle camera 13 captures an image of the vehicle inspection certificate of the own vehicle that is held within the field of view by the driver, and outputs the captured image of the vehicle inspection certificate to the processor 12A of the car navigation device 12. The car navigation device 12 analyzes the output captured image of the vehicle inspection certificate and acquires the vehicle ID shown in the captured image (St132C).

取得された車両IDは、通信機器11に出力される。通信機器11は、出力された車両IDを、ネットワークNWを介して、運転特性サーバS1に送信する(St133)。 The acquired vehicle ID is output to the communication device 11. The communication device 11 transmits the output vehicle ID to the driving characteristic server S1 via the network NW (St133).

次に、図8を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図8は、車両C1,…における運転者の免許証ID登録手順例を示すフローチャートである。具体的に、図8は、図6に示すステップSt14の処理を示すフローチャートである。 Next, with reference to FIG. 8, the initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 8 is a flowchart showing an example of a procedure for registering a driver's license ID in the vehicle C1, . Specifically, FIG. 8 is a flowchart showing the process of step St14 shown in FIG.

カーナビゲーション装置12は、メモリ12Bに記録された免許証IDの登録手順に対応する画像、映像あるいは音声等を表示部12Cに出力する(St141)。 The car navigation device 12 outputs images, videos, audio, etc. corresponding to the license ID registration procedure recorded in the memory 12B to the display unit 12C (St141).

カーナビゲーション装置12は、運転者操作により、入力部12Dへの免許証ID(例えば、車両のナンバープレート情報等)の入力を受け付ける(St142)。なお、ステップSt142の処理は必須でなく、省略されてもよい。このような場合、カーナビゲーション装置12のプロセッサ12Aまたは運転特性サーバS1は、ステップSt143の処理で撮像された運転免許証の撮像画像を画像解析することで免許証IDを取得する。 The car navigation device 12 receives an input of a license ID (for example, vehicle license plate information, etc.) to the input unit 12D by the driver's operation (St142). Note that the process of step St142 is not essential and may be omitted. In such a case, the processor 12A of the car navigation device 12 or the driving characteristics server S1 acquires the license ID by analyzing the captured image of the driver's license captured in the process of step St143.

車内カメラ13は、運転者により画角内にかざされた運転者の運転免許証を撮像する(St143)。車内カメラ13は、撮像された運転免許証の撮像画像をカーナビゲーション装置12のプロセッサ12Aに出力する。カーナビゲーション装置12は、出力された運転免許証の撮像画像と、入力された免許証IDとを紐付けて、通信機器11に出力する。通信機器11は、カーナビゲーション装置12から出力された運転免許証の撮像画像と、免許証IDとを運転特性サーバS1に送信する(St144)。なお、ステップSt142の処理が省略される場合、通信機器11は、カーナビゲーション装置12から出力された運転免許証の撮像画像を運転特性サーバS1に送信する。 The in-vehicle camera 13 captures an image of the driver's driver's license held up within the viewing angle by the driver (St143). The in-vehicle camera 13 outputs the captured image of the driver's license to the processor 12A of the car navigation device 12. The car navigation device 12 associates the output captured image of the driver's license with the input license ID and outputs it to the communication device 11. The communication device 11 transmits the captured image of the driver's license output from the car navigation device 12 and the license ID to the driving characteristics server S1 (St144). Note that if the process in step St142 is omitted, the communication device 11 transmits the captured image of the driver's license output from the car navigation device 12 to the driving characteristics server S1.

次に、図9を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図9は、車両C1,…における運転者の顔画像登録手順例を示すフローチャートである。具体的に、図9は、図6に示すステップSt15の処理を示すフローチャートである。 Next, with reference to FIG. 9, the initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 9 is a flowchart showing an example of a procedure for registering a driver's face image in the vehicle C1, . Specifically, FIG. 9 is a flowchart showing the process of step St15 shown in FIG.

カーナビゲーション装置12は、メモリ12Bに記録された顔画像の登録手順に対応する画像、映像あるいは音声等を表示部12Cに出力する(St151)。カーナビゲーション装置12は、車内カメラ13を制御して、撮像を開始させる。 The car navigation device 12 outputs images, video, audio, etc. corresponding to the facial image registration procedure recorded in the memory 12B to the display unit 12C (St151). The car navigation device 12 controls the in-vehicle camera 13 to start capturing images.

車内カメラ13は、運転者により車内カメラ13の画角内に提示された運転者の運転免許証を撮像する。ここで、車内カメラ13は、運転免許証の全域であって、例えば、運転免許証に記載された運転者の顔画像と、運転免許証に記載された各種情報(例えば、運転者の氏名情報,住所情報,国籍情報,有効年月日情報,番号情報,種別情報等)とが画角内に映りこむように撮像する(St152)。車内カメラ13は、撮像された運転免許証の撮像画像をプロセッサ12Aに出力する。 The in-vehicle camera 13 captures an image of the driver's driver's license presented by the driver within the field of view of the in-vehicle camera 13. Here, the in-vehicle camera 13 captures the entire area of the driver's license, for example, the face image of the driver written on the driver's license and various information written on the driver's license (for example, the driver's name information). , address information, nationality information, effective date information, number information, type information, etc.) are captured within the angle of view (St152). The in-vehicle camera 13 outputs the captured image of the driver's license to the processor 12A.

なお、ステップSt142において免許証IDが運転者により入力される場合には、運転免許証に映る運転者の顔画像のみを撮像してもよいし、ステップSt143の処理において運転者の顔画像と、運転免許証に記載された各種情報とを撮像する場合には、ステップSt152の処理は省略されてもよい。また、撮像された運転免許証の撮像画像に運転者の顔画像と、運転免許証に記載された各種情報とが映っているか否かの判定は、運転特性サーバS1により実行されてもよいし、カーナビゲーション装置12のプロセッサ12Aにより実行されてもよい。 Note that when the driver's license ID is input in step St142, only the driver's face image that appears on the driver's license may be captured, or the driver's face image and the driver's face image in the process of step St143 may be captured. When capturing images of various information written on a driver's license, the process of step St152 may be omitted. Further, the determination as to whether or not the driver's face image and various information written on the driver's license are reflected in the captured image of the driver's license may be executed by the driving characteristic server S1. , may be executed by the processor 12A of the car navigation device 12.

車内カメラ13は、運転者の顔が正面を向いている状態で撮像し(St153)、撮像された正面顔画像F11をプロセッサ12Aに出力する。車内カメラ13は、運転者の顔が、運転者の正面に位置する車内カメラ13に対して右側を向いている状態で撮像し(St154)、撮像された右向き顔画像F12をプロセッサ12Aに出力する。車内カメラ13は、運転者の顔が、運転者の正面に位置する車内カメラ13に対して左側を向いている状態で撮像し(St154)、撮像された左向き顔画像F13をプロセッサ12Aに出力する。 The in-vehicle camera 13 captures an image of the driver's face facing forward (St153), and outputs the captured front face image F11 to the processor 12A. The in-vehicle camera 13 captures an image of the driver's face facing to the right with respect to the in-vehicle camera 13 located in front of the driver (St154), and outputs the captured right-facing face image F12 to the processor 12A. . The in-vehicle camera 13 captures an image of the driver's face facing to the left with respect to the in-vehicle camera 13 located in front of the driver (St154), and outputs the captured left-facing face image F13 to the processor 12A. .

カーナビゲーション装置12は、車内カメラ13から出力された運転免許証の撮像画像、正面顔画像F11、右向き顔画像F12、および左向き顔画像F13のそれぞれを通信機器11に出力し、運転特性サーバS1に送信させる(St155)。 The car navigation device 12 outputs each of the captured image of the driver's license, the front face image F11, the right face image F12, and the left face image F13 output from the in-vehicle camera 13 to the communication device 11, and sends them to the driving characteristic server S1. It is transmitted (St155).

次に、図10を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図10は、運転特性サーバS1における運転者の初期登録手順例を示すフローチャートである。 Next, with reference to FIG. 10, a driver initial registration procedure executed by the driving characteristics server S1 will be described. FIG. 10 is a flowchart illustrating an example of an initial registration procedure for a driver in the driving characteristic server S1.

運転特性管理システム100における運転特性サーバS1は、車両C1,…のそれぞれから初期登録を要求する制御指令を取得したか否かを判定する(St21)。 The driving characteristic server S1 in the driving characteristic management system 100 determines whether a control command requesting initial registration has been obtained from each of the vehicles C1, . . . (St21).

運転特性サーバS1は、ステップSt21の処理において、車両C1,…のそれぞれから初期登録を要求する制御指令を取得したと判定した場合(St21,YES)、制御指令に紐付けられた初期登録データの登録処理を実行する。なお、ここでいう初期登録データは、一例として、車両の車両IDと、運転者の免許証IDと、運転者の生体情報(ここでは、運転者の複数の顔画像であって、異なる3方向のそれぞれから撮像された3枚の顔画像)とを含むデータであるが、これに限定されないことは言うまでもない。 If the driving characteristic server S1 determines in the process of step St21 that a control command requesting initial registration has been acquired from each of the vehicles C1,... (St21, YES), the driving characteristics server S1 acquires the initial registration data linked to the control command. Execute the registration process. Note that the initial registration data here includes, for example, the vehicle ID of the vehicle, the driver's license ID, and the driver's biometric information (here, multiple facial images of the driver in three different directions). (3 face images taken from each of the above), but it goes without saying that the data is not limited to this.

一方、運転特性サーバS1は、ステップSt21の処理において、車両C1,…のそれぞれから初期登録を要求する制御指令を取得していないと判定した場合(St21,NO)、図10に示す初期登録手順を終了する。 On the other hand, if the driving characteristic server S1 determines in the process of step St21 that the control command requesting initial registration has not been acquired from each of the vehicles C1,... (St21, NO), the driving characteristic server S1 performs the initial registration procedure shown in FIG. end.

運転特性サーバS1は、車両IDの登録を実行し(St22)、免許証IDの登録を実行し(St23)、顔画像の登録を実行する(St24)。運転特性サーバS1は、ステップSt22~ステップSt24のそれぞれの処理(つまり、初期登録)がすべて完了したか否かを判定する(St25)。 The driving characteristics server S1 executes vehicle ID registration (St22), license ID registration (St23), and facial image registration (St24). The driving characteristic server S1 determines whether all the processes (ie, initial registration) of steps St22 to St24 have been completed (St25).

運転特性サーバS1は、ステップSt25の処理において、ステップSt22~ステップSt24のそれぞれの処理(つまり、初期登録)がすべて完了したと判定した場合(St25,YES)、図10に示す初期登録手順を終了する。 If the driving characteristics server S1 determines in the process of step St25 that each process of steps St22 to St24 (that is, initial registration) has been completed (St25, YES), the driving characteristics server S1 ends the initial registration procedure shown in FIG. do.

一方、運転特性サーバS1は、ステップSt25の処理において、ステップSt22~ステップSt24のそれぞれの処理(つまり、初期登録)がすべて完了していないと判定した場合(St25,NO)、ステップSt21の処理に移行し、未完了であるステップSt22~ステップSt24の処理に対応する初期登録手順を表示し、未完了であるステップSt22~ステップSt24に対応する処理のみを再度実行する。例えば、車両C1,…のそれぞれは、ステップSt22の処理が未完了である場合には、ステップSt22の処理に対応する初期登録手順を表示し、ステップSt22の処理である車両IDの登録処理を再度実行する。 On the other hand, if the driving characteristics server S1 determines in the process of step St25 that each process of steps St22 to St24 (that is, initial registration) has not been completed (St25, NO), the driving characteristic server S1 performs the process of step St21. The initial registration procedure corresponding to the uncompleted steps St22 to St24 is displayed, and only the uncompleted processes corresponding to steps St22 to St24 are executed again. For example, if the process of step St22 is not completed, each of the vehicles C1,... displays the initial registration procedure corresponding to the process of step St22, and repeats the vehicle ID registration process of step St22. Execute.

次に、図11を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図11は、運転特性サーバS1における車両ID登録手順例を示すフローチャートである。具体的に、図11は、図10に示すステップSt22の処理を示すフローチャートである。 Next, with reference to FIG. 11, a driver initial registration procedure executed by the driving characteristics server S1 will be described. FIG. 11 is a flowchart showing an example of a vehicle ID registration procedure in the driving characteristics server S1. Specifically, FIG. 11 is a flowchart showing the process of step St22 shown in FIG.

運転特性サーバS1は、車両C1,…のそれぞれから送信された車両IDを受信し、取得する(St221)。 The driving characteristic server S1 receives and acquires the vehicle ID transmitted from each of the vehicles C1, . . . (St221).

運転特性サーバS1は、取得された車両IDを解析し(St222)、初期登録される車両IDとして、解析された車両IDが有効であるか否かを判定する(St223)。例えば、運転特性サーバS1は、取得された車両IDが撮像画像である場合には、画像解析を実行し、車検証またはナンバープレートのいずれに基づく車両IDであるかを解析したり、取得された車両IDが運転者操作により入力された文字情報である場合には、文字情報が車検証またはナンバープレートに含まれるいずれの情報であるかを解析したりする。運転特性サーバS1は解析結果が、車両IDとして利用可能な情報であると判定した場合、車両IDが有効であると判定する。 The driving characteristic server S1 analyzes the acquired vehicle ID (St222), and determines whether the analyzed vehicle ID is valid as the initially registered vehicle ID (St223). For example, when the acquired vehicle ID is a captured image, the driving characteristics server S1 performs image analysis to analyze whether the vehicle ID is based on the vehicle inspection certificate or the license plate, or If the vehicle ID is character information input by the driver's operation, it is analyzed whether the character information is included in the vehicle inspection certificate or the license plate. If the driving characteristic server S1 determines that the analysis result is information that can be used as a vehicle ID, it determines that the vehicle ID is valid.

運転特性サーバS1は、ステップSt223の処理において、初期登録される車両IDとして、解析された車両IDが有効であると判定した場合(St223,YES)、新たな利用者IDを生成し、生成された利用者IDと車両IDとを紐付けて登録あるいは一時保存する(St224)。なお、ステップSt224の処理において、利用者IDの生成は必須でなく、省略されてよい。 If the driving characteristic server S1 determines in the process of step St223 that the analyzed vehicle ID is valid as the initially registered vehicle ID (St223, YES), it generates a new user ID and The user ID and vehicle ID are linked and registered or temporarily stored (St224). Note that in the process of step St224, generation of the user ID is not essential and may be omitted.

一方、運転特性サーバS1は、ステップSt223の処理において、初期登録される車両IDとして、解析された車両IDが有効でないと判定した場合(St223,NO)、車両IDの再送を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St225)。 On the other hand, if the driving characteristic server S1 determines in the process of step St223 that the analyzed vehicle ID is not valid as the initially registered vehicle ID (St223, NO), it issues a control command requesting retransmission of the vehicle ID. It is generated and transmitted (notified) to the vehicle via the network NW (St225).

運転特性サーバS1は、車両IDを登録した後、車両IDの登録完了を通知する制御指令を生成し、ネットワークNWを介して、車両に送信する(St226)。なお、ステップSt226の処理は、ステップSt234(図12参照)およびステップSt249(図13参照)のそれぞれの処理と同時に実行されてよい。 After registering the vehicle ID, the driving characteristics server S1 generates a control command to notify the completion of registration of the vehicle ID, and transmits it to the vehicle via the network NW (St226). Note that the process of step St226 may be executed simultaneously with the processes of step St234 (see FIG. 12) and step St249 (see FIG. 13).

次に、図12を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図12は、運転特性サーバS1における免許証ID登録手順例を示すフローチャートである。具体的に、図12は、図10に示すステップSt23の処理を示すフローチャートである。 Next, with reference to FIG. 12, a driver initial registration procedure executed by the driving characteristics server S1 will be described. FIG. 12 is a flowchart showing an example of a license ID registration procedure in the driving characteristic server S1. Specifically, FIG. 12 is a flowchart showing the process of step St23 shown in FIG.

運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の免許証IDを受信し、取得する(St231)。 The driving characteristic server S1 receives and acquires the driver's license ID transmitted from each of the vehicles C1, . . . (St231).

運転特性サーバS1は、取得された免許証IDに対応する運転免許証の各種情報(例えば、運転免許証に記載された運転者の顔画像,氏名情報,住所情報,国籍情報,有効年月日情報,番号情報,種別情報等)を要求する制御指令を生成して、免許証サーバS2に送信する。運転特性サーバS1は、免許証サーバS2から送信された免許証IDに対応する運転免許証の各種情報を取得する(St232A)。なお、ステップSt232Aの処理は、車両C1,…のそれぞれから運転免許証に記載の顔画像を取得可能でない場合、あるいは取得された顔画像と運転特性テーブルTB1に登録済みの運転者の顔画像とが照合されない場合等に実行されてよい。 The driving characteristics server S1 stores various information about the driver's license corresponding to the acquired license ID (for example, the driver's face image, name information, address information, nationality information, and expiration date written on the driver's license). information, number information, type information, etc.) and sends it to the license server S2. The driving characteristics server S1 acquires various information on the driver's license corresponding to the license ID transmitted from the license server S2 (St232A). Note that the process in step St232A is performed when it is not possible to acquire the facial images written on the driver's license from each of the vehicles C1, ..., or when the acquired facial images and the facial images of the drivers registered in the driving characteristics table TB1 are combined. This may be executed when, for example, there is no match.

運転特性サーバS1は、取得された免許証IDが有効であるか否かを判定する(St232B)。具体的に、運転特性サーバS1は、取得された免許証IDが運転免許証の撮像画像である場合には、撮像画像から各種情報を読み取り可能であるか否か、あるいは文字認識により運転免許証が有効期限であるか否かを判定したり、取得された免許証IDに含まれる運転者の顔画像と運転特性テーブルTB1に登録済みの運転者の顔画像とを照合し、運転者を特定可能であるか否かを判定したりする。 The driving characteristic server S1 determines whether the acquired license ID is valid (St232B). Specifically, when the acquired license ID is a captured image of a driver's license, the driving characteristics server S1 checks whether various information can be read from the captured image or whether the driver's license is recognized by character recognition. The driver is identified by determining whether or not the expiration date has expired, and by comparing the driver's facial image included in the acquired license ID with the driver's facial image registered in the driving characteristics table TB1. Determine whether or not it is possible.

運転特性サーバS1は、ステップSt232Aの処理の後、またはステップSt232Bの処理において、取得された免許証IDが有効であると判定した場合(St232B,YES)、取得された免許証IDを登録する(St233)。なお、運転特性サーバS1は、運転特性テーブルTB1において既に登録済みの免許証IDであると判定した場合には、ステップSt233における免許証IDの登録処理を省略してよい。 If the driving characteristics server S1 determines that the acquired license ID is valid after the process of step St232A or in the process of step St232B (St232B, YES), the driving characteristics server S1 registers the acquired license ID ( St233). Note that if the driving characteristic server S1 determines that the license ID is already registered in the driving characteristic table TB1, the driving characteristic server S1 may omit the license ID registration process in step St233.

一方、運転特性サーバS1は、ステップSt232Bの処理において、取得された免許証IDが有効でないと判定した場合(St232B,NO)、免許証IDの再送を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St232C)。なお、運転特性サーバS1は、ステップSt232Aの処理において、免許証サーバS2から運転免許証の各種情報が取得不可である場合も同様に、ステップSt232Cの処理を実行してもよい。 On the other hand, if the driving characteristic server S1 determines in the process of step St232B that the acquired license ID is not valid (St232B, NO), it generates a control command requesting retransmission of the license ID, and connects the network NW. The information is transmitted (notified) to the vehicle via the vehicle (St232C). In addition, in the process of step St232A, the driving characteristic server S1 may similarly execute the process of step St232C even if various information on the driver's license cannot be acquired from the license server S2.

運転特性サーバS1は、免許証IDを登録した後、免許証IDの登録完了を通知する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St234)。なお、ステップSt234の処理は、ステップSt226(図11参照)およびステップSt249(図13参照)のそれぞれの処理と同時に実行されてよい。 After registering the license ID, the driving characteristic server S1 generates a control command to notify the completion of registration of the license ID, and transmits (notifies) the control command to the vehicle via the network NW (St234). Note that the process in step St234 may be executed simultaneously with the processes in step St226 (see FIG. 11) and step St249 (see FIG. 13).

次に、図13を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図13は、運転特性サーバS1における顔画像登録手順例を示すフローチャートである。具体的に、図13は、図10に示すステップSt24の処理を示すフローチャートである。 Next, with reference to FIG. 13, a driver initial registration procedure executed by the driving characteristics server S1 will be described. FIG. 13 is a flowchart showing an example of a facial image registration procedure in the driving characteristics server S1. Specifically, FIG. 13 is a flowchart showing the process of step St24 shown in FIG.

運転特性サーバS1は、車両C1,…のそれぞれから送信された運転免許証の撮像画像を受信し、取得する(St241)。また、運転特性サーバS1は、車両C1,…のそれぞれから送信された正面顔画像、左向き顔画像、および右向き顔画像のそれぞれ(生体情報の一例)を受信し、取得する(St242)。 The driving characteristic server S1 receives and acquires the captured image of the driver's license transmitted from each of the vehicles C1, . . . (St241). Further, the driving characteristics server S1 receives and acquires each of the front face image, the left-facing face image, and the right-facing face image (an example of biological information) transmitted from each of the vehicles C1, . . . (St242).

運転特性サーバS1は、取得された運転免許証の撮像画像に映る運転者の顔画像と、正面顔画像との顔照合を実行して、運転免許証の撮像画像に映る運転者の顔画像と、取得された正面顔画像とが同一あるいは類似するか否か(つまり、同一人物であるか否か)を判定する(St243)。 The driving characteristic server S1 performs face matching between the driver's face image shown in the captured image of the driver's license and the front face image, and compares the driver's face image shown in the captured image of the driver's license with the front face image. , it is determined whether the acquired front face image is the same or similar (that is, whether they are the same person) (St243).

運転特性サーバS1は、ステップSt243の処理において、運転免許証の撮像画像に映る運転者の顔画像と、取得された正面顔画像とが同一あるいは類似する(つまり、同一人物である)と判定した場合(St243,YES)、この正面顔画像と、左向き顔画像および右向き顔画像のそれぞれとを用いて、顔照合を実行する(St244)。 In the process of step St243, the driving characteristic server S1 determines that the driver's face image reflected in the captured image of the driver's license and the acquired front face image are the same or similar (that is, they are the same person). If so (St243, YES), face verification is performed using this frontal face image and each of the left-facing face image and the right-facing face image (St244).

一方、運転特性サーバS1は、ステップSt243の処理において、運転免許証の撮像画像に映る運転者の顔画像と正面顔画像とが同一あるいは類似する(つまり、同一人物でない)と判定した場合(St243,NO)、運転免許証の撮像画像あるいは正面顔画像の撮像やり直し(つまり、再撮像)を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St245)。 On the other hand, if the driving characteristic server S1 determines in the process of step St243 that the driver's face image and the frontal face image reflected in the captured image of the driver's license are the same or similar (that is, they are not the same person) (St243 , NO), a control command requesting re-imaging (that is, re-imaging) of the driver's license image or front face image is generated and transmitted (notified) to the vehicle via the network NW (St245).

運転特性サーバS1は、正面顔画像に映る顔と、左向き顔画像および右向き顔画像のそれぞれに映る顔とが同一あるいは類似する(つまり、同一人物である)か否かを判定する(St246)。 The driving characteristics server S1 determines whether the face shown in the frontal face image and the faces shown in each of the left-facing face image and the right-facing face image are the same or similar (that is, they are the same person) (St246).

運転特性サーバS1は、ステップSt246の処理において、正面顔画像に映る顔と、左向き顔画像および右向き顔画像のそれぞれに映る顔とが同一あるいは類似する(つまり、同一人物である)と判定した場合(St246,YES)、ステップSt232Bの処理において、有効であると判定された免許証IDに、運転免許証の撮像画像と、正面顔画像、左向き顔画像、および右向き顔画像のそれぞれとを紐付けて記録する(St247)。 When the driving characteristic server S1 determines in the process of step St246 that the face shown in the frontal face image and the faces shown in each of the left-facing face image and the right-facing face image are the same or similar (that is, they are the same person). (St246, YES), in the process of step St232B, the captured image of the driver's license and each of the frontal face image, left-facing face image, and right-facing face image are linked to the license ID determined to be valid. and record it (St247).

一方、運転特性サーバS1は、ステップSt246の処理において、正面顔画像に映る顔と、左向き顔画像および右向き顔画像のそれぞれに映る顔とが同一あるいは類似しない(つまり、同一人物でない)と判定した場合(St246,NO)、運転免許証の撮像画像、正面顔画像、左向き顔画像、および右向き顔画像のそれぞれの撮像やり直し(つまり、再撮像)を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St248)。 On the other hand, in the process of step St246, the driving characteristic server S1 determines that the face shown in the frontal face image and the faces shown in each of the left-facing face image and the right-facing face image are the same or not similar (that is, they are not the same person). (St246, NO), generates a control command requesting re-imaging (that is, re-imaging) of each of the captured image of the driver's license, the frontal face image, the left-facing face image, and the right-facing face image, and sends the captured image via the network NW. and transmits (notifies) the vehicle (St248).

運転特性サーバS1は、生体情報の一例としての複数の顔画像のそれぞれを免許証IDに紐付けて登録した後、顔画像の登録完了を通知する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St249)。なお、ステップSt249の処理は、ステップSt226(図11参照)およびステップSt234(図12参照)のそれぞれの処理と同時に実行されてよい。 The driving characteristics server S1 registers each of the plurality of facial images as an example of biometric information by linking them to the driver's license ID, and then generates a control command to notify the completion of registration of the facial images, and via the network NW, The information is transmitted (notified) to the vehicle (St249). Note that the process in step St249 may be executed simultaneously with the processes in step St226 (see FIG. 11) and step St234 (see FIG. 12).

次に、図14を参照して、運転特性管理システム100により実行される運転者の運転特性データの収集手順について説明する。図14は、実施の形態1に係る運転特性管理システム100の運転者の運転特性データ収集手順例を示すシーケンス図である。なお、以降の説明では、運転者の生体情報として運転者の正面顔画像、左向き顔画像および右向き顔画像のそれぞれを用いる例について説明するが、これに限定されないことは言うまでもない。 Next, with reference to FIG. 14, a description will be given of a procedure for collecting the driver's driving characteristic data, which is executed by the driving characteristic management system 100. FIG. 14 is a sequence diagram illustrating an example of a driver's driving characteristic data collection procedure in the driving characteristic management system 100 according to the first embodiment. Note that in the following description, an example will be described in which a front face image, a left-facing face image, and a right-facing face image of the driver are used as the driver's biometric information, but it goes without saying that the present invention is not limited to this.

また、図14~図16のそれぞれを参照して説明する運転特性データの収集手順は、初期登録完了後、あるいは事前に初期登録済みの車両C1を運転者が運転する場合に実行される処理である。なお、運転特性データの収集手順は、他の車両でも同様である。 Furthermore, the driving characteristic data collection procedure described with reference to each of FIGS. 14 to 16 is a process executed after the initial registration is completed or when the driver drives the vehicle C1 that has been initially registered in advance. be. Note that the procedure for collecting driving characteristic data is the same for other vehicles.

運転者は、車両C1に乗車する(St301)。車両C1のECU16は、1以上あるいは2以上の運転者の乗車検知条件を満たすか否かに基づいて、運転者の乗車を検知する(St302)。ECU16は、運転者の乗車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aに出力するとともに、運転者の運転特性データのセンシング(取得)を開始する。カーナビゲーション装置12は、ECU16から出力された制御指令に基づいて、運転者の運転特性データのセンシング(取得)を開始する。 The driver gets on the vehicle C1 (St301). The ECU 16 of the vehicle C1 detects the driver's boarding based on whether one or more or two or more driver's boarding detection conditions are satisfied (St302). The ECU 16 generates a control command indicating that the driver's boarding is detected and outputs it to the processor 12A of the car navigation device 12, and starts sensing (obtaining) the driver's driving characteristic data. The car navigation device 12 starts sensing (obtaining) the driver's driving characteristic data based on the control command output from the ECU 16 .

なお、運転特性データは、各種センサ(例えば車内カメラ13,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19あるいはGPSセンサ20等(図2参照))により取得され、カーナビゲーション装置12あるいはECU16に出力される。 The driving characteristic data may be obtained from various sensors (for example, the inside camera 13, the gyro sensor 14, the accelerator pedal 17A, the brake pedal 17B, the turn lamp 17C, the steering wheel 17D, the speed sensor 18, the outside sensor/camera 19, or the GPS sensor 20, etc.). 2)) and output to the car navigation device 12 or ECU 16.

ECU16は、取得された運転者の運転特性データをカーナビゲーション装置12に出力する。カーナビゲーション装置12は、取得された1以上の運転特性データと車両IDとを紐付けて通信機器11に出力する(St304)。通信機器11は、紐付けられた1以上の運転特性データと車両IDとを、ネットワークNWを介して、運転特性サーバS1に送信させる(St305)。 The ECU 16 outputs the acquired driving characteristic data of the driver to the car navigation device 12. The car navigation device 12 associates the acquired one or more driving characteristic data with the vehicle ID and outputs it to the communication device 11 (St304). The communication device 11 transmits one or more linked driving characteristic data and the vehicle ID to the driving characteristic server S1 via the network NW (St305).

運転特性サーバS1は、通信機器11から送信された運転特性データと車両IDとを受信して、一時保存する(St306)。 The driving characteristics server S1 receives the driving characteristics data and vehicle ID transmitted from the communication device 11, and temporarily stores them (St306).

また、車両C1は、車内カメラ13によって運転者の顔を撮像する(St307)。車内カメラ13は、撮像された顔画像をカーナビゲーション装置12に出力する。カーナビゲーション装置12は、車内カメラ13により撮像された1以上の顔画像と、車両IDとを紐付けて、通信機器11に出力する(St308)。通信機器11は、紐付けられた1以上の運転者の顔画像と車両IDとを、ネットワークNWを介して、運転特性サーバS1に送信させる(St309)。 The vehicle C1 also captures an image of the driver's face using the in-vehicle camera 13 (St307). The in-vehicle camera 13 outputs the captured facial image to the car navigation device 12. The car navigation device 12 associates one or more facial images captured by the in-vehicle camera 13 with the vehicle ID and outputs the result to the communication device 11 (St308). The communication device 11 transmits the linked facial images of one or more drivers and the vehicle ID to the driving characteristic server S1 via the network NW (St309).

なお、ステップSt307の処理で撮像される顔画像は、異なる2以上の方向を向いている運転者の顔が撮像された複数の顔画像(例えば、運転者の正面顔画像、左向き顔画像および右向き顔画像のうちいずれか2枚以上の顔画像)であることが望ましいが、少なくとも1枚の正面顔画像であればよい。また、顔画像に映る運転者の顔の向きの判定は、運転特性サーバS1により実行されてよい。 Note that the facial images captured in the process of step St307 include a plurality of facial images in which the driver's face is captured facing two or more different directions (for example, a frontal facial image, a left-facing facial image, and a right-facing facial image of the driver). Although it is desirable that the image be any two or more facial images among the facial images, it is sufficient if it is at least one frontal facial image. Further, the determination of the direction of the driver's face reflected in the face image may be executed by the driving characteristics server S1.

運転特性サーバS1は、通信機器11から送信された車両IDと運転者の顔画像とを受信して、取得する(St310)。運転特性サーバS1は、取得された運転者の顔画像の顔照合を実行し、運転特性テーブルTB1に登録済みの複数の運転者の顔画像(例えば、運転免許証の撮像画像に映る顔画像)のうち、取得された運転者の顔画像に同一あるいは類似する顔画像があるか否かを判定する(St311)。 The driving characteristic server S1 receives and acquires the vehicle ID and the driver's face image transmitted from the communication device 11 (St310). The driving characteristic server S1 performs face matching on the acquired driver's facial images, and compares the facial images of multiple drivers registered in the driving characteristic table TB1 (for example, the facial image shown in the captured image of the driver's license). It is determined whether there is a face image that is the same as or similar to the acquired face image of the driver (St311).

運転特性サーバS1は、運転特性テーブルTB1に登録済みの複数の運転者の顔画像のうち、取得された運転者の顔画像に同一あるいは類似する顔画像に対応する運転者を、取得された顔画像に対応する運転者であると特定する。また、運転特性サーバS1は、一時保存された運転特性データのうち、運転者の顔画像に紐付けられた車両IDと同一の車両IDに紐付けられた運転特性データを抽出する。運転特性サーバS1は、抽出された運転特性データを、特定された運転者の免許証IDに紐付けて記録(保存)する(St312)。 The driving characteristic server S1 selects a driver corresponding to a face image that is the same as or similar to the acquired driver's face image from among the plurality of driver's face images registered in the driving characteristic table TB1. Identify the driver corresponding to the image. Further, the driving characteristic server S1 extracts, from among the temporarily stored driving characteristic data, driving characteristic data linked to the same vehicle ID as the vehicle ID linked to the driver's face image. The driving characteristic server S1 records (saves) the extracted driving characteristic data in association with the identified driver's license ID (St312).

運転者は、運転終了後、降車する(St313)。車両C1のECU16は、1以上あるいは2以上の運転者の降車検知条件を満たすか否かに基づいて、運転者の降車を検知する(St314)。ECU16は、運転者の降車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aに出力するとともに、運転者の運転特性データのセンシング(取得)を終了する。カーナビゲーション装置12は、ECU16から出力された制御指令に基づいて、運転者の運転特性データのセンシング(取得)を終了する。 After the driver finishes driving, the driver gets off the vehicle (St313). The ECU 16 of the vehicle C1 detects the driver's alighting based on whether one or more or two or more driver alighting detection conditions are satisfied (St314). The ECU 16 generates a control command indicating that the driver has exited the vehicle, outputs it to the processor 12A of the car navigation device 12, and ends sensing (obtaining) the driver's driving characteristic data. The car navigation device 12 finishes sensing (obtaining) the driver's driving characteristic data based on the control command output from the ECU 16.

通信機器11は、ステップSt302からステップSt314までの期間T1に亘って、カーナビゲーション装置12またはECU16により取得された運転特性データを運転特性サーバS1に送信し続ける。運転特性サーバS1は、通信機器11から期間T1の間に取得された運転特性データを、運転者の免許証IDに紐付けて、運転特性テーブルTB1に記録し続ける。 The communication device 11 continues to transmit the driving characteristic data acquired by the car navigation device 12 or the ECU 16 to the driving characteristic server S1 over a period T1 from step St302 to step St314. The driving characteristic server S1 continues to record the driving characteristic data acquired during the period T1 from the communication device 11 in the driving characteristic table TB1 in association with the driver's license ID.

免許証サーバS2は、無線端末装置P1から送信された所定の運転者の運転評価を要求する制御指令を取得した場合(St315)、所定の運転者の運転評価を要求する制御指令と免許証IDとを紐付けて、運転特性サーバS1に送信する(St316)。 When the license server S2 acquires the control command requesting the driving evaluation of a predetermined driver transmitted from the wireless terminal device P1 (St315), the license server S2 receives the control command requesting the driving evaluation of the predetermined driver and the license ID. and is sent to the driving characteristics server S1 (St316).

運転特性サーバS1は、免許証サーバS2から送信された制御指令と免許証IDとを取得する。運転特性サーバS1は、取得された制御指令に基づいて、運転特性テーブルTB1に登録済みの複数の運転者の免許証IDと、取得された所定の運転者の免許証IDとを照合する。運転特性サーバS1は、照合された免許証IDに紐付けられた運転特性データを用いて、所定の運転者の運転評価を実行する(St317)。運転特性サーバS1は、運転評価結果を免許証サーバS2に送信する(St318)。 The driving characteristics server S1 acquires the control command and license ID transmitted from the license server S2. Based on the acquired control command, the driving characteristic server S1 compares the license IDs of a plurality of drivers already registered in the driving characteristic table TB1 with the acquired license ID of a predetermined driver. The driving characteristic server S1 executes a driving evaluation of a predetermined driver using the driving characteristic data linked to the verified license ID (St317). The driving characteristic server S1 transmits the driving evaluation result to the license server S2 (St318).

免許証サーバS2は、運転特性サーバS1から送信された運転評価結果を取得する(St319)。免許証サーバS2は、免許証テーブルTB2に登録された免許証IDに紐付けて記録するとともに、無線端末装置P1に送信する。なお、無線端末装置P1は、カーナビゲーション装置12により実現されてもよい。なお、所定の運転者の運転評価処理は、免許証サーバS2により実行されてよい。このような場合、免許証サーバS2は、運転特性サーバS1から運転評価に用いられる運転特性データを取得する。 The license server S2 acquires the driving evaluation result transmitted from the driving characteristics server S1 (St319). The license server S2 records the information in association with the license ID registered in the license table TB2 and transmits it to the wireless terminal device P1. Note that the wireless terminal device P1 may be realized by the car navigation device 12. Note that the driving evaluation process for a predetermined driver may be executed by the license server S2. In such a case, the license server S2 acquires driving characteristic data used for driving evaluation from the driving characteristic server S1.

次に、図15を参照して、車両C1,…のそれぞれで実行される運転者の運転特性データ取得手順について説明する。図15は、車両C1,…における運転者の運転特性データ取得手順例を示すフローチャートである。 Next, with reference to FIG. 15, a driver driving characteristic data acquisition procedure executed in each of the vehicles C1, . . . will be described. FIG. 15 is a flowchart illustrating an example of a procedure for acquiring driving characteristic data of the driver in the vehicle C1, .

車両C1,…のそれぞれは、運転席への運転者の乗車を検知したか否かを判定する(St31)。車両C1,…のそれぞれは、ステップSt31の処理において、運転者の乗車を検知したと判定した場合(St31,YES)、各種センサによる運転者の運転特性データの取得を開始する(St32)。 Each of the vehicles C1, . . . determines whether or not a driver entering the driver's seat is detected (St31). When each of the vehicles C1,... determines that the driver's boarding is detected in the process of step St31 (St31, YES), each of the vehicles C1, . . . starts acquiring driving characteristic data of the driver using various sensors (St32).

一方、車両C1,…のそれぞれは、ステップSt31の処理において、運転者の乗車を検知していないと判定した場合(St31,NO)、ステップSt31の処理に戻り、運転席への運転者の乗車検知を継続する。 On the other hand, if each of the vehicles C1,... determines in the process of step St31 that the driver's boarding is not detected (St31, NO), the process returns to step St31, and the driver's boarding is detected in the driver's seat. Continue detection.

車両C1,…のそれぞれは、車内カメラ13により運転者の顔を撮像する(St33)。なお、ここで撮像される顔画像は、正面顔画像F21,右向き顔画像F22および左向き顔画像F23のそれぞれであることが望ましいが、これに限定されなくてもよい。 Each of the vehicles C1, . . . captures an image of the driver's face using the in-vehicle camera 13 (St33). The face images captured here are preferably the front face image F21, the right face image F22, and the left face image F23, but are not limited thereto.

車両C1,…のそれぞれは、自車両の車両IDと、各種センサにより取得された1以上の運転特性データと、正面顔画像F21,右向き顔画像F22および左向き顔画像F23のそれぞれとを紐付けて、運転特性サーバS1に送信する(St34)。 Each of the vehicles C1, . , is transmitted to the driving characteristic server S1 (St34).

車両C1,…のそれぞれは、運転席からの運転者の降車を検知したか否かを判定する(St35)。車両C1,…のそれぞれは、ステップSt35の処理において、運転者の降車を検知したと判定した場合(St35,YES)、各種センサによる運転者の運転特性データの取得を終了して、図15に示す運転者の運転特性データ取得手順を終了する。なお、車両C1,…のそれぞれは、運転者の降車を検知した場合、運転者による運転が終了した旨を通知する制御指令を生成し、生成された制御指令と車両IDとを紐付けて、運転特性サーバS1に送信してもよい。 Each of the vehicles C1, . . . determines whether or not the exit of the driver from the driver's seat is detected (St35). If each of the vehicles C1,... determines in the process of step St35 that the driver's getting out of the vehicle is detected (St35, YES), each of the vehicles C1,... finishes acquiring the driver's driving characteristic data using the various sensors, and returns to the state shown in FIG. The procedure for acquiring driving characteristic data of the driver shown in FIG. Note that when each of the vehicles C1,... detects that the driver has exited the vehicle, it generates a control command to notify that the driver has finished driving, and links the generated control command with the vehicle ID. It may also be transmitted to the driving characteristic server S1.

一方、車両C1,…のそれぞれは、ステップSt35の処理において、運転者の降車を検知していないと判定した場合(St35,NO)、ステップSt21の処理に戻り、各種センサによる運転者の運転特性データの取得を継続する。なお、ステップSt33の処理は、運転特性サーバS1による運転者の特定処理(ステップSt44)の完了後、省略されてもよい。 On the other hand, if each of the vehicles C1,... determines in the process of step St35 that the driver's alighting is not detected (St35, NO), the process returns to step St21, and the driver's driving characteristics determined by various sensors are detected. Continue data acquisition. Note that the process in step St33 may be omitted after the driver identification process (step St44) by the driving characteristics server S1 is completed.

次に、図16を参照して、運転特性サーバS1で実行される運転者の運転特性データ収集手順について説明する。図16は、運転特性サーバS1における運転者の運転特性データ収集手順例を示すフローチャートである。 Next, with reference to FIG. 16, a driver's driving characteristic data collection procedure executed by the driving characteristic server S1 will be described. FIG. 16 is a flowchart showing an example of a procedure for collecting driver's driving characteristic data in the driving characteristic server S1.

運転特性サーバS1は、車両C1,…のそれぞれから送信された車両IDと、1以上の運転特性データと、1枚以上の顔画像とを受信したか否かを判定する(St41)。 The driving characteristic server S1 determines whether or not the vehicle ID, one or more driving characteristic data, and one or more facial images transmitted from each of the vehicles C1, . . . are received (St41).

運転特性サーバS1は、ステップSt41の処理において、車両C1,…のそれぞれから送信された車両IDと、1以上の運転特性データと、1枚以上の顔画像とを受信したと判定した場合(St41,YES)、運転特性データを車両IDごとに、メモリ43に一時保存する(St42)。 When the driving characteristic server S1 determines in the process of step St41 that it has received the vehicle ID, one or more driving characteristic data, and one or more face images transmitted from each of the vehicles C1,... (St41 , YES), the driving characteristic data is temporarily stored in the memory 43 for each vehicle ID (St42).

一方、運転特性サーバS1は、ステップSt41の処理において、車両C1,…のそれぞれから送信された車両IDと、1以上の運転特性データと、1枚以上の顔画像とを受信していないと判定した場合(St41,NO)、ステップSt41の処理に戻る。 On the other hand, in the process of step St41, the driving characteristic server S1 determines that it has not received the vehicle ID, one or more driving characteristic data, and one or more facial images transmitted from each of the vehicles C1,... If so (St41, NO), the process returns to step St41.

運転特性サーバS1は、取得された運転者の顔画像の顔照合を実行する(St43)。運転特性サーバS1は、運転特性テーブルTB1に登録済みの複数の運転者の顔画像(例えば、運転免許証の撮像画像に映る顔画像)のうち、取得された運転者の顔画像に同一あるいは類似する顔画像があるか否かに基づいて、取得された運転者の顔画像に同一あるいは類似する顔画像に紐付けられた運転者の免許証IDを特定する(St44)。 The driving characteristic server S1 performs face verification of the acquired face image of the driver (St43). The driving characteristic server S1 selects a facial image that is the same or similar to the acquired driver's facial image from among the plurality of facial images of drivers registered in the driving characteristic table TB1 (for example, facial images reflected in a captured image of a driver's license). Based on whether or not there is a face image that is the same as or similar to the acquired face image of the driver, the driver's license ID associated with the face image that is the same as or similar to the acquired face image of the driver is specified (St44).

なお、ここで運転特性サーバS1は、ステップSt43の処理の前に、車両C1,…のそれぞれから送信された車両IDと、運転特性テーブルTB1に登録済みの複数の車両IDのそれぞれとを照合し、照合された車両IDに紐付けられた1以上の運転者の免許証IDを抽出してもよい。これにより、運転特性サーバS1は、ステップSt44の処理において、運転特性テーブルTB1に登録済みであって、取得された運転者の顔画像と照合される運転者の顔画像の枚数を減少させ、顔照合の照合精度を向上させることができる。 Note that, before the process in step St43, the driving characteristic server S1 compares the vehicle ID transmitted from each of the vehicles C1, . . . with each of the plurality of vehicle IDs registered in the driving characteristic table TB1. , one or more driver's license IDs linked to the verified vehicle ID may be extracted. As a result, in the process of step St44, the driving characteristic server S1 reduces the number of driver's face images that have been registered in the driving characteristic table TB1 and is compared with the acquired driver's face image, and The matching accuracy of matching can be improved.

運転特性サーバS1は、ステップSt44の処理において、取得された運転者の顔画像に同一あるいは類似する顔画像があると判定した場合、この顔画像に紐付けられた運転者の免許証IDに基づいて、取得された顔画像に対応する運転者を特定したと判定する(St44,YES)。運転特性サーバS1は、特定された免許証IDに、取得された運転特性データを紐付けて運転特性テーブルTB1に記録(蓄積)する(St45)。 If the driving characteristic server S1 determines in the process of step St44 that there is a face image that is the same as or similar to the acquired face image of the driver, the driving characteristics server S1 performs a search based on the driver's license ID linked to this face image. Then, it is determined that the driver corresponding to the acquired face image has been identified (St44, YES). The driving characteristic server S1 records (accumulates) the acquired driving characteristic data in association with the specified license ID in the driving characteristic table TB1 (St45).

一方、運転特性サーバS1は、ステップSt44の処理において、取得された運転者の顔画像に同一あるいは類似する顔画像がないと判定した場合、この顔画像に紐付けられた運転者の免許証IDに基づいて、取得された顔画像に対応する運転者を特定できないと判定する(St44,NO)。運転特性サーバS1は、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したか否かを判定する(St46)。 On the other hand, if the driving characteristic server S1 determines in the process of step St44 that there is no face image that is the same as or similar to the acquired face image of the driver, the driving characteristic server S1 identifies the driver's license ID linked to this face image. Based on this, it is determined that the driver corresponding to the acquired face image cannot be identified (St44, NO). The driving characteristic server S1 determines whether a control command to notify the end of driving has been received from each of the vehicles C1, . . . (St46).

運転特性サーバS1は、ステップSt46の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したと判定した場合(St46,YES)、取得された顔画像と、1以上の運転特性データとを紐付けて、車両IDごとに一時保存する(St47A)。運転特性サーバS1は、同日あるいは後日、再度、新たに取得された顔画像を用いて、ステップSt44の処理を実行する。運転特性サーバS1は、運転者の免許証IDが特定されたと判定した場合、同一の車両IDが紐付けられ、一時保存された運転特性データを、特定された免許証IDに紐付けて記録(蓄積)する(St47A)。これにより、運転特性サーバS1は、免許証IDの初期登録が完了していない場合であっても、一時保存された運転特性データを蓄積できる。 If the driving characteristic server S1 determines in the process of step St46 that a control command to notify the end of driving has been received from each of the vehicles C1,... (St46, YES), the driving characteristic server S1 stores the acquired facial image and one or more and the driving characteristic data of the vehicle, and are temporarily stored for each vehicle ID (St47A). The driving characteristic server S1 executes the process of step St44 again on the same day or at a later date using the newly acquired facial image. If the driving characteristics server S1 determines that the driver's license ID has been identified, the driving characteristics server S1 records the temporarily stored driving characteristics data associated with the same vehicle ID in association with the identified license ID ( accumulation) (St47A). Thereby, the driving characteristic server S1 can accumulate temporarily saved driving characteristic data even if the initial registration of the license ID is not completed.

また、運転特性サーバS1は、ステップSt46の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したと判定した場合(St46,YES)、同一の車両IDに紐付けられた運転特性データを破棄(削除)する(St47B)。 In addition, in the process of step St46, if the driving characteristics server S1 determines that a control command to notify the end of driving has been received from each of the vehicles C1,... (St46, YES), the driving characteristic server S1 links the driving characteristics to the same vehicle ID. The generated driving characteristic data is discarded (deleted) (St47B).

運転特性サーバS1は、車両C1,…のそれぞれから免許証IDが特定済みの車両IDに紐付けられた1以上の運転特性データと、1枚以上の顔画像とを受信したか否かを判定する(St48)。 The driving characteristic server S1 determines whether or not it has received one or more driving characteristic data and one or more facial images linked to the vehicle ID whose license ID has been specified from each of the vehicles C1,... (St48).

運転特性サーバS1は、ステップSt48の処理において、免許証IDが特定済みの車両IDに紐付けられた1以上の運転特性データと、1枚以上の顔画像とを受信したと判定した場合(St48,YES)、特定されている免許証IDに取得された運転特性データを紐付けて運転特性テーブルTB1に記録(蓄積)する(St45)。 If the driving characteristic server S1 determines in the process of step St48 that the license ID has received one or more driving characteristic data linked to the specified vehicle ID and one or more facial images (St48 , YES), the acquired driving characteristic data is linked to the specified license ID and recorded (accumulated) in the driving characteristic table TB1 (St45).

一方、運転特性サーバS1は、ステップSt48の処理において、免許証IDが特定済みの車両IDに紐付けられた1以上の運転特性データと、1枚以上の顔画像とを受信しないと判定した場合(St48,NO)、運転特性サーバS1は、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したか否かを判定する(St49)。 On the other hand, if the driving characteristic server S1 determines in the process of step St48 that the driver's license ID does not receive one or more driving characteristic data linked to the specified vehicle ID and one or more facial images. (St48, NO), the driving characteristic server S1 determines whether or not a control command to notify the end of driving has been received from each of the vehicles C1, . . . (St49).

運転特性サーバS1は、ステップSt49の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したと判定した場合(St49,YES)、図16に示す運転者の運転特性データ収集手順を終了する。 If the driving characteristic server S1 determines in the process of step St49 that a control command to notify the end of driving has been received from each of the vehicles C1, . Finish the data collection procedure.

一方、運転特性サーバS1は、ステップSt49の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信していないと判定した場合(St49,NO)、ステップSt48の処理に戻る。 On the other hand, if the driving characteristic server S1 determines in the process of step St49 that it has not received a control command to notify the end of driving from each of the vehicles C1,... (St49, NO), the driving characteristic server S1 performs the process of step St48. return.

以上により、実施の形態1に係る1以上のコンピュータの一例である運転特性サーバS1により実行される運転特性データの管理方法は、複数の運転者の生体情報(生体情報の一例であって、運転特性テーブルTB1に登録された生体情報)と、運転者の免許証IDとを紐付けて登録し、車両C1,…を運転する運転者の生体情報と、運転者の運転特性を示す運転特性データとを取得し、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報があると判定した場合、同一あるいは類似する生体情報に紐付けられた免許証IDと運転特性データとを紐付けて記録する。 As described above, the method for managing driving characteristic data executed by the driving characteristic server S1, which is an example of one or more computers according to the first embodiment, is based on the biological information (an example of biological information) of a plurality of drivers. Biometric information registered in the characteristic table TB1) and driver's license ID are linked and registered, and driving characteristic data indicating the biological information of the driver who drives the vehicle C1, ... and the driving characteristics of the driver. and if it is determined that there is the same or similar biometric information among the biometric information of multiple registered drivers (biometric information sent from each of the vehicles C1,...), the biometric information is the same or similar. The driver's license ID linked to the biometric information and the driving characteristic data are linked and recorded.

これにより、実施の形態1に係る運転特性サーバS1は、特定された免許証IDに、車両C1,…のそれぞれから送信された運転者の運転特性データを紐付けて記録できるため、運転者が異なる複数の車両を運転する場合であっても、運転者の運転特性データをより効率的に管理できる。したがって、運転者が高齢であって、運転免許証の返納要否の判断を行うための運転評価に用いられる運転特性データの収集および管理(記録)において、運転特性サーバS1は、免許証IDに対応する高齢運転者の運転操作を客観的に評価するための運転特性データをより効果的に収集および管理(記録)できる。 As a result, the driving characteristic server S1 according to the first embodiment can record the driver's driving characteristic data transmitted from each of the vehicles C1,... with the specified license ID in association with the driver's driving characteristic data. Even when driving a plurality of different vehicles, the driver's driving characteristic data can be managed more efficiently. Therefore, in collecting and managing (recording) driving characteristic data used for driving evaluation to determine whether or not to return a driver's license when the driver is elderly, the driving characteristic server S1 uses the driver's license ID. It is possible to more effectively collect and manage (record) driving characteristic data for objectively evaluating the driving operations of corresponding elderly drivers.

また、以上により、実施の形態1に係る運転特性サーバS1は、生体情報と、運転特性データと、車両C1,…のそれぞれを識別可能な車両ID(車両識別情報の一例)とをさらに取得し、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報があると判定した場合、同一あるいは類似する生体情報に紐付けられた免許証IDと、運転特性データと、車両IDとを紐付けて記録する。これにより、実施の形態1に係る運転特性サーバS1は、運転特性データが取得された車両を識別可能にし、免許証IDに対応する高齢運転者の車両ごとの運転操作を客観的に評価するための運転特性データをより効果的に収集および管理(記録)できる。 Furthermore, as described above, the driving characteristic server S1 according to the first embodiment further acquires biological information, driving characteristic data, and vehicle IDs (an example of vehicle identification information) that can identify each of the vehicles C1, . , If it is determined that there is the same or similar biometric information among the biometric information of multiple registered drivers (biometric information sent from each of the vehicles C1,...), the biometric information that is the same or similar is The linked license ID, driving characteristic data, and vehicle ID are linked and recorded. Thereby, the driving characteristic server S1 according to the first embodiment can identify the vehicle for which the driving characteristic data has been acquired, and objectively evaluate the driving operation of each vehicle of the elderly driver corresponding to the license ID. can collect and manage (record) driving characteristic data more effectively.

また、以上により、実施の形態1に係る運転特性サーバS1は、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データと車両IDとを紐付けて一時保存する。これにより、実施の形態1に係る運転特性サーバS1は、生体情報を用いた運転者の特定できない場合であっても、車両C1,…のそれぞれから送信された運転特性データと車両IDとを紐付けることにより、運転者が特定されるまでの間、運転特性データを一時保存できる。 In addition, as described above, the driving characteristic server S1 according to the first embodiment is configured to identify biological information that is the same as or similar to the biological information (biometric information transmitted from each of the vehicles C1, ...) among the registered biological information of a plurality of drivers. If it is determined that there is no biometric information, the driving characteristic data and vehicle ID are linked and temporarily stored. As a result, the driving characteristic server S1 according to the first embodiment can link the driving characteristic data transmitted from each of the vehicles C1, ... with the vehicle ID even if the driver cannot be identified using biometric information. By adding this feature, driving characteristic data can be temporarily stored until the driver is identified.

また、以上により、実施の形態1に係る運転特性サーバS1は、車両C1,…の運転終了情報をさらに取得し、運転終了情報を取得したタイミングで、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データと車両IDとを紐付けて一時保存する。これにより、実施の形態1に係る運転特性サーバS1は、運転者による運転が終了したタイミングで、生体情報を用いた運転者の特定が完了しない場合であっても、車両C1,…のそれぞれから送信された運転特性データと車両IDとを紐付けることにより、運転者が特定されるまでの間、運転特性データを一時保存できる。 Furthermore, as described above, the driving characteristics server S1 according to the first embodiment further acquires the driving end information of the vehicles C1, . . . , and at the timing of acquiring the driving end information, the driving characteristic server S1 according to the first embodiment If it is determined that there is no biometric information that is the same or similar to the biometric information (biometric information transmitted from each of the vehicles C1, . . . ), the driving characteristic data and the vehicle ID are linked and temporarily stored. As a result, the driving characteristics server S1 according to the first embodiment is able to identify each of the vehicles C1, ... even if identification of the driver using biometric information is not completed at the timing when the driver has finished driving. By linking the transmitted driving characteristic data with the vehicle ID, the driving characteristic data can be temporarily stored until the driver is identified.

また、以上により、実施の形態1に係る運転特性サーバS1は、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、車両を運転する運転者の新たな生体情報(車両C1,…のそれぞれから送信された新たな生体情報)を取得し、登録された複数の運転者の生体情報のうち新たな生体情報に同一あるいは類似する生体情報があると判定した場合、同一あるいは類似する生体情報に紐付けられた免許証IDと、一時保存された運転特性データと車両IDとを紐付けて記録する。これにより、実施の形態1に係る運転特性サーバS1は、運転者を特定するまでの間、車両C1,…のそれぞれから運転者の新たな生体情報を取得し、取得された新たな生体情報に基づいて、運転者の特定処理を繰り返し実行できる。したがって、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転特性データに対応する運転者を特定したタイミングで、特定された運転者の免許証IDと、一時保存された運転特性サーバおよび車両IDとを紐付けて記録できる。 In addition, as described above, the driving characteristic server S1 according to the first embodiment is configured to identify biological information that is the same as or similar to the biological information (biometric information transmitted from each of the vehicles C1, ...) among the registered biological information of a plurality of drivers. If it is determined that there is no biometric information, new biometric information of the driver driving the vehicle (new biometric information sent from each vehicle C1,...) is acquired, and biometric information of multiple registered drivers is collected. If it is determined that the new biometric information has the same or similar biometric information, the license ID linked to the same or similar biometric information, the temporarily saved driving characteristics data, and the vehicle ID are linked. and record it. As a result, the driving characteristic server S1 according to the first embodiment acquires new biometric information of the driver from each of the vehicles C1, ... until the driver is identified, and uses the acquired new biometric information. Based on this information, driver identification processing can be repeatedly executed. Therefore, at the timing when the driver corresponding to the driving characteristic data transmitted from each of the vehicles C1, . . . and the vehicle ID can be linked and recorded.

また、以上により、実施の形態1に係る運転特性サーバS1は、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データを削除する。これにより、実施の形態1に係る運転特性サーバS1は、運転者が特定不可であると判定した運転特性データをメモリ33に記録しないため、メモリ33のメモリ不足の発生をより効果的に抑制できる。 In addition, as described above, the driving characteristic server S1 according to the first embodiment is configured to identify biological information that is the same as or similar to the biological information (biometric information transmitted from each of the vehicles C1, ...) among the registered biological information of a plurality of drivers. If it is determined that there is no biological information, the driving characteristic data is deleted. As a result, the driving characteristic server S1 according to the first embodiment does not record driving characteristic data determined to be unidentifiable by the driver in the memory 33, so that the occurrence of memory shortage in the memory 33 can be more effectively suppressed. .

また、以上により、実施の形態1に係る運転特性サーバS1は、車両C1,…の運転終了情報をさらに取得し、運転終了情報を取得したタイミングで、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データを削除する。これにより、実施の形態1に係る運転特性サーバS1は、運転者による運転が終了したタイミングで運転者が特定不可であると判定した運転特性データをメモリ33に記録しないため、メモリ33のメモリ不足の発生をより効果的に抑制できる。 Furthermore, as described above, the driving characteristics server S1 according to the first embodiment further acquires the driving end information of the vehicles C1, . . . , and at the timing of acquiring the driving end information, the driving characteristic server S1 according to the first embodiment If it is determined that there is no biometric information that is the same or similar to the biometric information (biometric information transmitted from each of the vehicles C1, . . . ), the driving characteristic data is deleted. As a result, the driving characteristic server S1 according to the first embodiment does not record, in the memory 33, the driving characteristic data determined to be unidentifiable at the timing when the driver finishes driving, and therefore the memory 33 is insufficient. The occurrence of can be suppressed more effectively.

また、以上により、実施の形態1に係る運転特性サーバS1は、運転者の生体情報と、生体情報に対応する運転者の免許証IDとを取得し、生体情報と免許証IDに含まれる運転者の顔画像とが照合すると判定した場合、生体情報と免許証IDとを紐付けて登録する。これにより、実施の形態1に係る運転特性サーバS1は、車両C1…のそれぞれから送信された運転者の生体情報(例えば、顔画像,虹彩等)と、免許証IDに含まれる運転者の顔画像との照合結果に基づいて、新たな運転者の免許証IDを登録することで、他者によるなりすまし行為をより効果的に抑制できる。 Further, as described above, the driving characteristics server S1 according to the first embodiment acquires the biometric information of the driver and the driver's license ID corresponding to the biometric information, and If it is determined that the facial image of the person matches, the biometric information and the driver's license ID are linked and registered. As a result, the driving characteristics server S1 according to the first embodiment uses the driver's biometric information (e.g., face image, iris, etc.) transmitted from each of the vehicles C1... and the driver's face included in the license ID. By registering a new driver's license ID based on the results of matching with the image, it is possible to more effectively prevent impersonation by others.

また、以上により、実施の形態1に係る運転特性サーバS1に登録された生体情報(登録生体情報)は、複数の運転者の顔画像である。また、生体情報(車両C1,…のそれぞれから送信された生体情報)は、車両を運転する運転者の顔画像である。これにより、実施の形態1に係る運転特性サーバS1は、車両C1,…のそれぞれにより撮像され、送信された運転者の顔画像と、事前に運転特性テーブルTB1に登録済みの複数の運転者の顔画像とを顔照合することで、運転者を特定できる。また、生体情報として顔画像を用いることで、車両C1,…のそれぞれは、運転者操作なしに車内カメラ13を用いて運転中の運転者を撮像し、撮像された運転者の顔画像を運転特性サーバS1に送信できる。したがって、運転特性サーバS1は、車両C1,…のそれぞれに繰り返し運転者の顔画像の送信の要求処理と、送信された顔画像を用いた顔照合処理とを、運転者が特定されるまでの間、繰り返し実行できる。 Furthermore, as described above, the biometric information (registered biometric information) registered in the driving characteristic server S1 according to the first embodiment is facial images of a plurality of drivers. Further, the biometric information (biometric information transmitted from each of the vehicles C1, . . . ) is a facial image of the driver driving the vehicle. As a result, the driving characteristic server S1 according to the first embodiment uses the facial images of the drivers captured and transmitted by each of the vehicles C1,... and the facial images of the drivers registered in advance in the driving characteristic table TB1. The driver can be identified by comparing the face with the facial image. In addition, by using facial images as biometric information, each of the vehicles C1, ... images the driver while driving using the in-vehicle camera 13 without driver operation, and uses the captured facial image of the driver while driving. It can be sent to the characteristic server S1. Therefore, the driving characteristic server S1 repeatedly requests each of the vehicles C1, . Can be executed repeatedly for a period of time.

また、以上により、実施の形態1に係る運転特性サーバS1は、運転者の顔が正面(第1の方向の一例)を向いている正面顔画像(第1登録顔画像の一例)と、運転者の顔が正面と異なる右向きまたは左向き(第2の方向の一例)を向いている右向き顔画像または左向き顔画像(第2登録顔画像の一例)と、免許証IDとを紐付けて登録し、車両C1,…を運転する運転者の顔が正面を向いている正面顔画像(第1顔画像の一例)と右向きまたは左向きを向いている右向き顔画像(第2顔画像の一例)または左向き顔画像(第2顔画像の一例)と、運転特性データとを取得し、登録された複数の運転者の正面顔画像(第1登録顔画像の一例)のうち車両C1,…から送信された正面顔画像に同一あるいは類似する正面顔画像と、登録された複数の運転者の右向き顔画像または左向き顔画像(第2登録顔画像の一例)のうち車両C1,…から送信された右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像とをそれぞれ照合し、車両C1,…から送信された正面顔画像に同一あるいは類似する正面顔画像があり、かつ、車両C1,…から送信された右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像があると判定した場合、登録された同一あるいは類似する正面顔画像、および右向き顔画像または左向き顔画像に紐付けられた免許証IDと、運転特性データとを紐付けて記録する。これにより、実施の形態1に係る運転特性サーバS1は、車両C1,…のそれぞれにより撮像され、送信された運転者の正面顔画像と、事前に運転特性テーブルTB1に登録済みの複数の運転者の正面顔画像とを顔照合することで、運転者を特定できる。また、運転特性サーバS1は、車両C1,…のそれぞれに繰り返し運転者の正面顔画像の送信の要求処理と、送信された正面顔画像を用いた顔照合処理とを、運転者が特定されるまでの間、繰り返し実行できる。 Further, as described above, the driving characteristics server S1 according to the first embodiment can generate a front face image (an example of a first registered face image) in which the driver's face is facing the front (an example of a first direction), and a driving characteristic server S1 according to the first embodiment. A right-facing face image or a left-facing face image (an example of a second registered face image) in which the person's face is facing right or left (an example of a second direction), which is different from the front, and the driver's license ID are registered in association with each other. , vehicle C1,... A front face image in which the driver's face is facing forward (an example of a first face image), and a right-facing face image (an example of a second face image) in which the driver's face is facing right or left (an example of a second face image) or left-facing. A facial image (an example of a second facial image) and driving characteristic data are acquired, and among the registered frontal facial images (an example of a first registered facial image) of a plurality of drivers, those transmitted from vehicles C1,... A front face image that is the same as or similar to the front face image, and a right face image transmitted from the vehicle C1, among the registered right face images or left face images (an example of a second registered face image) of a plurality of registered drivers. Alternatively, the left-facing face image is compared with a right-facing face image or a left-facing face image that is the same or similar, and there is a front face image that is the same or similar to the front face image transmitted from the vehicle C1,..., and the vehicle C1,... If it is determined that there is a right-facing face image or a left-facing face image that is the same as or similar to the right-facing face image or left-facing face image sent from The linked license ID and driving characteristic data are linked and recorded. As a result, the driving characteristics server S1 according to the first embodiment can receive the front face images of the drivers captured and transmitted by each of the vehicles C1, ... and the front face images of the drivers registered in advance in the driving characteristics table TB1. The driver can be identified by comparing the front face image of the driver. In addition, the driving characteristics server S1 repeatedly requests each of the vehicles C1,... It can be executed repeatedly until then.

また、以上により、実施の形態1に係る運転特性サーバS1は、車両C1,…から送信された正面顔画像に同一あるいは類似する正面顔画像がないと判定した場合には、車両C1,…から新たな正面顔画像を取得し、登録された複数の運転者の正面顔画像のうち、新たな正面顔画像に同一あるいは類似する正面顔画像があるか否かを再度判定する。運転特性サーバS1は、車両C1,…から送信された右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像がないと判定した場合には、車両C1,…から送信された新たな右向き顔画像または左向き顔画像を取得し、登録された複数の運転者の右向き顔画像または左向き顔画像のうち、新たな右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像があるか否かを再度判定する。これにより、実施の形態1に係る運転特性サーバS1は、車両C1,…のそれぞれにより撮像され、送信された運転者の右向き顔画像または左向き顔画像と、事前に運転特性テーブルTB1に登録済みの複数の運転者の右向き顔画像または左向き顔画像とを顔照合することで、運転者を特定できる。また、運転特性サーバS1は、車両C1,…のそれぞれに繰り返し運転者の右向き顔画像または左向き顔画像の送信の要求処理と、送信された右向き顔画像または左向き顔画像を用いた顔照合処理とを、運転者が特定されるまでの間、繰り返し実行できる。さらに、実施の形態1に係る運転特性サーバS1は、正面顔画像を用いた顔照合だけでなく、右向き顔画像あるいは左向き顔画像を用いた顔照合をさらに実行することで、他者による運転者のなりすまし行為をより効果的に抑制できる。 Further, as described above, when the driving characteristic server S1 according to the first embodiment determines that there is no front face image that is the same as or similar to the front face image transmitted from the vehicle C1, . A new front face image is acquired, and it is again determined whether there is a front face image that is the same as or similar to the new front face image among the registered front face images of the plurality of drivers. If the driving characteristics server S1 determines that there is no right-facing face image or left-facing face image that is the same as or similar to the right-facing face image or left-facing face image transmitted from the vehicle C1, . Obtain a new right-facing face image or left-facing face image, and select a right-facing face image or a left-facing face image that is the same as or similar to the new right-facing face image or left-facing face image among the registered right-facing face images or left-facing face images of a plurality of registered drivers. It is determined again whether or not there is a face image. As a result, the driving characteristics server S1 according to the first embodiment receives the driver's right-facing face image or left-facing face image that has been captured and transmitted by each of the vehicles C1, . . . The driver can be identified by face-matching images of right-facing faces or left-facing faces of multiple drivers. In addition, the driving characteristics server S1 repeatedly requests each of the vehicles C1, . can be executed repeatedly until the driver is identified. Furthermore, the driving characteristics server S1 according to the first embodiment not only performs face verification using a frontal face image but also performs face verification using a right-facing face image or a left-facing face image. impersonation activities can be more effectively suppressed.

以上により、実施の形態1に係るカーナビゲーション装置10は、車両C1,…に搭載された車載器であって、運転特性サーバS1(外部装置の一例)との間でデータ通信を行う通信機器11(通信部の一例)と、車両C1,…を運転する運転者の生体情報を取得する車内カメラ13(第1取得部の一例)と、運転者の運転特性を示す運転特性データを取得するジャイロセンサ14あるいは各種センサ(第2取得部の一例)と、生体情報と運転特性データとを紐付けて出力するプロセッサ12A(制御部の一例)と、を備える。プロセッサ12Aは、紐付けられた生体情報と運転特性データとを通信機器11に出力して、運転特性サーバS1に送信させる。なお、ここでいう各種センサは、例えば車内カメラ13,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19あるいはGPSセンサ20等(図2参照)である。 As described above, the car navigation device 10 according to the first embodiment is an on-vehicle device installed in the vehicle C1, and is a communication device 11 that performs data communication with the driving characteristics server S1 (an example of an external device). (an example of a communication unit), an in-vehicle camera 13 (an example of a first acquisition unit) that acquires biometric information of a driver driving the vehicle C1, etc., and a gyro that acquires driving characteristic data indicating the driving characteristics of the driver. It includes a sensor 14 or various sensors (an example of a second acquisition unit), and a processor 12A (an example of a control unit) that connects and outputs biological information and driving characteristic data. The processor 12A outputs the linked biological information and driving characteristic data to the communication device 11, and causes them to be transmitted to the driving characteristic server S1. The various sensors mentioned here include, for example, the in-vehicle camera 13, the accelerator pedal 17A, the brake pedal 17B, the turn lamp 17C, the steering wheel 17D, the speed sensor 18, the out-of-vehicle sensor/camera 19, or the GPS sensor 20 (see FIG. 2). .

これにより、実施の形態1に係るカーナビゲーション装置10は、運転者を特定するための生体情報と、運転評価に用いられる運転特性データとを取得し、取得された生体情報と運転特性データとを紐付けて、運転特性サーバS1に送信するため、運転特性サーバS1による運転者ごとの運転特性データの管理をより効果的に収集および管理(記録)可能に支援できる。 Thereby, the car navigation device 10 according to the first embodiment acquires biological information for identifying the driver and driving characteristic data used for driving evaluation, and combines the acquired biological information and driving characteristic data. Since the information is linked and transmitted to the driving characteristic server S1, it is possible to support the management of driving characteristic data for each driver by the driving characteristic server S1 to more effectively collect and manage (record) the driving characteristic data.

また、以上により、実施の形態1に係るカーナビゲーション装置10は、車両C1,…を識別可能な車両ID(車両識別情報の一例)を記録するメモリ12B(記録部の一例)、をさらに備える。プロセッサ12Aは、取得された生体情報と運転特性データと車両IDとを紐付けて通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者を特定するための生体情報と、運転評価に用いられる運転特性データと、車両IDとを取得し、取得された生体情報と運転特性データと、車両IDとを紐付けて、運転特性サーバS1に送信するため、1台の車両C1,…が複数の運転者により運転される場合であっても、運転特性サーバS1による運転者ごとの運転特性データの管理をより効果的に収集および管理(記録)可能に支援できる。 Further, as described above, the car navigation device 10 according to the first embodiment further includes the memory 12B (an example of a recording unit) that records a vehicle ID (an example of vehicle identification information) that can identify the vehicles C1, . The processor 12A associates the acquired biometric information, driving characteristic data, and vehicle ID, outputs the linked information to the communication device 11, and causes the communication device 11 to transmit it to the driving characteristic server S1. Thereby, the car navigation device 10 according to the first embodiment acquires biometric information for identifying the driver, driving characteristic data used for driving evaluation, and vehicle ID, and uses the acquired biometric information and driving Since the characteristic data and the vehicle ID are linked and transmitted to the driving characteristics server S1, even if one vehicle C1,... is driven by multiple drivers, the driving characteristics server S1 can identify the driver. This allows for more effective collection and management (recording) of driving characteristic data for each vehicle.

また、以上により、実施の形態1に係るカーナビゲーション装置10は、車両C1,…への運転者の乗車情報または降車情報を取得するプロセッサ12A(第3取得部の一例)、をさらに備える。プロセッサ12Aは、運転者の乗車情報が取得されたタイミングから車内カメラ13に生体情報の取得と、ジャイロセンサ14または各種センサによる運転特性データの取得とを開始させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者の乗車情報が取得されたタイミング(つまり、運転者の乗車が検知されたタイミング)から自動で生体情報の取得処理と、運転特性データの取得処理とを開始できる。したがって、カーナビゲーション装置10は、運転者操作なしに運転特性データの取得を開始できるため、運転者による運転特性データの取得開始のための操作忘れ等に起因する運転特性データの取得漏れを抑制できる。 In addition, as described above, the car navigation device 10 according to the first embodiment further includes the processor 12A (an example of a third acquisition unit) that acquires information about the driver getting on or getting off the vehicle C1, . The processor 12A causes the in-vehicle camera 13 to start acquiring biological information and the gyro sensor 14 or various sensors to start acquiring driving characteristic data from the timing when the driver's boarding information is acquired. As a result, the car navigation device 10 according to the first embodiment automatically performs biometric information acquisition processing and driving characteristics from the timing when the driver's boarding information is acquired (that is, the timing at which the driver's boarding is detected). Data acquisition processing can be started. Therefore, the car navigation device 10 can start acquiring driving characteristic data without any operation by the driver, so it is possible to suppress failure to acquire driving characteristic data due to the driver forgetting to perform an operation to start acquiring driving characteristic data. .

また、以上により、実施の形態1に係るカーナビゲーション装置10におけるプロセッサ12Aは、運転者の降車情報が取得されたタイミングで車内カメラ13による生体情報の取得と、ジャイロセンサ14または各種センサによる運転特性データの取得とを終了させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者の降車情報が取得されたタイミング(つまり、運転者の降車が検知されたタイミング)で、自動で生体情報の取得処理と、運転特性データの取得処理とを終了できる。 Further, as described above, the processor 12A in the car navigation device 10 according to the first embodiment acquires biological information using the in-vehicle camera 13 and driving characteristics using the gyro sensor 14 or various sensors at the timing when the driver's exit information is obtained. Terminate data acquisition. As a result, the car navigation device 10 according to the first embodiment automatically performs biometric information acquisition processing and driving operation at the timing when the driver's alighting information is acquired (that is, at the timing when the driver's alighting is detected). The characteristic data acquisition process can be completed.

また、以上により、実施の形態1に係るカーナビゲーション装置10における車内カメラ13は、運転者の顔を撮像するカメラである。生体情報は、車内カメラ13により撮像された運転者の顔画像である。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者が運転中であっても車内カメラ13により運転者の顔を撮像でき、撮像された撮像画像を生体情報として取得できる。 Further, as described above, the in-vehicle camera 13 in the car navigation device 10 according to the first embodiment is a camera that captures an image of the driver's face. The biometric information is a facial image of the driver captured by the in-vehicle camera 13. Thereby, the car navigation device 10 according to the first embodiment can image the driver's face using the in-vehicle camera 13 even when the driver is driving, and can acquire the captured image as biological information.

また、以上により、実施の形態1に係るカーナビゲーション装置10におけるプロセッサ12Aは、車内カメラ13により撮像された顔画像に映る運転者の顔の向きが所定の向き(例えば、正面、右向きあるいは左向き等)であると判定した場合、顔画像と運転特性データとを紐付けて、通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、顔画像を選定でき、運転特性サーバS1への顔画像の送信に要するデータ通信量の増加をより効果的に抑制できる。 Further, as described above, the processor 12A in the car navigation device 10 according to the first embodiment is configured such that the orientation of the driver's face reflected in the face image captured by the in-vehicle camera 13 is a predetermined orientation (for example, front, right, left, etc.). ), the face image and the driving characteristic data are linked together, outputted to the communication device 11, and transmitted to the driving characteristic server S1. Thereby, the car navigation device 10 according to the first embodiment can select a facial image, and can more effectively suppress an increase in the amount of data communication required for transmitting the facial image to the driving characteristic server S1.

また、以上により、実施の形態1に係るカーナビゲーション装置10における通信機器11は、運転特性サーバS1から顔画像に映る運転者の顔の向きの指定を受け付ける。プロセッサ12Aは、顔画像に映る運転者の顔の向きが指定された運転者の顔の向きであると判定した場合、顔画像と運転特性データとを紐付けて、通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、顔照合に用いられる顔画像を選定でき、運転特性サーバS1への顔画像の送信に要するデータ通信量の増加をより効果的に抑制できる。 Further, as described above, the communication device 11 in the car navigation device 10 according to the first embodiment receives the designation of the direction of the driver's face shown in the face image from the driving characteristics server S1. When the processor 12A determines that the direction of the driver's face reflected in the face image is the direction of the specified driver's face, the processor 12A associates the face image with the driving characteristic data and outputs it to the communication device 11. , to be transmitted to the driving characteristic server S1. Thereby, the car navigation device 10 according to the first embodiment can select a face image to be used for face verification, and can more effectively suppress an increase in the amount of data communication required for transmitting the face image to the driving characteristics server S1. .

また、以上により、実施の形態1に係るカーナビゲーション装置10は、運転者の免許証IDを取得する入力部12Dまたは車内カメラ13(第4取得部の一例)、をさらに備える。プロセッサ12Aは、取得された生体情報と車両IDと免許証IDとを紐付けて通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者の初期登録処理に必要な初期登録データである運転者の生体情報と、車両IDと、免許証IDとを紐付けて運転特性サーバS1に送信できる。したがって、運転特性サーバS1は、車両C1,…におけるカーナビゲーション装置10から送信された運転者の生体情報と、免許証IDとに基づいて、運転者の顔照合を実行でき、顔照合したと判定した場合には、運転者の生体情報と、車両IDと、免許証IDとを紐付けて運転特性テーブルTB1に登録(格納)することで初期登録を完了できる。また、この初期登録処理の後、運転特性サーバS1は、同一あるいは他車両から送信された生体情報が、初期登録済みの生体情報に同一あるいは類似すると判定した場合、同一あるいは他車両から送信された生体情報に対応する運転者が、同一あるいは類似すると判定された生体情報に紐付けられた免許証IDに対応する運転者であると特定できるとともに、同一あるいは他車両から送信された運転特性データを、この運転者の免許証IDに紐付けて記録することにより、運転者ごとの運転特性データの取集および管理(記録)を実行できる。 Further, as described above, the car navigation device 10 according to the first embodiment further includes the input unit 12D or the in-vehicle camera 13 (an example of a fourth acquisition unit) that acquires the driver's license ID. The processor 12A associates the acquired biometric information with the vehicle ID and license ID, outputs the linked information to the communication device 11, and causes the communication device 11 to transmit the information to the driving characteristic server S1. As a result, the car navigation device 10 according to the first embodiment links the driver's biometric information, which is the initial registration data necessary for the driver's initial registration process, the vehicle ID, and the license ID, to determine driving characteristics. Can be sent to server S1. Therefore, the driving characteristics server S1 can perform face verification of the driver based on the driver's biometric information and the driver's license ID transmitted from the car navigation device 10 in the vehicle C1, and determines that the face verification has been performed. In this case, the initial registration can be completed by linking the driver's biometric information, vehicle ID, and license ID and registering (storing) them in the driving characteristic table TB1. After this initial registration process, if the driving characteristics server S1 determines that the biometric information sent from the same or another vehicle is the same or similar to the initially registered biometric information, the driving characteristics server S1 determines that the biometric information sent from the same or other vehicle is the same or similar to the initially registered biometric information. The driver corresponding to the biometric information can be identified as the driver corresponding to the license ID linked to the biometric information determined to be the same or similar, and the driving characteristic data transmitted from the same or other vehicles can be identified. By recording the information in association with the driver's license ID, it is possible to collect and manage (record) driving characteristic data for each driver.

(実施の形態2に至る経緯)
近年、車両を運転することは、高齢者の認知症リスクの低下、健康寿命の延伸等に効果があり、行動範囲,行動頻度の低下を抑制し、心身の機能の低下を抑制することで高齢者の健康的な社会参加を継続の一助となることが分かっている。そこで、高齢運転者(高齢ドライバー)の加齢に伴う運転操作ミス,安全確認忘れ等に起因する事故の増加を抑制し、高齢運転者の運転寿命を延ばす技術が求められている。
(Details leading to Embodiment 2)
In recent years, driving a vehicle has been shown to be effective in reducing the risk of dementia and extending healthy life expectancy among elderly people. This has been shown to help people maintain healthy social participation. Therefore, there is a need for technology that can suppress the increase in accidents caused by driving errors and forgetting to check safety as elderly drivers age, and extend the driving life of elderly drivers.

従来、特許文献2には、運転支援を行う技術として、車両が走行する道路の所定道路パラメータとステアリング操舵角との関係に基づいて、運転者の安全確認を必要とする状況にあるか否かを判別し、安全確認が行われていないと判別された場合に、運転者に対して警告を与える車両用警報装置が開示されている。また、特許文献3には、運転者の運転支援を行う運転支援装置は、運転者の運転操作の履歴に基づいて、運転者の運転習熟度を学習し、運転習熟度に基づく運転支援度に応じて運転の支援を行う。しかし、このような運転支援装置は、運転場面に対応し、かつ、運転者の状態に対応した動的な運転支援を行うことが望ましい。 Conventionally, Patent Document 2 discloses, as a technology for providing driving assistance, whether or not the driver is in a situation that requires safety confirmation based on the relationship between predetermined road parameters of the road on which the vehicle is traveling and the steering angle. A vehicle warning device has been disclosed that determines whether safety confirmation has been carried out and issues a warning to the driver when it is determined that safety confirmation has not been performed. Furthermore, Patent Document 3 states that a driving support device that provides driving support for a driver learns the driving proficiency level of the driver based on the history of the driver's driving operations, and adjusts the degree of driving support based on the driving proficiency level. Driving assistance will be provided as required. However, it is desirable for such a driving support device to perform dynamic driving support corresponding to the driving situation and the driver's condition.

また、特許文献4に開示された自動運転により運転者の運転支援を行う運転支援装置は、車両の外部環境により運転者の運転操作に要求される環境難易度と、運転者の運転操作に基づく運転技量とから外部環境に対する運転者の運転者状態を推定し、運転技量と運転者状態(例えば、感情,心理等)とに基づいて、運転支援内容(例えば、自動操舵、自動ブレーキ等)を選択して実行する。しかし、自動運転による運転支援は、運転者自身の運転特性(運転技量,安全確認等)の改善支援を行うことができなかった。 In addition, the driving support device that supports the driver through automatic driving disclosed in Patent Document 4 is based on the environmental difficulty required for the driver's driving operation due to the external environment of the vehicle and the driver's driving operation. Estimates the driver's driving condition relative to the external environment based on driving skill, and determines driving support content (e.g., automatic steering, automatic braking, etc.) based on driving skill and driver's condition (e.g., emotions, psychology, etc.). Select and execute. However, the driving support provided by automated driving has not been able to support the improvement of the driver's own driving characteristics (driving skills, safety checks, etc.).

そこで、以下の実施の形態2では、運転者ごとの運転特性データをより効率的に収集し、収集された運転特性データの管理を支援できる運転特性改善支援データの管理方法の例を説明する。なお、以下の説明において、実施の形態1と同一の構成要素については同一の符号を用いることで、その説明を省略する。 Therefore, in Embodiment 2 below, an example of a method for managing driving characteristic improvement support data that can more efficiently collect driving characteristic data for each driver and support management of the collected driving characteristic data will be described. In the following description, the same reference numerals are used for the same components as in Embodiment 1, and the description thereof will be omitted.

なお、実施の形態2における運転特性データは、運転者の運転特性を示すデータと行動特性(例えば、運転者の体,顔,目線等の動作情報等)を示すデータとを含む例について説明する。また、実施の形態2における運転特性評価結果は、運転者により実行される安全確認行動を含む運転者の運転技量を示す。 Note that an example will be described in which the driving characteristic data in the second embodiment includes data indicating the driving characteristics of the driver and data indicating behavioral characteristics (for example, behavioral information such as the driver's body, face, line of sight, etc.). . Further, the driving characteristic evaluation result in the second embodiment indicates the driving skill of the driver, including the safety confirmation actions performed by the driver.

(実施の形態2)
図17を参照して、実施の形態2に係る運転特性改善支援システム200のユースケース例について説明する。図17は、実施の形態2に係る運転特性改善支援システム200のユースケース例を示す図である。
(Embodiment 2)
An example use case of the driving characteristic improvement support system 200 according to the second embodiment will be described with reference to FIG. 17. FIG. 17 is a diagram illustrating an example use case of the driving characteristic improvement support system 200 according to the second embodiment.

運転特性改善支援システム200は、1台以上の車両C1A,…のそれぞれと、運転特性改善サーバS3と、ネットワークNWAと、を含んで構成される。なお、運転特性改善支援システム200は、無線端末装置P1Aを含む構成であってよい。 The driving characteristic improvement support system 200 is configured to include each of one or more vehicles C1A, . . . , a driving characteristic improvement server S3, and a network NWA. Note that the driving characteristic improvement support system 200 may include a wireless terminal device P1A.

運転特性改善支援システム200は、1台以上の車両C1A,…のそれぞれに搭載された通信機器11A(図18参照)から送信された車両を運転する運転者の運転特性データと、安全確認行動データとを取得する。運転特性改善支援システム200は、取得された運転特性データと安全確認行動データとを運転特性改善サーバS3に送信する。運転特性改善支援システム200は、運転特性データが示す運転者の運転技量と、安全確認行動データが示す運転者の運転中の安全確認行動とに基づく運転者の運転特性が改善したか否かを判定し、運転特性改善評価結果を車両C1A,…に送信する。運転特性改善支援システム200は、運転特性改善評価結果に基づいて、車両C1A,…のそれぞれに運転者への運転支援内容を示す改善効果データ(新たな改善効果データの一例)を更新し、更新された改善効果データに基づく運転特性改善支援を実行する。 The driving characteristic improvement support system 200 receives driving characteristic data of a driver who drives a vehicle and safety confirmation behavior data transmitted from a communication device 11A (see FIG. 18) mounted on each of one or more vehicles C1A, . . . and get. The driving characteristic improvement support system 200 transmits the acquired driving characteristic data and safety confirmation behavior data to the driving characteristic improvement server S3. The driving characteristic improvement support system 200 determines whether or not the driver's driving characteristics have improved based on the driver's driving skill indicated by the driving characteristic data and the driver's safety confirmation behavior while driving indicated by the safety confirmation behavior data. The determination is made and the driving characteristic improvement evaluation results are transmitted to the vehicles C1A, . . . . Based on the driving characteristic improvement evaluation results, the driving characteristic improvement support system 200 updates and updates improvement effect data (an example of new improvement effect data) indicating the content of driving support for the driver for each of the vehicles C1A,... The driving characteristic improvement support is executed based on the improvement effect data obtained.

実施の形態2における運転特性データは、運転者の運転特性を示すデータであって、車両C1A,…のそれぞれに搭載された、各種センサ(例えば車内カメラ13A,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19A,車内センサ24等(図18参照))により取得されてもよい。 The driving characteristic data in the second embodiment is data indicating the driving characteristics of the driver, and includes various sensors (for example, in-vehicle camera 13A, gyro sensor 14, accelerator pedal 17A, brake The information may be acquired by the pedal 17B, the turn lamp 17C, the steering wheel 17D, the speed sensor 18, the vehicle exterior sensor/camera 19A, the vehicle interior sensor 24, etc. (see FIG. 18).

なお、ここでいう改善効果データは、運転特性改善サーバS3により生成されるデータであって、車両C1A,…のそれぞれの運転者の運転特性データと、運転特性改善支援前後の時間帯における運転者の反応(例えば、運転者の感情,表情,心拍等)を示すデータ(以降、「感情データ」と表記)と、運転特性が取得された運転場面を示す運転場面情報とに基づいて、運転特性改善のための支援方法を決定するデータである。 The improvement effect data referred to here is data generated by the driving characteristic improvement server S3, and includes driving characteristic data of each driver of the vehicle C1A, ... and the driver in the time period before and after the driving characteristic improvement support. Driving characteristics are determined based on data indicating the driver's reactions (e.g., driver's emotions, facial expressions, heartbeat, etc.) (hereinafter referred to as "emotional data") and driving scene information indicating the driving scene in which the driving characteristics were acquired. This is data that determines support methods for improvement.

また、ここでいう運転場面は、運転中の任意の場面(例えば、車線変更,右左折,前進あるいは後退等)だけでなく、運転前であって運転者が車両に乗車する場面、運転後あるいは一時停止中に車両から運転者または同乗者が降車する場面等の運転前後の場面であって、安全確認が必要な場面を含む。また、運転場面は、走行中の道路環境(例えば、T字路,十字路,下り坂等)あるいは道路状況(例えば、渋滞中等),走行中の道路の環境情報(例えば、時間帯,天候等),走行中の道路で発生した事故の回数,頻度等に基づいて、事前に事故の発生しやすさ、あるいは安全確認の重要性等に基づく危険度(スコア)がそれぞれ設定されてよい。 In addition, the driving scenes mentioned here include not only arbitrary scenes while driving (for example, changing lanes, turning left or right, moving forward or backward, etc.), but also scenes before driving when the driver gets into the vehicle, after driving, or when the driver gets into the vehicle. Scenes before and after driving, such as when the driver or passenger exits the vehicle while the vehicle is temporarily stopped, and include scenes where safety confirmation is required. In addition, the driving scene includes the road environment while driving (e.g., T-junction, crossroads, downhill slope, etc.) or the road condition (e.g., traffic jam, etc.), and environmental information of the road while driving (e.g., time of day, weather, etc.) , the degree of risk (score) may be set in advance based on the likelihood of an accident occurring, the importance of safety confirmation, etc., based on the number and frequency of accidents that have occurred on the road the vehicle is traveling on.

また、運転場面は、危険度(スコア)に対応して安全確認行動が実行された頻度に関する閾値が設定されていてもよい。このような場合、車両C1A,…のそれぞれは、運転者により実行された安全確認行動の実行頻度と閾値とを比較した比較結果に基づいて、運転特性改善支援の実行要否を判定してもよい。 Furthermore, for each driving scene, a threshold value regarding the frequency with which safety confirmation actions are performed may be set in accordance with the degree of risk (score). In such a case, each of the vehicles C1A, . good.

車両C1A,…のそれぞれは、ネットワークNWAを介して運転特性改善サーバS3と、無線端末装置P1Aとの間でそれぞれ無線通信可能に接続される。なお、ここでいう無線通信は、例えばWi-Fi(登録商標)に代表される無線LAN,セルラー通信システム(移動通信システム)等であって、その種類は特に限定されない。 Each of the vehicles C1A, . . . is connected to the driving characteristic improvement server S3 and the wireless terminal device P1A via the network NWA so as to be able to communicate wirelessly. Note that the wireless communication referred to here includes, for example, a wireless LAN represented by Wi-Fi (registered trademark), a cellular communication system (mobile communication system), and the type thereof is not particularly limited.

車両C1A,…のそれぞれは、自車両に接近する運転者を検知したタイミングから運転者の運転特性と、運転者の行動特性(例えば、運転者の体,顔,あるいは目等の動き)とを示す運転特性データの取得、および運転場面の判定(特定)を開始する。車両C1A,…のそれぞれは、特定された運転場面の運転場面情報に対応する改善支援データに基づいて、運転者への運転特性改善支援(つまり、安全確認行動の支援)を実行するとともに、この運転特性改善支援に対する運転者の感情データを取得する。 Each of the vehicles C1A, . The acquisition of driving characteristic data and the determination (identification) of driving situations are started. Each of the vehicles C1A, ... executes driving characteristic improvement support (that is, support for safety confirmation behavior) for the driver based on the improvement support data corresponding to the driving scene information of the specified driving scene, and also performs this support. Obtain driver emotional data regarding driving characteristic improvement support.

車両C1A,…のそれぞれは、取得された運転特性データ(具体的には、行動特性)に基づいて、運転者が現在の運転場面情報に対応する安全確認行動を行ったか否かを判定する。また、車両C1A,…のそれぞれは、運転者が安全確認行動を行ったか否かの安全確認行動結果、あるいは運転者の運転特性と行動特性とを含む運転特性データと、運転場面情報と、感情データと、運転者を識別可能な利用者IDと、を紐付けて、運転特性改善サーバS3に送信する。 Each of the vehicles C1A, . . . determines whether the driver has performed a safety confirmation action corresponding to the current driving scene information, based on the acquired driving characteristic data (specifically, behavioral characteristics). In addition, each of the vehicles C1A, . The data and a user ID that can identify the driver are linked and transmitted to the driving characteristic improvement server S3.

車両C1A,…のそれぞれは、各種センサにより取得された自車両の周囲環境のデータに基づいて判定された自車両の運転場面と、各種センサにより取得された運転特性データを用いて、運転者の運転特性が改善したか否かを判定する運転特性学習モデルと、運転特性学習装置23に記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された運転特性学習モデル、あるいは運転場面データの更新データ等を取得し、運転特性学習装置23に記憶された運転特性学習モデル,運転場面データ等のデータを更新する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された改善効果データに基づいて、所定の運転場面において運転者の安全確認行動を支援する運転特性改善支援方法を設定する。車両C1A,…のそれぞれは、運転者による自車両の運転終了を検知したタイミングで運転特性データの取得を終了する。 Each of the vehicles C1A, . A driving characteristic learning model for determining whether or not the driving characteristics have improved is stored in the driving characteristic learning device 23. Each of the vehicles C1A, . Update data such as data. Each of the vehicles C1A, . . . sets a driving characteristic improvement support method for supporting the driver's safety confirmation behavior in a predetermined driving scene, based on the improvement effect data transmitted from the driving characteristic improvement server S3. Each of the vehicles C1A, . . . finishes acquiring driving characteristic data at the timing when it detects that the driver has finished driving the own vehicle.

また、車両C1A,…のそれぞれは、無線端末装置P1Aから送信された運転者の運転特性データあるいは運転特性評価結果を要望する制御指令に基づいて、メモリ15A(図18参照)に記憶された運転者の運転特性データを抽出して無線端末装置P1Aに送信したり、抽出された運転特性データを用いて運転特性を評価した運転特性評価結果を生成して無線端末装置P1Aに送信したりする。 In addition, each of the vehicles C1A, . The driver's driving characteristic data is extracted and transmitted to the wireless terminal device P1A, or a driving characteristic evaluation result is generated by evaluating the driving characteristic using the extracted driving characteristic data and transmitted to the wireless terminal device P1A.

運転特性改善サーバS3は、ネットワークNWAを介して、車両C1A,…のそれぞれと、無線端末装置P1Aとの間でそれぞれデータ通信可能に接続される。運転特性改善サーバS3は、車両C1A,…のそれぞれから送信された運転者の利用者IDと、運転特性データと、感情データと、運転場面情報とを取得する。 The driving characteristic improvement server S3 is connected to each of the vehicles C1A, . . . and the wireless terminal device P1A via the network NWA so as to enable data communication. The driving characteristic improvement server S3 acquires the driver's user ID, driving characteristic data, emotion data, and driving scene information transmitted from each of the vehicles C1A, . . . .

運転特性改善サーバS3は、取得された利用者IDと、利用者データベースDB1に登録(格納)された複数の運転者の利用者IDのそれぞれとを照合し、取得された利用者IDの運転者を特定する。運転特性改善サーバS3は、取得された運転特性データと、特定された運転者の利用者IDの運転特性データであって、かつ、取得された運転場面情報と同一の運転場面情報が紐付けられた運転特性データとを比較して、この運転者の運転特性が改善しているか否かを判定するとともに、取得された感情データに基づいて、現在車両C1A,…のそれぞれにより実行されている現在の運転特性改善支援方法(改善効果データ)がこの運転者に適した支援方法であるか否かを判定する。なお、ここでいう利用者IDは、実施の形態1において運転者の特定に使用された免許証ID,生体情報等であってよい。 The driving characteristics improvement server S3 compares the acquired user ID with each of the user IDs of a plurality of drivers registered (stored) in the user database DB1, and identifies the driver with the acquired user ID. Identify. The driving characteristic improvement server S3 is configured to link the acquired driving characteristic data to the driving characteristic data of the specified driver's user ID and the same driving scene information as the acquired driving scene information. It is determined whether or not the driving characteristics of this driver have improved by comparing the driving characteristics data obtained with the acquired driving characteristics data. It is determined whether the driving characteristic improvement support method (improvement effect data) is a support method suitable for this driver. Note that the user ID here may be the driver's license ID, biometric information, etc. used to identify the driver in the first embodiment.

運転特性改善サーバS3は、運転者の運転特性が改善しているか否かの判定結果と、現在の改善効果データが示す運転特性改善支援方法に対する運転者の感情データとに基づいて、新たな改善効果データを生成して更新し、車両C1A,…のそれぞれに送信する。 The driving characteristics improvement server S3 makes new improvements based on the determination result of whether the driver's driving characteristics have improved and the driver's emotional data regarding the driving characteristics improvement support method indicated by the current improvement effect data. Effect data is generated, updated, and transmitted to each of the vehicles C1A, .

また、運転特性改善サーバS3は、無線端末装置P1Aから送信された運転者の運転特性データあるいは運転特性評価結果を要望する制御指令に基づいて、データベース54(図20参照)に記憶された運転者の運転特性データを抽出して無線端末装置P1Aに送信したり、抽出された運転特性データを用いて運転特性を評価した運転特性評価結果を生成して無線端末装置P1Aに送信したりする。 Further, the driving characteristic improvement server S3 uses the driver's driving characteristic data or the control command requesting the driving characteristic evaluation result transmitted from the wireless terminal device P1A to improve the driver's driving characteristic data stored in the database 54 (see FIG. 20). The driving characteristic data is extracted and transmitted to the wireless terminal device P1A, or a driving characteristic evaluation result is generated by evaluating the driving characteristics using the extracted driving characteristic data and transmitted to the wireless terminal device P1A.

ネットワークNWAは、複数の車両C1A,…のそれぞれと、運転特性改善サーバS3と、無線端末装置P1Aとの間でそれぞれ無線通信あるいは有線通信可能に接続する。 The network NWA connects each of the plurality of vehicles C1A, . . . , the driving characteristic improvement server S3, and the wireless terminal device P1A to enable wireless or wired communication.

次に、図18を参照して、実施の形態2における車両C1A,…の内部構成例について説明する。図18は、実施の形態2における車両C1A,…の内部構成例を示すブロック図である。なお、図18に示す車両C1A,…の内部構成は、生体情報として運転者の顔画像を用いる場合の内部構成例を図示し、他の生体情報を取得するためのセンサ、および免許証リーダ等の図示を省略している。また、車両C1A,…のそれぞれは、同様の内部構成であるため、以降の説明では車両C1Aの内部構成について説明する。 Next, an example of the internal configuration of the vehicles C1A, . . . in the second embodiment will be described with reference to FIG. 18. FIG. 18 is a block diagram showing an example of the internal configuration of vehicles C1A, . . . in the second embodiment. The internal configuration of the vehicle C1A,... shown in FIG. 18 is an example of the internal configuration when using the driver's face image as biometric information, and includes sensors for acquiring other biometric information, a driver's license reader, etc. illustration is omitted. Furthermore, since each of the vehicles C1A, . . . has a similar internal configuration, the internal configuration of the vehicle C1A will be described in the following description.

車両C1Aは、通信機器11Aと、端末装置22と、車内カメラ13Aと、ジャイロセンサ14と、メモリ15Aと、ECU16Aと、を少なくとも含んで構成される。車両C1A内部の各部は、CAN等によりデータ送受信可能に接続される。 The vehicle C1A is configured to include at least a communication device 11A, a terminal device 22, an in-vehicle camera 13A, a gyro sensor 14, a memory 15A, and an ECU 16A. Each part inside the vehicle C1A is connected to enable data transmission and reception via CAN or the like.

なお、通信機器11A、端末装置22、車内カメラ13A、およびジャイロセンサ14は、1つの端末装置22として一体的に構成されてもよい。また、図2に示す車両C1Aに搭載されるセンサは一例であってこれに限定されない。 Note that the communication device 11A, the terminal device 22, the in-vehicle camera 13A, and the gyro sensor 14 may be integrally configured as one terminal device 22. Moreover, the sensor mounted on the vehicle C1A shown in FIG. 2 is an example, and the sensor is not limited thereto.

通信機器11Aは、ネットワークNWを介して、車両C1Aと運転特性改善サーバS3との間で無線通信によるデータの送受信を実行する。 The communication device 11A transmits and receives data by wireless communication between the vehicle C1A and the driving characteristic improvement server S3 via the network NW.

端末装置22は、例えば、カーナビゲーション装置,運転者が所有するタブレット端末,スマートフォン等であって、運転者操作を受け付け可能な装置である。また、端末装置22は、例えばカーナビゲーション機能、位置情報提供サービス機能、インターネット接続機能、マルチメディア再生機能等を提供可能なIVI装置であってもよい。端末装置22は、プロセッサ22Aと、メモリ22Bと、表示部22Cと、入力部22Dとを含んで構成される。 The terminal device 22 is, for example, a car navigation device, a tablet terminal owned by the driver, a smartphone, etc., and is a device that can accept operations by the driver. Furthermore, the terminal device 22 may be an IVI device that can provide, for example, a car navigation function, a location information providing service function, an Internet connection function, a multimedia playback function, and the like. The terminal device 22 includes a processor 22A, a memory 22B, a display section 22C, and an input section 22D.

プロセッサ22Aは、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ22Aは、メモリ22Bと協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ22Aは、メモリ22Bに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。 The processor 22A is configured using, for example, a CPU, a DSP, or an FPGA, and controls the operations of each section. The processor 22A cooperates with the memory 22B to perform various types of processing and control in an integrated manner. Specifically, the processor 22A refers to programs and data held in the memory 22B, and executes the programs to realize the functions of each part.

プロセッサ22Aは、車内センサ24あるいは通信機器11Aから運転者の接近を検知した旨の制御指令を取得したタイミングから、運転特性および行動特性(運転特性データ)の取得処理、運転場面の判定処理を開始する。プロセッサ22Aは、運転場面を特定した後、この運転特性の運転場面情報に対応する改善効果データに基づいて、運転特性改善支援を実行する。プロセッサ22Aは、実行された運転特性改善支援に対する運転者の運転特性、行動特性、および感情データの取得処理等の各種処理を開始する。 The processor 22A starts the process of acquiring driving characteristics and behavior characteristics (driving characteristic data) and the process of determining the driving situation at the timing when the processor 22A receives a control command indicating that the approach of the driver has been detected from the in-vehicle sensor 24 or the communication device 11A. do. After specifying the driving scene, the processor 22A executes driving characteristic improvement support based on the improvement effect data corresponding to the driving scene information of this driving characteristic. The processor 22A starts various processes such as acquisition of driving characteristics, behavioral characteristics, and emotional data of the driver for the executed driving characteristic improvement support.

プロセッサ22Aは、ECU16Aを介して、各種センサ(例えば車内カメラ13A,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19A,車内センサ24等)により取得された各種運転特性データを取得する。 The processor 22A controls various sensors (for example, an in-vehicle camera 13A, a gyro sensor 14, an accelerator pedal 17A, a brake pedal 17B, a turn lamp 17C, a steering wheel 17D, a speed sensor 18, an external sensor/camera 19A, an in-vehicle sensor 24, etc.) via the ECU 16A. ) to obtain various driving characteristic data.

プロセッサ22Aは、入力部22Dから出力された利用者IDにより運転者を特定する。プロセッサ22Aは、車内カメラ13A,車外センサ/カメラ19A,GPSセンサ20あるいは車内センサ24等により取得された撮像画像あるいは情報に基づいて、運転場面を判定する。 The processor 22A identifies the driver based on the user ID output from the input section 22D. The processor 22A determines the driving scene based on captured images or information acquired by the in-vehicle camera 13A, the out-of-vehicle sensor/camera 19A, the GPS sensor 20, the in-vehicle sensor 24, or the like.

プロセッサ22Aは、判定された運転場面の運転場面情報に基づいて、この運転場面情報に対応する改善効果データに基づいて、スピーカ25あるいは警告表示灯26を制御し、運転者への運転特性改善支援(安全確認行動支援)を実行する。 Based on the driving scene information of the determined driving scene, the processor 22A controls the speaker 25 or the warning indicator light 26 based on the improvement effect data corresponding to the driving scene information, and provides driving characteristic improvement support to the driver. (Safety confirmation behavior support).

プロセッサ22Aは、車内カメラ13Aにより撮像された撮像画像を取得し、取得された撮像画像に映る運転者の顔を検出し、検出された運転者の顔の表情に基づいて、運転特性改善支援前後の運転者の感情を解析して感情データを生成する。 The processor 22A acquires an image taken by the in-vehicle camera 13A, detects the driver's face reflected in the acquired image, and based on the detected facial expression of the driver, performs driving characteristic improvement support before and after driving characteristic improvement support. analyzes the emotions of drivers and generates emotional data.

また、プロセッサ22Aは、車内カメラ13Aあるいは車外センサ/カメラ19Aにより撮像された撮像画像を取得し、取得された撮像画像に映る運転者の体,目の動きを解析し、解析結果に基づく運転者の行動特性と、各種センサにより取得された運転特性とを含む運転特性データを生成する。 The processor 22A also acquires an image taken by the in-vehicle camera 13A or the outside sensor/camera 19A, analyzes the body and eye movements of the driver reflected in the acquired image, and analyzes the driver's body and eyes based on the analysis results. Driving characteristic data including behavioral characteristics of the driver and driving characteristics acquired by various sensors is generated.

プロセッサ22Aは、運転特性改善支援が実行された運転場面情報と、運転特性改善支援に対する運転者の感情データと、各種センサにより取得された運転特性データと、運転者の利用者IDとを紐付けて、メモリ15Aに記憶するとともに、通信機器11Aに出力して運転特性改善サーバS3に送信させる。なお、プロセッサ22Aは、取得された行動データに基づいて、運転者が安全確認行動を実行したか否かの判定結果を、さらに紐付けて運転特性改善サーバS3に送信させてもよい。 The processor 22A links the driving scene information in which the driving characteristic improvement support was executed, the driver's emotional data regarding the driving characteristic improvement support, the driving characteristic data acquired by various sensors, and the driver's user ID. The information is stored in the memory 15A, and is output to the communication device 11A to be transmitted to the driving characteristic improvement server S3. Note that the processor 22A may further link and transmit the determination result of whether the driver has performed the safety confirmation behavior based on the acquired behavior data to the driving characteristic improvement server S3.

また、プロセッサ22Aは、運転特性改善サーバS3から送信された運転場面情報と、改善効果データとを取得する。プロセッサ22Aは、取得された運転場面情報に対応する改善効果データを、新たに取得された改善効果データに更新する。 The processor 22A also acquires driving scene information and improvement effect data transmitted from the driving characteristic improvement server S3. The processor 22A updates the improvement effect data corresponding to the acquired driving scene information to the newly acquired improvement effect data.

プロセッサ22Aは、運転者の降車、あるいは運転者が自車両から離れたと判定したタイミングで運転者の運転特性データの取得処理、運転場面の判定処理、運転特性改善支援処理、あるいは感情データの取得処理等の各種処理を終了する。 The processor 22A performs processing for acquiring driving characteristic data of the driver, processing for determining driving situations, processing for supporting improvement of driving characteristics, or processing for acquiring emotional data at the timing when it is determined that the driver gets off the vehicle or that the driver leaves the own vehicle. Finish various processes such as.

メモリ22Bは、例えばプロセッサ22Aの各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ22Aの動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ22Aにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ22Aの動作を規定するプログラムが書き込まれている。また、メモリ22Bは、車両C1Aを運転する1以上の利用者IDと、運転特性履歴テーブルTB3とを記憶する。 The memory 22B includes, for example, a RAM as a work memory used when executing each process of the processor 22A, and a ROM that stores programs and data that define the operations of the processor 22A. Data or information generated or acquired by the processor 22A is temporarily stored in the RAM. A program that defines the operation of the processor 22A is written in the ROM. The memory 22B also stores one or more user IDs who drive the vehicle C1A and a driving characteristic history table TB3.

表示部22Cは、例えばLCDもしくは有機ELを用いて構成される。表示部22Cは、プロセッサ22Aにより生成された運転特性評価結果画面(不図示)等を表示する。 The display section 22C is configured using, for example, an LCD or an organic EL. The display unit 22C displays a driving characteristic evaluation result screen (not shown) generated by the processor 22A.

入力部22Dは、表示部22Cと一体的に構成されたユーザインタフェースである。入力部22Dは、受け付けられた運転者操作を電気信号(制御指令)に変換して、プロセッサ22Aに出力する。入力部22Dは、運転者による利用者IDの入力操作、運転特性評価画面の生成を要求する入力操作、運転特性改善支援の有効化/無効化の設定等を受け付けたりする。 The input section 22D is a user interface configured integrally with the display section 22C. The input unit 22D converts the received driver operation into an electrical signal (control command) and outputs it to the processor 22A. The input unit 22D receives an input operation of a user ID by the driver, an input operation requesting generation of a driving characteristic evaluation screen, a setting for enabling/invalidating driving characteristic improvement support, and the like.

車内カメラ13Aは、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCDあるいはCMOS等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。 The in-vehicle camera 13A includes at least a lens (not shown) and an image sensor (not shown). The image sensor is, for example, a solid-state imaging device such as a CCD or CMOS, and converts an optical image formed on an imaging surface into an electrical signal.

車内カメラ13Aは、プロセッサ22Aにより制御され、運転席に座る運転者を撮像し、撮像された撮像画像をプロセッサ22Aに出力する。プロセッサ22Aは、車内カメラ13Aから出力された撮像画像を画像解析し、運転者の顔,目あるいは体の動きを示す行動特性データを生成する。プロセッサ22Aは、生成された行動特性データと、運転場面に対応する1以上の安全運転行動とを比較して、現在の運転場面で実行されるべき安全確認行動が運転者により実行されたか否かを判定する。なお、運転者の行動特性データを解析する処理、および現在の運転場面で実行されるべき安全確認行動が運転者により実行されたか否かを判定処理のそれぞれは、運転特性改善サーバS3のプロセッサ52により実行されてよい。 The in-vehicle camera 13A is controlled by the processor 22A, captures an image of the driver sitting in the driver's seat, and outputs the captured image to the processor 22A. The processor 22A analyzes the captured image output from the in-vehicle camera 13A, and generates behavior characteristic data indicating the movement of the driver's face, eyes, or body. The processor 22A compares the generated behavior characteristic data with one or more safe driving behaviors corresponding to the driving scene, and determines whether the driver has executed the safety confirmation behavior that should be performed in the current driving scene. Determine. Note that the process of analyzing the behavioral characteristic data of the driver and the process of determining whether or not the driver has executed the safety confirmation behavior that should be executed in the current driving situation are carried out by the processor 52 of the driving characteristic improvement server S3. It may be executed by

また、車内カメラ13Aは、プロセッサ22Aにより制御され、運転席に座る運転者を撮像し、撮像された撮像画像をプロセッサ22Aに出力する。プロセッサ22Aは、車内カメラ13Aから出力された撮像画像を画像解析し、運転者の感情を解析して感情データを生成する。なお、感情データの生成処理は、運転特性改善サーバS3のプロセッサ52により実行されてよい。 Further, the in-vehicle camera 13A is controlled by the processor 22A, captures an image of the driver sitting in the driver's seat, and outputs the captured image to the processor 22A. The processor 22A analyzes the captured image output from the in-vehicle camera 13A, analyzes the driver's emotions, and generates emotional data. Note that the emotion data generation process may be executed by the processor 52 of the driving characteristic improvement server S3.

メモリ15Aは、例えばECU16Aの各処理を実行する際に用いられるワークメモリとしてのRAMと、ECU16Aの動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、ECU16Aにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、ECU16Aの動作を規定するプログラムが書き込まれている。また、メモリ15Aは、車両C1Aを運転する1以上の利用者IDと、運転特性履歴テーブルTB3とを記憶してもよい。 The memory 15A includes, for example, a RAM as a work memory used when executing each process of the ECU 16A, and a ROM that stores programs and data that define the operations of the ECU 16A. Data or information generated or acquired by the ECU 16A is temporarily stored in the RAM. A program that defines the operation of the ECU 16A is written in the ROM. Further, the memory 15A may store one or more user IDs who drive the vehicle C1A and a driving characteristic history table TB3.

ECU16Aは、各部の処理および制御をそれぞれ統括的に実行する。ECU16Aは、所謂電子回路制御装置を用いて構成され、メモリ15Aに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ECU16Aは、各種センサから出力された情報を運転特性データとして取得する。ECU16Aは、運転特性データをプロセッサ22Aに出力する。 The ECU 16A collectively executes processing and control of each part. The ECU 16A is configured using a so-called electronic circuit control device, and realizes the functions of each part by referring to programs and data held in the memory 15A and executing the programs. The ECU 16A acquires information output from various sensors as driving characteristic data. ECU 16A outputs driving characteristic data to processor 22A.

また、ECU16Aは、車内センサ24から出力された電気信号に基づいて、自車両への運転者の接近、あるいは自車両から運転者が離れたこと(つまり、運転終了)を検知し、検知された検知情報をプロセッサ22Aに出力する。なお、ここでは説明を省略するが、ECU16Aは、例えば運転特性改善支援に必要となる各種処理、運転者の運転特性評価等のプロセッサ22Aにより実行される各種機能を実現可能であってよい。 Furthermore, the ECU 16A detects the approach of the driver to the own vehicle or the departure of the driver from the own vehicle (in other words, the end of driving) based on the electrical signal output from the in-vehicle sensor 24. The detected information is output to the processor 22A. Although the description will be omitted here, the ECU 16A may be capable of implementing various functions executed by the processor 22A, such as various processes required for driving characteristic improvement support and driver's driving characteristic evaluation.

車外センサ/カメラ19Aは、車両C1Aに備えられたレーダ,ソナー等の1つ以上のセンサ、車両C1Aの周囲(車外)を撮像可能な1つ以上のカメラである。ここでいうカメラは、ドライブレコーダであってもよい。車外センサ/カメラ19Aは、車両C1Aの周辺に存在する物体(例えば、壁,障害物,他車両,人物等)または自車両に接近する接近物(例えば、他車両、二輪車、人物等)の位置および方向、標識、道路上の白線、自車両から降車して離れていく運転者または同乗者、自車両に接近して乗車する運転者または同乗者等を検知したり、撮像したりする。車外センサ/カメラ19Aは、検知された検知情報または撮像された撮像画像をプロセッサ22Aに出力する。 The external sensor/camera 19A is one or more sensors such as radar and sonar that are provided in the vehicle C1A, and one or more cameras that can image the surroundings (outside the vehicle) of the vehicle C1A. The camera here may be a drive recorder. The external sensor/camera 19A detects the position of objects existing around the vehicle C1A (e.g., walls, obstacles, other vehicles, people, etc.) or objects approaching the own vehicle (e.g., other vehicles, motorcycles, people, etc.). It also detects and images directions, signs, white lines on the road, a driver or passenger getting off the vehicle and leaving the vehicle, a driver or passenger approaching the vehicle, and the like. The external sensor/camera 19A outputs detected detection information or a captured image to the processor 22A.

運転特性学習装置23は、運転特性改善サーバS3から送信された運転特性学習モデルと、運転場面データとを記録する。プロセッサ22Aは、運転特性学習装置23に記録された運転特性学習モデルと、各種センサにより取得された情報とを用いて、運転特性データを生成する。また、プロセッサ22Aは、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて運転場面を判定し、車両C1A,…の運転場面を示す運転場面データを生成する。 The driving characteristic learning device 23 records the driving characteristic learning model and driving scene data transmitted from the driving characteristic improvement server S3. The processor 22A generates driving characteristic data using the driving characteristic learning model recorded in the driving characteristic learning device 23 and information acquired by various sensors. Further, the processor 22A determines the driving situation using the driving situation data recorded in the driving characteristic learning device 23 and the information acquired by various sensors, and generates driving situation data indicating the driving situation of the vehicle C1A,... do.

車内センサ24は、例えば自車両のスマートキーから発信される電波を受信可能なセンサ,各席に対応するドアに設けられた開閉センサ,各座席に設けられた加重センサ、シートベルトの装着センサ等である。車内センサ24は、スマートキーから発信される電波を受信した場合、運転者の接近を通知する電気信号(制御指令)を生成して、ECU16Aに出力する。車内センサ24は、スマートキーから発信される電波を受信できなくなった場合、運転者が自車両から離れたことを通知する電気信号(制御指令)を生成して、ECU16Aに出力する。また、車内センサ24は、運転席に設けられた加重センサによる運転者の体(体重)の動き、シートベルトの着脱、運転席のドアの開閉等の検知情報をECU16Aに出力する。 The in-vehicle sensor 24 includes, for example, a sensor capable of receiving radio waves emitted from the smart key of the own vehicle, an opening/closing sensor provided on the door corresponding to each seat, a weight sensor provided on each seat, a seat belt attachment sensor, etc. It is. When the in-vehicle sensor 24 receives a radio wave transmitted from the smart key, it generates an electric signal (control command) notifying the driver's approach and outputs it to the ECU 16A. When the in-vehicle sensor 24 is unable to receive radio waves transmitted from the smart key, it generates an electric signal (control command) to notify that the driver has left the own vehicle and outputs it to the ECU 16A. Furthermore, the in-vehicle sensor 24 outputs to the ECU 16A information detected by a weight sensor provided in the driver's seat, such as movement of the driver's body (weight), fastening/detaching of a seatbelt, opening/closing of the driver's seat door, etc.

安全運転支援機器の一例としてのスピーカ25は、車両C1A,…のそれぞれの車内に少なくとも1つ設けられ、プロセッサ22AあるいはECU16Aにより制御されて運転場面に対応する支援音声を出力し、運転者の運転特性改善支援を実行する。なお、実施の形態2に係る車両C1A,…におけるスピーカ25の設置位置および数は、図28に示すように車両の前方と後方とにそれぞれ2つずつ設置される例について説明するが、一例であってこれに限定されないことは言うまでもない。また、スピーカ25は、車両内だけでなく、車両外に設置されてもよい。 At least one speaker 25, which is an example of a safe driving support device, is provided in each of the vehicles C1A, . Perform characteristic improvement support. The installation positions and numbers of the speakers 25 in the vehicle C1A, ... according to the second embodiment will be described with reference to an example in which two speakers 25 are installed in the front and rear of the vehicle, respectively, as shown in FIG. Needless to say, it is not limited to this. Further, the speaker 25 may be installed not only inside the vehicle but also outside the vehicle.

安全運転支援機器の一例としての警告表示灯26は、例えば車両内のピラー等に設けられたLED(Light Emitting Diode)であって、プロセッサ22AあるいはECU16Aにより制御されて運転場面に対応して点灯し、運転者の運転特性改善支援を実行する。なお、実施の形態2に係る車両C1A,…における警告表示灯26の設置位置および数は、図29に示す例に限定されないことは言うまでもない。また、警告表示灯26は、ピラー以外の位置(例えば、サイドミラー,ルームミラー等)に設置されてもよい。 The warning indicator light 26, which is an example of a safe driving support device, is an LED (Light Emitting Diode) installed, for example, on a pillar in the vehicle, and is controlled by the processor 22A or the ECU 16A and lights up according to the driving situation. , to support the improvement of the driver's driving characteristics. It goes without saying that the installation position and number of warning indicator lights 26 in the vehicles C1A, . . . according to the second embodiment are not limited to the example shown in FIG. 29. Further, the warning indicator light 26 may be installed at a position other than the pillar (for example, a side mirror, a room mirror, etc.).

次に、図19を参照して、車両C1A,…のそれぞれにより記録される運転特性履歴テーブルTB3について説明する。図19は、運転特性履歴テーブルTB3の一例を示す図である。なお、以降の説明では説明を分かり易くするために、運転特性履歴テーブルTB3を用いて車両C1A,…のそれぞれにより記録される各種データまたは情報について説明するが、運転特性履歴テーブルTB3は必須でなく、省略されてよい。 Next, with reference to FIG. 19, the driving characteristic history table TB3 recorded by each of the vehicles C1A, . . . will be described. FIG. 19 is a diagram showing an example of the driving characteristic history table TB3. In the following explanation, in order to make the explanation easier to understand, various data or information recorded by each of the vehicles C1A, ... will be explained using the driving characteristic history table TB3, but the driving characteristic history table TB3 is not essential. , may be omitted.

運転特性履歴テーブルTB3は、運転場面情報と、運転特性データと、運転場面情報に対応する改善効果データとを利用者IDに紐付けて記録し、管理する。なお、利用者IDは、免許証IDであってもよい。 The driving characteristic history table TB3 records and manages driving scene information, driving characteristic data, and improvement effect data corresponding to the driving scene information in association with a user ID. Note that the user ID may be a driver's license ID.

例えば、図19に示す運転特性履歴テーブルTB3は、利用者ID「AAA」に運転場面情報「〇〇〇」と、運転特性データと、改善効果データとを紐付け、利用者ID「AAA」に、運転場面情報「△△△」と、運転特性データと、改善効果データとを紐付け、利用者ID「BBB」に、運転場面情報「×××」と、運転特性データと、改善効果データとを紐付けて、それぞれ記録する。これにより、運転特性履歴テーブルTB3は、同一の車両を、異なる複数の運転者のそれぞれ(例えば、2人の利用者「AAA」,「BBB」のそれぞれ)が運転する場合であっても、利用者IDごとに運転特性データ、改善効果データのそれぞれをより効率的に記録(管理)できる。 For example, the driving characteristic history table TB3 shown in FIG. 19 associates the user ID "AAA" with the driving scene information "〇〇〇", the driving characteristic data, and the improvement effect data, , link the driving scene information "△△△", the driving characteristic data, and the improvement effect data, and add the driving scene information "XXXX", the driving characteristic data, and the improvement effect data to the user ID "BBB". and record each. As a result, the driving characteristic history table TB3 can be used even when a plurality of different drivers (for example, two users "AAA" and "BBB") drive the same vehicle. Driving characteristic data and improvement effect data can be more efficiently recorded (managed) for each user ID.

次に、図20を参照して、運転特性改善サーバS3の内部構成例について説明する。図20は、実施の形態2における運転特性改善サーバS3の内部構成例を示すブロック図である。 Next, an example of the internal configuration of the driving characteristic improvement server S3 will be described with reference to FIG. 20. FIG. 20 is a block diagram showing an example of the internal configuration of the driving characteristic improvement server S3 in the second embodiment.

運転特性改善サーバS3は、通信部51と、プロセッサ52と、メモリ53と、データベース54と、を含んで構成される。なお、データベース54は、運転特性改善サーバS3との間でデータ通信可能に接続された別体により構成されてもよい。 The driving characteristic improvement server S3 includes a communication section 51, a processor 52, a memory 53, and a database 54. Note that the database 54 may be configured as a separate entity that is connected to the driving characteristic improvement server S3 so as to enable data communication.

通信部51は、ネットワークNWを介して、車両C1A,…のそれぞれと、無線端末装置P1との間でデータ送受信可能に接続される。 The communication unit 51 is connected to each of the vehicles C1A, . . . and the wireless terminal device P1 via the network NW so as to be able to transmit and receive data.

プロセッサ52は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ52は、メモリ53と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ52は、メモリ53に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、支援方法生成部52A等の各部の機能を実現する。プロセッサ52は、運転特性学習モデル、あるいは運転場面データが更新された場合、更新された運転特性学習モデル、あるいは運転場面データを車両C1A,…のそれぞれに送信する。 The processor 52 is configured using, for example, a CPU, a DSP, or an FPGA, and controls the operations of each section. The processor 52 cooperates with the memory 53 to perform various types of processing and control in an integrated manner. Specifically, the processor 52 refers to the program and data held in the memory 53 and executes the program, thereby realizing the functions of each section such as the support method generation section 52A. When the driving characteristic learning model or driving scene data is updated, the processor 52 transmits the updated driving characteristic learning model or driving scene data to each of the vehicles C1A, . . . .

また、プロセッサ52は、車両C1A,…のそれぞれから送信された各運転場面情報に対応する運転特性データを用いた機械学習に基づいて、運転特性学習モデルの生成に用いられる教師データ(学習データ)を生成してもよい。プロセッサ52は、車両C1A,…のそれぞれから送信された各改善効果データに基づく運転特性改善支援に対する運転者の感情データを用いた機械学習に基づいて、改善効果学習モデルの生成に用いられる教師データ(学習データ)を生成してもよい。 The processor 52 also generates teacher data (learning data) used to generate a driving characteristic learning model based on machine learning using driving characteristic data corresponding to each driving scene information transmitted from each of the vehicles C1A, . may be generated. The processor 52 generates training data used to generate an improvement effect learning model based on machine learning using emotional data of the driver regarding driving characteristic improvement support based on each improvement effect data transmitted from each of the vehicles C1A, . (learning data) may be generated.

教師データを生成するための学習は、1つ以上の統計的分類技術を用いて行っても良い。統計的分類技術としては、例えば、重回帰分析、線形分類器(Linear Classifiers)、サポートベクターマシン(Support Vector Machines)、二次分類器(Quadratic Classifiers)、カーネル密度推測(Kernel Estimation)、決定木(Decision Trees)、人工ニューラルネットワーク(Artificial Neural Networks)、ベイジアン技術および/またはネットワーク(Bayesian Techniques and/or Networks)、隠れマルコフモデル(Hidden Markov Models)、バイナリ分類子(Binary Classifiers)、マルチクラス分類器(Multi-Class Classifiers)、クラスタリング(Clustering Technique)、ランダムフォレスト(Random Forest Technique)、ロジスティック回帰(Logistic Regression Technique)、線形回帰(Linear Regression Technique)、勾配ブースティング(Gradient Boosting Technique)等が挙げられる。但し、使用される統計的分類技術はこれらに限定されない。 Learning to generate training data may be performed using one or more statistical classification techniques. Examples of statistical classification techniques include multiple regression analysis, linear classifiers, support vector machines, quadratic classifiers, kernel density estimation, and decision trees ( Decision Trees), Artificial Neural Networks, Bayesian Techniques and/or Networks, Hidden Markov Models, Binary classifiers, multi-class classifiers ( Multi-Class Classifiers), Clustering Technique, Random Forest Technique, Logistic Regression Technique, Linear Regression (Li Examples include near regression technique, gradient boosting technique, and the like. However, the statistical classification techniques used are not limited to these.

支援方法生成部52Aは、車両C1A,…のそれぞれから送信された運転特性データ、運転場面情報、感情データ、および利用者IDのそれぞれを取得する。支援方法生成部52Aは、取得された利用者IDと、利用者データベースDB1に登録(格納)された複数の利用者IDのそれぞれとを照合して、運転者を特定する。なお、支援方法生成部52Aは、利用者データベースDB1に取得された利用者IDと同一の利用者IDが登録されていないと判定した場合、取得された利用者IDを新たな利用者として、利用者データベースDB1に登録(格納)してよい。 The support method generation unit 52A acquires each of the driving characteristic data, driving scene information, emotional data, and user ID transmitted from each of the vehicles C1A, . . . . The support method generation unit 52A identifies the driver by comparing the acquired user ID with each of the plurality of user IDs registered (stored) in the user database DB1. Note that if the support method generation unit 52A determines that the same user ID as the acquired user ID is not registered in the user database DB1, the support method generation unit 52A uses the acquired user ID as a new user. may be registered (stored) in the user database DB1.

支援方法生成部52Aは、取得された運転場面情報に基づいて、安全運転が必要な運転場面であって、かつ、運転場面に対応する危険度(スコア)が所定値以上であるか否かを判定する。また、支援方法生成部52Aは、取得された運転特性データに含まれる行動特性データに基づいて、運転者が運転場面に対応する安全確認行動を実行しているか否かを判定する。 Based on the acquired driving scene information, the support method generation unit 52A determines whether the driving scene requires safe driving and the degree of risk (score) corresponding to the driving scene is equal to or higher than a predetermined value. judge. Furthermore, the support method generation unit 52A determines whether the driver is performing a safety confirmation behavior corresponding to the driving situation, based on behavioral characteristic data included in the acquired driving characteristic data.

支援方法生成部52Aは、これらの判定結果と感情データに基づいて、運転特性改善方法の変更が必要であるか否かをさらに判定する。支援方法生成部52Aは、運転特性改善方法の変更が必要であると判定した場合、取得された運転場面情報を運転場面データベースDB2に、取得された運転特性データを運転特性データベースDB3に、取得された改善効果データを改善効果データベースDB4にそれぞれ利用者IDに紐付けて登録(格納)する。また、支援方法生成部52Aは、取得された運転特性と、運転特性データベースDB3に登録された運転者の運転特性とに基づいて、運転者の運転特性が改善しているか否かを判定する。支援方法生成部52Aは、運転特性が改善しているか否かの判定結果と、取得された感情データとに基づいて、変更後の運転特性改善方法を決定する。支援方法生成部52Aは、変更後の運転特性改善方法を示す改善効果データを生成し、車両C1A,…に送信する。 The support method generation unit 52A further determines whether or not it is necessary to change the driving characteristic improvement method based on these determination results and emotional data. When determining that the driving characteristic improvement method needs to be changed, the support method generation unit 52A stores the acquired driving scene information in the driving scene database DB2 and the acquired driving characteristic data in the driving characteristic database DB3. The improvement effect data is registered (stored) in the improvement effect database DB4 in association with each user ID. Further, the support method generation unit 52A determines whether or not the driver's driving characteristics have improved based on the acquired driving characteristics and the driver's driving characteristics registered in the driving characteristics database DB3. The support method generation unit 52A determines the changed driving characteristic improvement method based on the determination result as to whether the driving characteristics have improved and the acquired emotional data. The support method generation unit 52A generates improvement effect data indicating the changed driving characteristic improvement method, and transmits it to the vehicles C1A, . . . .

一方、支援方法生成部52Aは、運転特性改善方法の変更が必要でないと判定した場合、新たな改善効果データの生成および更新処理を省略し、取得された運転場面情報を運転場面データベースDB2に、取得された運転特性データを運転特性データベースDB3にそれぞれ利用者IDに紐付けて登録(格納)する。 On the other hand, if the support method generation unit 52A determines that there is no need to change the driving characteristic improvement method, it omits the generation and update process of new improvement effect data, and stores the acquired driving scene information in the driving scene database DB2. The acquired driving characteristic data is registered (stored) in the driving characteristic database DB3 in association with each user ID.

メモリ53は、例えばプロセッサ52の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ52の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ52により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ52の動作を規定するプログラムが書き込まれている。また、メモリ53は、運転特性学習モデル53Aと、改善効果学習モデル53Bとを記憶する。 The memory 53 includes, for example, a RAM as a work memory used when the processor 52 executes each process, and a ROM that stores programs and data that define the operations of the processor 52. Data or information generated or acquired by the processor 52 is temporarily stored in the RAM. A program that defines the operation of the processor 52 is written in the ROM. The memory 53 also stores a driving characteristic learning model 53A and an improvement effect learning model 53B.

データベース54は、利用者データベースDB1と、運転場面データベースDB2と、運転特性データベースDB3と、改善効果データベースDB4とをそれぞれ記録する。利用者データベースDB1、運転場面データベースDB2、運転特性データベースDB3、および、改善効果データベースDB4のそれぞれは、車両C1A,…のそれぞれから送信された1セットのデータ(利用者ID、運転場面情報、運転場面に対応する運転特性データ、および運転場面情報に対応する改善効果データのそれぞれ)がそれぞれ互いに紐付けられた状態で記録される。なお、利用者データベースDB1、運転場面データベースDB2、運転特性データベースDB3、および、改善効果データベースDB4のそれぞれは、車両C1A,…のそれぞれから取得された取得日時情報を紐付けて記憶することで、車両C1A,…のそれぞれから送信された1セットのデータを紐付け可能にしてもよい。 The database 54 records a user database DB1, a driving scene database DB2, a driving characteristic database DB3, and an improvement effect database DB4. Each of the user database DB1, driving scene database DB2, driving characteristic database DB3, and improvement effect database DB4 includes one set of data (user ID, driving scene information, driving scene information) transmitted from each of the vehicles C1A,... (the driving characteristic data corresponding to the driving situation information and the improvement effect data corresponding to the driving scene information) are recorded in a state where they are linked to each other. Note that each of the user database DB1, driving scene database DB2, driving characteristic database DB3, and improvement effect database DB4 stores the acquisition date and time information acquired from each of the vehicles C1A, . . . One set of data transmitted from each of C1A, . . . may be linked.

利用者データベースDB1は、複数の運転者のそれぞれの利用者IDを登録(格納)する。なお、利用者IDは、免許証IDであってもよい。 The user database DB1 registers (stores) each user ID of a plurality of drivers. Note that the user ID may be a driver's license ID.

運転場面データベースDB2は、複数の車両C1A,…のそれぞれから取得された運転場面情報を利用者IDごとに登録(格納)する。 The driving scene database DB2 registers (stores) driving scene information acquired from each of the plurality of vehicles C1A, . . . for each user ID.

運転特性データベースDB3は、複数の車両C1A,…のそれぞれから取得された運転特性データを利用者IDの運転場面ごとに登録(格納)する。 The driving characteristic database DB3 registers (stores) driving characteristic data acquired from each of the plurality of vehicles C1A, . . . for each driving situation of the user ID.

改善効果データベースDB4は、支援方法生成部52Aにより生成された改善効果データを利用者IDの運転場面情報ごとに登録(格納)する。なお、改善効果データベースDB4は、変更後の運転改善データが生成された場合には、変更後の運転改善データを登録(格納)してもよい。また、改善効果データベースDB4は、新たな改善効果データが車両C1A,…により生成される場合、運転場面情報に紐付けられた改善効果データを、複数の車両C1A,…のそれぞれから取得された新たな改善効果データに更新する。 The improvement effect database DB4 registers (stores) the improvement effect data generated by the support method generation unit 52A for each driving scene information of the user ID. Note that the improvement effect database DB4 may register (store) the changed driving improvement data when the changed driving improvement data is generated. In addition, when new improvement effect data is generated by the vehicles C1A,..., the improvement effect database DB4 stores the improvement effect data linked to the driving scene information in the new improvement effect data acquired from each of the plurality of vehicles C1A,... Update the improvement effect data.

次に、図21を参照して、車両C1A,…のそれぞれにより記録される運転特性改善管理テーブルTB4について説明する。図19は、運転特性改善管理テーブルTB4の一例を示す図である。なお、以降の説明では説明を分かり易くするために、運転特性改善管理テーブルTB4を用いてデータベース54(つまり、利用者データベースDB1、運転場面データベースDB2、運転特性データベースDB3、および、改善効果データベースDB4のそれぞれ)により記録される各種データあるいは情報について説明するが、運転特性改善管理テーブルTB4は必須でなく、省略されてよい。 Next, with reference to FIG. 21, the driving characteristic improvement management table TB4 recorded by each of the vehicles C1A, . . . will be described. FIG. 19 is a diagram showing an example of the driving characteristic improvement management table TB4. In the following explanation, in order to make the explanation easier to understand, the driving characteristic improvement management table TB4 is used to describe the database 54 (that is, the user database DB1, the driving scene database DB2, the driving characteristic database DB3, and the improvement effect database DB4). The various data or information recorded by each) will be explained, but the driving characteristic improvement management table TB4 is not essential and may be omitted.

運転特性改善管理テーブルTB4は、運転場面情報に、運転場面に対応する運転特性データと、運転場面情報に対応する改善効果データとを紐付けて利用者IDごとに記録し、管理する。なお、利用者IDは、免許証IDであってもよい。 The driving characteristic improvement management table TB4 records and manages the driving scene information by linking the driving characteristic data corresponding to the driving scene and the improvement effect data corresponding to the driving scene information for each user ID. Note that the user ID may be a driver's license ID.

例えば、図21に示す運転特性改善管理テーブルTB4は、利用者ID「AAA」の運転場面情報「〇〇〇」に運転特性データと改善効果データとを、運転場面情報「△△△」に運転特性データと改善効果データとを、運転場面情報「×××」に運転特性データと改善効果データとをそれぞれ紐付けて記録する。運転特性改善管理テーブルTB4は、利用者ID「BBB」の運転場面情報「×××」に運転特性データと改善効果データとを紐付けて記録し、利用者ID「CCC」の運転場面情報「△△△」に運転特性データと改善効果データとを紐付けて記録する。 For example, the driving characteristic improvement management table TB4 shown in FIG. The characteristic data and the improvement effect data are recorded by being associated with the driving scene information "XXXX". The driving characteristic improvement management table TB4 records the driving scene information "XXXX" of the user ID "BBB" by linking the driving characteristic data and the improvement effect data, and records the driving scene information "XXXX" of the user ID "CCC" by linking the driving characteristic data and the improvement effect data. Driving characteristic data and improvement effect data are linked and recorded in △△△.

図22を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図22は、左折時の安全確認行動例を説明する図である。なお、図22に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図22では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 22, a specific example of the process of determining whether or not the safety confirmation behavior is being executed by the vehicle C1A, . . . or the driving characteristic improvement server S3 will be described. FIG. 22 is a diagram illustrating an example of safety confirmation behavior when turning left. Note that the safe behavior confirmation example shown in FIG. 22 is just an example, and it goes without saying that the present invention is not limited to this. Further, in FIG. 22, an example will be described in which the determination process of whether or not the safety confirmation behavior is executed is executed by the vehicle C1A, but the process is not limited to this, and is executed by the processor 52 of the driving characteristic improvement server S3. It's okay to be.

図22は、運転場面「左折時」の車両C1Aを示す図であって、進行方向D1に左折する直前の車両C1Aと、その時の車両C1A内部の様子を示す図である。なお、以降で説明する端末装置22により実行される各処理は、ECU16Aにより実行されてもよい。 FIG. 22 is a diagram showing the vehicle C1A in a driving scene "when turning left", and is a diagram showing the vehicle C1A just before turning left in the traveling direction D1 and the inside of the vehicle C1A at that time. Note that each process executed by the terminal device 22 described below may be executed by the ECU 16A.

図22に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「左折時」であると判定する。例えば、端末装置22は、運転場面データと、車外センサ/カメラ19Aにより撮像された車両C1Aの周囲が撮像された撮像画像、アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,あるいはステアリング17Dにより取得された運転者の運転操作に関する各種情報、端末装置22に事前に設定された行先(目的地)情報、GPSセンサ20等により取得された現在の車両C1Aの位置情報等と、を用いて、車両C1Aの運転場面が「左折時」であると判定する。 The terminal device 22 shown in FIG. 22 uses the driving scene data recorded in the driving characteristic learning device 23 and information acquired by various sensors to determine that the driving scene of the vehicle C1A is "when turning left." For example, the terminal device 22 receives driving scene data, a captured image of the surroundings of the vehicle C1A captured by the external sensor/camera 19A, an image obtained by the accelerator pedal 17A, brake pedal 17B, turn lamp 17C, or steering wheel 17D. The vehicle C1A uses various information regarding the driving operation of the driver, destination information set in advance on the terminal device 22, current position information of the vehicle C1A acquired by the GPS sensor 20, etc. It is determined that the driving situation is "when turning left."

端末装置22は、判定された車両C1Aの運転場面情報「左折時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「左折時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。 The terminal device 22 links the user ID corresponding to this driver stored in the driving characteristic history table TB3 based on the determined driving scene information "when turning left" of the vehicle C1A, and also displays the driving scene information. The improvement effect data (that is, the driving characteristic improvement support method) corresponding to "when turning left" is referred to. The terminal device 22 generates a control command to control the speaker 25 or the warning indicator light 26, respectively, based on the referenced improvement effect data, and outputs the control command to the speaker 25 or the warning indicator light 26, respectively. Note that when the terminal device 22 determines that driving characteristic improvement support is not necessary based on the referenced improvement effect data, it omits the control of the speaker 25 or the warning indicator light 26 described above.

また、端末装置22は、判定された車両C1Aの運転場面情報「左折時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図22に示す例において、車両C1Aは、運転者が運転場面情報「左折時」に対応する3つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。 Further, the terminal device 22 refers to information on one or more safety confirmation actions to be performed by the driver, corresponding to the determined driving scene information "when turning left" of the vehicle C1A. The terminal device 22 determines whether or not the driver has executed the safety confirmation behavior corresponding to the driving scene information, based on the information on one or more safety confirmation behaviors and the behavioral characteristic data of the driver acquired by various sensors. Determine whether In the example shown in FIG. 22, an example will be described in which the vehicle C1A determines whether the driver has performed each of three safety confirmation actions corresponding to the driving scene information "when turning left."

例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者にルームミラーRM越しに車両C1A後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC11を向いたか否か(つまり、運転者がルームミラーRM越しに車両C1Aの後方を目視確認したか否か)を判定する(1つ目の判定)。 For example, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to execute driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A through the rearview mirror RM, and also performs driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A through the rearview mirror RM. Based on the captured image, it is determined whether the driver's face or line of sight has turned in the direction AC11 (that is, whether the driver visually confirmed the rear of the vehicle C1A through the rearview mirror RM) (1 (second judgment).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に進行方向D1に対応する左側サイドミラーSM1越しに車両C1A左側方および左後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC12を向いたか否か(つまり、運転者が進行方向D1に対応する左側サイドミラーSM1越しに車両C1Aの左側側方および後方を目視確認したか否か)を判定する(2つ目の判定)。 The terminal device 22 also controls the speaker 25 or warning indicator light 26 to provide driving characteristic improvement support that urges the driver to visually check the left side and left rear of the vehicle C1A through the left side mirror SM1 corresponding to the traveling direction D1. At the same time, based on the captured image output from the in-vehicle camera 13A, it is determined whether or not the driver's face or line of sight is directed in the direction AC12 (that is, whether the driver's face or line of sight is directed toward the direction AC12 (second determination) whether the left side and rear of the vehicle C1A were visually confirmed.

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC13を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する(3つ目の判定)。 Furthermore, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to execute driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A, and also performs driving characteristic improvement support based on the captured image output from the in-vehicle camera 13A. Then, it is determined whether the driver's body, face, or line of sight has turned in direction AC13 (that is, whether the driver visually confirmed the rear of the vehicle C1A) (third determination).

なお、2つ以上の安全確認行動のそれぞれ実行判定を行う場合であって、これらの安全確認行動のそれぞれに事前に判定順番が設定されている場合、端末装置22は、各安全確認行動の実行判定を行うとともに、各安全確認行動が設定された順番通りに実行されたか否かを判定してもよい。 Note that in the case where execution determination is made for each of two or more safety confirmation actions, and a determination order is set in advance for each of these safety confirmation actions, the terminal device 22 determines whether or not to execute each safety confirmation action. In addition to making the determination, it may also be determined whether each safety confirmation action has been executed in the set order.

端末装置22は、運転特性改善支援を開始したタイミングから3つの安全確認行動のそれぞれの実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。なお、端末装置22は、各安全確認行動のそれぞれに対応する運転特性改善支援ごとに感情データを生成してもよいし、運転場面「左折時」に実行された運転特性改善支援に対して1つの感情データを生成してもよい。 The terminal device 22 calculates the driver's emotions based on the image captured by the in-vehicle camera 13A from the timing when driving characteristic improvement support is started until the timing when execution determination processing for each of the three safety confirmation actions is completed. Analyze. The terminal device 22 generates emotional data based on the analysis results. Note that the terminal device 22 may generate emotional data for each driving characteristic improvement support corresponding to each safety confirmation action, or may generate emotional data for each driving characteristic improvement support executed in the driving scene "when turning left." Emotion data may also be generated.

端末装置22は、運転場面の判定を開始したタイミングから3つの安全確認行動のそれぞれの実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。 The terminal device 22 stores driving characteristic data, driving scene information, and the three safety confirmation actions acquired from the timing when the judgment of the driving situation is started until the timing when the execution judgment of each of the three safety confirmation actions is completed. Safety confirmation action data indicating the respective judgment results and emotional data corresponding to driving characteristic improvement support are generated respectively, and are recorded in the memory 15A in association with the user ID, and transmitted to the driving characteristic improvement server S3. and record it in the database 54.

図23を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図23は、右折時の安全確認行動例を説明する図である。なお、図23に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図23では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 23, a specific example of the process of determining whether or not the safety confirmation behavior is being executed by the vehicle C1A, . . . or the driving characteristic improvement server S3 will be described. FIG. 23 is a diagram illustrating an example of safety confirmation behavior when turning right. Note that the safe behavior confirmation example shown in FIG. 23 is just an example, and it goes without saying that the present invention is not limited thereto. Further, in FIG. 23, an example will be described in which the determination process of whether or not the safety confirmation behavior is executed is executed by the vehicle C1A, but the process is not limited to this, and is executed by the processor 52 of the driving characteristic improvement server S3. It's okay to be.

図23は、運転場面「右折時」の車両C1Aを示す図であって、進行方向D2に右折する直前の車両C1Aと、その時の車両C1A内部の様子を示す図である。 FIG. 23 is a diagram showing the vehicle C1A in a driving scene "when turning right", and is a diagram showing the vehicle C1A just before turning right in the traveling direction D2 and the inside of the vehicle C1A at that time.

図23に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「右折時」であると判定する。 The terminal device 22 shown in FIG. 23 uses the driving scene data recorded in the driving characteristic learning device 23 and the information acquired by various sensors to determine that the driving scene of the vehicle C1A is "right turn".

端末装置22は、判定された車両C1Aの運転場面情報「右折時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「右折時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。 The terminal device 22 links the user ID corresponding to this driver stored in the driving characteristic history table TB3 based on the determined driving scene information "when turning right" of the vehicle C1A, and also displays the driving scene information. The improvement effect data (that is, the driving characteristic improvement support method) corresponding to "right turn" is referred to. The terminal device 22 generates a control command to control the speaker 25 or the warning indicator light 26, respectively, based on the referenced improvement effect data, and outputs the control command to the speaker 25 or the warning indicator light 26, respectively. Note that when the terminal device 22 determines that driving characteristic improvement support is not necessary based on the referenced improvement effect data, it omits the control of the speaker 25 or the warning indicator light 26 described above.

また、端末装置22は、判定された車両C1Aの運転場面情報「右折時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図23に示す例において、車両C1Aは、運転者が運転場面情報「右折時」に対応する3つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。 Further, the terminal device 22 refers to information on one or more safety confirmation actions to be performed by the driver, corresponding to the determined driving scene information "right turn" of the vehicle C1A. The terminal device 22 determines whether or not the driver has executed the safety confirmation behavior corresponding to the driving scene information, based on the information on one or more safety confirmation behaviors and the behavioral characteristic data of the driver acquired by various sensors. Determine whether In the example shown in FIG. 23, an example will be described in which the vehicle C1A determines whether the driver has performed each of three safety confirmation actions corresponding to the driving scene information "right turn".

例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者にルームミラーRM越しに車両C1A後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC21を向いたか否か(つまり、運転者がルームミラーRM越しに車両C1Aの後方を目視確認したか否か)を判定する(1つ目の判定)。 For example, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to execute driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A through the rearview mirror RM, and also performs driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A through the rearview mirror RM. Based on the captured image, it is determined whether the driver's face or line of sight has turned in the direction AC21 (that is, whether the driver has visually confirmed the rear of the vehicle C1A through the rearview mirror RM) (1 (second judgment).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に進行方向D2に対応する右側サイドミラーSM2越しに車両C1A右側方および右後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC22を向いたか否か(つまり、運転者が進行方向D2に対応する右側サイドミラーSM2越しに車両C1Aの右側側方および後方を目視確認したか否か)を判定する(2つ目の判定)。 The terminal device 22 also controls the speaker 25 or the warning indicator light 26 to provide driving characteristic improvement support that urges the driver to visually check the right side and right rear of the vehicle C1A through the right side mirror SM2 corresponding to the traveling direction D2. At the same time, based on the captured image output from the in-vehicle camera 13A, it is determined whether or not the driver's face or line of sight is directed in the direction AC22 (that is, whether the driver is looking through the right side mirror SM2 corresponding to the direction of travel D2). (Second determination) (second determination).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC23を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する(3つ目の判定)。なお、図23に示すように車両C1Aが右側に運転席がある車両(つまり、右ステアリング車両)である場合、運転者は、運転席のドアにより車両C1Aの右側方および右後方が遮られる。このような場合、端末装置22は、運転者の行動特性データに基づいて、運転者の頭が進行方向D2を向いた状態から車両C1Aの右側に向かう方向に90°以上向いたか否かに基づいて、運転者が車両C1Aの後方を目視確認したか否かを判定してもよい。 Furthermore, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to execute driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A, and also performs driving characteristic improvement support based on the captured image output from the in-vehicle camera 13A. Then, it is determined whether the driver's body, face, or line of sight has turned in the direction AC23 (that is, whether the driver has visually confirmed the rear of the vehicle C1A) (third determination). Note that, as shown in FIG. 23, when the vehicle C1A is a vehicle with a driver's seat on the right side (that is, a right-hand steering vehicle), the driver's right side and right rear side of the vehicle C1A are blocked by the door of the driver's seat. In such a case, the terminal device 22 determines whether the driver's head has turned from the direction of travel D2 to the right side of the vehicle C1A by 90 degrees or more, based on the behavioral characteristic data of the driver. It may be determined whether the driver visually checked the rear of the vehicle C1A.

端末装置22は、運転特性改善支援を開始したタイミングから3つの安全確認行動のそれぞれの実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。端末装置22は、運転場面の判定を開始したタイミングから3つの安全確認行動のそれぞれの実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。 The terminal device 22 calculates the driver's emotions based on the image captured by the in-vehicle camera 13A from the timing when driving characteristic improvement support is started until the timing when execution determination processing for each of the three safety confirmation actions is completed. Analyze. The terminal device 22 generates emotional data based on the analysis results. The terminal device 22 stores driving characteristic data, driving scene information, and the three safety confirmation actions acquired from the timing when the judgment of the driving situation is started until the timing when the execution judgment of each of the three safety confirmation actions is completed. Safety confirmation action data indicating the respective judgment results and emotional data corresponding to driving characteristic improvement support are generated respectively, and are recorded in the memory 15A in association with the user ID, and transmitted to the driving characteristic improvement server S3. and record it in the database 54.

図24を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図24は、後退時の安全確認行動例を説明する図である。なお、図24に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図24では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 24, a specific example of the process of determining whether or not the safety confirmation behavior is being executed by the vehicle C1A, . . . or the driving characteristic improvement server S3 will be described. FIG. 24 is a diagram illustrating an example of safety confirmation behavior when reversing. Note that the safe behavior confirmation example shown in FIG. 24 is just an example, and it goes without saying that the present invention is not limited thereto. Furthermore, in FIG. 24, an example will be described in which the process of determining whether or not the safety confirmation behavior is being executed is executed by the vehicle C1A, but the process is not limited to this, and is executed by the processor 52 of the driving characteristic improvement server S3. It's okay to be.

図24は、運転場面「後退時」の車両C1Aを示す図であって、進行方向D3に後退する直前の車両C1Aと、その時の車両C1A内部の様子を示す図である。 FIG. 24 is a diagram showing the vehicle C1A in a driving scene "when reversing", and is a diagram showing the vehicle C1A just before reversing in the traveling direction D3 and the inside of the vehicle C1A at that time.

図24に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「後退時」であると判定する。 The terminal device 22 shown in FIG. 24 uses the driving scene data recorded in the driving characteristic learning device 23 and the information acquired by various sensors to determine that the driving scene of the vehicle C1A is "reversing".

端末装置22は、判定された車両C1Aの運転場面情報「後退時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「後退時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。 The terminal device 22 links the user ID corresponding to this driver stored in the driving characteristic history table TB3 based on the determined driving scene information "when reversing" of the vehicle C1A, and also displays the driving scene information. The improvement effect data (that is, the driving characteristic improvement support method) corresponding to "when reversing" is referred to. The terminal device 22 generates a control command for controlling the speaker 25 or the warning indicator light 26, respectively, based on the referenced improvement effect data, and outputs the control command to the speaker 25 or the warning indicator light 26, respectively. Note that if the terminal device 22 determines that driving characteristic improvement support is not required based on the referenced improvement effect data, it omits the control of the speaker 25 or the warning indicator light 26 described above.

また、端末装置22は、判定された車両C1Aの運転場面情報「後退時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図24に示す例において、車両C1Aは、運転者が運転場面情報「後退時」に対応する3つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。 Furthermore, the terminal device 22 refers to information on one or more safety confirmation actions to be performed by the driver, corresponding to the determined driving scene information "when reversing" of the vehicle C1A. The terminal device 22 determines whether or not the driver has executed the safety confirmation behavior corresponding to the driving scene information, based on the information on one or more safety confirmation behaviors and the behavioral characteristic data of the driver acquired by various sensors. Determine whether In addition, in the example shown in FIG. 24, an example will be described in which the vehicle C1A determines whether the driver has performed each of three safety confirmation actions corresponding to the driving scene information "when reversing".

例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者にルームミラーRM越しに車両C1A後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC31を向いたか否か(つまり、運転者がルームミラーRM越しに車両C1Aの後方を目視確認したか否か)を判定する(1つ目の判定)。 For example, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to execute driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A through the rearview mirror RM, and also performs driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A through the rearview mirror RM. Based on the captured image, it is determined whether the driver's face or line of sight has turned in the direction AC31 (that is, whether the driver has visually confirmed the rear of the vehicle C1A through the rearview mirror RM) (1 (second judgment).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に進行方向D3に対応する右側サイドミラーSM2越しに車両C1A右側方および右後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC32を向いたか否か(つまり、運転者が進行方向D3に対応する右側サイドミラーSM2越しに車両C1Aの右側側方および後方を目視確認したか否か)を判定する(2つ目の判定)。 The terminal device 22 also controls the speaker 25 or the warning indicator light 26 to provide driving characteristic improvement support that urges the driver to visually check the right side and right rear of the vehicle C1A through the right side mirror SM2 corresponding to the direction of travel D3. At the same time, based on the captured image output from the in-vehicle camera 13A, it is determined whether or not the driver's face or line of sight moves toward the direction AC32 (that is, whether the driver's face or line of sight moves toward the direction AC32 (that is, when the driver looks at the right side mirror SM2 corresponding to the traveling direction D3). (Second determination) (second determination).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC33を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する(3つ目の判定)。なお、端末装置22は、車内センサ24の一例であるシートベルトの装着センサにより、後方確認時に運転者がシートベルトを外したことが検知された場合、後方確認後に再度シートベルトが装着されたか否かを判定したり、運転者にシートベルトの再装着を促す運転特性改善支援を実行したりしてもよい。なお、運転者による後方の目視確認が実行されたか否かの判定は、自車両の後方を撮像するバックモニタ(車外センサ/カメラ19Aの一例)により撮像された撮像画像に基づいて、実行されてもよいし、複数の車外センサ/カメラ19Aを用いて取得された複数の撮像画像に基づいて、自車両を上方から俯瞰した画像であるサラウンドビューモニタ(360°のカメラ映像,トップビュー画像等)を生成し、生成されたサラウンドビューモニタ等に基づいて、実行されてもよい。 Furthermore, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to execute driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A, and also performs driving characteristic improvement support based on the captured image output from the in-vehicle camera 13A. Then, it is determined whether the movement of the driver's body, face, or line of sight is directed in the direction AC33 (that is, whether the driver visually confirmed the rear of the vehicle C1A) (third determination). Note that if the seatbelt wearing sensor, which is an example of the in-vehicle sensor 24, detects that the driver has taken off the seatbelt when checking the rear, the terminal device 22 detects whether the seatbelt has been fastened again after checking the rear. It may also be possible to perform driving characteristic improvement support that urges the driver to refasten the seat belt. Note that the determination as to whether or not the driver has performed a visual check of the rear is performed based on an image captured by a back monitor (an example of the external sensor/camera 19A) that captures an image of the rear of the own vehicle. Alternatively, a surround view monitor (360° camera image, top view image, etc.) that is an overhead view of the own vehicle based on a plurality of captured images obtained using a plurality of external sensors/cameras 19A. may be executed based on the generated surround view monitor or the like.

端末装置22は、運転特性改善支援を開始したタイミングから3つの安全確認行動のそれぞれの実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。端末装置22は、運転場面の判定を開始したタイミングから3つの安全確認行動のそれぞれの実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。 The terminal device 22 calculates the driver's emotions based on the image captured by the in-vehicle camera 13A from the timing when driving characteristic improvement support is started until the timing when execution determination processing for each of the three safety confirmation actions is completed. Analyze. The terminal device 22 generates emotional data based on the analysis results. The terminal device 22 stores driving characteristic data, driving scene information, and the three safety confirmation actions acquired from the timing when the judgment of the driving situation is started until the timing when the execution judgment of each of the three safety confirmation actions is completed. Safety confirmation action data indicating the respective judgment results and emotional data corresponding to driving characteristic improvement support are generated respectively, and are recorded in the memory 15A in association with the user ID, and transmitted to the driving characteristic improvement server S3. and record it in the database 54.

図25を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図25は、長距離直線道路を前進時の安全確認行動例を説明する図である。なお、図25に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図25では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 25, a specific example of the process of determining whether or not the safety confirmation behavior is being executed by the vehicle C1A, . . . or the driving characteristic improvement server S3 will be described. FIG. 25 is a diagram illustrating an example of safety confirmation behavior when moving forward on a long-distance straight road. Note that the safe behavior confirmation example shown in FIG. 25 is just an example, and it goes without saying that the present invention is not limited thereto. Further, in FIG. 25, an example will be described in which the process of determining whether or not the safety confirmation behavior is executed is executed by the vehicle C1A, but the process is not limited to this, and is executed by the processor 52 of the driving characteristic improvement server S3. It's okay to be.

図25は、運転場面「長距離直線道路の前進時」の車両C1Aを示す図であって、進行方向D4に前進する車両C1Aと、その時の車両C1A内部の様子を示す図である。 FIG. 25 is a diagram showing the vehicle C1A in a driving scene "while moving forward on a long-distance straight road", and is a diagram showing the vehicle C1A moving forward in the traveling direction D4 and the state inside the vehicle C1A at that time.

図25に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「長距離直線道路の前進時」であると判定する。 The terminal device 22 shown in FIG. 25 uses the driving scene data recorded in the driving characteristic learning device 23 and the information acquired by various sensors to determine that the driving scene of the vehicle C1A is "while moving forward on a long-distance straight road." It is determined that there is.

端末装置22は、判定された車両C1Aの運転場面情報「長距離直線道路の前進時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「長距離直線道路の前進時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。 The terminal device 22 links the user ID corresponding to this driver stored in the driving characteristic history table TB3 based on the determined driving situation information of the vehicle C1A "while moving forward on a long-distance straight road", In addition, the improvement effect data (that is, the driving characteristic improvement support method) corresponding to the driving scene information "while moving forward on a long-distance straight road" is referred to. The terminal device 22 generates a control command to control the speaker 25 or the warning indicator light 26, respectively, based on the referenced improvement effect data, and outputs the control command to the speaker 25 or the warning indicator light 26, respectively. Note that when the terminal device 22 determines that driving characteristic improvement support is not necessary based on the referenced improvement effect data, it omits the control of the speaker 25 or the warning indicator light 26 described above.

また、端末装置22は、判定された車両C1Aの運転場面情報「長距離直線道路の前進時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図25に示す例において、車両C1Aは、運転者が運転場面情報「長距離直線道路の前進時」に対応する1つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。 The terminal device 22 also refers to information on one or more safety confirmation actions to be performed by the driver, corresponding to the determined driving situation information of the vehicle C1A "while moving forward on a long-distance straight road." The terminal device 22 determines whether or not the driver has executed the safety confirmation behavior corresponding to the driving scene information, based on the information on one or more safety confirmation behaviors and the behavioral characteristic data of the driver acquired by various sensors. Determine whether In addition, in the example shown in FIG. 25, an example will be described in which the vehicle C1A determines whether the driver has performed each of one safety confirmation action corresponding to the driving scene information "while moving forward on a long-distance straight road". do.

例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC41を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する。 For example, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to execute driving characteristic improvement support that urges the driver to visually check the rear of the vehicle C1A, and also based on the captured image output from the in-vehicle camera 13A. Then, it is determined whether the driver's body, face, or line of sight has turned in direction AC41 (that is, whether the driver has visually checked the rear of the vehicle C1A).

なお、図25に示す運転場面情報「長距離直線道路の前進時」のように、1つの運転場面が第1の所定時間あるいは第1の走行距離以上継続される場合、安全確認行動の判定処理は、周期的(例えば、所定時間ごと、所定距離ごと)に繰り返し実行されてもよい。 In addition, when one driving scene continues for more than the first predetermined time or the first traveling distance, as in the driving scene information "while moving forward on a long-distance straight road" shown in FIG. 25, the safety confirmation behavior determination process is performed. may be repeatedly executed periodically (eg, every predetermined time, every predetermined distance).

端末装置22は、運転特性改善支援を開始したタイミングから安全確認行動の実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。端末装置22は、運転場面の判定を開始したタイミングから安全確認行動の実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。 The terminal device 22 analyzes the driver's emotions based on the captured image captured by the in-vehicle camera 13A from the timing when the driving characteristic improvement support is started until the timing when the execution determination process of the safety confirmation behavior is finished. The terminal device 22 generates emotional data based on the analysis results. The terminal device 22 uses driving characteristic data, driving scene information, and judgments for each of the three safety confirmation actions acquired between the timing when the judgment of the driving situation is started and the timing when the execution judgment of the safety confirmation action is completed. Safety confirmation behavior data indicating the results and emotional data corresponding to the driving characteristic improvement support are generated respectively, and are recorded in the memory 15A in association with the user ID, and transmitted to the driving characteristic improvement server S3, and then stored in the database 54. record it.

次に、図26を参照して、運転場面ごとの運転者の安全確認行動の一例について説明する。図26は、運転場面ごとの運転者の安全確認行動のセンシング例を説明する図である。なお、図26に示す運転場面、安全確認行動、あるいはセンサ例は、一例であってこれに限定されないことは言うまでもない。 Next, with reference to FIG. 26, an example of the driver's safety confirmation behavior for each driving situation will be described. FIG. 26 is a diagram illustrating an example of sensing a driver's safety confirmation behavior for each driving situation. It goes without saying that the driving scenes, safety confirmation actions, and sensor examples shown in FIG. 26 are just examples and are not limited thereto.

図26に示す安全確認行動テーブルTB5は、運転場面情報と、運転場面情報に対応し、運転者により実行されるべき安全確認行動と、安全確認行動をセンシングするセンサ例とを対応付けるテーブルである。なお、安全確認行動テーブルTB5は、運転場面ごとにセンシングされる運転者の安全確認行動例の説明を分かり易くするためのテーブルであって、必須でなく省略されてよい。 The safety confirmation behavior table TB5 shown in FIG. 26 is a table that associates driving scene information, a safety confirmation behavior that corresponds to the driving scene information and should be performed by the driver, and an example of a sensor that senses the safety confirmation behavior. Note that the safety confirmation behavior table TB5 is a table for making it easier to understand the explanation of the driver's safety confirmation behavior examples sensed for each driving situation, and is not essential and may be omitted.

例えば、図26に示す安全確認行動テーブルTB5において、端末装置22は、Bluetooth(登録商標)等の無線通信により車内センサ24によって運転者が所持する自車両のスマートキーあるいはスマートフォンから発信されている電波を受信して、自車両に対する運転者の接近を検知(センシング)したと判定した場合、運転特性学習装置23に記録された運転場面データに基づいて、運転場面が「車両に乗り込む前」であると判定する。端末装置22は、運転場面が「車両に乗り込む前」であると判定した場合、車外センサ/カメラ19Aにより自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,車内センサ24(例えば、ドアがそれぞれ開状態であるか閉状態であるかを検知するドア開閉センサ)による自車両の少なくとも1つの席のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 For example, in the safety confirmation behavior table TB5 shown in FIG. 26, the terminal device 22 uses wireless communication such as Bluetooth (registered trademark) to transmit radio waves transmitted from the smart key or smartphone of the own vehicle owned by the driver by the in-vehicle sensor 24. If it is determined that the driver's approach to the own vehicle has been detected (sensed), the driving scene is "before getting into the vehicle" based on the driving scene data recorded in the driving characteristic learning device 23. It is determined that When the terminal device 22 determines that the driving scene is "before getting into the vehicle," the terminal device 22 uses the external sensor/camera 19A to determine the presence or absence of obstacles in the forward direction or reverse direction of the own vehicle (that is, the front and back direction of the own vehicle). Safety confirmation by visually checking the presence or absence of objects in contact with the opening and closing of at least one seat door of the host vehicle using the in-vehicle sensor 24 (for example, a door opening/closing sensor that detects whether each door is open or closed) Determine whether the action is being performed.

また、車内カメラ13A,車内センサ24(ドア開閉センサ)等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「車両から降りる前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A,車内センサ24(ドア開閉センサ)等により自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,車内センサ24(例えば、ドアがそれぞれ開状態であるか閉状態であるかを検知するドア開閉センサ)による自車両の少なくとも1つの席のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 In addition, based on information acquired by various sensors such as the in-vehicle camera 13A and in-vehicle sensor 24 (door opening/closing sensor), and driving scene data recorded in the driving characteristic learning device 23, the driving scene is determined to be "before getting out of the vehicle." ”, the terminal device 22 detects the forward direction or reverse direction of the own vehicle (that is, the longitudinal direction of the own vehicle) using the in-vehicle camera 13A, the out-of-vehicle sensor/camera 19A, the in-vehicle sensor 24 (door opening/closing sensor), etc. the presence or absence of obstacles in the vehicle, the presence or absence of objects that come in contact with the door of at least one seat of the host vehicle by the in-vehicle sensor 24 (for example, a door opening/closing sensor that detects whether each door is open or closed), etc. Determine whether or not the safety confirmation action to visually confirm the safety check is being performed.

また、車内カメラ13A,車内センサ24(ドア開閉センサ)等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「同乗者が車両から降りる前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A,車内センサ24(ドア開閉センサ)等により自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,車内センサ24(例えば、ドアがそれぞれ開状態であるか閉状態であるかを検知するドア開閉センサ)による自車両の少なくとも1つの席(例えば、自車両から降車する同乗者の座席)のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 In addition, based on information acquired by various sensors such as the in-vehicle camera 13A and in-vehicle sensor 24 (door opening/closing sensor), and driving scene data recorded in the driving characteristic learning device 23, the driving scene is determined to be "A passenger is driving If the terminal device 22 determines that the vehicle is moving forward or backward (that is, before getting off the vehicle), the terminal device 22 uses the in-vehicle camera 13A, the out-vehicle sensor/camera 19A, the in-vehicle sensor 24 (door opening/closing sensor), etc. The presence or absence of obstacles in the front and rear directions), the presence of obstacles in the vehicle interior sensor 24 (for example, a door open/close sensor that detects whether the doors are open or closed) It is determined whether the safety confirmation action of visually checking the presence or absence of contact objects by opening and closing the door of the passenger's seat (passenger's seat) is performed.

また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「車両を発進する前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の前進方向または後進方向(つまり、自車両の前後方向)、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Furthermore, based on the information acquired by various sensors such as the in-vehicle camera 13A, the accelerator pedal 17A, and the brake pedal 17B, and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is determined to be "before starting the vehicle." ”, the terminal device 22 uses the in-vehicle camera 13A, external sensor/camera 19A, etc. to determine whether the vehicle is moving forward or backward (that is, in the front-rear direction of the vehicle), or if there is an approach from around the vehicle. It is determined whether a safety confirmation action is being performed to visually check the presence or absence of objects (for example, pedestrians, other vehicles, two-wheeled vehicles, etc.).

また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「ブレーキをかける前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Also, based on the information acquired by various sensors such as the in-vehicle camera 13A, the accelerator pedal 17A, and the brake pedal 17B, and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is "before applying the brakes". If it is determined that this is the case, the terminal device 22 uses the in-vehicle camera 13A, the external sensor/camera 19A, etc. to detect objects approaching from behind the own vehicle or around the own vehicle (e.g., pedestrians, other vehicles, motorcycles, etc.). It is determined whether or not a safety confirmation action to visually confirm the presence or absence of the vehicle is being performed.

また、車内カメラ13A,ターンランプ17C,ステアリング17D等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「車線を変更する前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の左側後方,右側後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Also, based on information acquired by various sensors such as the in-vehicle camera 13A, turn lamp 17C, and steering wheel 17D, and driving scene data recorded in the driving characteristic learning device 23, the driving scene is determined to be "before changing lanes." If so, the terminal device 22 uses the in-vehicle camera 13A, the external sensor/camera 19A, etc. to detect objects approaching from the rear left side, rear right side of the own vehicle, or around the own vehicle (for example, pedestrians, other vehicles, etc.). It is determined whether the safety confirmation action of visually checking the presence or absence of vehicles (such as motorcycles, etc.) is being performed.

また、車内カメラ13A等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「直進している時」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Further, when it is determined that the driving scene is "while driving straight" based on the information acquired by various sensors such as the in-vehicle camera 13A and the driving scene data recorded in the driving characteristic learning device 23, The terminal device 22 uses an in-vehicle camera 13A, an external sensor/camera 19A, etc. to visually confirm the presence or absence of approaching objects (e.g., pedestrians, other vehicles, motorcycles, etc.) behind the own vehicle or around the own vehicle. Determine whether the confirmation action is being performed.

また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「右左折をする前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Also, based on the information acquired by various sensors such as the in-vehicle camera 13A, the accelerator pedal 17A, the brake pedal 17B, the turn lamp 17C, and the steering wheel 17D, and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is When the terminal device 22 determines that it is "before making a right or left turn," the terminal device 22 uses the in-vehicle camera 13A, the external sensor/camera 19A, etc. to detect objects approaching from behind the own vehicle or around the own vehicle (for example, pedestrians). , other vehicles, two-wheeled vehicles, etc.).

また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「後退する前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A,車内センサ24(ドア開閉センサ)等により自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,自車両の少なくとも1つの席(例えば、自車両から降車する同乗者の座席)のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Also, based on the information acquired by various sensors such as the in-vehicle camera 13A, the accelerator pedal 17A, and the brake pedal 17B, and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is "before reversing". If it is determined that there is a fault, the terminal device 22 detects a fault in the forward direction or backward direction of the own vehicle (that is, in the longitudinal direction of the own vehicle) using the in-vehicle camera 13A, the out-of-vehicle sensor/camera 19A, the in-vehicle sensor 24 (door opening/closing sensor), etc. Determine whether or not safety confirmation actions are being performed to visually check the presence or absence of objects, the presence or absence of objects in contact with at least one seat of the own vehicle (for example, the seat of a passenger exiting the own vehicle) by opening and closing the door, etc. do.

次に、図27を参照して、車両C1A,…に搭載された警告表示灯26について説明する。図27は、警告表示灯26A,26Bの配置例を説明する図である。 Next, with reference to FIG. 27, the warning indicator lights 26 mounted on the vehicles C1A, . . . will be described. FIG. 27 is a diagram illustrating an example of the arrangement of warning indicator lights 26A and 26B.

なお、図27に示す2つの警告表示灯26A,26Bのそれぞれの配置位置は、一例であってこれに限定されないことは言うまでもない。また、図27に示す例では、2つの警告表示灯26A,26Bのそれぞれが搭載されるが、車両C1A,…のそれぞれに搭載される警告表示灯の数は3以上であってよい。 It goes without saying that the respective arrangement positions of the two warning indicator lights 26A and 26B shown in FIG. 27 are merely examples, and are not limited thereto. Further, in the example shown in FIG. 27, two warning indicator lights 26A, 26B are each mounted, but the number of warning indicator lights mounted in each of the vehicles C1A, . . . may be three or more.

例えば、警告表示灯26は、車両C1A,…のBピラー,Cピラー,あるいはDピラー等のいずれかに設けられてもよい。ここでいうBピラーは、運転席および助手席とセカンドシートとの間であって、車両C1Aの車体中央部に設けられた一対のピラーである。また、Cピラーは、セカンドシートとサードシートとの間であって、車両C1A,…の車体後部に設けられた車体中央部に設けられた一対のピラーである。また、Dピラーは、セカンドシートあるいはサードシートの後方であって、車両C1Aの車体後方に設けられた一対のピラーである。 For example, the warning indicator light 26 may be provided on any one of the B-pillar, C-pillar, D-pillar, etc. of the vehicle C1A, . . . . The B pillars referred to herein are a pair of pillars provided in the center of the vehicle body of the vehicle C1A, between the driver's seat, the passenger seat, and the second seat. Further, the C-pillars are a pair of pillars provided at the center of the vehicle body between the second seat and the third seat and provided at the rear of the vehicle body of the vehicle C1A, . . . . Further, the D pillars are a pair of pillars provided behind the second or third seat and at the rear of the vehicle body of the vehicle C1A.

図27に示す警告表示灯26A,26Bのそれぞれは、車両C1A,…のそれぞれのフロントガラスの両側に設けられた一対の前方ピラー(Aピラー)のそれぞれに設けられたLEDである。警告表示灯26A,26Bのそれぞれは、端末装置22あるいはECU16Aによる制御指令に基づく所定の色(例えば、黄色,オレンジ,赤等)で点灯あるいは点滅したり、消灯したりする。 Each of the warning indicator lights 26A and 26B shown in FIG. 27 is an LED provided on each of a pair of front pillars (A pillars) provided on both sides of the respective windshields of the vehicles C1A, . . . . Each of the warning indicator lights 26A and 26B lights up or blinks in a predetermined color (for example, yellow, orange, red, etc.) based on a control command from the terminal device 22 or the ECU 16A, or goes out.

端末装置22は、運転場面の危険度(スコア)、あるいは運転者の運転特性(運転技量、安全確認行動の頻度等)に基づいて、警告表示灯26を異なる色で点灯あるいは点滅させてもよい。例えば、端末装置22は、運転場面の危険度が高いと判定した場合には、警告表示灯26を赤色で点滅させてもよいし、運転場面の危険度が高くないと判定した場合には、警告表示灯26をオレンジでより長い間隔で点滅させてもよい。 The terminal device 22 may turn on or blink the warning indicator light 26 in a different color based on the degree of risk (score) of the driving situation or the driving characteristics of the driver (driving skill, frequency of safety confirmation actions, etc.). . For example, if the terminal device 22 determines that the driving situation is highly dangerous, it may cause the warning indicator light 26 to flash in red, or if it determines that the driving situation is not highly dangerous, it may cause the warning indicator light 26 to blink in red. The warning indicator light 26 may be blinked in orange at longer intervals.

また、例えば、端末装置22は、運転者の左側サイドミラーSM1に映る車両C1A,…の後方の目視確認を支援する場合、左側に位置する警告表示灯26Bを点灯あるいは点滅させる運転特性改善支援を実行する。また、端末装置22は、運転者の右側サイドミラーSM2に映る車両C1A,…の後方の目視確認を支援する場合、右側に位置する警告表示灯26Bを点灯あるいは点滅させる運転特性改善支援を実行する。これにより、端末装置22は、警告表示灯26Bの点灯あるいは点滅により運転者の視線を、運転場面に対応する左側サイドミラーSM1(つまり、左側)あるいは右側サイドミラーSM2(つまり、右側)に誘導できる。 For example, when supporting the driver's visual confirmation of the rear of the vehicle C1A reflected in the left side mirror SM1, the terminal device 22 provides driving characteristic improvement support that lights up or blinks the warning indicator light 26B located on the left side. Execute. In addition, when supporting the driver's visual confirmation of the rear of the vehicle C1A reflected in the right side mirror SM2, the terminal device 22 executes driving characteristic improvement support by lighting or blinking the warning indicator light 26B located on the right side. . Thereby, the terminal device 22 can guide the driver's line of sight to the left side mirror SM1 (that is, the left side) or the right side mirror SM2 (that is, the right side) that corresponds to the driving scene by lighting or blinking the warning indicator light 26B. .

また、例えば、端末装置22は、車両C1Aの左側方あるいは右側方で歩行者,他車両,二輪車等を検知した場合、運転者に車両C1A右側方の目視確認を促す運転特性改善支援を実行する。具体的に、端末装置22は、歩行者,他車両,二輪車等が検知された左側方あるいは右側方に配置された警告表示灯26A,26Bを、所定の色で点灯あるいは点滅させる運転特性改善支援を実行する。 Further, for example, when the terminal device 22 detects a pedestrian, another vehicle, a two-wheeled vehicle, etc. on the left or right side of the vehicle C1A, the terminal device 22 executes driving characteristic improvement support that prompts the driver to visually check the right side of the vehicle C1A. . Specifically, the terminal device 22 supports driving characteristic improvement by lighting or blinking warning indicator lights 26A and 26B in a predetermined color, which are placed on the left or right side where a pedestrian, other vehicle, two-wheeled vehicle, etc. is detected. Execute.

また、例えば、端末装置22は、自車両と検知された歩行者,他車両,二輪車等との間の距離、自車両に接近する歩行者,他車両,二輪車等との間の接近速度等を算出する。端末装置22は、算出された距離,接近速度等に基づいて、運転場面の危険度を判定し、運転場面の危険度に対応して、警告表示灯26Aまたは警告表示灯26Bの色,点滅パターン,点滅速度等を決定する。 Furthermore, for example, the terminal device 22 can measure the distance between the own vehicle and a detected pedestrian, other vehicle, two-wheeled vehicle, etc., the approaching speed between the pedestrian, other vehicle, two-wheeled vehicle, etc. approaching the own vehicle, etc. calculate. The terminal device 22 determines the degree of danger of the driving scene based on the calculated distance, approach speed, etc., and changes the color and blinking pattern of the warning indicator lamp 26A or warning indicator lamp 26B in accordance with the degree of danger of the driving situation. , determine the blinking speed, etc.

具体的に、端末装置22は、算出された距離、あるいは距離と接近速度とに基づいて、自車両が減速,停車等の運転操作不要であると判定した場合、警告表示灯26Aまたは警告表示灯26Bをオレンジ色に点滅させたり、自車両が減速,停車等の運転操作不要でないと判定した場合、警告表示灯26Aまたは警告表示灯26Bを赤色でより短い間隔で点滅させたりする。これにより、運転者は、警告表示灯26Aまたは警告表示灯26Bの色,点滅パターン,点滅速度等に基づいて、安全確認行動の重要度を一目で直感的に把握できる。 Specifically, when the terminal device 22 determines that the own vehicle does not require driving operations such as deceleration or stopping based on the calculated distance or the distance and the approaching speed, the terminal device 22 turns on the warning indicator light 26A or the warning indicator light. 26B blinks in orange, and when it is determined that the own vehicle does not require driving operations such as deceleration or stopping, the warning indicator light 26A or 26B blinks in red at shorter intervals. Thereby, the driver can intuitively understand the importance of safety confirmation actions at a glance based on the color, flashing pattern, flashing speed, etc. of the warning indicator light 26A or the warning indicator light 26B.

次に、図28を参照して、車両C1A,…に搭載されたスピーカ25について説明する。図28は、スピーカ25の配置例を説明する図である。 Next, with reference to FIG. 28, the speakers 25 mounted on the vehicles C1A, . . . will be described. FIG. 28 is a diagram illustrating an example of the arrangement of the speakers 25.

図28に示す例においてスピーカ25は、車両C1A,…の内部に4つのスピーカ25A,25B,25C,25Dのそれぞれが搭載される。スピーカ25Aは、車両C1A,…のそれぞれのダッシュボードDSB上であって、左側のAピラーあるいは左側サイドミラーSM1の近傍に搭載される。スピーカ25Bは、車両C1A,…のそれぞれのダッシュボードDSB上であって、右側のAピラーあるいは右側サイドミラーSM2の近傍に搭載される。スピーカ25Cは、車両C1A,…の左側後部座席あるいは左側Cピラー(不図示)の近傍に搭載される。スピーカ25Dは、車両C1A,…の左側後部座席あるいは左側Cピラー(不図示)の近傍に搭載される。なお、図28に示す4つのスピーカ25A,25B,25C,25Dのそれぞれの配置位置は、一例であって、これに限定されないことは言うまでもない。 In the example shown in FIG. 28, four speakers 25A, 25B, 25C, and 25D are mounted inside the vehicles C1A, . . . , respectively. The speaker 25A is mounted on the dashboard DSB of each vehicle C1A, . . . near the left A-pillar or the left side mirror SM1. The speaker 25B is mounted on the dashboard DSB of each vehicle C1A, . . . near the right A-pillar or the right side mirror SM2. The speaker 25C is mounted near the left rear seat or the left C-pillar (not shown) of the vehicle C1A, . The speaker 25D is mounted near the left rear seat or the left C-pillar (not shown) of the vehicle C1A, . Note that the arrangement positions of the four speakers 25A, 25B, 25C, and 25D shown in FIG. 28 are merely examples, and it goes without saying that the arrangement is not limited thereto.

端末装置22は、各種センサにより自車両へ接近する接近物(例えば、歩行者,他車両,二輪車等),自車両周囲の障害物等が検知された場合、4つのスピーカ25A~25Dのそれぞれのうち検知された接近物あるいは障害物に対応する位置のスピーカに、接近物あるいは障害物を検知した旨の音声を出力させる。 When the terminal device 22 detects an object approaching the own vehicle (for example, a pedestrian, another vehicle, a motorcycle, etc.), an obstacle around the own vehicle, etc. using various sensors, the terminal device 22 activates each of the four speakers 25A to 25D. A speaker at a position corresponding to the detected approaching object or obstacle is made to output a sound indicating that the approaching object or obstacle has been detected.

例えば、端末装置22は、運転場面「車線変更時」であって、現在自車両が走行している車線から進行方向右側の車線へ車線変更する運転場面において、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより自車両の右側後方から接近する他車両を検知する。このような場合、端末装置22は、他車両が検知された方向(ここでは、右側後方)に配置されたスピーカ25Dから音声を出力させることで運転特性改善支援を実行し、右側後方の安全確認を運転者に促す。 For example, the terminal device 22 uses the in-vehicle camera 13A and the out-vehicle sensor/camera 19A in a driving scene "when changing lanes" in which the vehicle is changing lanes from the lane in which it is currently traveling to the lane on the right in the direction of travel. Detects other vehicles approaching from the rear right side of the own vehicle using various sensors such as In such a case, the terminal device 22 performs driving characteristic improvement support by outputting audio from the speaker 25D located in the direction in which the other vehicle is detected (in this case, right rear), and performs safety confirmation on the right rear. encourage drivers to

また、例えば、端末装置22は、運転場面「左折時」において、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより自車両の進行方向前方から歩行者の接近を検知する。このような場合、端末装置22は、歩行者が検知された方向(ここでは、左側前方)に配置されたスピーカ25Bから音声を出力させることで運転特性改善支援を実行し、左側前方の安全確認を運転者に促す。 Further, for example, in the driving scene "when turning left", the terminal device 22 detects the approach of a pedestrian from the front in the direction of travel of the own vehicle using various sensors such as the inside camera 13A and the outside sensor/camera 19A. In such a case, the terminal device 22 performs driving characteristic improvement support by outputting audio from the speaker 25B placed in the direction in which the pedestrian is detected (in this case, the left front), and performs a safety check on the left front. encourage drivers to

また、例えば、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより自車両後方を目視確認する必要があると判定した場合、自車両後方に配置された2つのスピーカ25C,25Dのそれぞれから音声を出力させることで運転特性改善支援を実行し、後方の安全確認を運転者に促す。 For example, when the terminal device 22 determines that it is necessary to visually check the rear of the own vehicle using various sensors such as the in-vehicle camera 13A and the outside sensor/camera 19A, the terminal device 22 may use two speakers 25C arranged at the rear of the own vehicle, By outputting audio from each of the 25D, driving characteristics improvement support is performed and the driver is urged to check the safety of the rear.

また、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより検知された接近物あるいは障害物を解析し、検知された接近物あるいは障害物の種別(例えば、歩行者,他車両,二輪車等)に対応する音声をスピーカ25A~25Dのそれぞれに出力させてよい。例えば、端末装置22は、歩道からの歩行者の接近を検知した場合には「歩道から歩行者が接近しています」、後方から自転車(二輪車)の接近を検知した場合には「後方から自転車が接近しています」等の音声をスピーカ25A~25Dのそれぞれに出力させて、運転特性改善支援を実行する。 In addition, the terminal device 22 analyzes approaching objects or obstacles detected by various sensors such as the in-vehicle camera 13A and the outside sensor/camera 19A, and analyzes the type of the detected approaching object or obstacle (for example, pedestrian, etc.). (vehicles, motorcycles, etc.) may be output to each of the speakers 25A to 25D. For example, when the terminal device 22 detects a pedestrian approaching from the sidewalk, it displays "A pedestrian is approaching from the sidewalk", and when it detects a bicycle (two-wheeled vehicle) approaching from behind, it displays "A bicycle from behind". The speakers 25A to 25D output a sound such as "A vehicle is approaching" to perform driving characteristic improvement support.

次に、図29を参照して、改善効果データが示す運転特性改善支援方法の変更例について説明する。図29は、運転特性改善支援の変更例を説明する図である。なお、図29に示す運転特性改善支援方法例、および運転特性改善支援の変更例は、一例であってこれに限定されない。 Next, with reference to FIG. 29, a modification example of the driving characteristic improvement support method indicated by the improvement effect data will be described. FIG. 29 is a diagram illustrating a modification example of driving characteristic improvement support. Note that the example of the driving characteristic improvement support method and the modification example of the driving characteristic improvement support shown in FIG. 29 are merely examples, and the present invention is not limited thereto.

運転特性改善サーバS3は、運転者の利用者IDが紐付けられた運転場面における運転特性データ(具体的には、行動特性データ)に基づく前回の運転者の安全確認行動の頻度と、車両C1A,…から取得された運転場面における運転特性データ(具体的には、行動特性データ)に基づく最新の運転者の安全確認行動の頻度とをそれぞれ算出して、運転場面情報に対応する改善効果データに基づいて実行された運転特性改善支援前後の運転者の安全確認行動の頻度の変化を判定する。 The driving characteristic improvement server S3 stores the frequency of the driver's previous safety confirmation behavior based on the driving characteristic data (specifically, behavioral characteristic data) in the driving scene to which the driver's user ID is linked, and the vehicle C1A. The frequency of the latest driver safety confirmation behavior based on the driving characteristic data (specifically, behavior characteristic data) in the driving situation acquired from ,... is calculated, respectively, and improvement effect data corresponding to the driving situation information is calculated. The change in the frequency of the driver's safety confirmation behavior before and after the driving characteristic improvement support performed based on the above is determined.

具体的に、運転特性改善サーバS3は、前回の安全確認行動の頻度と、最新の安全確認行動の頻度とに基づいて、この運転場面における運転者の安全確認行動が増加しているか否か(つまり、運転特性が改善しているか否か)を判定する。運転特性改善サーバS3は、取得された感情データと安全確認行動の頻度が増加しているか否か(つまり、運転特性が改善しているか否か)の判定結果とに基づいて、この運転場面情報に対応する新たな改善効果データを生成し、更新する。運転特性改善サーバS3は、生成された改善効果データを車両C1A,…に送信する。なお、運転特性改善サーバS3は、改善効果データの生成処理を定期的(例えば、1日,1週間,1か月等)に実行してもよい。 Specifically, the driving characteristic improvement server S3 determines whether or not the driver's safety confirmation behavior in this driving scene is increasing, based on the frequency of the previous safety confirmation behavior and the latest frequency of safety confirmation behavior. In other words, it is determined whether or not the driving characteristics have improved. The driving characteristic improvement server S3 collects this driving scene information based on the acquired emotional data and the determination result of whether the frequency of safety confirmation behavior is increasing (that is, whether the driving characteristics are improving or not). Generate and update new improvement effect data corresponding to. The driving characteristic improvement server S3 transmits the generated improvement effect data to the vehicles C1A, . Note that the driving characteristic improvement server S3 may execute the improvement effect data generation process periodically (for example, every day, every week, every month, etc.).

運転特性改善サーバS3は、取得された運転者の感情データが肯定的な感情である「快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加している(つまり、運転特性が改善している)と判定した場合、運転者の運転特性が改善しており、この運転特性情報に対応する改善効果データが示す運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)がより効果的であると判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データを、他の運転場面情報の新たな改善効果データとして生成し、他の運転場面情報に紐付けて改善効果データベースDB4に登録(更新)する。 The driving characteristics improvement server S3 determines that the acquired emotional data of the driver indicates a positive emotion of "pleasure" and that the frequency of safety confirmation behavior after driving characteristics improvement support has increased (i.e. , the driving characteristics have improved), the driver's driving characteristics have improved, and the driving characteristics improvement support method indicated by the improvement effect data corresponding to this driving characteristics information (that is, the driving characteristics improvement support method (that is, the speaker 25 or warning display) is determined to be improved. control method of the light 26) is determined to be more effective. In such a case, the driving characteristic improvement server S3 generates improvement effect data corresponding to this driving scene information as new improvement effect data of other driving scene information, and links it to other driving scene information to improve the improvement effect. Register (update) in database DB4.

一方、運転特性改善サーバS3は、取得された運転者の感情データが肯定的な感情である「快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加していない(つまり、運転特性が改善していない)と判定した場合、運転者の運転特性が改善していないが、この運転特性情報に対応する改善効果データが示す運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)が有効であると判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データが示す運転特性改善支援の頻度を増加させた新たな改善効果データを生成して、改善効果データベースDB4に登録(更新)する。 On the other hand, the driving characteristics improvement server S3 determines that the acquired emotional data of the driver indicates a positive emotion of "pleasure" and that the frequency of safety confirmation behavior after driving characteristics improvement support has not increased. (In other words, the driving characteristics have not improved), the driver's driving characteristics have not improved, but the driving characteristics improvement support method indicated by the improvement effect data corresponding to this driving characteristics information (in other words, the Alternatively, it is determined that the method for controlling the warning indicator light 26 is effective. In such a case, the driving characteristic improvement server S3 generates new improvement effect data that increases the frequency of driving characteristic improvement support indicated by the improvement effect data corresponding to this driving scene information, and registers it in the improvement effect database DB4. (Update.

また、運転特性改善サーバS3は、取得された運転者の感情データが否定的な感情である「不快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加している(つまり、運転特性が改善している)と判定した場合、この運転者の運転特性が改善しているが、現在設定されている運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)の変更が必要であると判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データと異なる効果改善データを生成し、この運転場面情報の新たな改善効果データとして改善効果データベースDB4に登録(更新)するとともに、他の運転場面情報の新たな改善効果データとして改善効果データベースDB4に登録(更新)する。 In addition, the driving characteristic improvement server S3 determines that the acquired emotional data of the driver indicates a negative emotion of "unpleasantness" and that the frequency of safety confirmation behavior after driving characteristic improvement support has increased. (In other words, the driver's driving characteristics have improved). control method) needs to be changed. In such a case, the driving characteristic improvement server S3 generates effect improvement data different from the improvement effect data corresponding to this driving scene information, and registers (updates) it in the improvement effect database DB4 as new improvement effect data of this driving scene information. ) and is also registered (updated) in the improvement effect database DB4 as new improvement effect data of other driving scene information.

一方、運転特性改善サーバS3は、取得された運転者の感情データが肯定的な感情である「快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加していない(つまり、運転特性が改善していない)と判定した場合、この運転者の運転特性が改善しておらず、現在設定されている運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)が有効でないと判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データと異なる効果改善データを生成し、この運転場面情報の新たな改善効果データとして改善効果データベースDB4に登録(更新)する。 On the other hand, the driving characteristics improvement server S3 determines that the acquired emotional data of the driver indicates a positive emotion of "pleasure" and that the frequency of safety confirmation behavior after driving characteristics improvement support has not increased. (In other words, the driver's driving characteristics have not improved), the driving characteristics of this driver have not improved, and the currently set driving characteristics improvement support method (in other words, the driver's driving characteristics have not improved) control method) is determined to be invalid. In such a case, the driving characteristic improvement server S3 generates effect improvement data different from the improvement effect data corresponding to this driving scene information, and registers (updates) it in the improvement effect database DB4 as new improvement effect data of this driving scene information. )do.

例えば、運転特性改善サーバS3は、現在の改善効果データがスピーカ25と警告表示灯26とを用いて安全確認行動を実行する支援方法である場合、スピーカ25または警告表示灯26のいずれか一方を用いて安全確認行動を実行する新たな改善効果データを生成したり、現在の改善効果データが警告表示灯26を用いて安全確認行動を実行する支援方法である場合、スピーカ25を用いて安全確認行動を実行する新たな改善効果データを生成したりする。 For example, if the current improvement effect data is a support method that uses the speaker 25 and the warning indicator light 26 to perform a safety confirmation action, the driving characteristic improvement server S3 selects one of the speaker 25 and the warning indicator light 26. If the current improvement effect data is a support method that uses the warning indicator light 26 to perform a safety confirmation action, the speaker 25 is used to generate new improvement effect data to perform a safety confirmation action. Generate new improvement effect data to implement actions.

以上により、実施の形態2における運転特性改善サーバS3は、運転者の安全確認行動の頻度に対応する運転特性の改善状況と、運転特性改善支援による運転者の反応(感情データ)とに基づいて、運転者により適した運転特性改善支援方法を設定できる。 As described above, the driving characteristics improvement server S3 in the second embodiment can improve the driving characteristics based on the driving characteristics improvement status corresponding to the frequency of the driver's safety confirmation behavior and the driver's reaction (emotional data) due to the driving characteristics improvement support. , it is possible to set a driving characteristic improvement support method that is more suitable for the driver.

次に、図30および図31のそれぞれを参照して、実施の形態2に係る運転特性改善支援システム200の動作手順について説明する。図30は、実施の形態2に係る運転特性改善支援システム200の動作手順例を示すフローチャートである。図31は、実施の形態2に係る運転特性改善支援システム200の動作手順例を説明するフローチャートである。 Next, the operating procedure of the driving characteristic improvement support system 200 according to the second embodiment will be described with reference to FIGS. 30 and 31, respectively. FIG. 30 is a flowchart illustrating an example of the operating procedure of the driving characteristic improvement support system 200 according to the second embodiment. FIG. 31 is a flowchart illustrating an example of the operating procedure of the driving characteristic improvement support system 200 according to the second embodiment.

運転特性改善支援システム200における車両C1A,…のそれぞれは、スリープ状態で待機する(St51)。車両C1A,…のそれぞれは、車内センサ24により自車両に接近する運転者を検知したか否かを判定する(St52)。例えば、車両C1A,…のそれぞれは、運転者が所持するスマートキー,スマートフォン等が発信する電波を検知したと判定した場合、自車両に接近する運転者を検知したと判定する。 Each of the vehicles C1A, . . . in the driving characteristic improvement support system 200 waits in a sleep state (St51). Each of the vehicles C1A, . . . determines whether the in-vehicle sensor 24 detects a driver approaching the vehicle (St52). For example, each of the vehicles C1A, . . . determines that a driver approaching the own vehicle is detected when it is determined that a radio wave transmitted by a smart key, smartphone, etc. owned by the driver is detected.

車両C1A,…のそれぞれは、ステップSt52の処理において、車内センサ24により自車両に接近する運転者を検知したと判定した場合(St52,YES)、運転者の運転行動のセンシングシステム(例えば、各種センサ)を起動させて、運転者の運転特性および行動特性(つまり、運転特性データ)のセンシングを開始する(St53)。 If each of the vehicles C1A,... determines in the process of step St52 that the in-vehicle sensor 24 has detected a driver approaching the own vehicle (St52, YES), each of the vehicles C1A,... (St53).

一方、車両C1A,…のそれぞれは、ステップSt52の処理において、車内センサ24により自車両に接近する運転者を検知していないと判定した場合(St52,NO)、ステップSt51の処理に移行し、スリープ状態で待機する(St51)。 On the other hand, if each of the vehicles C1A,... determines in the process of step St52 that the in-vehicle sensor 24 does not detect the driver approaching the own vehicle (St52, NO), the process moves to step St51, The computer waits in a sleep state (St51).

車両C1A,…のそれぞれは、各種センサにより運転者の運転特性データを取得し、現在の運転場面における運転行動の監視を開始する(St54)。車両C1A,…のそれぞれは、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上であるか否かを判定する(St55)。 Each of the vehicles C1A, . . . acquires driving characteristic data of the driver using various sensors and starts monitoring driving behavior in the current driving scene (St54). Each of the vehicles C1A, . . . determines whether the current driving situation is a driving situation that requires a safety confirmation action and the degree of risk (score) of the current driving situation is equal to or higher than a predetermined value. (St55).

車両C1A,…のそれぞれは、ステップSt55の処理において、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上であると判定した場合(St55,YES)、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したか否かを判定する(St56)。なお、ここで、運転場面に対応する安全確認行動は、複数であってよい。また、運転場面に対応する安全確認行動が複数であって、かつ、実行される順番が決まっている場合、車両C1A,…のそれぞれは、決められた順番通りに安全確認行動が実行されたか否かを判定してよい。 In each of the vehicles C1A,..., in the process of step St55, the current driving scene is a driving scene that requires safety confirmation behavior, and the degree of risk (score) of the current driving scene is equal to or higher than a predetermined value. If it is determined that (St55, YES), based on the acquired driving characteristic data (specifically, behavioral characteristic data), it is determined whether the execution of the safety confirmation behavior by the driver is detected (St56). . Note that here, there may be a plurality of safety confirmation actions corresponding to the driving scene. In addition, if there are multiple safety confirmation actions corresponding to a driving situation and the order in which they are performed is determined, each of the vehicles C1A,... You may decide whether

車両C1A,…のそれぞれは、ステップSt56の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したと判定した場合(St56,YES)、取得された運転特性データと、運転場面情報と、運転場面情報に対応する運転特性改善支援に対する感情データと、利用者IDとを紐付けて運転特性改善サーバS3に送信するとともに、メモリ15Aに記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St57)。 In each of the vehicles C1A, ..., when it is determined in the process of step St56 that execution of a safety confirmation behavior by the driver is detected based on the acquired driving characteristic data (specifically, behavioral characteristic data) ( St56, YES), the acquired driving characteristic data, driving scene information, emotional data for driving characteristic improvement support corresponding to the driving scene information, and user ID are linked and transmitted to the driving characteristic improvement server S3. , is stored in the memory 15A. Each of the vehicles C1A, ... acquires new improvement effect data transmitted from the driving characteristic improvement server S3, and updates (changes) the current improvement effect data of the driving scene information to the acquired new improvement effect data. (St57).

一方、車両C1A,…のそれぞれは、ステップSt56の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知していないと判定した場合(St56,NO)、現在の運転者の運転特性データ(つまり、運転技量)と、運転場面情報に対応する改善効果データとに基づいて、運転特性改善支援を実行する(St58)。 On the other hand, in the process of step St56, each of the vehicles C1A, ... has not detected execution of the safety confirmation behavior by the driver based on the acquired driving characteristic data (specifically, behavioral characteristic data). If determined (St56, NO), driving characteristic improvement support is executed based on the current driver's driving characteristic data (that is, driving skill) and the improvement effect data corresponding to the driving scene information (St58).

車両C1A,…のそれぞれは、車内カメラ13Aにより撮像された撮像画像を画像解析し、実行された運転特性改善支援に対する運転者の反応(感情データ)と、運転者の行動特性データを解析する。車両C1A,…のそれぞれは、取得された行動特性データを含む運転特性データをメモリ15Aに蓄積して記憶する。また、車両C1A,…のそれぞれは、運転場面情報と、運転特性改善支援に対する運転者の感情データと、運転特性データと、利用者IDとを紐付けて運転特性改善サーバS3に送信する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St59)。 Each of the vehicles C1A, . . . analyzes the captured image captured by the in-vehicle camera 13A, and analyzes the driver's reaction (emotional data) to the executed driving characteristic improvement support and the driver's behavior characteristic data. Each of the vehicles C1A, . . . accumulates and stores driving characteristic data including the acquired behavioral characteristic data in the memory 15A. Further, each of the vehicles C1A, . . . transmits the driving scene information, the driver's emotional data regarding the driving characteristic improvement support, the driving characteristic data, and the user ID in a linked manner to the driving characteristic improvement server S3. Each of the vehicles C1A, ... acquires new improvement effect data transmitted from the driving characteristic improvement server S3, and updates (changes) the current improvement effect data of the driving scene information to the acquired new improvement effect data. (St59).

一方、車両C1A,…のそれぞれは、ステップSt55の処理において、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上でないと判定した場合(St55,NO)、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したか否かを判定する(St60)。 On the other hand, in the process of step St55, each of the vehicles C1A, ... determines that the current driving scene is a driving scene that requires safety confirmation behavior, and that the degree of risk (score) of the current driving scene is greater than or equal to a predetermined value. If it is determined that it is not (St55, NO), based on the acquired driving characteristic data (specifically, behavioral characteristic data), it is determined whether or not the execution of the safety confirmation behavior by the driver is detected (St60). ).

車両C1A,…のそれぞれは、ステップSt60の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したと判定した場合(St60,YES)、取得された運転特性データと、運転場面情報と、運転特性改善支援に対する運転者の感情データと、利用者IDとを紐付けて運転特性改善サーバS3に送信するとともに、メモリ15Aに記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St57)。 In each of the vehicles C1A, ..., when it is determined in the process of step St60 that execution of a safety confirmation behavior by the driver is detected based on the acquired driving characteristic data (specifically, behavioral characteristic data) ( St60, YES), the acquired driving characteristic data, driving scene information, driver's emotional data regarding driving characteristic improvement support, and user ID are linked and transmitted to the driving characteristic improvement server S3, and the memory 15A to be memorized. Each of the vehicles C1A, ... acquires new improvement effect data transmitted from the driving characteristic improvement server S3, and updates (changes) the current improvement effect data of the driving scene information to the acquired new improvement effect data. (St57).

一方、車両C1A,…のそれぞれは、ステップSt60の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知していないと判定した場合(St60,NO)、運転者の現在の運転特性(つまり、現在の運転場面における最新の安全確認行動の頻度)に基づいて、運転特性改善支援を実行して運転場面に対応する安全確認行動を促すか否かを判定する(St61)。 On the other hand, in the process of step St60, each of the vehicles C1A, ... has not detected execution of the safety confirmation behavior by the driver based on the acquired driving characteristic data (specifically, behavioral characteristic data). If it is determined (St60, NO), based on the driver's current driving characteristics (that is, the frequency of the latest safety confirmation behavior in the current driving situation), driving characteristic improvement support is executed to improve safety corresponding to the driving situation. It is determined whether confirmation action is to be encouraged (St61).

具体的に、車両C1A,…のそれぞれは、ステップSt61の処理において、現在の運転特性が示す現在の運転場面における最新の安全確認行動の頻度を算出する。車両C1A,…のそれぞれは、算出された最新の安全確認行動の頻度が、現在の運転場面の危険度(スコア)に対応して設定された安全確認行動の頻度に関する閾値以上であるか否かを判定する。 Specifically, in the process of step St61, each of the vehicles C1A, . . . calculates the frequency of the latest safety confirmation behavior in the current driving situation indicated by the current driving characteristics. For each of the vehicles C1A,..., check whether the latest calculated frequency of safety confirmation behavior is equal to or higher than a threshold regarding the frequency of safety confirmation behavior set corresponding to the degree of risk (score) of the current driving scene. Determine.

例えば、運転場面が「直線道路走行時」であって、この運転場面に対応する危険度(スコア)が「低」である場合、安全確認行動の頻度に関する閾値は、1/4が設定される。このような場合、車両C1A,…のそれぞれは、運転場面「直線道路走行時」における運転者の最新の安全確認行動の頻度が1/4以上であるか否かを判定する。 For example, if the driving scene is "driving on a straight road" and the risk level (score) corresponding to this driving scene is "low", the threshold for the frequency of safety confirmation behavior is set to 1/4. . In such a case, each of the vehicles C1A, . . . determines whether the frequency of the latest safety confirmation behavior of the driver in the driving scene "while driving on a straight road" is 1/4 or more.

また、例えば、運転場面が「車線変更時」であって、この運転場面に対応する危険度(スコア)が「高」である場合、安全確認行動の頻度に関する閾値は、1/2が設定される。このような場合、車両C1A,…のそれぞれは、運転場面「車線変更時」における運転者の最新の安全確認行動の頻度が1/2以上であるか否かを判定する。 Furthermore, for example, if the driving scene is "changing lanes" and the risk level (score) corresponding to this driving scene is "high", the threshold for the frequency of safety confirmation behavior is set to 1/2. Ru. In such a case, each of the vehicles C1A, . . . determines whether the frequency of the driver's latest safety confirmation behavior in the driving scene "when changing lanes" is 1/2 or more.

車両C1A,…のそれぞれは、ステップSt61の処理において、運転者の現在の運転特性に基づいて、運転特性改善支援を実行して運転場面に対応する安全確認行動を促すと判定した場合(St61,YES)、現在の運転者の運転特性データ(つまり、運転技量)と、運転場面情報に対応する改善効果データとに基づいて、運転特性改善支援を実行する(St58)。具体的に、車両C1A,…のそれぞれは、算出された最新の安全確認行動の頻度が、現在の運転場面の危険度(スコア)に対応して設定された安全確認行動の頻度に関する閾値以上でないと判定した場合に、運転特性改善支援を実行して運転場面に対応する安全確認行動を促すと判定する(St61,YES)。 When each of the vehicles C1A,... determines in the process of step St61 to execute driving characteristic improvement support based on the driver's current driving characteristics to encourage safety confirmation behavior corresponding to the driving situation (St61, YES), driving characteristic improvement support is executed based on the current driving characteristic data (that is, driving skill) of the driver and the improvement effect data corresponding to the driving scene information (St58). Specifically, for each of the vehicles C1A,..., the calculated frequency of the latest safety confirmation behavior is not equal to or greater than a threshold regarding the frequency of safety confirmation behavior set corresponding to the degree of risk (score) of the current driving scene. If it is determined that this is the case, it is determined that driving characteristic improvement support is executed to encourage safety confirmation behavior corresponding to the driving situation (St61, YES).

一方、車両C1A,…のそれぞれは、ステップSt61の処理において、運転者の現在の運転特性に基づいて、運転特性改善支援を実行して運転場面に対応する安全確認行動を促さないと判定した場合(St61,NO)、取得された運転特性データと、運転場面情報と、運転特性改善支援に対する運転者の感情データと、利用者IDとを紐付けて運転特性改善サーバS3に送信するとともに、メモリ15Aに記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St57)。具体的に、車両C1A,…のそれぞれは、算出された最新の安全確認行動の頻度が、現在の運転場面の危険度(スコア)に対応して設定された安全確認行動の頻度に関する閾値以上であると判定した場合に、運転特性改善支援を実行して運転場面に対応する安全確認行動を促さないと判定する(St61,NO)。 On the other hand, if each of the vehicles C1A,... determines in the process of step St61 not to perform driving characteristic improvement support and encourage safety confirmation behavior corresponding to the driving situation based on the driver's current driving characteristics. (St61, NO), the acquired driving characteristic data, driving scene information, driver's emotional data regarding driving characteristic improvement support, and user ID are linked and transmitted to the driving characteristic improvement server S3, and the memory Store in 15A. Each of the vehicles C1A, ... acquires new improvement effect data transmitted from the driving characteristic improvement server S3, and updates (changes) the current improvement effect data of the driving scene information to the acquired new improvement effect data. (St57). Specifically, each of the vehicles C1A,... If it is determined that there is, it is determined that driving characteristic improvement support is not executed to prompt safety confirmation behavior corresponding to the driving situation (St61, NO).

車両C1A,…のそれぞれは、運転者による運転終了を検知したか否かを判定する(St)。なお、ここでいう運転終了は、運転者が降車し、自車両から所定距離以上離れることであってもよい。 Each of the vehicles C1A, . . . determines whether or not the end of driving by the driver is detected (St). Note that the term "completion of driving" as used herein may mean that the driver gets off the vehicle and moves away from the host vehicle by a predetermined distance or more.

車両C1A,…のそれぞれは、ステップSt62の処理において、運転者による運転終了を検知したと判定した場合(St62,YES)、運転行動のセンシングシステムを終了させて(St63)、再度、スリープ状態となり待機する(St51)。 In each of the vehicles C1A,..., if it is determined in the process of step St62 that the end of driving by the driver is detected (St62, YES), the driving behavior sensing system is ended (St63), and the vehicle enters the sleep state again. Wait (St51).

一方、車両C1A,…のそれぞれは、ステップSt62の処理において、運転者による運転終了を検知していないと判定した場合(St62,NO)、ステップSt55の処理に移行し、車両C1A,…のそれぞれは、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上であるか否かを、再度判定する(St55)。 On the other hand, if it is determined in the process of step St62 that the completion of driving by the driver has not been detected (St62, NO), each of the vehicles C1A,... moves to the process of step St55, and each of the vehicles C1A,... It is determined again whether the current driving scene is a driving scene that requires a safety confirmation action and the degree of risk (score) of the current driving scene is equal to or higher than a predetermined value (St55).

以上により、実施の形態2における車両C1A,…のそれぞれは、運転場面と、運転者の運転特性(運転技量)とに基づいて、運転者の安全確認行動を支援することで、運転者の運転特性(運転技量)の改善を支援できる。また、実施の形態2における運転特性改善サーバS3は、運転場面と、運転者の運転特性(運転技量)と、運転特性改善支援に対する運転者の反応(感情データ)とに基づいて、運転者により適した運転特性改善支援方法(改善効果データ)を決定することができる。したがって、車両C1A,…のそれぞれは、運転特性改善サーバS3により生成された改善効果データに基づく運転特性改善支援方法により、運転者により適した安全確認行動を支援することで、運転者の運転特性(運転技量)の改善を支援できる。 As described above, each of the vehicles C1A, ... in the second embodiment supports the driver's safety confirmation behavior based on the driving situation and the driver's driving characteristics (driving skill). It can help improve characteristics (driving skills). Further, the driving characteristic improvement server S3 in the second embodiment is configured to improve the performance of the driver based on the driving scene, the driver's driving characteristics (driving skill), and the driver's reaction (emotional data) to the driving characteristic improvement support. A suitable driving characteristic improvement support method (improvement effect data) can be determined. Therefore, each of the vehicles C1A, . (driving skills) can be supported.

以上により、実施の形態2に係る運転特性改善サーバS3は、少なくとも1台の車両C1A,…との間で通信可能である1以上のコンピュータである。運転特性改善サーバS3が実行する運転特性改善支援データの管理方法は、少なくとも1台の車両C1A,…との間で通信可能である1以上のコンピュータが実行する運転特性改善効果データの管理方法であって、車両C1A,…の運転場面を示す複数の運転場面情報と、運転場面情報に対応し、車両C1A,…を運転する運転者の安全確認行動の改善を支援する改善効果データ(支援データの一例)と、運転場面情報における運転者の運転特性データとを複数の運転者の利用者ID(運転者IDの一例)ごとに紐付けて登録し、運転場面情報と改善効果データとをそれぞれ紐付けて、車両C1A,…に送信し、車両C1A,…を運転する運転者の利用者IDと、運転場面情報に対応する運転者の運転特性データと、改善効果データに基づく支援に対する運転者の感情データとを取得し、複数の運転者のそれぞれの利用者IDと取得された利用者IDとを照合し、照合された利用者IDに紐付けられた運転特性データと、取得された運転特性データおよび感情データとに基づいて、取得された運転場面情報に対応する新たな改善効果データを生成し、照合された利用者IDに紐付けられた複数の運転場面情報のうち取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。なお、ここでいうコンピュータは、運転特性改善サーバS3を、少なくとも含んで構成される。 As described above, the driving characteristic improvement server S3 according to the second embodiment is one or more computers that can communicate with at least one vehicle C1A, . . . . The driving characteristic improvement support data management method executed by the driving characteristic improvement server S3 is a driving characteristic improvement effect data management method executed by one or more computers capable of communicating with at least one vehicle C1A,... There is a plurality of driving scene information indicating driving scenes of vehicles C1A, ... and improvement effect data (support data) that supports improvement of safety confirmation behavior of drivers driving vehicles C1A, ... corresponding to the driving scene information. (one example) and the driver's driving characteristic data in the driving scene information are linked and registered for each user ID (an example of a driver ID) of multiple drivers, and the driving scene information and improvement effect data are respectively registered. Linked and transmitted to the vehicle C1A,..., the user ID of the driver driving the vehicle C1A,..., the driver's driving characteristic data corresponding to the driving scene information, and the driver's support based on the improvement effect data. The obtained user ID is checked against each user ID of multiple drivers, and the driving characteristic data linked to the checked user ID and the obtained driving Based on the characteristic data and emotion data, new improvement effect data corresponding to the acquired driving scene information is generated, and the acquired driving scene information is generated from among the plurality of driving scene information linked to the verified user ID. The improvement effect data linked to the same driving scene information as the scene information is updated to the generated new improvement effect data. Note that the computer referred to here is configured to include at least the driving characteristic improvement server S3.

これにより、実施の形態2に係る運転特性改善サーバS3は、車両C1A,…のそれぞれに事前に送信された改善効果データを用いた運転特性改善支援結果として、運転場面情報と、運転者の運転特性と、改善効果データが示す運転特性改善支援(安全確認行動の支援の一例)に対する運転者の感情データとを取得できる。運転特性改善サーバS3は、取得された運転者の現在の状態(つまり、運転者の運転特性(運転技量)および感情)に基づく新たな改善効果データを生成するとともに、生成された新たな改善効果データと、この新たな改善効果データの生成に用いられた運転場面情報と、運転特性データと、感情データとを利用者IDに紐付けることで、利用者IDごとの改善効果データをより効率的に管理できる。 As a result, the driving characteristic improvement server S3 according to the second embodiment receives the driving scene information and the driver's driving performance as the driving characteristic improvement support result using the improvement effect data transmitted in advance to each of the vehicles C1A,... It is possible to acquire the characteristics and the driver's emotional data regarding the driving characteristic improvement support (an example of support for safety confirmation behavior) indicated by the improvement effect data. The driving characteristics improvement server S3 generates new improvement effect data based on the acquired current state of the driver (that is, the driver's driving characteristics (driving skills) and emotions), and also generates new improvement effect data By linking the data, driving scene information, driving characteristic data, and emotional data used to generate this new improvement effect data to the user ID, improvement effect data for each user ID can be generated more efficiently. can be managed.

また、以上により、実施の形態2に係る運転特性改善サーバS3は、取得された運転特性データと、登録された運転特性データとを用いて、運転場面における運転者の運転特性が改善したか否かを判定し、感情データと、運転特性が改善したか否かの判定結果とに基づいて、新たな改善効果データを生成する。これにより、実施の形態2に係る運転特性改善サーバS3は、現在の運転者の状態(つまり、運転者の運転特性(運転技量)および感情)により適した改善効果データの生成できる。 Further, as described above, the driving characteristic improvement server S3 according to the second embodiment uses the acquired driving characteristic data and the registered driving characteristic data to determine whether the driver's driving characteristics in the driving scene have improved. Then, new improvement effect data is generated based on the emotion data and the determination result as to whether or not the driving characteristics have improved. Thereby, the driving characteristic improvement server S3 according to the second embodiment can generate improvement effect data more suitable for the current driver's condition (that is, the driver's driving characteristics (driving skill) and emotions).

また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが肯定的であって、かつ、運転特性が改善したと判定した場合、照合された利用者IDに紐付けられた複数の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者の運転特性が改善したと判定され、かつ、運転者が快適(つまり、肯定的)に感じた改善効果データ(つまり、運転特性改善支援方法)を、現在の運転場面で継続するとともに、他の運転場面における新たな改善効果データとして生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotional data is positive and the driving characteristics have improved, the driving characteristic improvement server S3 according to the second embodiment The improvement effect data linked to the plurality of driving scene information is updated to the generated new improvement effect data. As a result, the driving characteristics improvement server S3 according to the second embodiment determines that the driving characteristics of the driver have improved, and the improvement effect data (i.e., driving performance that the driver feels comfortable (i.e., positive)). Improvement effect data indicating a driving characteristic improvement support method that is more suitable for the driver can be created by continuing the characteristics improvement support method) in the current driving situation and generating and updating new improvement effect data in other driving situations. can be managed more efficiently.

また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが肯定的であって、かつ、運転特性が改善していないと判定した場合、取得された運転場面情報に対応する改善効果データよりも支援の頻度を増加させた新たな改善効果データを生成し、取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者が快適(つまり、肯定的)に感じた改善効果データ(つまり、運転特性改善支援方法)における支援頻度を上げた新たな改善効果データを生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotional data is positive and the driving characteristics have not improved, the driving characteristic improvement server S3 according to the second embodiment New improvement effect data is generated in which the frequency of support is increased compared to the improvement effect data, and the improvement effect data linked to the same driving scene information as the acquired driving scene information is used as the generated new improvement effect data. Update to data. As a result, the driving characteristics improvement server S3 according to the second embodiment can implement new improvements that increase the frequency of support based on the improvement effect data (i.e., the driving characteristics improvement support method) that the driver feels comfortable (i.e., positively). By generating and updating the effect data, it is possible to more efficiently manage the improvement effect data indicating a driving characteristic improvement support method more suitable for the driver.

また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが否定的であって、かつ、運転特性が改善したと判定した場合、取得された運転場面情報に対応する改善効果データと異なる新たな改善効果データを生成し、取得された運転場面情報と異なる他の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新し、取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データの変更を省略する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者の運転特性が改善したと判定され、かつ、運転者が不快(つまり、否定的)に感じた改善効果データ(つまり、運転特性改善支援方法)を同一運転場面の新たな改善効果データとして生成して更新するとともに、他の運転場面においては運転者が不快(つまり、否定的)に感じた改善効果データと異なる改善効果データを新たな改善効果データとして生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotional data is negative and the driving characteristics have been improved, the driving characteristic improvement server S3 according to the second embodiment can provide an improvement effect corresponding to the acquired driving scene information. Generate new improvement effect data different from the data, and update the improvement effect data linked to other driving situation information different from the acquired driving scene information to the generated new improvement effect data, and Omitting changes to improvement effect data linked to the same driving scene information as the driving scene information. As a result, the driving characteristics improvement server S3 according to the second embodiment determines that the driver's driving characteristics have improved and the improvement effect data (i.e., driving In addition to generating and updating new improvement effect data for the same driving situation (characteristic improvement support method), improvement effect data that is different from the improvement effect data that the driver felt uncomfortable (that is, negative) in other driving situations. By generating and updating the improvement effect data as new improvement effect data, it is possible to more efficiently manage the improvement effect data indicating a driving characteristic improvement support method more suitable for the driver.

また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが否定的であって、かつ、運転特性が改善していないと判定した場合、取得された運転場面情報に対応する改善効果データと異なる新たな改善効果データを生成し、取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者の運転特性が改善していないと判定され、かつ、運転者が不快(つまり、否定的)に感じた改善効果データ(つまり、運転特性改善支援方法)と異なる改善効果データを、現在の運転場面の新たな改善効果データとして生成して更新するとともに、他の運転場面においても同様に運転者が不快(つまり、否定的)に感じた改善効果データと異なる改善効果データを新たな改善効果データとして生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotional data is negative and the driving characteristics have not improved, the driving characteristic improvement server S3 according to the second embodiment New improvement effect data different from the improvement effect data is generated, and improvement effect data linked to the same driving scene information as the acquired driving scene information is updated to the generated new improvement effect data. As a result, the driving characteristics improvement server S3 according to the second embodiment determines that the driving characteristics of the driver have not improved, and the improvement effect data (i.e., , driving characteristic improvement support method) is generated and updated as new improvement effect data for the current driving situation, and the driver is similarly uncomfortable (that is, negative) in other driving situations. By generating and updating improvement effect data that is different from the improvement effect data perceived by the driver as new improvement effect data, it is possible to more efficiently manage improvement effect data that indicates driving characteristic improvement support methods that are more suitable for the driver. .

また、以上により、実施の形態2に係る運転特性改善サーバS3により生成される改善効果データは、車両C1A,…に搭載され、音声あるいは光により運転特性改善支援を実行するスピーカ25あるいは警告表示灯26(安全運転支援機器の一例)を制御する制御指令である。これにより、実施の形態2に係る運転特性改善サーバS3は、各車両C1A,…のそれぞれで実行される運転特性改善支援におけるスピーカ25あるいは警告表示灯26の制御指令をより効率的に管理できる。 Furthermore, as described above, the improvement effect data generated by the driving characteristic improvement server S3 according to the second embodiment is transmitted to the speaker 25 or the warning indicator light installed in the vehicle C1A, which executes driving characteristic improvement support by sound or light. 26 (an example of a safe driving support device). Thereby, the driving characteristic improvement server S3 according to the second embodiment can more efficiently manage the control commands for the speaker 25 or the warning indicator light 26 in the driving characteristic improvement support executed in each vehicle C1A, . . . .

また、以上により、実施の形態2に係る運転特性改善サーバS3により生成される改善効果データは、車両C1A,…に搭載され、音声あるいは光により支援を実行する安全運転支援機器を制御する制御指令であって、感情データが否定的である場合、音声または光のいずれか一方により支援を実行させる新たな改善効果データを生成する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者が現在の改善効果データに基づく支援方法を不快(つまり、否定的)に感じていると判定した場合、運転者により適した支援方法に変更した新たな改善効果データを生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。例えば、運転特性改善サーバS3は、現在の改善効果データがスピーカ25と警告表示灯26とを用いて安全確認行動を実行する支援方法である場合、スピーカ25または警告表示灯26のいずれか一方を用いて安全確認行動を実行する新たな改善効果データを生成したり、現在の改善効果データが警告表示灯26を用いて安全確認行動を実行する支援方法である場合、スピーカ25を用いて安全確認行動を実行する新たな改善効果データを生成したりする。 In addition, as described above, the improvement effect data generated by the driving characteristic improvement server S3 according to the second embodiment is a control command for controlling the safe driving support equipment installed in the vehicle C1A, ..., which performs support by voice or light. If the emotion data is negative, new improvement effect data is generated that causes support to be performed using either voice or light. As a result, when the driving characteristic improvement server S3 according to the second embodiment determines that the driver feels uncomfortable (that is, negatively) with the support method based on the current improvement effect data, the driving characteristic improvement server S3 according to the second embodiment By generating and updating new improvement effect data for the changed support method, it is possible to more efficiently manage the improvement effect data indicating the driving characteristic improvement support method more suitable for the driver. For example, if the current improvement effect data is a support method that uses the speaker 25 and the warning indicator light 26 to perform a safety confirmation action, the driving characteristic improvement server S3 controls whether the speaker 25 or the warning indicator light 26 is activated. If the current improvement effect data is a support method that uses the warning indicator light 26 to perform a safety confirmation action, the speaker 25 is used to generate new improvement effect data to perform a safety confirmation action. Generate new improvement effect data to implement actions.

また、以上により、実施の形態2に係る運転特性改善サーバS3により生成される改善効果データは、車両C1A,…に搭載され、音声あるいは光により支援を実行する安全運転支援機器を制御する制御指令であって、感情データが否定的である場合、取得された運転場面情報に対応する改善効果データよりも音声あるいは光による支援の頻度を減少させた新たな改善効果データを生成する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者が現在の改善効果データに基づく支援方法を運転者が不快(つまり、否定的)に感じていると判定した場合、運転特性改善支援の頻度を減少させた新たな改善効果データを生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 In addition, as described above, the improvement effect data generated by the driving characteristic improvement server S3 according to the second embodiment is a control command for controlling the safe driving support equipment installed in the vehicle C1A, ... that performs support by sound or light. If the emotional data is negative, new improvement effect data is generated in which the frequency of audio or light assistance is reduced compared to the improvement effect data corresponding to the acquired driving scene information. As a result, when the driving characteristic improvement server S3 according to the second embodiment determines that the driver feels uncomfortable (that is, negatively) with the support method based on the current improvement effect data, the driving characteristic improvement server S3 according to the second embodiment By generating and updating new improvement effect data that reduces the frequency of improvement support, it is possible to more efficiently manage the improvement effect data that indicates a driving characteristic improvement support method that is more suitable for the driver.

以上により、実施の形態2に係る車両C1A,…は、車両C1A,…の運転場面を示す複数の運転場面情報と、運転場面情報に対応し、車両C1A,…を運転する運転者の安全確認行動の改善を支援する改善効果データと、運転者の利用者IDとを紐付けて記憶し、運転場面情報における運転者の運転特性データと、運転場面情報に対応する改善効果データに基づく支援に対する運転者の感情データとを各種センサ(センサの一例)により取得し、取得された運転特性データおよび感情データと、運転特性データおよび感情データが取得された運転場面情報と、利用者IDとを紐付けて、外部装置に送信し、外部装置から送信された運転場面情報に対応する新たな改善効果データを取得し、運転場面情報に紐付けられた改善効果データを、取得された新たな改善効果データに更新する。また、ここでいう車両C1A,…に搭載された1以上のコンピュータは、端末装置22あるいはECU16A等により構成されてよい。 As described above, the vehicles C1A, ... according to the second embodiment can check the safety of the driver who drives the vehicle C1A, ... in response to a plurality of driving scene information indicating the driving scenes of the vehicle C1A, ... and the driving scene information. Improvement effect data that supports behavior improvement is linked and stored with the driver's user ID, and support is provided based on the driver's driving characteristic data in the driving scene information and the improvement effect data corresponding to the driving scene information. The driver's emotional data is acquired by various sensors (an example of a sensor), and the acquired driving characteristic data and emotional data are linked to the driving situation information from which the driving characteristic data and emotional data were acquired, and the user ID. and transmits it to an external device, acquires new improvement effect data corresponding to the driving scene information sent from the external device, and transfers the improvement effect data linked to the driving scene information to the acquired new improvement effect. Update to data. Moreover, one or more computers mounted on the vehicles C1A, . . . here may be configured by the terminal device 22, the ECU 16A, or the like.

これにより、実施の形態2に係る車両C1A,…は、運転特性改善サーバS3から送信され、取得された改善効果データに基づく運転特性改善支援結果として、運転場面情報と、運転者の運転特性と、運転特性改善支援(安全確認行動支援の一例)に対する運転者の感情データとを運転特性改善サーバS3に送信することで、運転者の現在の状態(つまり、運転者の現在の運転特性データ,感情データ)に基づく新たな改善効果データを取得できる。また、車両C1A,…のそれぞれは、取得された新たな改善効果データと、この新たな改善効果データの生成に用いられた運転場面情報と、運転特性データと、感情データとを利用者IDに紐付けることで、改善効果データをより効率的に管理できる。 As a result, the vehicles C1A, ... according to the second embodiment receive the driving scene information and the driver's driving characteristics as the driving characteristic improvement support result based on the acquired improvement effect data transmitted from the driving characteristic improvement server S3. By transmitting the driver's emotional data regarding the driving characteristic improvement support (an example of safety confirmation behavior support) to the driving characteristic improvement server S3, the driver's current state (that is, the driver's current driving characteristic data, New improvement effect data based on emotional data) can be obtained. In addition, each of the vehicles C1A, . By linking, improvement effect data can be managed more efficiently.

(実施の形態3に至る経緯)
近年、高齢運転者(高齢ドライバー)の加齢に伴う運転操作ミス,安全確認忘れ等に起因する事故の増加を抑制し、高齢運転者の運転寿命を延ばす技術として、運転者の運転操作の履歴を学習データとして学習した学習モデル(以降、「人工知能」と表記)を用いて、運転者の運転特性の改善するための運転支援を行う運転支援方法がある。しかし、このような運転支援方法は、運転者が2台以上の車両(例えば自家用車,レンタカー等)を運転する場合、各車両で運転支援を行う装置(例えば、ピラー,サイドミラー,ルームミラー等の警告表示灯、スピーカ等の音声出力装置)の配置,種類,数等が異なるため、運転支援の手法、得られる運転支援効果が車両ごとに異なるという課題があった。よって、運転支援方法においては、同一の運転者が運転する複数の車両間において、運転者が同様の運転支援効果を得るための運転支援および運転支援データの引き継ぎが望まれていた。
(Details leading to Embodiment 3)
In recent years, the history of driving operations of drivers has been developed as a technology to suppress the increase in accidents caused by driving errors and forgetting to check safety as elderly drivers age, and to extend the driving life of elderly drivers. There is a driving support method that uses a learning model (hereinafter referred to as "artificial intelligence") that is trained as learning data to provide driving support to improve the driving characteristics of the driver. However, when a driver drives two or more vehicles (e.g., a private car, a rental car, etc.), such driving support methods are difficult to use because each vehicle has driving support devices (e.g., pillars, side mirrors, room mirrors, etc.). Because the location, type, number, etc. of warning indicators (warning indicators, speakers, and other audio output devices) differ, there is a problem in that the driving support methods and the driving support effects obtained differ from vehicle to vehicle. Therefore, in a driving support method, it has been desired to transfer driving support and driving support data between a plurality of vehicles driven by the same driver so that the driver can obtain the same driving support effect.

従来、特許文献5には、人工知能の学習に用いられる学習データを、2つの異なるアルゴリズムを用いる人工知能の間で引き継ぐ情報処理装置が開示されている。情報処理装置は、2つの異なるアルゴリズムを用いる人工知能の学習において、データ形式が変更される前の生データ、および各人工知能による学習結果が付帯された学習データの引き継ぎを省略したりする。しかし、情報処理装置は、各車両に対応してそれぞれ異なるアルゴリズムを用いる各人工知能の間で、運転者に適した運転支援の学習結果を含む学習データを引き継いだり、各車両に対応するベース人工知能と、各車両を運転する運転者の運転支援のために学習された人工知能とをそれぞれ管理したりすることが困難だった。 Conventionally, Patent Document 5 discloses an information processing device that transfers learning data used for learning of artificial intelligence between two artificial intelligences that use different algorithms. In learning artificial intelligence using two different algorithms, the information processing device may omit taking over raw data before the data format is changed and learning data attached with learning results by each artificial intelligence. However, the information processing device is capable of handing over learning data, including the learning results of driving support suitable for the driver, between different artificial intelligences that use different algorithms for each vehicle. It has been difficult to manage the intelligence and the artificial intelligence learned to support the driving of each vehicle.

特許文献6には、基礎となるベース人工知能モデルを、ユーザの情報から抽出された特性に適するように変換あるいは修正することで、ユーザの特性に適する人工知能モデルを生成する人工知能サービスが開示されている。また、特許文献7には、2つの人工知能アプリケーションを用いて、生成された人工知能(学習結果)をセキュア環境にある一方の人工知能アプリケーションで管理し、ユーザの個人情報を非セキュア環境にあるもう一方の人工知能アプリケーションで管理する。しかし、人工知能サービスおよび人工知能システムは、各車両に対応し、異なるアルゴリズムを用いるベース人工知能と、各車両を運転する運転者に適して学習された人工知能とをそれぞれ分離して管理したり、運転者の運転特性を示すデータ(つまり、学習データ)を車両以外の装置に引き継いで利用したりすることは想定されていない。 Patent Document 6 discloses an artificial intelligence service that generates an artificial intelligence model suitable for the user's characteristics by converting or modifying the base artificial intelligence model to be suitable for the characteristics extracted from the user's information. has been done. Furthermore, in Patent Document 7, two artificial intelligence applications are used, the generated artificial intelligence (learning results) is managed by one artificial intelligence application in a secure environment, and the user's personal information is managed in a non-secure environment. Managed by another artificial intelligence application. However, artificial intelligence services and artificial intelligence systems are compatible with each vehicle and separate and manage the base artificial intelligence that uses different algorithms and the artificial intelligence that has been trained to suit the driver of each vehicle. It is not assumed that the data indicating the driving characteristics of the driver (that is, the learning data) will be passed on to a device other than the vehicle for use.

そこで、以下の実施の形態3では、異なる車両で収集された運転者の運転特性データの管理と、車両間における運転者の運転特性データの引き継ぎとを支援する制御方法の例を説明する。なお、以下の説明において、実施の形態1あるいは実施の形態2と同様の構成要素については同一の符号を用いることで、その説明を省略する。 Therefore, in Embodiment 3 below, an example of a control method that supports management of driver driving characteristic data collected in different vehicles and handing over of driver driving characteristic data between vehicles will be described. In the following description, the same reference numerals are used for the same components as in Embodiment 1 or Embodiment 2, and the description thereof will be omitted.

なお、実施の形態3における個人特性データは、車両に関する情報(例えば、車両点検の履歴情報)、車両により収集された運転者の運転特性データ、運転特性評価結果、安全確認行動データ、改善効果データ、運転特性改善支援に対する運転者の感情データ等を示す。個人情報は、運転者,運転者の親族等による入力操作を受け付け可能な無線端末装置等により取得された運転者に関するデータであって、運転者の氏名、生体情報(運転者の顔画像,虹彩,指紋,静脈,音声等)、免許証ID、生活情報(テレビ視聴,入浴,トイレ,睡眠等)の情報(データ)等である。 The personal characteristic data in Embodiment 3 includes vehicle-related information (for example, vehicle inspection history information), driver driving characteristic data collected by the vehicle, driving characteristic evaluation results, safety confirmation behavior data, and improvement effect data. , shows driver emotional data regarding driving characteristic improvement support. Personal information is data related to the driver obtained by a wireless terminal device, etc. that can accept input operations by the driver, the driver's relatives, etc., including the driver's name, biological information (the driver's face image, iris , fingerprints, veins, voice, etc.), driver's license ID, and daily life information (TV viewing, bathing, toilet, sleep, etc.).

(実施の形態3)
図32を参照して、実施の形態3に係る運転特性改善支援システム300のユースケース例について説明する。図32は、実施の形態3に係る運転特性改善支援システム300のユースケース例を示す図である。
(Embodiment 3)
An example use case of the driving characteristic improvement support system 300 according to the third embodiment will be described with reference to FIG. 32. FIG. 32 is a diagram illustrating an example use case of the driving characteristic improvement support system 300 according to the third embodiment.

運転特性改善支援システム300は、2台以上の車両C2A,C2B…のそれぞれと、運転特性改善サーバS4と、ネットワークNWBと、無線端末装置P2と、操作端末P3とを含んで構成される。なお、操作端末P3は必須でなく、省略されてよい。 The driving characteristic improvement support system 300 includes each of two or more vehicles C2A, C2B, . . . , a driving characteristic improvement server S4, a network NWB, a wireless terminal device P2, and an operation terminal P3. Note that the operating terminal P3 is not essential and may be omitted.

運転特性改善支援システム300は、実施の形態2で説明した運転特性改善支援システム200と同様に、1台の車両C2Aから運転者の個人特性データである運転特性データと、安全確認行動データとを取得する。運転特性改善支援システム300は、取得された個人特性データを運転特性改善サーバS4に送信する。運転特性改善支援システム300は、運転特性データが示す運転者の運転技量と、安全確認行動データが示す運転者の運転中の安全確認行動とに基づく運転者の運転特性が改善したか否かを判定し、運転特性改善評価結果を運転特性改善サーバS4に記録するとともに、車両C2Aに送信する。運転特性改善支援システム300は、運転特性改善評価結果に基づいて、車両C2Aに運転者への運転支援内容を示す改善効果データ(新たな改善効果データの一例)を更新し、更新された改善効果データに基づく運転特性改善支援を実行する。 Similar to the driving characteristic improvement support system 200 described in the second embodiment, the driving characteristic improvement support system 300 receives driving characteristic data, which is the driver's personal characteristic data, and safety confirmation behavior data from one vehicle C2A. get. The driving characteristic improvement support system 300 transmits the acquired personal characteristic data to the driving characteristic improvement server S4. The driving characteristic improvement support system 300 determines whether or not the driver's driving characteristics have improved based on the driver's driving skill indicated by the driving characteristic data and the driver's safety confirmation behavior while driving indicated by the safety confirmation behavior data. The driving characteristic improvement evaluation result is recorded in the driving characteristic improvement server S4 and transmitted to the vehicle C2A. The driving characteristic improvement support system 300 updates the improvement effect data (an example of new improvement effect data) indicating the content of driving support for the driver in the vehicle C2A based on the driving characteristic improvement evaluation result, and updates the updated improvement effect data to the vehicle C2A. Executes driving characteristic improvement support based on data.

また、運転特性改善支援システム300は、車両C2Aを運転していた運転者が、車両C2Aと異なる車両C2Bに乗車したことを検知した場合、事前に運転者により設定された引継ぎデータリストTB9(図39参照)に基づいて、車両C2Aにより取得された引継ぎデータを車両C2Bに送信する。また、運転特性改善支援システム300は、車両C2Aにおける運転者の運転特性改善評価結果と、運転者の個人情報あるいは個人特性データとを用いた学習により、車両C2Bにより実行される運転特性改善支援のための人工知能(学習済みデータ)を生成し、車両C2Bに送信することで、車両C2Bでの運転者の運転特性改善支援を実行する。 In addition, when the driving characteristic improvement support system 300 detects that the driver who was driving the vehicle C2A has gotten into a vehicle C2B different from the vehicle C2A, the driving characteristic improvement support system 300 performs a transfer data list TB9 (see FIG. 39), the handover data acquired by vehicle C2A is transmitted to vehicle C2B. Further, the driving characteristic improvement support system 300 performs driving characteristic improvement support executed by the vehicle C2B by learning using the driver's driving characteristic improvement evaluation results in the vehicle C2A and the driver's personal information or personal characteristic data. By generating artificial intelligence (learned data) and transmitting it to the vehicle C2B, support for improving the driving characteristics of the driver in the vehicle C2B is executed.

ここでいう引継ぎデータリストTB9は、事前に運転者あるいは運転者の親族等によって設定され、異なる複数の車両C2A,C2B,…のそれぞれの間での運転者の各個人情報および各個人特性データの引き継ぎ可否を示すデータである。運転特性改善支援システム300は、引継ぎデータリストTB9において、引き継ぎ可能である個人情報あるいは個人特性データ(以降、「引継ぎデータ」と表記)を異なる車両間で引き継ぐことで、複数の車両における運転者の運転特性改善支援を実現可能にする。 The transfer data list TB9 is set in advance by the driver or the driver's relatives, and is a list of the personal information and personal characteristic data of the driver between different vehicles C2A, C2B,... This is data indicating whether or not the transfer is possible. The driving characteristic improvement support system 300 improves the performance of drivers in multiple vehicles by passing transferable personal information or personal characteristic data (hereinafter referred to as "transfer data") between different vehicles in the transfer data list TB9. Make driving characteristic improvement support possible.

なお、引継ぎデータリストは、引き継ぎ先である車両ごとに設定、あるいは生成されてもよい。例えば、親族が所有する特定の車両に対応する引継ぎデータリストと、カーシェアリング等でシェアされる車両,レンタカー等に対応する引継ぎデータリストとは、引継ぎ可能な個人情報、個人特性データが異なってよい。これにより、運転特性改善支援システム300は、運転者が意図しない車両への個人情報、個人特性データの引き継ぎを阻止できる。 Note that the handover data list may be set or generated for each vehicle that is a handover destination. For example, the transferable data list corresponding to a specific vehicle owned by a relative may be different from the transferable data list corresponding to vehicles shared through car sharing, rental cars, etc., and personal characteristic data that can be transferred. . Thereby, the driving characteristic improvement support system 300 can prevent personal information and personal characteristic data from being transferred to a vehicle that is not intended by the driver.

車両C2A,…のそれぞれは、ネットワークNWBを介して運転特性改善サーバS4と、操作端末P3との間でそれぞれ無線通信可能に接続される。なお、ここでいう無線通信は、例えばWi-Fi(登録商標)に代表される無線LAN,セルラー通信システム(移動通信システム)等であって、その種類は特に限定されない。また、車両C2A,…のそれぞれは、無線端末装置P2との間で無線通信可能に接続されてもよい。 Each of the vehicles C2A, . . . is connected to the driving characteristic improvement server S4 and the operating terminal P3 via the network NWB so as to be able to communicate wirelessly. Note that the wireless communication referred to here includes, for example, a wireless LAN represented by Wi-Fi (registered trademark), a cellular communication system (mobile communication system), and the type thereof is not particularly limited. Moreover, each of the vehicles C2A, . . . may be connected to the wireless terminal device P2 so as to be capable of wireless communication.

車両C2A,…のそれぞれは、自車両を運転する運転者を特定し、特定された運転者に対応する運転特性改善支援のための人工知能を用いて、実施の形態2で説明した運転者への運転特性改善支援と、運転者の運転特性データの取得とを開始する。また、車両C2A,…のそれぞれは、運転場面の判定(特定)を開始する。車両C2A,…のそれぞれは、人工知能を用いた運転者への運転特性改善支援(つまり、安全確認行動の支援)を実行するとともに、この運転特性改善支援に対する運転者の感情データを取得する。 Each of the vehicles C2A, ... identifies the driver driving the own vehicle, and uses artificial intelligence to support improvement of driving characteristics corresponding to the identified driver, to the driver described in Embodiment 2. We will begin providing support for improving the driving characteristics of drivers and acquiring data on their driving characteristics. Further, each of the vehicles C2A, . . . starts determining (identifying) a driving scene. Each of the vehicles C2A, . . . executes driving characteristic improvement support for the driver (that is, support for safety confirmation behavior) using artificial intelligence, and acquires the driver's emotional data regarding this driving characteristic improvement support.

ここでいう人工知能は、各車両において、運転者の運転特性改善支援を実行する学習済みデータである。人工知能は、運転特性改善サーバS4により、車両ごとにベースとなる人工知能(以降、「ベース人工知能」と表記)に、運転者の個人情報(例えば、年齢,性別,生活情報等)、個人特性データ、運転場面ごとの改善効果データ等を用いた学習を行うことで生成される。なお、人工知能の生成は、各車両のECU16B,端末装置22(図33参照)等により実行されてもよい。 The artificial intelligence referred to here is learned data that supports the improvement of the driver's driving characteristics in each vehicle. The driving characteristic improvement server S4 uses the driving characteristics improvement server S4 to add personal information of the driver (for example, age, gender, daily life information, etc.) to the base artificial intelligence (hereinafter referred to as "base artificial intelligence") for each vehicle. It is generated through learning using characteristic data, improvement effect data for each driving situation, etc. Note that the generation of artificial intelligence may be executed by the ECU 16B, the terminal device 22 (see FIG. 33), etc. of each vehicle.

車両C2A,…のそれぞれは、運転者の利用者IDと、自車両の車両IDと、新たに取得された(つまり、運転特性改善サーバS4に未送信である)個人特性データとを紐付けて、運転特性改善サーバS4に送信する。なお、これらのデータの送信のタイミングは、定期的に実行されてもよいし、運転者による運転終了を検知したタイミングであってもよい。 Each of the vehicles C2A, . , is transmitted to the driving characteristic improvement server S4. Note that the timing of transmitting these data may be periodically executed, or may be the timing at which the end of driving by the driver is detected.

なお、以降の説明では、説明を分かりやすくするために、運転者が車両C2Aから車両C2Bに乗り換える例について説明する。 In the following description, in order to make the description easier to understand, an example will be described in which the driver changes from vehicle C2A to vehicle C2B.

コンピュータの一例としての運転特性改善サーバS4は、実施の形態1における運転特性サーバS1が実現可能な機能(運転者認証)と、実施の形態2における運転特性改善サーバS3が実現可能な機能(改善効果データの生成,更新による運転特性改善支援)とを実現可能である。 The driving characteristic improvement server S4, which is an example of a computer, has a function (driver authentication) that can be realized by the driving characteristic server S1 in the first embodiment, and a function (improvement) that can be realized by the driving characteristic improvement server S3 in the second embodiment. (Driving characteristic improvement support by generating and updating effect data) is possible.

運転特性改善サーバS4は、ネットワークNWBを介して、車両C2A,…のそれぞれと、無線端末装置P2との間でそれぞれデータ通信可能に接続される。運転特性改善サーバS4は、車両C2A,…のそれぞれから送信された運転者の利用者IDと、自車両の車両IDと、新たな個人特性データとを取得する。また、運転特性改善サーバS4は、無線端末装置P2から送信された運転者の個人情報,引継ぎデータリスト等を取得する。 The driving characteristic improvement server S4 is connected to each of the vehicles C2A, . . . and the wireless terminal device P2 so as to be capable of data communication via the network NWB. The driving characteristic improvement server S4 acquires the user ID of the driver, the vehicle ID of the own vehicle, and new personal characteristic data transmitted from each of the vehicles C2A, . Further, the driving characteristic improvement server S4 acquires the driver's personal information, the transfer data list, etc. transmitted from the wireless terminal device P2.

運転特性改善サーバS4は、取得された新たな個人特性データあるいは個人情報を学習データとして再学習を実行し、車両C2Aで現在使用されている人工知能「A´」をアップデートする。 The driving characteristic improvement server S4 performs relearning using the acquired new personal characteristic data or personal information as learning data, and updates the artificial intelligence "A'" currently used in the vehicle C2A.

また、運転特性改善サーバS4は、車両C2Bから送信された運転者の個人情報(例えば、運転者の生体情報、免許証に関する情報等)と車両IDとに基づいて、運転者と車両(つまり、車両C2B)とを特定する。運転特性改善サーバS4は、特定された運転者に対応する引継ぎデータリストに基づいて、特定された車両C2Bに引き継がれる運転者の個人情報、個人特性データを抽出する。運転特性改善サーバS4は、特定された車両C2Bに対応するベース人工知能「B」に、抽出された個人情報および個人特性データを学習データとする再学習を実行して、車両C2Aにおいて特定された運転者に適した人工知能「B´」を生成し、車両C2Bに送信する。 Further, the driving characteristic improvement server S4 determines whether the driver and the vehicle (i.e., vehicle C2B). The driving characteristic improvement server S4 extracts the personal information and personal characteristic data of the driver to be inherited by the specified vehicle C2B, based on the transfer data list corresponding to the specified driver. The driving characteristic improvement server S4 executes relearning on the base artificial intelligence "B" corresponding to the identified vehicle C2B using the extracted personal information and personal characteristic data as learning data, and performs relearning on the base artificial intelligence "B" corresponding to the identified vehicle C2B. An artificial intelligence "B'" suitable for the driver is generated and sent to the vehicle C2B.

無線端末装置P2は、運転者,運転者の親族等による入力操作を受け付け可能であって、無線端末装置P1,P1Aと同様の機能と、入力操作に基づく引継ぎデータリストを生成する機能と、車両C2A,…のそれぞれあるいは運転特性改善サーバS4に運転者の生活情報等を送信する機能等を実現する。無線端末装置P2は、各車両の間で引き継がれる運転者の引継ぎデータの引継ぎデータリストを生成するための引継ぎリスト設定画面(図42~図45参照)をモニタ(不図示)に表示する。無線端末装置P2は、引継ぎリスト設定画面を用いて、運転者操作に基づく各車両の間で引き継がれる運転者の引継ぎデータの設定操作(選択操作,削除操作,編集操作等)を受け付け、引継ぎデータリストTB9(図39参照)を生成し、運転特性改善サーバS4に送信する。 The wireless terminal device P2 can accept input operations from the driver, the driver's relatives, etc., and has the same functions as the wireless terminal devices P1 and P1A, a function to generate a transfer data list based on the input operations, and a function to generate a transfer data list based on the input operations. A function of transmitting the driver's daily life information and the like to each of C2A, . . . or the driving characteristic improvement server S4 is realized. The wireless terminal device P2 displays on a monitor (not shown) a transfer list setting screen (see FIGS. 42 to 45) for generating a transfer data list of driver transfer data to be transferred between vehicles. Using the handover list setting screen, the wireless terminal device P2 accepts a driver's setting operation (selection operation, deletion operation, editing operation, etc.) of the handover data to be taken over between each vehicle based on the driver's operation, and sets the handover data. A list TB9 (see FIG. 39) is generated and sent to the driving characteristic improvement server S4.

なお、引継ぎデータの引き継ぎは、これらの情報(データ)の閲覧,管理権限を有する管理者(例えば、ディーラ等)によりUSBメモリ等の外部記憶媒体EM(図39参照)を用いて行われてもよい。このような場合、管理者は、管理者操作を受け付け可能であって、各車両C2A,C2B,…のそれぞれとの間で無線あるいは有線通信可能に接続された操作端末P3を用いて、車両間における引継ぎデータリストTB9に基づく運転者の引継ぎデータ(個人情報,個人特性データ)の引き継ぎを実行する。 Note that the transfer of data may be carried out using an external storage medium EM such as a USB memory (see Figure 39) by an administrator (e.g., a dealer) who has authority to view and manage this information (data). good. In such a case, the administrator uses the operation terminal P3, which can accept administrator operations and is connected to each of the vehicles C2A, C2B, etc. to enable wireless or wired communication, to perform inter-vehicle communication. The driver's transfer data (personal information, personal characteristic data) is transferred based on the transfer data list TB9.

コンピュータの一例としての操作端末P3は、管理者等による入力操作を受け付け可能であって、例えば、PC,ノートPC等により実現される。操作端末P3は、運転特性改善サーバS4と、各車両C2A,…との間で無線通信あるいは有線通信可能に接続される。 The operation terminal P3, which is an example of a computer, can accept input operations by an administrator or the like, and is realized by, for example, a PC, a notebook PC, or the like. The operation terminal P3 is connected to the driving characteristic improvement server S4 and each vehicle C2A, . . . so as to enable wireless communication or wired communication.

操作端末P3は、運転特性改善サーバS4から管理者操作により指定された運転者の引継ぎデータリストTB9を取得する。操作端末P3は、車両C2Aから引継ぎデータリストTB9に対応する運転者の引継ぎデータを取得し、外部記憶媒体EM(例えば、USBメモリ等)に記録する。 The operation terminal P3 acquires the transfer data list TB9 of the driver designated by the administrator's operation from the driving characteristic improvement server S4. The operation terminal P3 acquires the driver's handover data corresponding to the handover data list TB9 from the vehicle C2A, and records it in the external storage medium EM (for example, a USB memory, etc.).

操作端末P3は、外部記憶媒体EMに記録された運転者の引継ぎデータと、車両C2Bで使用される人工知能「B」のアップデートを要求する制御指令とを対応付けて運転特性改善サーバS4に送信し、運転特性改善サーバS4に人工知能「B」のアップデートを実行させる。 The operation terminal P3 associates the driver's handover data recorded in the external storage medium EM with a control command requesting an update of the artificial intelligence "B" used in the vehicle C2B, and sends it to the driving characteristics improvement server S4. Then, the driving characteristic improvement server S4 is made to update the artificial intelligence "B".

なお、同一の操作端末P3を用いて車両C2Aから車両C2Bへの引継ぎデータの引き継ぎが行われる場合、運転者の引継ぎデータは、操作端末P3のメモリ63等の内部記憶媒体に記憶(書き出し)されてもよい。 Note that when the same operation terminal P3 is used to transfer the transfer data from the vehicle C2A to the vehicle C2B, the driver's transfer data is stored (written) in an internal storage medium such as the memory 63 of the operation terminal P3. You can.

また、操作端末P3は、各車両に搭載される車載ECUを用いて実現されてもよい。このような場合、操作端末P3は、例えば、車両C2Aの車載ECUに外部記憶媒体EMをデータ送受信可能に接続して運転者の引継ぎデータを記録したり、外部記憶媒体EMを車両C2Bの車載ECUへデータ送受信可能に接続して運転者の引継ぎデータを送信(書き込み)したりしてもよい。 Further, the operation terminal P3 may be realized using an in-vehicle ECU installed in each vehicle. In such a case, the operating terminal P3 may, for example, connect the external storage medium EM to the in-vehicle ECU of the vehicle C2A so as to be able to transmit and receive data to record the driver's handover data, or connect the external storage medium EM to the in-vehicle ECU of the vehicle C2B. The driver's takeover data may be transmitted (written) by being connected to enable data transmission and reception.

ネットワークNWBは、複数の車両C2A,…のそれぞれと、運転特性改善サーバS4と、無線端末装置P2と、操作端末P3との間でそれぞれ無線通信あるいは有線通信可能に接続する。 The network NWB connects each of the plurality of vehicles C2A, . . . , the driving characteristic improvement server S4, the wireless terminal device P2, and the operating terminal P3 to enable wireless or wired communication.

次に、図33を参照して、実施の形態3における車両C2A,…の内部構成例について説明する。図33は、実施の形態3における車両C2A,…の内部構成例を示すブロック図である。なお、図33に示す車両C2A,…の内部構成は、生体情報として運転者の顔画像を用いる場合の内部構成例を図示し、他の生体情報を取得するためのセンサ、および免許証リーダ等の図示を省略している。 Next, an example of the internal configuration of the vehicles C2A, . . . in the third embodiment will be described with reference to FIG. 33. FIG. 33 is a block diagram showing an example of the internal configuration of vehicles C2A, . . . in the third embodiment. The internal configuration of the vehicle C2A,... shown in FIG. 33 is an example of the internal configuration when the driver's face image is used as biometric information, and includes sensors for acquiring other biometric information, a driver's license reader, etc. illustration is omitted.

車両C2A,…は、それぞれ同様の内部構成を有するため、以降の説明では主に車両C2Aの内部構成について説明する。また、車両C2A,…は、実施の形態1における車両C1,…が実現可能な機能と、実施の形態2における車両C1A,…のそれぞれが実現可能な機能とを実現し、車両C1,…,C1A,…と同様の構成を有する。よって、以降の説明では、車両C1,…,C1A,…と同様の構成については、同一の符号を付与し、説明を省略する。 Since the vehicles C2A, . . . have similar internal configurations, the following description will mainly focus on the internal configuration of the vehicle C2A. Furthermore, the vehicles C2A,... realize the functions that can be realized by the vehicles C1,... in the first embodiment and the functions that can be realized by the vehicles C1A,... in the second embodiment, and the vehicles C1,..., It has the same configuration as C1A, . Therefore, in the following description, the same components as those of the vehicles C1, . . . , C1A, .

車両C2Aは、通信機器11Aと、端末装置22と、車内カメラ13Aと、ジャイロセンサ14と、メモリ15Bと、ECU16Bと、を少なくとも含んで構成される。車両C2A内部の各部は、CAN等によりデータ送受信可能に接続される。 The vehicle C2A is configured to include at least a communication device 11A, a terminal device 22, an in-vehicle camera 13A, a gyro sensor 14, a memory 15B, and an ECU 16B. Each part inside the vehicle C2A is connected to enable data transmission and reception via CAN or the like.

メモリ15Bは、例えばECU16Bの各処理を実行する際に用いられるワークメモリとしてのRAMと、ECU16Bの動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、ECU16Bにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、ECU16Bの動作を規定するプログラムが書き込まれている。また、メモリ15Bは、車両C2Aを運転する1以上の利用者IDと、運転特性履歴テーブルTB3(図19参照)とを記憶してもよい。 The memory 15B includes, for example, a RAM as a work memory used when executing each process of the ECU 16B, and a ROM that stores programs and data that define the operations of the ECU 16B. Data or information generated or acquired by the ECU 16B is temporarily stored in the RAM. A program that defines the operation of the ECU 16B is written in the ROM. Further, the memory 15B may store one or more user IDs who drive the vehicle C2A and a driving characteristic history table TB3 (see FIG. 19).

メモリ15Bは、人工知能データ151を記憶する。人工知能データ151は、車両C1Aのベース人工知能「A」と、運転者に適する運転特性改善支援を実行するための人工知能「A´」とを含む。なお、メモリ15Bは、運転者が複数である場合、運転者ごとに適する人工知能を含んでよい。 Memory 15B stores artificial intelligence data 151. The artificial intelligence data 151 includes a base artificial intelligence "A" of the vehicle C1A and an artificial intelligence "A'" for executing driving characteristic improvement support suitable for the driver. Note that when there are multiple drivers, the memory 15B may include artificial intelligence suitable for each driver.

ECU16Bは、各部の処理および制御をそれぞれ統括的に実行する。ECU16Bは、所謂電子回路制御装置を用いて構成され、メモリ15Bに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、AI処理部161等の各部の機能を実現する。また、ECU16Bは、ECU16,16A(図2,図18参照)により実現可能な機能を実現可能である。ECU16Bは、各種センサから出力された情報を運転特性データ(個人特性データ)として取得する。ECU16Bは、運転特性データをプロセッサ22Aに出力する。 The ECU 16B collectively executes processing and control of each section. The ECU 16B is configured using a so-called electronic circuit control device, and realizes the functions of each section such as the AI processing section 161 by referring to programs and data held in the memory 15B and executing the programs. Furthermore, the ECU 16B can implement functions that can be implemented by the ECUs 16 and 16A (see FIGS. 2 and 18). The ECU 16B acquires information output from various sensors as driving characteristic data (personal characteristic data). ECU 16B outputs driving characteristic data to processor 22A.

AI処理部161は、メモリ15Bに記録された人工知能「A´」を用いて、スピーカ25、警告表示灯26等を制御し、運転特性改善支援を実行する。なお、運転特性改善支援方法は、実施の形態2で説明したECU16Aにより実行される運転特性改善支援方法に加えて、運転者の個人情報に基づく運転特性改善支援を実行する。 The AI processing unit 161 uses the artificial intelligence "A'" recorded in the memory 15B to control the speaker 25, warning indicator light 26, etc., and executes driving characteristic improvement support. Note that the driving characteristic improvement support method executes driving characteristic improvement support based on the driver's personal information in addition to the driving characteristic improvement support method executed by the ECU 16A described in the second embodiment.

例えば、人工知能「A´」が、運転者の生活情報「睡眠」に含まれる運転者の就寝時刻,起床時刻,呼吸数,睡眠の質(図45参照)を学習データとして再学習された人工知能であって、運転者の睡眠時間が短い場合、AI処理部161は、運転特性改善支援の実行タイミングをより早くする。これにより、車両C1Aは、睡眠不足により運転者の運転特性改善支援に対する反応が遅れる場合であっても、早めに運転特性改善支援を実行することで、安全確認行動を実行すべきタイミングで運転者が安全確認行動実行できるように支援できる。 For example, the artificial intelligence "A'" is an artificial intelligence that is retrained using the driver's bedtime, wake-up time, breathing rate, and sleep quality (see Figure 45) included in the driver's daily life information "sleep" as learning data. When the driver's sleep time is short due to intelligence, the AI processing unit 161 makes the execution timing of driving characteristic improvement support earlier. As a result, even if the driver's response to driving characteristic improvement support is delayed due to sleep deprivation, vehicle C1A can quickly perform driving characteristic improvement support to help the driver at the timing when safety confirmation actions should be performed. We can support people to carry out safety confirmation actions.

また、ECU16Bは、車両C1Aで人工知能「A´」の再学習(アップデート)を行う場合、各種センサにより取得された情報(個人特性データ)、あるいは無線端末装置P2から送信された運転者の個人情報を学習データとして、人工知能「A´」を再学習してよい。ECU16Bは、再学習された人工知能「A´´」を用いて、運転者への運転特性改善支援を実行する。 In addition, when relearning (updating) the artificial intelligence "A'" in the vehicle C1A, the ECU 16B uses information acquired by various sensors (personal characteristic data) or the driver's personal information transmitted from the wireless terminal device P2. The artificial intelligence "A'" may be retrained using the information as learning data. The ECU 16B uses the re-learned artificial intelligence "A" to provide driving characteristic improvement support to the driver.

なお、上述した人工知能データ151を用いた運転特性改善支援の実行、および人工知能の再学習は、端末装置22のプロセッサ22Aにより実行されてもよい。 Note that the execution of the driving characteristic improvement support using the artificial intelligence data 151 and the relearning of the artificial intelligence may be executed by the processor 22A of the terminal device 22.

次に、図34を参照して、運転特性改善サーバS4の内部構成例について説明する。図34は、実施の形態3における運転特性改善サーバS4の内部構成例を示すブロック図である。 Next, with reference to FIG. 34, an example of the internal configuration of the driving characteristic improvement server S4 will be described. FIG. 34 is a block diagram showing an example of the internal configuration of the driving characteristic improvement server S4 in the third embodiment.

また、運転特性改善サーバS4は、実施の形態1における運転特性サーバS1が実現可能な機能と、実施の形態2における運転特性改善サーバS3が実現可能な機能とを実現し、運転特性改善サーバS3と同様の構成を有する。よって、以降の説明では、運転特性改善サーバS3と同様の構成については、同一の符号を付与し、説明を省略する。 Further, the driving characteristic improvement server S4 realizes the functions that can be realized by the driving characteristic server S1 in the first embodiment and the functions that can be realized by the driving characteristic improvement server S3 in the second embodiment. It has a similar configuration. Therefore, in the following description, the same components as those of the driving characteristic improvement server S3 will be given the same reference numerals, and the description will be omitted.

運転特性改善サーバS4は、通信部51と、プロセッサ520と、メモリ530と、データベース540と、を含んで構成される。なお、データベース540は、運転特性改善サーバS4との間でデータ通信可能に接続された別体により構成されてもよい。 The driving characteristic improvement server S4 includes a communication unit 51, a processor 520, a memory 530, and a database 540. Note that the database 540 may be configured as a separate entity that is connected to the driving characteristic improvement server S4 so as to enable data communication.

プロセッサ520は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ520は、メモリ530と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ520は、メモリ530に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、支援方法生成部52A、個人特性管理部52B、人工知能学習部52C等の各部の機能を実現する。また、プロセッサ520は、プロセッサ32,52(図3,図20参照)のそれぞれにより実現可能な各部の機能を実現する。 The processor 520 is configured using, for example, a CPU, a DSP, or an FPGA, and controls the operations of each section. Processor 520 cooperates with memory 530 to perform various types of processing and control in an integrated manner. Specifically, the processor 520 refers to the program and data held in the memory 530, and executes the program to control each unit such as the support method generation unit 52A, the personal characteristics management unit 52B, and the artificial intelligence learning unit 52C. Realize the functions of Further, the processor 520 realizes the functions of each section that can be realized by each of the processors 32 and 52 (see FIGS. 3 and 20).

プロセッサ520は、運転特性学習モデル、あるいは運転場面データが更新された場合、更新された運転特性学習モデル、あるいは運転場面データを車両C2A,…のそれぞれに送信する。 When the driving characteristic learning model or driving scene data is updated, the processor 520 transmits the updated driving characteristic learning model or driving scene data to each of the vehicles C2A, . . . .

また、プロセッサ520は、車両C2A,…のそれぞれから利用者ID、車両ID、新たな個人特性データを取得したり、あるいは無線端末装置P2から運転者の個人情報、引継ぎデータリスト等を取得したりする。プロセッサ520は、取得されたデータ(情報)に基づいて、引継ぎデータ(個人情報および個人特性データ)の引き継ぎ、人工知能の生成、再学習(アップデート)等を実行する。プロセッサ520は、生成あるいは再学習された人工知能を各車両C2A,…に送信する。 The processor 520 also acquires the user ID, vehicle ID, new personal characteristic data from each of the vehicles C2A, etc., or acquires the driver's personal information, transfer data list, etc. from the wireless terminal device P2. do. Based on the acquired data (information), the processor 520 executes transfer of transfer data (personal information and personal characteristic data), generation of artificial intelligence, relearning (update), and the like. The processor 520 transmits the generated or retrained artificial intelligence to each vehicle C2A, .

個人特性管理部52Bは、各車両C2A,…のそれぞれから取得された個人情報,個人特性データと、無線端末装置P2から取得された個人情報とを、個人情報/個人特性データテーブルTB7に、利用者IDが運転する車両IDごとに格納(登録)する。 The personal characteristic management unit 52B uses the personal information and personal characteristic data acquired from each of the vehicles C2A, ... and the personal information acquired from the wireless terminal device P2 in the personal information/personal characteristic data table TB7. It is stored (registered) for each vehicle ID driven by a person ID.

個人特性管理部52Bは、取得された利用者IDあるいは運転者の個人情報に基づいて、引継ぎデータリストデータベースDB6を参照する。個人特性管理部52Bは、取得された利用者IDあるいは運転者の個人情報に対応する引継ぎデータリストTB9(図39参照)に基づいて、個人情報/個人特性データベースDB5に格納された運転者の個人情報および個人特性データのうち車両C2Aから車両C2Bへ引き継がれる運転者の引継ぎデータを抽出する。個人特性管理部52Bは、抽出された運転者の引継ぎデータと、利用者IDおよび車両IDとを紐付けて、人工知能学習部52Cに出力する。 The personal characteristic management unit 52B refers to the transfer data list database DB6 based on the acquired user ID or driver's personal information. The personal characteristics management unit 52B stores the driver's personal information stored in the personal information/personal characteristics database DB5 based on the acquired user ID or the transfer data list TB9 (see FIG. 39) corresponding to the driver's personal information. Among the information and personal characteristic data, driver handover data to be taken over from vehicle C2A to vehicle C2B is extracted. The personal characteristic management section 52B associates the extracted driver's handover data with the user ID and vehicle ID and outputs the linked data to the artificial intelligence learning section 52C.

人工知能学習部52Cは、個人特性管理部52Bから出力された車両IDに基づいて、改善効果学習モデル53Bを参照し、車両IDに対応する車両のベース人工知能を取得する。人工知能学習部52Cは、取得されたベース人工知能に、抽出された運転者の引継ぎデータを学習データとする学習を実行し、運転者に適した運転特性改善を実行可能な人工知能を生成する。人工知能学習部52Cは、生成された人工知能を通信部51に出力し、対応する車両に送信させる。 The artificial intelligence learning section 52C refers to the improvement effect learning model 53B based on the vehicle ID output from the personal characteristic management section 52B, and obtains the base artificial intelligence of the vehicle corresponding to the vehicle ID. The artificial intelligence learning unit 52C performs learning on the acquired base artificial intelligence using the extracted driver's takeover data as learning data, and generates artificial intelligence capable of improving driving characteristics suitable for the driver. . The artificial intelligence learning section 52C outputs the generated artificial intelligence to the communication section 51, and causes the communication section 51 to transmit it to the corresponding vehicle.

なお、人工知能学習部52Cは、取得された利用者IDの情報が対応付けられた人工知能が改善効果学習モデル53Bに記憶されている場合、この人工知能に抽出された運転者の引継ぎデータを学習データとする再学習(アップデート)を実行してもよい。例えば、人工知能学習部52Cは、取得された車両IDが車両C2Aを示し、取得された利用者IDの情報が対応付けられた人工知能「A´」が改善効果学習モデル53Bに記憶されている場合、この人工知能「A´」を再学習した人工知能「A´´」を生成する。 In addition, when the artificial intelligence to which the acquired user ID information is associated is stored in the improvement effect learning model 53B, the artificial intelligence learning unit 52C transmits the driver's takeover data extracted to this artificial intelligence. Re-learning (updating) using learning data may be performed. For example, the artificial intelligence learning unit 52C stores in the improvement effect learning model 53B that the acquired vehicle ID indicates the vehicle C2A, and the artificial intelligence "A'" associated with the acquired user ID information is stored in the improvement effect learning model 53B. In this case, an artificial intelligence "A''" is generated by relearning this artificial intelligence "A'".

メモリ530は、例えばプロセッサ520の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ520の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ520により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ520の動作を規定するプログラムが書き込まれている。 The memory 530 includes, for example, a RAM as a work memory used when the processor 520 executes each process, and a ROM that stores programs and data that define the operations of the processor 520. Data or information generated or acquired by the processor 520 is temporarily stored in the RAM. A program that defines the operation of the processor 520 is written in the ROM.

メモリ530は、運転特性学習モデル53Aと、改善効果学習モデル53Bとを記憶する。また、メモリ530は、メモリ33,53(図3,図20参照)のそれぞれが記憶するプログラムおよびデータが記憶され、プロセッサ520によりプロセッサ32,52(図3,図20参照)のそれぞれが実現可能な各部の機能の実現を可能にする。 The memory 530 stores a driving characteristic learning model 53A and an improvement effect learning model 53B. Further, the memory 530 stores programs and data stored in the memories 33 and 53 (see FIGS. 3 and 20), and allows the processor 520 to realize each of the processors 32 and 52 (see FIGS. 3 and 20). This makes it possible to realize the functions of each part.

なお、実施の形態3において、改善効果学習モデル53Bは、各車両C2A,…のそれぞれが備えるスピーカ25,警告表示灯26等の数,配置に対応して、異なる複数の車両のそれぞれで同様の運転特性改善支援を実行するためのベース人工知能モデルを車両IDごとに記憶する。また、改善効果学習モデル53Bは、車両ごとのベース人工知能(例えば、ベース人工知能「A」,「B」)に、個人情報および個人特性データを学習データとする学習を実行して生成された運転者ごとの人工知能(例えば、人工知能「A´」,「B´」)と、利用者IDおよび車両IDとを紐付けて記憶する。 In addition, in the third embodiment, the improvement effect learning model 53B is configured to perform similar training for each of a plurality of different vehicles in accordance with the number and arrangement of the speakers 25, warning indicator lights 26, etc. provided in each of the vehicles C2A,... A base artificial intelligence model for executing driving characteristic improvement support is stored for each vehicle ID. In addition, the improvement effect learning model 53B is generated by executing learning using personal information and personal characteristic data as learning data on the base artificial intelligence (for example, base artificial intelligence "A", "B") for each vehicle. The artificial intelligence for each driver (for example, artificial intelligence "A'", "B'"), user ID and vehicle ID are stored in association with each other.

データベース540は、利用者データベースDB1と、運転場面データベースDB2と、運転特性データベースDB3と、改善効果データベースDB4と、個人情報/個人特性データベースDB5と、引継ぎデータリストデータベースDB6とをそれぞれ記録する。 The database 540 records a user database DB1, a driving scene database DB2, a driving characteristics database DB3, an improvement effect database DB4, a personal information/personal characteristics database DB5, and a takeover data list database DB6.

個人情報/個人特性データベースDB5は、運転者が運転する1以上の車両IDと、各車両IDに対応する車両により取得された運転者の個人情報および個人特性データを利用者IDごとに個人情報/個人特性データテーブルTB7(図36参照)に格納(登録)する。なお、個人情報/個人特性データベースDB5は、利用者データベースDB1に登録された運転者の個人情報および無線端末装置P2から送信された運転者の生活情報と、運転特性データベースDB3および改善効果データベースDB4のそれぞれに登録された個人特性データとをまとめて格納(登録)し、管理するデータベースであってよい。 The personal information/personal characteristics database DB5 stores personal information/personal characteristics data of one or more vehicles driven by the driver, personal information of the driver acquired by the vehicle corresponding to each vehicle ID, and personal characteristics data for each user ID. It is stored (registered) in the personal characteristic data table TB7 (see FIG. 36). The personal information/personal characteristics database DB5 includes the driver's personal information registered in the user database DB1 and the driver's daily life information transmitted from the wireless terminal device P2, as well as the driving characteristics database DB3 and the improvement effect database DB4. It may be a database that collectively stores (registers) and manages personal characteristic data registered in each.

引継ぎデータリストデータベースDB6は、無線端末装置P2から送信された引継ぎデータリストを利用者IDごとに格納(登録)する。 The takeover data list database DB6 stores (registers) the takeover data list transmitted from the wireless terminal device P2 for each user ID.

次に、図35を参照して、操作端末P3の内部構成例について説明する。図35は、実施の形態3における操作端末P3の内部構成例を示すブロック図である。 Next, with reference to FIG. 35, an example of the internal configuration of the operating terminal P3 will be described. FIG. 35 is a block diagram showing an example of the internal configuration of operating terminal P3 in the third embodiment.

操作端末P3は、通信部61と、プロセッサ62と、メモリ63と、表示部64と、入力部65と、利用者データベースDB7とを含んで構成される。なお、利用者データベースDB7は、必須の構成でなく、省略されてよい。 The operation terminal P3 includes a communication section 61, a processor 62, a memory 63, a display section 64, an input section 65, and a user database DB7. Note that the user database DB7 is not an essential configuration and may be omitted.

通信部61は、ネットワークNWを介して、車両C2A,…のそれぞれと、運転特性改善サーバS4との間でデータの送受信を実行する送信回路と受信回路とを備える。また、通信部61は、USBメモリ,SDカード等の外部記憶媒体EMとの間でデータの送受信を実行する送信回路と受信回路とを備える。 The communication unit 61 includes a transmitting circuit and a receiving circuit that transmit and receive data between each of the vehicles C2A, . . . and the driving characteristic improvement server S4 via the network NW. Further, the communication unit 61 includes a transmitting circuit and a receiving circuit that transmit and receive data to and from an external storage medium EM such as a USB memory or an SD card.

プロセッサ62は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ62は、メモリ63と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ62は、メモリ63に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。 The processor 62 is configured using, for example, a CPU, a DSP, or an FPGA, and controls the operations of each section. The processor 62 cooperates with the memory 63 to perform various types of processing and control in an integrated manner. Specifically, the processor 62 references programs and data held in the memory 63 and executes the programs to realize the functions of each section.

メモリ63は、例えばプロセッサ62の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ62の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ62により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ62の動作を規定するプログラムが書き込まれている。 The memory 63 includes, for example, a RAM as a work memory used when the processor 62 executes each process, and a ROM that stores programs and data that define the operations of the processor 62. Data or information generated or acquired by the processor 62 is temporarily stored in the RAM. A program that defines the operation of the processor 62 is written in the ROM.

表示部64は、例えばLCDもしくは有機ELを用いて構成され、複数の車両C2A,…間における運転者の引継ぎデータの引き継ぎを行うための各種画面を表示する。例えば、表示部64は、引継ぎデータの引き継ぎ対象となる運転者を選択(指定)可能な選択画面(不図示),引継ぎデータの引継ぎ先(つまり、乗り換え先)の車両を選択(指定)可能な選択画面(不図示)等を表示する。 The display unit 64 is configured using, for example, an LCD or an organic EL, and displays various screens for handing over the driver handover data between the plurality of vehicles C2A, . . . . For example, the display unit 64 displays a selection screen (not shown) on which a driver to whom the handover data is to be transferred can be selected (designated), a vehicle to which the handover data is to be transferred (that is, a transfer destination) can be selected (designated) A selection screen (not shown), etc. is displayed.

入力部65は、例えば、キーボード,マウス,タッチパネル等により実現され、管理者操作を受け付ける。入力部65は、受け付けた管理者操作を電気信号に変換して、プロセッサ62に出力する。なお、入力部65は、表示部64と一体的に構成されたユーザインタフェースであってもよい。 The input unit 65 is realized by, for example, a keyboard, a mouse, a touch panel, etc., and accepts administrator operations. The input unit 65 converts the received administrator operation into an electrical signal and outputs it to the processor 62. Note that the input section 65 may be a user interface configured integrally with the display section 64.

利用者データベースDB7は、引継ぎデータの引き継ぎ対象となる運転者の個人情報あるいは利用者IDを運転者ごとに格納(登録)する。なお、利用者データベースDB7は必須でなく、省略されてよいし、操作端末P3と別体で構成されてもよい。 The user database DB7 stores (registers) personal information or user IDs of drivers who are targets of handover data for each driver. Note that the user database DB7 is not essential and may be omitted, or may be configured separately from the operating terminal P3.

利用者データベースDB7が省略される場合、管理者は、運転者を利用者ID以外の個人情報(例えば、免許証ID,運転者に関する情報(氏名,年齢,生年月日等),運転者を特定可能に割り当てられた各種番号等)を入力部65に入力することで、引継ぎデータの引き継ぎ対象となる運転者の指定(特定)を行ってよい。 If the user database DB7 is omitted, the administrator may identify the driver by personal information other than the user ID (e.g., driver's license ID, information about the driver (name, age, date of birth, etc.), The driver to whom the handover data is to be taken over may be designated (specified) by inputting various numbers, etc. that are assigned to the driver into the input unit 65.

外部記憶媒体EMは、例えば、USBメモリ,SDカード等であって、引継ぎデータを記録可能な記憶媒体である。外部記憶媒体EMは、操作端末P3から送信された引継ぎデータを運転者ごとに記録(書き出し)したり、記録済みの引継ぎデータを操作端末P3に読み出したりする。 The external storage medium EM is, for example, a USB memory, an SD card, or the like, and is a storage medium that can record inherited data. The external storage medium EM records (writes out) the handover data transmitted from the operating terminal P3 for each driver, and reads out the recorded handover data to the operating terminal P3.

次に、図36を参照して、運転特性改善サーバS4により記録される個人情報/個人特性データテーブルTB7について説明する。図36は、個人情報/個人特性データテーブルTB7の一例について説明する図である。 Next, with reference to FIG. 36, the personal information/personal characteristic data table TB7 recorded by the driving characteristic improvement server S4 will be explained. FIG. 36 is a diagram illustrating an example of the personal information/personal characteristics data table TB7.

個人情報/個人特性データテーブルTB7は、車両IDと、車両IDに対応する車両により取得された個人情報および個人特性データとを、利用者IDに紐付けて記録し、管理する。なお、利用者IDは、免許証IDであってもよい。 The personal information/personal characteristic data table TB7 records and manages a vehicle ID and personal information and personal characteristic data acquired by the vehicle corresponding to the vehicle ID in association with a user ID. Note that the user ID may be a driver's license ID.

例えば、図36に示す個人情報/個人特性データテーブルTB7は、利用者ID「AAA」に車両ID「〇〇〇」,「○○△」,「〇△△」と、車両ID「〇〇〇」,「○○△」,「〇△△」のそれぞれに対応する車両で取得された個人情報および個人特性データとを紐付け、利用者ID「BBB」に、車両ID「△△△」と、車両ID「△△△」に対応する車両で取得された個人情報および個人特性データとを紐付け、利用者ID「CCC」に、車両ID「×××」と、車両ID「×××」に対応する車両で取得された個人情報および個人特性データとを紐付けて、それぞれ記録する。これにより、個人情報/個人特性データテーブルTB7は、1人の運転者が異なる複数の車両を運転する場合であっても、運転者の個人情報および個人特性データの管理を効率的に実行できる。 For example, the personal information/personal characteristics data table TB7 shown in FIG. ”, “○○△”, and “〇△△” are linked with the personal information and personal characteristic data acquired by the vehicle, and the user ID “BBB” is assigned the vehicle ID “△△△”. , the personal information and personal characteristic data acquired by the vehicle corresponding to the vehicle ID "△△△" are linked, and the user ID "CCC" is associated with the vehicle ID "XXXX" and the vehicle ID "XXXX". Personal information and personal characteristic data obtained from vehicles corresponding to `` are linked and recorded. Thereby, the personal information/personal characteristic data table TB7 can efficiently manage the personal information and personal characteristic data of the driver even when one driver drives a plurality of different vehicles.

図37を参照して、実施の形態3に係る運転特性改善支援システム300による引継ぎ手順例1について説明する。図37は、実施の形態3に係る運転特性改善支援システム300の運転者の引継ぎデータの引継ぎ手順例1を示すシーケンス図である。ここでいう引継ぎデータの引継ぎ手順例1は、無線端末装置P2、車両C2A,…、および運転特性改善サーバS4のそれぞれにより実行される引継ぎデータの引継ぎ手順である。 Referring to FIG. 37, a first example of a handover procedure by the driving characteristic improvement support system 300 according to the third embodiment will be described. FIG. 37 is a sequence diagram illustrating a first example of a procedure for handing over data of a driver in the driving characteristic improvement support system 300 according to the third embodiment. The handover data handover procedure example 1 referred to here is a handover data handover procedure executed by each of the wireless terminal device P2, the vehicle C2A, . . . , and the driving characteristic improvement server S4.

なお、以降の説明では、車両C2A,C2Bのそれぞれで図5に示す運転者の初期登録処理(ステップSt101~ステップSt111)が完了している例について説明する。 In the following description, an example will be described in which the driver initial registration process (steps St101 to St111) shown in FIG. 5 has been completed in each of the vehicles C2A and C2B.

また、図37に示す運転者の個人情報データおよび個人特性データの引継ぎ手順例1では、運転特性改善サーバS4が人工知能の再学習(アップデート)を実行する例について説明するが、これに限定されない。人工知能の再学習(アップデート)は、各車両C2A,C2Bで実行されてよい。このような場合、各車両C2A,C2Bは、運転特性改善サーバS4から送信された引継ぎデータを用いて、人工知能の再学習(アップデート)を実行する。 Furthermore, in the first example of the procedure for handing over the driver's personal information data and personal characteristic data shown in FIG. 37, an example will be described in which the driving characteristic improvement server S4 executes relearning (updating) of the artificial intelligence; however, the present invention is not limited to this. . Relearning (updating) of the artificial intelligence may be performed in each vehicle C2A, C2B. In such a case, each vehicle C2A, C2B executes relearning (update) of the artificial intelligence using the takeover data transmitted from the driving characteristic improvement server S4.

無線端末装置P2は、運転者あるいは運転者の親族等による入力操作を受け付け、引継ぎデータリストTB9(図39参照)を生成し(St401)、車両C2Aに送信する(St402)。なお、図37では、一例として引継ぎデータリストTB9を車両C2Aに送信する例を示すが、無線端末装置P2は、同一の引継ぎデータリストTB9を運転特性改善サーバS4に送信してもよい。また、引継ぎデータリストTB9は、車両C2Aに送信された後、車両C2Aにより運転特性改善サーバS4にさらに送信されてもよいし、運転特性改善サーバS4に送信された後、運転特性改善サーバS4により車両C2Aにさらに送信されてもよい。 The wireless terminal device P2 receives an input operation by the driver or a relative of the driver, generates a takeover data list TB9 (see FIG. 39) (St401), and transmits it to the vehicle C2A (St402). Although FIG. 37 shows an example in which the handover data list TB9 is transmitted to the vehicle C2A, the wireless terminal device P2 may transmit the same handover data list TB9 to the driving characteristic improvement server S4. Further, after being transmitted to the vehicle C2A, the handover data list TB9 may be further transmitted by the vehicle C2A to the driving characteristic improvement server S4, or after being transmitted to the driving characteristic improvement server S4, the handover data list TB9 may be transmitted to the driving characteristic improvement server S4. It may also be sent to vehicle C2A.

運転特性改善支援システム300は、車両C2Aと、運転特性サーバS1の機能を実現可能な運転特性改善サーバS4との間で、図14に示す運転者認証処理(ステップSt301~ステップSt312)を実行する。 The driving characteristic improvement support system 300 executes the driver authentication process (Steps St301 to Step St312) shown in FIG. 14 between the vehicle C2A and the driving characteristic improvement server S4 that can implement the functions of the driving characteristic server S1. .

運転特性改善支援システム300は、運転者の認証が完了した後、車両C2Aと、運転特性改善サーバS3の機能を実現可能な運転特性改善サーバS4との間で、図30および図31のそれぞれに示す運転特性改善処理(ステップSt51~ステップSt63)を実行する。なお、図37に示す例では、図示を省略しているが、運転特性改善処理は、前回の運転時の運転者の個人情報および個人特性データ(引継ぎデータ)を学習データとする学習を実行して得られる人工知能「A´」を用いて実行されてよい。 After the driver authentication is completed, the driving characteristic improvement support system 300 performs the operations shown in FIGS. 30 and 31 between the vehicle C2A and the driving characteristic improvement server S4 that can implement the functions of the driving characteristic improvement server S3. The driving characteristic improvement process (steps St51 to St63) shown in FIG. Although not shown in the example shown in FIG. 37, the driving characteristic improvement process executes learning using the driver's personal information and personal characteristic data (handover data) from the previous driving as learning data. It may be executed using artificial intelligence "A'" obtained by

また、実施の形態3における人工知能を用いた運転特性改善支援において、車両C2Aは、さらに運転者の個人情報に含まれる生活情報(例えば、睡眠情報)を用いた運転特性改善支援を実行してよい。例えば、車両C2Aは、人工知能「A´」を用いて、無線端末装置P2から運転者の個人情報である睡眠情報(例えば、就寝時刻,起床時刻,呼吸数,睡眠の質等)を取得した場合、運転者の睡眠に関する評価を実行する。車両C2Aは、評価の結果、運転者が睡眠不足であると判定した場合、運転中の運転特性改善支援の実行タイミングをより早くすることで、運転者の体調に適した運転特性改善支援を実行する。 Furthermore, in the driving characteristic improvement support using artificial intelligence in the third embodiment, the vehicle C2A further performs driving characteristic improvement support using lifestyle information (for example, sleep information) included in the driver's personal information. good. For example, vehicle C2A uses artificial intelligence "A'" to acquire sleep information (e.g., bedtime, wake-up time, breathing rate, sleep quality, etc.), which is the driver's personal information, from wireless terminal device P2. perform an assessment of the driver's sleep. If the vehicle C2A determines that the driver is sleep deprived as a result of the evaluation, the vehicle C2A executes driving characteristic improvement support that is appropriate for the driver's physical condition by speeding up the execution timing of driving characteristic improvement support during driving. do.

車両C2Aは、運転者による運転終了を検知したタイミングで、利用者IDと、車両IDと、今回の運転で取得された運転者の新たな個人情報および個人特性データとを紐付けて運転特性改善サーバS4に送信する(St403)。なお、データの送信タイミングは、定期的(例えば、30分,1時間等)に実行されてもよいし、上述したように運転終了のタイミングに実行されてもよい。 When the vehicle C2A detects that the driver has finished driving, it improves driving characteristics by linking the user ID, vehicle ID, and new personal information and personal characteristic data of the driver acquired during the current driving. It is transmitted to server S4 (St403). Note that the data transmission timing may be executed periodically (for example, every 30 minutes, one hour, etc.), or may be executed at the timing of the end of driving as described above.

運転特性改善サーバS4は、車両C2Aから送信された新たな個人情報および個人特性データを、利用者IDおよび車両IDに基づいて、個人情報/個人特性データベースDB5に格納(登録)する(St404)。また、運転特性改善サーバS4は、車両C2Aの現在の人工知能「A´」に、新たな個人情報および個人特性データを学習データとする再学習(アップデート)を実行して、人工知能「A´´」を生成する(St404)。運転特性改善サーバS4は、車両C2Aの車両IDと、車両C2Aを運転する利用者IDと、生成された人工知能「A´´」と紐付けて改善効果学習モデル53Bに格納(登録)するとともに、車両C2Aに送信する(St405)。 The driving characteristic improvement server S4 stores (registers) new personal information and personal characteristic data transmitted from the vehicle C2A in the personal information/personal characteristic database DB5 based on the user ID and vehicle ID (St404). In addition, the driving characteristics improvement server S4 performs relearning (update) on the current artificial intelligence "A'" of the vehicle C2A using new personal information and personal characteristic data as learning data, and updates the current artificial intelligence "A'" of the vehicle C2A to '' is generated (St404). The driving characteristic improvement server S4 stores (registers) the vehicle ID of the vehicle C2A, the ID of the user who drives the vehicle C2A, and the generated artificial intelligence "A'' in the improvement effect learning model 53B. , is transmitted to vehicle C2A (St405).

車両C2Aは、運転特性改善サーバS4から送信された人工知能「A´´」をメモリ15Bに記録する。 The vehicle C2A records the artificial intelligence "A''" transmitted from the driving characteristic improvement server S4 in the memory 15B.

ここで、運転者が、マイカー買い替え、シェアカーの利用等により車両C2Aから車両C2Bへ乗り換えた場合の運転特性改善支援処理について説明する。なお、運転者が仮運転免許証での路上練習において指導者として同乗する場合等、運転特性改善支援システム300は、車両C2Aの運転者が車両C2Bの同乗者として乗車していると判定した場合、同乗者である運転者への運転特性改善支援処理を実行してもよい。 Here, a description will be given of driving characteristic improvement support processing when a driver changes from vehicle C2A to vehicle C2B due to purchasing a private car, using a shared car, or the like. Note that when the driving characteristic improvement support system 300 determines that the driver of vehicle C2A is riding as a passenger in vehicle C2B, such as when the driver rides together as an instructor during road practice with a provisional driving license, etc. , a driving characteristic improvement support process may be executed for the driver who is a fellow passenger.

運転特性改善支援システム300は、車両C2Bと、運転特性サーバS1の機能を実現可能な運転特性改善サーバS4との間で、図14に示す運転者認証処理(ステップSt301~ステップSt312)を実行する。 The driving characteristic improvement support system 300 executes the driver authentication process (Steps St301 to Step St312) shown in FIG. 14 between the vehicle C2B and the driving characteristic improvement server S4 that can realize the functions of the driving characteristic server S1. .

運転特性改善サーバS4は、車両C2Bから送信された利用者ID(運転者の生体情報,免許証情報等)および車両IDに基づいて、引継ぎデータリストデータベースDB6を参照する。運転特性改善サーバS4は、この利用者IDに対応する運転者の引継ぎデータリストTB9(図39参照)に基づいて、個人情報/個人特性データベースDB5から車両C2Aから車両C2Bに引継ぎ可能な運転者の引継ぎデータを抽出する。 The driving characteristic improvement server S4 refers to the takeover data list database DB6 based on the user ID (driver's biometric information, license information, etc.) and vehicle ID transmitted from the vehicle C2B. Based on the driver transfer data list TB9 (see FIG. 39) corresponding to this user ID, the driving characteristic improvement server S4 searches the personal information/personal characteristic database DB5 for information on drivers who can be transferred from the vehicle C2A to the vehicle C2B. Extract the inherited data.

運転特性改善サーバS4は、車両C2Bのベース人工知能「B」に、抽出された引継ぎデータを学習データとする再学習(アップデート)を実行して、人工知能「B´」を生成する(St406)。運転特性改善サーバS4は、車両C2Aの車両IDと、車両C2Aを運転する利用者IDと、生成された人工知能「B´」とを紐付けて改善効果学習モデル53Bに格納(登録)するとともに、車両C2Bに送信する(St407)。 The driving characteristic improvement server S4 performs relearning (update) on the base artificial intelligence "B" of the vehicle C2B using the extracted takeover data as learning data to generate the artificial intelligence "B'" (St406). . The driving characteristic improvement server S4 associates the vehicle ID of the vehicle C2A, the user ID driving the vehicle C2A, and the generated artificial intelligence "B'" and stores (registers) them in the improvement effect learning model 53B. , is transmitted to vehicle C2B (St407).

車両C2Bは、運転特性改善サーバS4から送信された人工知能「B´」をメモリ15Bに記録するとともに、運転者の運転特性改善支援を開始する。 Vehicle C2B records the artificial intelligence "B'" transmitted from driving characteristic improvement server S4 in memory 15B, and starts supporting the driver's driving characteristic improvement.

以上により、実施の形態3に係る運転特性改善支援システム300は、運転者が異なる複数の車両を運転する場合であっても、運転者が最後に運転した車両C2Aで取得された運転者の引継ぎデータを用いた学習により生成された人工知能「B´」に基づいて、車両C2Bでも車両C2Aと同様あるいは類似する運転特性改善支援を実行できる。また、運転特性改善支援システム300は、各車両C2A,C2Bで人工知能の再学習(アップデート)が可能である場合には、車両C2Aで取得された運転者の引継ぎデータを最新の車両C2Bに引き継ぐことで、車両C2Bでも車両C2Aと同様あるいは類似する運転特性改善支援を実行できる。 As described above, the driving characteristic improvement support system 300 according to the third embodiment can transfer the driver's handover obtained from the vehicle C2A that the driver last drove, even when the driver drives a plurality of different vehicles. Based on the artificial intelligence "B'" generated by learning using data, vehicle C2B can also perform driving characteristic improvement support similar to or similar to vehicle C2A. In addition, if relearning (updating) of artificial intelligence is possible in each vehicle C2A and C2B, the driving characteristic improvement support system 300 transfers the driver handover data acquired in vehicle C2A to the latest vehicle C2B. As a result, driving characteristic improvement support similar to or similar to that of vehicle C2A can be performed in vehicle C2B as well.

また、運転特性改善支援システム300は、運転者が異なる複数の車両間で引き継ぎを希望する引継ぎデータ(個人情報および個人特性データ)を選定した引継ぎデータリストに基づいて、引継ぎデータの抽出および引き継ぎ処理を実行する。よって、運転特性改善支援システム300は、運転者が希望しない個人情報および個人特性データの引き継ぎ(共通)を防止することで運転者の個人情報を保護するとともに、異なる車両における運転者により適した運転特性改善支援を実現できる。 The driving characteristic improvement support system 300 also extracts and processes transfer data based on a transfer data list in which transfer data (personal information and personal characteristic data) desired to be transferred between multiple vehicles with different drivers is selected. Execute. Therefore, the driving characteristic improvement support system 300 protects the driver's personal information by preventing the transfer (common) of personal information and personal characteristic data that the driver does not desire, and also allows the driver to drive in a different vehicle in a way that is more suitable for the driver. Characteristic improvement support can be realized.

図38を参照して、実施の形態3に係る運転特性改善支援システム300による引継ぎ手順例2について説明する。図38は、実施の形態3に係る運転特性改善支援システム300の運転者の引継ぎデータの引継ぎ手順例2を示すシーケンス図である。ここでいう引継ぎデータの引継ぎ手順例2は、管理者操作により実行され、操作端末P3、車両C2A,…、および運転特性改善サーバS4のそれぞれにより実行される引継ぎデータの引継ぎ手順である。 Referring to FIG. 38, a second example of the handover procedure by the driving characteristic improvement support system 300 according to the third embodiment will be described. FIG. 38 is a sequence diagram illustrating a second example of the handover procedure for driver handover data of the driving characteristic improvement support system 300 according to the third embodiment. The second example of the handover data handover procedure referred to herein is a handover data handover procedure executed by the administrator's operation and executed by each of the operating terminal P3, the vehicle C2A, . . . , and the driving characteristic improvement server S4.

なお、以降の説明では、車両C2A,C2Bのそれぞれで図5に示す運転者の初期登録処理(ステップSt101~ステップSt111)が完了している例について説明する。 In the following description, an example will be described in which the driver initial registration process (steps St101 to St111) shown in FIG. 5 has been completed in each of the vehicles C2A and C2B.

なお、以降の説明では、図37に示す引継ぎデータリストTB9の生成処理(ステップSt401)と、運転特性改善サーバS4への引継ぎデータリストTB9の登録処理(ステップSt402)とが完了している例について説明する。 In the following description, an example will be described in which the generation process of the takeover data list TB9 shown in FIG. 37 (step St401) and the registration process of the takeover data list TB9 to the driving characteristic improvement server S4 (step St402) have been completed. explain.

操作端末P3は、管理者により車両C2Aと車両C2Bとの間における運転者の引継ぎデータの引き継ぎを開始する操作を受け付ける(St501)。操作端末P3は、引継ぎデータ(個人情報および個人特性データ)の送信を要求する制御指令を生成して、車両C2Aに送信する(St502)。 The operation terminal P3 receives an operation by the administrator to start handing over the driver's handover data between the vehicle C2A and the vehicle C2B (St501). The operating terminal P3 generates a control command requesting the transmission of takeover data (personal information and personal characteristic data) and transmits it to the vehicle C2A (St502).

車両C2Aは、送信された制御指令に基づいて、無線端末装置P2から事前に送信され、メモリ15Bに記録された引継ぎデータリストTB9を参照する(St503)。車両C2Aは、引継ぎデータリストTB9に基づいて、引継ぎデータを抽出し、操作端末P3に送信する(St504)。 Based on the transmitted control command, the vehicle C2A refers to the takeover data list TB9 transmitted in advance from the wireless terminal device P2 and recorded in the memory 15B (St503). The vehicle C2A extracts the handover data based on the handover data list TB9 and transmits it to the operation terminal P3 (St504).

操作端末P3は、車両C2Aから送信された引継ぎデータを取得する。操作端末P3は、管理者操作に基づいて、取得された引継ぎデータを外部記憶媒体EM(例えば、USBメモリ,SDカード等,図39参照)に書き出す(St505)。 Operation terminal P3 acquires the handover data transmitted from vehicle C2A. The operation terminal P3 writes the acquired takeover data to the external storage medium EM (eg, USB memory, SD card, etc., see FIG. 39) based on the administrator's operation (St505).

操作端末P3は、車両C2Bのベース人工知能「B」を、運転者の運転改善支援を実行可能な人工知能「B´」に再学習(アップデート)させる管理者操作を受け付ける(St506)。操作端末P3は、車両C2Bを運転する運転者の引継ぎデータを外部記憶媒体EMから読み出す(St507)。操作端末P3は、車両C2Bのベース人工知能「B」の再学習(アップデート)を要求する制御指令を生成し、生成された制御指令と、運転者の利用者IDと、運転者の引継ぎデータとを対応付けて車両C2Bに送信する(St508)。 The operating terminal P3 accepts an administrator operation to relearn (update) the base artificial intelligence "B" of the vehicle C2B to an artificial intelligence "B'" capable of supporting the driver's driving improvement (St506). The operating terminal P3 reads the handover data of the driver who drives the vehicle C2B from the external storage medium EM (St507). The operation terminal P3 generates a control command requesting relearning (update) of the base artificial intelligence "B" of the vehicle C2B, and updates the generated control command, the driver's user ID, and the driver's takeover data. are associated with each other and transmitted to vehicle C2B (St508).

車両C2Bは、操作端末P3から送信された制御指令に基づいて、車両C2Bのベース人工知能「B」の再学習(アップデート)を要求する制御指令を生成し、取得された運転者の利用者IDと、運転者の引継ぎデータとを対応付けて運転特性改善サーバS4に送信する(St509)。 Based on the control command transmitted from the operation terminal P3, the vehicle C2B generates a control command requesting relearning (update) of the base artificial intelligence "B" of the vehicle C2B, and uses the acquired user ID of the driver. and the driver's handover data are associated with each other and transmitted to the driving characteristic improvement server S4 (St509).

運転特性改善サーバS4は、車両C2Bから送信された制御指令に基づいて、車両C2Bのベース人工知能「B」に、取得された運転者の引継ぎデータを学習データとする再学習(アップデート)を実行して、人工知能「B´」を生成する(St510)。運転特性改善サーバS4は、生成された人工知能「B´」を車両C2Bに送信する(St511)。なお、運転特性改善サーバS4は、生成された人工知能「B´」と、利用者IDとを紐付けて改善効果学習モデル53Bに格納(登録)してもよい。 Based on the control command sent from the vehicle C2B, the driving characteristics improvement server S4 performs relearning (update) on the base artificial intelligence "B" of the vehicle C2B using the acquired driver takeover data as learning data. Then, artificial intelligence "B'" is generated (St510). The driving characteristic improvement server S4 transmits the generated artificial intelligence "B'" to the vehicle C2B (St511). Note that the driving characteristic improvement server S4 may store (register) the generated artificial intelligence "B'" in association with the user ID in the improvement effect learning model 53B.

車両C2Bは、運転特性改善サーバS4から送信された人工知能「B´」を取得し、メモリ15Bに記録し(St513)、人工知能「B´」への再学習(アップデート)の完了通知を生成して操作端末P3に送信する(St513)。 The vehicle C2B acquires the artificial intelligence "B'" sent from the driving characteristics improvement server S4, records it in the memory 15B (St513), and generates a notification of completion of relearning (update) to the artificial intelligence "B'". and transmits it to the operating terminal P3 (St513).

以上により、実施の形態3に係る運転特性改善支援システム300は、管理者による外部記憶媒体EMを用いた引継ぎデータの引継ぎによって、車両C2Bであっても車両C2Aと同様の運転特性改善支援を実行できる。 As described above, the driving characteristic improvement support system 300 according to the third embodiment executes the same driving characteristic improvement support for vehicle C2B as for vehicle C2A by taking over the data taken over by the administrator using external storage medium EM. can.

以上により、実施の形態3に係る運転特性改善支援システム300は、運転者が異なる複数の車両を運転する場合であっても、外部記憶媒体EMを用いて運転者が最後に運転した車両C2Aで取得された運転者の引継ぎデータを車両C2Bに引き継ぐことができる。 As described above, the driving characteristic improvement support system 300 according to the third embodiment uses the external storage medium EM to select the vehicle C2A that the driver last drove, even when the driver drives a plurality of different vehicles. The acquired driver handover data can be taken over to the vehicle C2B.

また、運転特性改善支援システム300は、管理者による指示(操作)に基づいて、運転者が異なる複数の車両間で引き継ぎを希望する引継ぎデータ(個人情報および個人特性データ)を選定した引継ぎデータリストに基づいて、引継ぎデータの抽出および引き継ぎ処理が実行する。よって、運転特性改善支援システム300は、運転者が希望しない個人情報および個人特性データの引き継ぎ(共通)を防止することで運転者の個人情報を保護するとともに、異なる車両における運転者により適した運転特性改善支援を実現できる。 The driving characteristic improvement support system 300 also provides a transfer data list in which transfer data (personal information and personal characteristic data) desired to be transferred between multiple vehicles with different drivers is selected based on instructions (operations) by the administrator. Based on this, extraction of the transfer data and transfer processing are executed. Therefore, the driving characteristic improvement support system 300 protects the driver's personal information by preventing the transfer (common) of personal information and personal characteristic data that the driver does not desire, and also allows the driver to drive in a different vehicle in a way that is more suitable for the driver. Characteristic improvement support can be realized.

図39を参照して、図37に示す引継ぎ手順例1に対応し、運転特性改善サーバS4を介して実行される引継ぎデータの引継ぎ例1と、図38に示す引継ぎ手順例2に対応し、外部記憶媒体EMを介して実行される引継ぎデータの引継ぎ例2とについて説明する。図39は、運転者の引継ぎデータの引き継ぎ例1,2を説明する図である。 Referring to FIG. 39, corresponding to the handover procedure example 1 shown in FIG. 37, the handover data handover example 1 executed via the driving characteristic improvement server S4, and the handover procedure example 2 shown in FIG. 38, A second example of handover data executed via external storage medium EM will be described. FIG. 39 is a diagram illustrating handover examples 1 and 2 of driver handover data.

引継ぎデータリストTB8は、今回の運転により車両C2Aにより取得された各個人情報および個人特性データと、これらの個人情報および個人特性データのそれぞれを他の車両(ここでは、車両C2B)へ引き継ぎ可能であるか否かの情報とを対応付けたテーブルである。 The transfer data list TB8 includes each personal information and personal characteristic data acquired by the vehicle C2A during the current driving, and each of these personal information and personal characteristic data that can be transferred to another vehicle (here, the vehicle C2B). This is a table that associates information on whether or not the information exists.

引継ぎデータリストTB9は、運転で車両C2Aにより取得された各個人情報および個人特性データと、これらの個人情報および個人特性データのそれぞれを車両C2Bへ引き継ぎ可能であるか否かの情報とを対応付けたテーブルである。 The transfer data list TB9 associates each personal information and personal characteristic data acquired by the vehicle C2A during driving with information as to whether each of these personal information and personal characteristic data can be transferred to the vehicle C2B. It is a table.

個人情報/個人特性データテーブルTB10は、運転特性改善サーバS4により車両C2Aへ引き継がれた運転者の個人情報/個人特性データを示す。 The personal information/personal characteristic data table TB10 shows the driver's personal information/personal characteristic data handed over to the vehicle C2A by the driving characteristic improvement server S4.

まず、引継ぎデータの引継ぎ例1について説明する。 First, a first example of handing over data will be described.

車両C2Aは、運転者による運転開始のタイミングから運転終了のタイミングまでの間に無線端末装置P2から取得された運転者の個人情報「AA」と、個人特性データ「AAAA」,「BBBB」,「CCCC」,「DDDD」,「EEEE」のそれぞれとを取得する。車両C2Aは、メモリ15Bに記録された引継ぎデータリストに基づいて、引継ぎデータリストTB8から運転特性改善サーバS4に引き継ぎ可能な個人情報「AA」と、個人特性データ「AAAA」,「BBBB」,「EEEE」のそれぞれとを抽出して、運転特性改善サーバS4に送信する。 The vehicle C2A stores the driver's personal information "AA" acquired from the wireless terminal device P2 between the time when the driver starts driving and the time when the driver ends driving, and the personal characteristic data "AAAA", "BBBB", " ``CCCC'', ``DDDD'', and ``EEEE''. Based on the transfer data list recorded in the memory 15B, the vehicle C2A selects the personal information "AA" that can be transferred from the transfer data list TB8 to the driving characteristic improvement server S4, and the personal characteristic data "AAAA", "BBBB", " EEEE" and transmitted to the driving characteristic improvement server S4.

運転特性改善サーバS4は、引継ぎデータリストTB9から、車両C2Aから車両C2Bへ引き継ぎ可能な個人情報「AA」と、個人特性データ「AAAA」,「EEEE」,「XXXX」とを抽出して、車両C2Bに送信する。 The driving characteristics improvement server S4 extracts personal information "AA" that can be transferred from the vehicle C2A to the vehicle C2B, and personal characteristic data "AAAA", "EEEE", and "XXXX" from the transfer data list TB9, and Send to C2B.

車両C2Bは、運転特性改善サーバS4から送信された個人情報「AA」と、個人特性データ「AAAA」,「EEEE」,「XXXX」とを学習データとして、ベース人工知能「B」の再学習(アップデート)を実行し、人工知能「B´」を生成する。車両C2Bは、生成された人工知能「B´」を用いて、運転者の運転特性改善支援を実行する。 The vehicle C2B uses the personal information "AA" sent from the driving characteristic improvement server S4 and the personal characteristic data "AAAA", "EEEE", and "XXXX" as learning data to relearn the base artificial intelligence "B" ( update) and generates artificial intelligence "B'". Vehicle C2B uses the generated artificial intelligence "B'" to support the improvement of the driver's driving characteristics.

なお、図39では、説明を分かりやすくするために引継ぎデータリストTB8,TB9と、個人情報/個人特性データテーブルTB10とを用いて、車両C2Aと車両C2Bとの間で引き継がれる引継ぎデータ(個人情報あるいは個人特性データ)について具体的に説明するが、引継ぎデータリストTB8,TB9あるいは個人情報/個人特性データテーブルTB10の生成は必須でなく、省略されてよいことは言うまでもない。 In addition, in FIG. 39, in order to make the explanation easier to understand, the handover data (personal information (or personal characteristic data) will be specifically explained, but it goes without saying that generation of the transfer data lists TB8, TB9 or the personal information/personal characteristic data table TB10 is not essential and may be omitted.

また、図39では、車両C2A、および運転特性改善サーバS4は、それぞれ異なる引継ぎデータリストを有する例について説明した。このような場合、車両C2Aは、無線端末装置P2から事前に送信され、メモリ15Bに記録された引継ぎデータリストに基づいて、引継ぎデータを抽出して、運転特性改善サーバS4に送信する。また、運転特性改善サーバS4は、車両C2Aが有する引継ぎデータリストと異なる引継ぎデータリストに基づいて、車両C2Bへ引き継がれる引継ぎデータを抽出する。 Further, in FIG. 39, an example has been described in which the vehicle C2A and the driving characteristic improvement server S4 each have different takeover data lists. In such a case, the vehicle C2A extracts the takeover data based on the takeover data list transmitted in advance from the wireless terminal device P2 and recorded in the memory 15B, and sends it to the driving characteristic improvement server S4. Further, the driving characteristic improvement server S4 extracts the takeover data to be taken over to the vehicle C2B based on a takeover data list different from the takeover data list possessed by the vehicle C2A.

次に、引継ぎデータの引継ぎ例2について説明する。 Next, a second example of handing over data will be described.

車両C2Aは、運転者による運転開始のタイミングから運転終了のタイミングまでの間に無線端末装置P2から取得された運転者の個人情報「AA」と、個人特性データ「AAAA」,「BBBB」,「CCCC」,「DDDD」,「EEEE」のそれぞれとを取得する。車両C2Aは、操作端末P3から送信された制御指令に基づいて、引継ぎデータリストTB8から車両C2Bに引き継ぎ可能な個人情報「AA」と、個人特性データ「AAAA」,「BBBB」,「EEEE」のそれぞれとを抽出して、操作端末P3に送信する。 The vehicle C2A stores the driver's personal information "AA" acquired from the wireless terminal device P2 between the time when the driver starts driving and the time when the driver ends driving, and the personal characteristic data "AAAA", "BBBB", " ``CCCC'', ``DDDD'', and ``EEEE''. Based on the control command transmitted from the operation terminal P3, the vehicle C2A selects personal information "AA" that can be transferred to the vehicle C2B from the transfer data list TB8, and personal characteristic data "AAAA", "BBBB", and "EEEE". Each is extracted and transmitted to the operating terminal P3.

操作端末P3は、管理者操作に基づいて、車両C2Bに引き継ぎ可能な個人情報「AA」と、個人特性データ「AAAA」,「BBBB」,「EEEE」のそれぞれとを外部記憶媒体EMに書き込む。また、操作端末P3は、管理者操作に基づいて、外部記憶媒体EMに書き出された個人情報「AA」と、個人特性データ「AAAA」,「BBBB」,「EEEE」のそれぞれとを読み取り、車両C2Bに送信する。 The operating terminal P3 writes personal information "AA" that can be taken over to the vehicle C2B and personal characteristic data "AAAA", "BBBB", and "EEEE" into the external storage medium EM based on the administrator's operation. In addition, the operation terminal P3 reads the personal information "AA" written to the external storage medium EM and the personal characteristic data "AAAA", "BBBB", "EEEE", respectively, based on the administrator's operation, Send to vehicle C2B.

車両C2Bは、操作端末P3から送信された個人情報「AA」と、個人特性データ「AAAA」,「EEEE」,「XXXX」とを取得する。車両C2Bは、ベース人工知能「B」の再学習(アップデート)を要求する制御指令と、ベース人工知能「B」の再学習に用いられる個人情報「AA」と、個人特性データ「AAAA」,「BBBB」,「EEEE」のそれぞれとを運転特性改善サーバS4に送信する。 Vehicle C2B acquires personal information "AA" and personal characteristic data "AAAA", "EEEE", and "XXXX" transmitted from operation terminal P3. Vehicle C2B receives a control command requesting relearning (update) of base artificial intelligence "B", personal information "AA" used for relearning base artificial intelligence "B", and personal characteristic data "AAAA", " BBBB" and "EEEE" are transmitted to the driving characteristic improvement server S4.

運転特性改善サーバS4は、車両C2Bから送信された制御指令に基づいて、個人情報「AA」と、個人特性データ「AAAA」,「BBBB」,「EEEE」のそれぞれを学習データとするベース人工知能「B」の再学習(アップデート)を実行し、人工知能「B´」を生成する。運転特性改善サーバS4は、再学習により生成された人工知能「B´」を車両C2Bに送信する。 The driving characteristic improvement server S4 is based on the control command sent from the vehicle C2B, and is based on artificial intelligence that uses the personal information "AA" and the personal characteristic data "AAAA", "BBBB", and "EEEE" as learning data. Executes relearning (update) of "B" and generates artificial intelligence "B'". The driving characteristic improvement server S4 transmits the artificial intelligence "B'" generated by relearning to the vehicle C2B.

しかしながら、各車両C2A,C2Bは、スピーカ,警告表示灯の数,配置等が異なる場合がある。このような場合、引継ぎデータの引き継ぎ先である車両C2Bは、車両C2Aと同一の位置に配置された装置あるいは同一の手法(例えば、各種照明,ピラー等の点灯制御方法,音声の出力方法)で運転特性改善支援を実行することは困難である。 However, each of the vehicles C2A and C2B may differ in the number, arrangement, etc. of speakers and warning indicator lights. In such a case, vehicle C2B, which is the destination of the handover data, is equipped with equipment located at the same location as vehicle C2A, or with the same method (for example, various lighting, lighting control methods for pillars, etc., audio output method). It is difficult to implement driving characteristic improvement support.

実施の形態3における各車両が記憶するベース人工知能は、自車両に設けられたスピーカ25,警告表示灯26等のそれぞれの数,配置に基づいて、他車両から引き継がれた運転特性改善支援を実行する手法、装置(スピーカ,警告表示灯等)あるいは装置の位置等を変更し、他車両における運転特性改善支援と同様あるいは類似する効果が期待される運転特性改善支援を実行可能にする。以下、図40および図41のそれぞれを参照して、車両C2A,C2B間での運転特性改善支援動作(手法あるいは装置)の変更例について具体的に説明する。 The base artificial intelligence stored in each vehicle in Embodiment 3 performs driving characteristic improvement support inherited from other vehicles based on the number and arrangement of speakers 25, warning indicator lights 26, etc. installed in the own vehicle. By changing the execution method, device (speaker, warning indicator light, etc.) or the location of the device, it is possible to execute driving characteristic improvement support that is expected to have the same or similar effects as driving characteristic improvement support in other vehicles. Hereinafter, with reference to FIG. 40 and FIG. 41, an example of changing the driving characteristic improvement support operation (method or device) between vehicles C2A and C2B will be specifically described.

図40を参照して、運転特性改善支援動作の変更例1について説明する。図40は、車両C2A,C2B間における運転特性改善支援動作の変更例1を説明する図である。 With reference to FIG. 40, modification example 1 of the driving characteristic improvement support operation will be described. FIG. 40 is a diagram illustrating a first modification of the driving characteristic improvement support operation between vehicles C2A and C2B.

図40に示す例では、例えば、車両C2Aは、一対の前方ピラー(Aピラー)のそれぞれに警告表示灯26A,26Bが設けられておらず、右側サイドミラーSM2に警告表示灯26C(例えば、LED等)が設けられている。また、例えば、車両C2Bは、右側サイドミラーSM2に警告表示灯26Cが設けられておらず、一対の前方ピラー(Aピラー)のそれぞれに警告表示灯26A,26Bが設けられている。 In the example shown in FIG. 40, for example, the vehicle C2A is not provided with warning indicator lights 26A and 26B on each of the pair of front pillars (A pillars), and a warning indicator light 26C (for example, an LED) is not provided on the right side mirror SM2. etc.) are provided. Further, for example, in the vehicle C2B, the right side mirror SM2 is not provided with the warning indicator light 26C, but the pair of front pillars (A pillars) are each provided with warning indicator lights 26A and 26B.

車両C2Aは、例えば、改善支援データ(個人特性データ)を用いて学習された人工知能を用いて、右側サイドミラーSM2に設けられた警告表示灯26C(例えば、LED等)を所定の色(例えば、黄色,オレンジ,赤等)で点灯,点滅制御を実行する。これにより、車両C2Aは、自車両の右側後方からの接近物(例えば、歩行者,他車両,二輪車等)の有無についての目視確認(安全確認行動)を運転者に促すための運転特性改善支援を実行する。 For example, the vehicle C2A uses artificial intelligence learned using improvement support data (personal characteristic data) to change the warning indicator light 26C (e.g., LED, etc.) provided on the right side mirror SM2 to a predetermined color (e.g., , yellow, orange, red, etc.). As a result, vehicle C2A provides driving characteristic improvement support to encourage the driver to visually check (safety confirmation behavior) whether there are objects approaching from the rear right side of the own vehicle (e.g., pedestrians, other vehicles, two-wheeled vehicles, etc.). Execute.

このような場合、車両C2Bのベース人工知能「B」に、車両C2Aにより取得された引継ぎデータを学習データとして用いて学習された人工知能「B´」は、右側サイドミラーSM2の警告表示灯26Cを用いて行われる運転特性改善支援を、前方右側のピラー(Aピラー)である警告表示灯26Bにより実行するように変更する。 In such a case, the artificial intelligence "B'" learned by the base artificial intelligence "B" of the vehicle C2B using the takeover data acquired by the vehicle C2A as the learning data is the warning indicator light 26C of the right side mirror SM2. The driving characteristic improvement support that is performed using the A-pillar is changed to be performed using the warning indicator light 26B, which is the front right pillar (A-pillar).

車両C2Bは、人工知能「B´」を用いて、前方右側のピラー(Aピラー)である警告表示灯26Bを所定の色(例えば、黄色,オレンジ,赤等)で点灯,点滅制御を実行する。これにより、車両C2Bは、自車両の右側後方からの接近物(例えば、歩行者,他車両,二輪車等)の有無についての目視確認(安全確認行動)を運転者に促すための運転特性改善支援を実行する。 Vehicle C2B uses artificial intelligence "B'" to control the warning indicator light 26B, which is the front right pillar (A pillar), to turn on and blink in a predetermined color (for example, yellow, orange, red, etc.). . As a result, vehicle C2B provides driving characteristic improvement support to encourage the driver to visually check (safety confirmation behavior) whether there are objects approaching from the rear right side of the own vehicle (for example, pedestrians, other vehicles, two-wheeled vehicles, etc.). Execute.

以上により、実施の形態3における運転特性改善支援システム300は、各車両に対応するベース人工知能を用いることで、車両間で同一の装置(上述の例では、右側サイドミラーSM2の警告表示灯26C)がない場合であっても、各車両で同一の運転特性改善支援を実現するための手法、装置、あるいは装置の位置を変更できる。これにより、運転特性改善支援システム300は、異なる車両でも同様あるいは類似する運転特性改善支援の効果を得られるように、運転者を支援できる。 As described above, by using the base artificial intelligence corresponding to each vehicle, the driving characteristic improvement support system 300 in the third embodiment uses the same device (in the above example, the warning indicator light 26C of the right side mirror SM2) between vehicles. ), it is possible to change the method, device, or location of the device to achieve the same driving characteristic improvement support for each vehicle. Thereby, the driving characteristic improvement support system 300 can support the driver so that the same or similar driving characteristic improvement support effect can be obtained even in different vehicles.

次に、図41を参照して、運転特性改善支援動作の変更例2について説明する。図41は、車両C2A,C2B間における運転特性改善支援動作の変更例2を説明する図である。 Next, with reference to FIG. 41, a second modification of the driving characteristic improvement support operation will be described. FIG. 41 is a diagram illustrating a second modification of the driving characteristic improvement support operation between vehicles C2A and C2B.

図41に示す例では、例えば、車両C2Aは、車両内に5つのスピーカ25A~25Eのそれぞれが、各ドアおよび車両後方のそれぞれに配置されている。また、例えば、車両C2Bは、車両内に4つのスピーカ25F,25G,25H,25Iのそれぞれが、各ドアの位置に対応し、かつ、天井付近に配置されている。 In the example shown in FIG. 41, for example, the vehicle C2A has five speakers 25A to 25E disposed inside each door and at the rear of the vehicle. Further, for example, in the vehicle C2B, four speakers 25F, 25G, 25H, and 25I are arranged in the vehicle, each corresponding to the position of each door, and near the ceiling.

車両C2Aは、例えば、改善支援データ(個人特性データ)を用いて学習された人工知能を用いて、車両後方に設けられたスピーカ25Eから音声を出力する。これにより、車両C2Aは、車両後方の安全確認を運転者に促すための運転特性改善支援を実行する。 The vehicle C2A uses, for example, artificial intelligence learned using the improvement support data (personal characteristic data) to output audio from the speaker 25E provided at the rear of the vehicle. As a result, the vehicle C2A performs driving characteristic improvement support for prompting the driver to check safety behind the vehicle.

このような場合、車両C2Bのベース人工知能「B」に、車両C2Aにより取得された引継ぎデータを学習データとして用いて学習された人工知能「B´」は、スピーカ25Eを用いて行われる運転特性改善支援を、車両後方に配置された2つのスピーカ25H,25Iによって実行するように変更する。 In such a case, the artificial intelligence "B'" learned by the base artificial intelligence "B" of the vehicle C2B using the takeover data acquired by the vehicle C2A as learning data is the driving characteristic performed using the speaker 25E. Improvement support is changed to be performed by two speakers 25H and 25I placed at the rear of the vehicle.

車両C2Bは、人工知能「B´」を用いて、車両後方のスピーカ25H,25Iから音声を出力する。これにより、車両C2Aは、車両後方の安全確認を運転者に促すための運転特性改善支援を実行する。 Vehicle C2B uses artificial intelligence "B'" to output audio from speakers 25H and 25I at the rear of the vehicle. As a result, the vehicle C2A performs driving characteristic improvement support for prompting the driver to check safety behind the vehicle.

以上により、実施の形態3における運転特性改善支援システム300は、各車両に対応するベース人工知能を用いることで、車両間で同一配置の装置(上述の例では、スピーカ25E)がない場合であっても、各車両で同一の運転特性改善支援を実現するための手法、装置、あるいは装置の位置を変更できる。これにより、運転特性改善支援システム300は、異なる車両でも同様あるいは類似する運転特性改善支援の効果を得られるように、運転者を支援できる。 As described above, by using the base artificial intelligence corresponding to each vehicle, the driving characteristic improvement support system 300 according to the third embodiment can solve the problem even when there are no devices (in the above example, the speaker 25E) in the same arrangement among the vehicles. However, the method, device, or location of the device can be changed to achieve the same driving characteristic improvement support for each vehicle. Thereby, the driving characteristic improvement support system 300 can support the driver so that the same or similar driving characteristic improvement support effect can be obtained even in different vehicles.

なお、運転特性改善支援システム300は、スピーカ25を用いた音声による運転特性改善支援から、警告表示灯26を用いた光の点灯,点滅等による運転特性改善支援に変更してもよい。また、運転特性改善支援システム300は、スピーカ25から出力される音声の種別を変更したり、警告表示灯26による点灯制御のパターン、あるいは警告表示灯26の点灯色を変更したりしてもよい。 Note that the driving characteristic improvement support system 300 may change from driving characteristic improvement support using audio using the speaker 25 to driving characteristic improvement support using a warning indicator light 26 such as turning on or blinking a light. Further, the driving characteristic improvement support system 300 may change the type of sound output from the speaker 25, the lighting control pattern of the warning indicator lamp 26, or the lighting color of the warning indicator lamp 26. .

また、運転特性改善サーバS4は、スピーカ25,警告表示灯26の数,配置あるいは制御手法(例えば、音声パターン,点灯色,点灯パターン等)を車両ごとに記録したデータベース(不図示)を有していてもよい。このような場合、運転特性改善サーバS4は、引継ぎデータが取得(収集)された車両C2Aのスピーカ25,警告表示灯26の数,配置あるいは制御手法の情報と、引継ぎデータの引き継ぎ先である車両C2Bのスピーカ25,警告表示灯26の数,配置あるいは制御手法の情報とを比較し、各運転特性改善支援を実現可能にする手法あるいは装置を割り当てる。運転特性改善サーバS4は、車両C2Bのベース人工知能「B」に、割り当て結果と、運転者の個人情報および運転特性データとを学習データとする学習を実行してもよい。 The driving characteristics improvement server S4 also has a database (not shown) that records the number, arrangement, or control method (for example, audio pattern, lighting color, lighting pattern, etc.) of the speakers 25 and warning indicator lights 26 for each vehicle. You can leave it there. In such a case, the driving characteristic improvement server S4 collects information on the number, arrangement, or control method of the speakers 25 and warning indicator lights 26 of the vehicle C2A from which the handover data has been acquired (collected), and the vehicle to which the handover data is to be taken over. The information on the number, arrangement, or control method of the C2B speakers 25 and warning indicator lights 26 is compared, and a method or device that makes each driving characteristic improvement support possible is assigned. The driving characteristic improvement server S4 may perform learning on the base artificial intelligence "B" of the vehicle C2B using the assignment result, the driver's personal information, and the driving characteristic data as learning data.

次に、図42~図45のそれぞれを参照して、無線端末装置P2により実行される引継ぎデータリストの生成例について説明する。図42は、引継ぎデータの削除例を説明する画面遷移図である。なお、図42に示す引継ぎデータ設定画面SC11,SC12,SC13,SC14のそれぞれは一例であって、これに限定されないことは言うまでもない。 Next, an example of generation of a takeover data list executed by the wireless terminal device P2 will be described with reference to each of FIGS. 42 to 45. FIG. 42 is a screen transition diagram illustrating an example of deletion of inherited data. Note that each of the transfer data setting screens SC11, SC12, SC13, and SC14 shown in FIG. 42 is an example, and it goes without saying that the present invention is not limited thereto.

引継ぎデータリストTB9(図39参照)は、運転者あるいは運転者の親族等による操作を受け付け可能な無線端末装置P2により生成されて、運転特性改善サーバS4に送信されて、管理される。なお、以降の説明では、説明を分かりやすくするために、運転者により引継ぎデータの作成操作が行われる例について説明する。 The takeover data list TB9 (see FIG. 39) is generated by the wireless terminal device P2 that can accept operations by the driver or a relative of the driver, and is transmitted to the driving characteristic improvement server S4 and managed. In the following description, in order to make the description easier to understand, an example will be described in which the driver performs a handover data creation operation.

無線端末装置P2は、運転者操作を受け付け可能な引継ぎデータ設定画面SC11を生成し、モニタ(不図示)に表示する。 The wireless terminal device P2 generates a takeover data setting screen SC11 that can accept driver operations, and displays it on a monitor (not shown).

引継ぎデータ設定画面SC11は、引継ぎデータの大分類項目SL111「くらし」と、大分類項目SL112「クルマ」と、検索バーSRとを含む。大分類項目SL111「くらし」は、運転者の生活情報に関する個人情報がグルーピングされたグループを示す。大分類項目SL112「クルマ」は、運転者の運転特性データに関する運転特性データがグルーピングされたグループを示す。 The transfer data setting screen SC11 includes a transfer data major classification item SL111 "Lifestyle", a major classification item SL112 "Car", and a search bar SR. Major classification item SL111 "Lifestyle" indicates a group in which personal information related to the driver's daily life information is grouped. The major classification item SL112 "car" indicates a group in which driving characteristic data related to driver's driving characteristic data is grouped.

また、検索バーSRは、運転者の個人情報あるいは個人特性データのそれぞれから運転者操作により入力された検索条件(例えば、ワード)を含む個人情報あるいは個人特性データを検索する。無線端末装置P2は、検索結果を含む検索結果画面を生成して、モニタに表示する。なお、検索バーSRを用いた検索処理は、後述する図44で詳細に説明する。 Further, the search bar SR searches the driver's personal information or personal characteristic data for personal information or personal characteristic data including a search condition (for example, a word) input by the driver's operation. The wireless terminal device P2 generates a search result screen including the search results and displays it on the monitor. Note that the search process using the search bar SR will be explained in detail with reference to FIG. 44, which will be described later.

無線端末装置P2は、図42に示す引継ぎデータ設定画面SC11において、運転者による大分類項目SL112「クルマ」の選択(押下)操作を受け付けた場合、大分類項目SL112「クルマ」にグルーピングされた中分類項目SL121「車両点検」、中分類項目SL122「運転操作」、および中分類項目SL123「安全確認」を含む引継ぎデータ設定画面SC12を生成して、モニタに表示する。 When the wireless terminal device P2 receives the driver's selection (press) operation of the major classification item SL112 "Car" on the handover data setting screen SC11 shown in FIG. A handover data setting screen SC12 including the classification item SL121 "Vehicle inspection", the intermediate classification item SL122 "Driving operation", and the intermediate classification item SL123 "Safety confirmation" is generated and displayed on the monitor.

引継ぎデータ設定画面SC12は、引継ぎデータの中分類項目SL121~SL123のそれぞれと、検索バーSRとを含む。ここで、中分類項目SL121「車両点検」は、車両点検に関する改善支援データ(運転特性改善支援)がグルーピングされたグループを示す。中分類項目SL122「運転操作」は、運転者による運転操作に関する改善支援データ(運転特性改善支援)がグルーピングされたグループを示す。中分類項目SL123「安全確認」は、運転者による安全確認に関する改善支援データ(運転特性改善支援)がグルーピングされたグループを示す。なお、中分類項目SL123「安全確認」は、運転者が同乗者である場合の安全確認に関する改善支援データ(運転特性改善支援)を含んでよい。 The transfer data setting screen SC12 includes each of the intermediate classification items SL121 to SL123 of transfer data and a search bar SR. Here, the intermediate classification item SL121 "vehicle inspection" indicates a group in which improvement support data (driving characteristic improvement support) regarding vehicle inspection is grouped. The intermediate classification item SL122 "driving operation" indicates a group in which improvement support data (driving characteristic improvement support) regarding driving operations by the driver are grouped. The intermediate classification item SL123 "safety confirmation" indicates a group in which improvement support data (driving characteristic improvement support) regarding safety confirmation by the driver is grouped. Note that the intermediate classification item SL123 "safety confirmation" may include improvement support data (driving characteristic improvement support) regarding safety confirmation when the driver is a passenger.

無線端末装置P2は、図42に示す引継ぎデータ設定画面SC12において、運転者による中分類項目SL123「安全確認」の選択(押下)操作を受け付けた場合、中分類項目SL123「安全確認」にグルーピングされた小分類項目SL131「車両に乗り込む前」,小分類項目SL132「車両から降りる前」,…のそれぞれを含む引継ぎデータ設定画面SC13を生成して、モニタに表示する。 When the wireless terminal device P2 receives a selection (press) operation of the middle category item SL123 "Safety confirmation" by the driver on the handover data setting screen SC12 shown in FIG. A handover data setting screen SC13 is generated and displayed on the monitor, including each of the minor classification item SL131 "Before getting into the vehicle", the minor classification item SL132 "Before getting out of the vehicle", etc.

引継ぎデータ設定画面SC13は、引継ぎデータの小分類項目SL131,…のそれぞれと、検索バーSRとを含む。ここで、小分類項目SL131「車両に乗り込む前」は、運転場面「車両に乗り込む前」の安全確認行動の改善支援データ(運転特性改善支援)を示す。小分類項目SL132「車両から降りる前」は、運転場面「車両から降りる前」の安全確認行動の改善支援データ(運転特性改善支援)を示す。 The handover data setting screen SC13 includes each of the small classification items SL131, . . . of the handover data, and a search bar SR. Here, the subcategory item SL131 "before getting into the vehicle" indicates improvement support data (driving characteristics improvement support) for safety confirmation behavior in the driving scene "before getting into the vehicle." Minor category item SL132 "Before getting off the vehicle" indicates improvement support data (driving characteristic improvement support) for safety confirmation behavior in the driving scene "Before getting off the vehicle".

無線端末装置P2は、図42に示す引継ぎデータ設定画面SC13において、運転者による小分類項目SL132「車両から降りる前」の選択(押下)操作を受け付けた場合、運転場面「車両から降りる前」の安全確認行動の改善支援データ(運転特性改善支援)に関する操作ボタンSL141「持ち出す」、操作ボタンSL142「共有する」、および操作ボタンSL143「削除する」を含む引継ぎデータ設定画面SC14を生成して、モニタに表示する。 When the wireless terminal device P2 receives the selection (press) operation of the minor category item SL132 "Before getting off the vehicle" by the driver on the handover data setting screen SC13 shown in FIG. 42, the wireless terminal device P2 selects the driving scene "Before getting off the vehicle" A transfer data setting screen SC14 including operation buttons SL141 "Take out", operation buttons SL142 "Share", and operation buttons SL143 "Delete" regarding safety confirmation behavior improvement support data (driving characteristics improvement support) is generated and monitored. to be displayed.

引継ぎデータ設定画面SC14は、引継ぎデータの操作ボタンSL141~SL143のそれぞれを含む。 The handover data setting screen SC14 includes each of handover data operation buttons SL141 to SL143.

無線端末装置P2は、図42に示す引継ぎデータ設定画面SC14において、運転者による操作ボタンSL143「削除する」が選択された場合、運転場面「車両から降りる前」の安全確認行動の改善支援データを他車両に共有不可(つまり、引継ぎ不可)に設定する。無線端末装置P2は、操作ボタンSL143「削除する」が選択された場合、引継ぎ可能である個人情報および個人特性データの情報を含む引継ぎデータリストから操作ボタンSL143に対応する個人情報あるいは個人特性データ(ここでは、運転場面「車両から降りる前」の安全確認行動の改善支援データ)を削除する。 When the driver selects the operation button SL143 "Delete" on the handover data setting screen SC14 shown in FIG. Set it so that it cannot be shared with other vehicles (in other words, cannot be taken over). When the operation button SL143 "Delete" is selected, the wireless terminal device P2 selects the personal information or personal characteristic data ( Here, the data for improving safety confirmation behavior during the driving scene "before getting out of the vehicle" is deleted.

また、操作ボタンSL141「持ち出す」は、車両C2Aから車両C2Bへ引き継ぐために、運転場面「車両から降りる前」の安全確認行動の改善支援データを外部記憶媒体EMへ書き出すためのボタンである。無線端末装置P2は、運転者により操作ボタンSL141「持ち出す」が選択された場合、運転場面「車両から降りる前」の安全確認行動の改善支援データを操作端末P3に送信し、外部記憶媒体EMに書き出させる。 Further, the operation button SL141 "Take out" is a button for writing improvement support data for safety confirmation behavior in the driving scene "before getting off the vehicle" to the external storage medium EM in order to take over from the vehicle C2A to the vehicle C2B. When the driver selects the operation button SL141 "Take out", the wireless terminal device P2 transmits the improvement support data for safety confirmation behavior in the driving scene "before getting off the vehicle" to the operation terminal P3, and stores it in the external storage medium EM. Have them write it out.

操作ボタンSL142「共有する」は、運転場面「車両から降りる前」の安全確認行動の改善支援データを他車両に共有可能(つまり、引継ぎ可能)に設定するボタンである。無線端末装置P2は、操作ボタンSL142「共有する」が選択された場合、対応する小分類項目が示す個人情報あるいは個人特性データに、引継ぎ可能の情報を付与した引継ぎデータリストを生成する。引継ぎ可能の情報が付与された個人情報あるいは個人特性データは、他車両のベース人工知能の学習データとして使用される。 The operation button SL142 "Share" is a button for setting the improvement support data for safety confirmation behavior in the driving scene "before getting off the vehicle" to be shareable (that is, transferable) to other vehicles. When the operation button SL142 "Share" is selected, the wireless terminal device P2 generates a transfer data list in which transferable information is added to the personal information or personal characteristic data indicated by the corresponding subcategory item. Personal information or personal characteristic data with transferable information is used as learning data for the base artificial intelligence of other vehicles.

図43は、引継ぎデータの設定例を説明する画面遷移図である。なお、図43に示す引継ぎデータ設定画面SC21,SC22,SC23,SC24,SC25のそれぞれは一例であって、これに限定されないことは言うまでもない。 FIG. 43 is a screen transition diagram illustrating an example of setting the transfer data. Note that each of the transfer data setting screens SC21, SC22, SC23, SC24, and SC25 shown in FIG. 43 is an example, and it goes without saying that the present invention is not limited thereto.

無線端末装置P2は、運転者操作を受け付け可能な引継ぎデータ設定画面SC21を生成し、モニタ(不図示)に表示する。 The wireless terminal device P2 generates a takeover data setting screen SC21 that can accept driver operations, and displays it on a monitor (not shown).

引継ぎデータ設定画面SC21は、引継ぎデータの大分類項目SL211「くらし」と、大分類項目SL212「クルマ」と、検索バーSRとを含む。大分類項目SL211「くらし」は、運転者の生活情報に関する個人情報がグルーピングされたグループを示す。大分類項目SL212「クルマ」は、運転者の運転特性データに関する運転特性データがグルーピングされたグループを示す。 The transfer data setting screen SC21 includes a transfer data major classification item SL211 "Lifestyle", a major classification item SL212 "Car", and a search bar SR. Major classification item SL211 "Lifestyle" indicates a group in which personal information related to driver's daily life information is grouped. The major classification item SL212 “car” indicates a group in which driving characteristic data related to the driving characteristic data of the driver is grouped.

無線端末装置P2は、図43に示す引継ぎデータ設定画面SC21において、運転者による大分類項目SL212「クルマ」の中分類表示ボタンSLT21の選択(押下)操作を受け付けた場合、大分類項目SL212「クルマ」に紐付けられた中分類項目SL221「車両点検」、中分類項目SL222「運転操作」、および中分類項目SL223「安全確認」を含む引継ぎデータ設定画面SC22を生成して、モニタに表示する。 In the handover data setting screen SC21 shown in FIG. 43, when the wireless terminal device P2 receives the driver's selection (pressing) operation of the middle category display button SLT21 for major category item SL212 "Car", the wireless terminal device P2 selects (presses) the major category item SL212 "Car". A transfer data setting screen SC22 including the intermediate classification item SL221 "Vehicle inspection", the intermediate classification item SL222 "Driving operation", and the intermediate classification item SL223 "Safety confirmation" linked to "" is generated and displayed on the monitor.

引継ぎデータ設定画面SC22は、引継ぎデータの中分類項目SL221~SL223のそれぞれと、検索バーSRとを含む。ここで、中分類項目SL221「車両点検」は、車両点検に関する改善支援データ(運転特性改善支援)がグルーピングされたグループを示す。中分類項目SL222「運転操作」は、運転者による運転操作に関する改善支援データ(運転特性改善支援)がグルーピングされたグループを示す。中分類項目SL223「安全確認」は、運転者による安全確認に関する改善支援データ(運転特性改善支援)がグルーピングされたグループを示す。なお、中分類項目SL223「安全確認」は、運転者が同乗者である場合の安全確認に関する改善支援データ(運転特性改善支援)を含んでよい。 The transfer data setting screen SC22 includes each of the intermediate classification items SL221 to SL223 of transfer data and a search bar SR. Here, the intermediate classification item SL221 "vehicle inspection" indicates a group in which improvement support data (driving characteristic improvement support) regarding vehicle inspection is grouped. The intermediate classification item SL222 "driving operation" indicates a group in which improvement support data (driving characteristic improvement support) regarding driving operations by the driver are grouped. The intermediate classification item SL223 "safety confirmation" indicates a group in which improvement support data (driving characteristic improvement support) regarding safety confirmation by the driver is grouped. Note that the intermediate classification item SL223 "safety confirmation" may include improvement support data (driving characteristic improvement support) regarding safety confirmation when the driver is a passenger.

無線端末装置P2は、図43に示す引継ぎデータ設定画面SC22において、運転者による中分類項目SL223「安全確認」に含まれるすべての小分類項目を一括選択する選択領域SLT221の選択(押下)操作を受け付けた場合、一括操作ボタンSL231「すべて持ち出す」、一括操作ボタンSL232「すべて共有する」、および一括操作ボタンSL233「すべて削除する」を含む引継ぎデータ設定画面SC23を生成して、モニタに表示する。 On the handover data setting screen SC22 shown in FIG. 43, the wireless terminal device P2 allows the driver to select (press) the selection area SLT221 to select all minor categories included in the medium category item SL223 "Safety confirmation" at once. If accepted, a transfer data setting screen SC23 including batch operation buttons SL231 "Take out all", batch operation buttons SL232 "Share all", and batch operation buttons SL233 "Delete all" is generated and displayed on the monitor.

引継ぎデータ設定画面SC23は、一括操作ボタンSL231~SL233を含む。ここで、一括操作ボタンSL231「すべて持ち出す」は、中分類項目SL223「安全確認」にグルーピングされたすべての小分類項目SL241,SL242,…のそれぞれに対応する個人情報あるいは個人特性データを運転特性改善サーバS4に送信し、運転特性改善サーバS4による管理を実行するためのボタンである。 The handover data setting screen SC23 includes batch operation buttons SL231 to SL233. Here, the batch operation button SL231 "Bring everything out" is used to improve driving characteristics by collecting personal information or personal characteristic data corresponding to each of the minor classification items SL241, SL242, ... grouped into the medium classification item SL223 "Safety confirmation". This is a button for transmitting to the server S4 and executing management by the driving characteristic improvement server S4.

無線端末装置P2は、運転者により一括操作ボタンSL231「すべて持ち出す」が選択された場合、中分類項目SL223「安全確認」にグルーピングされたすべての小分類項目SL241,SL242,…のそれぞれに対応する個人情報あるいは個人特性データを操作端末P3に送信し、外部記憶媒体EMへ書き出させる。 When the driver selects the collective operation button SL231 "Take everything out", the wireless terminal device P2 corresponds to all the minor classification items SL241, SL242, ... grouped in the medium classification item SL223 "Safety confirmation". Personal information or personal characteristic data is transmitted to the operating terminal P3 and written to the external storage medium EM.

無線端末装置P2は、運転者により一括操作ボタンSL232「すべて共有する」の選択された場合、中分類項目SL223「安全確認」にグルーピングされたすべての小分類項目SL241,SL242,…のそれぞれに対応する個人情報あるいは個人特性データを他車両に共有可能(つまり、引継ぎ可能)に設定し、引継ぎ可能の情報を付与した引継ぎデータリストを生成する。 When the driver selects the collective operation button SL232 "Share all", the wireless terminal device P2 corresponds to all the minor categories SL241, SL242, etc. grouped in the middle category SL223 "Safety confirmation". Personal information or personal characteristic data to be shared with other vehicles (that is, transferable) is set to be shared with other vehicles, and a transferable data list is generated that includes transferable information.

無線端末装置P2は、運転者による一括操作ボタンSL233「すべて削除する」の選択(押下)操作を受け付けた場合、中分類項目SL223「安全確認」にグルーピングされたすべての小分類項目SL241,SL242,…のそれぞれに対応する個人情報あるいは個人特性データを他車両に共有不可(つまり、引継ぎ不可)に設定し、引継ぎデータリストから中分類項目SL223「安全確認」にグルーピングされた個人情報あるいは個人特性データを削除する。 When the wireless terminal device P2 receives a selection (press) operation of the batch operation button SL233 "Delete all" by the driver, the wireless terminal device P2 deletes all the minor categories SL241, SL242, Set the personal information or personal characteristic data corresponding to each of the following to not be shared with other vehicles (in other words, not transferable), and personal information or personal characteristic data grouped in the medium classification item SL223 "Safety confirmation" from the transfer data list. Delete.

無線端末装置P2は、図43に示す引継ぎデータ設定画面SC22において、運転者による中分類項目SL223「安全確認」に含まれるすべての小分類項目を表示させる選択領域SLT222の選択(押下)操作を受け付けた場合、中分類項目SL223「安全確認」に含まれるすべての小分類項目SL241,SL242,…のそれぞれを含む引継ぎデータ設定画面SC23を生成して、モニタに表示する。 On the handover data setting screen SC22 shown in FIG. 43, the wireless terminal device P2 accepts an operation by the driver to select (press) a selection area SLT222 that displays all minor categories included in the medium category item SL223 "Safety confirmation". In this case, a takeover data setting screen SC23 including each of all the minor classification items SL241, SL242, . . . included in the medium classification item SL223 "Safety confirmation" is generated and displayed on the monitor.

引継ぎデータ設定画面SC24は、小分類項目SL241,…と、検索バーSRとを含む。 The takeover data setting screen SC24 includes subcategory items SL241, . . . and a search bar SR.

無線端末装置P2は、図43に示す引継ぎデータ設定画面SC24において、運転者による小分類項目SL242「車両から降りる前」の選択(押下)操作を受け付けた場合、運転場面「車両から降りる前」の安全確認行動の改善支援データ(運転特性改善支援)に関する操作ボタンSL251「持ち出す」、操作ボタンSL252「共有する」、および操作ボタンSL253「削除する」を含む引継ぎデータ設定画面SC15を生成して、モニタに表示する。 When the wireless terminal device P2 receives the selection (press) operation of the minor category item SL242 "Before getting off the vehicle" by the driver on the handover data setting screen SC24 shown in FIG. 43, the wireless terminal device P2 selects the driving scene "Before getting off the vehicle". A transfer data setting screen SC15 including operation buttons SL251 "Take out", operation buttons SL252 "Share", and operation buttons SL253 "Delete" regarding safety confirmation behavior improvement support data (driving characteristics improvement support) is generated and monitored. to be displayed.

引継ぎデータ設定画面SC25は、引継ぎデータの操作ボタンSL251~SL253のそれぞれを含む。 The handover data setting screen SC25 includes each of handover data operation buttons SL251 to SL253.

無線端末装置P2は、図43に示す引継ぎデータ設定画面SC25において、運転者による操作ボタンSL251「持ち出す」が選択(押下)操作を受け付けた場合、運転場面「車両から降りる前」の安全確認行動の改善支援データを操作端末P3に送信し、外部記憶媒体EMへ書き出させる。なお、操作ボタンSL252は、図42に示す操作ボタンSL142と同様であるため、説明を省略する。また、操作ボタンSL253は、図42に示す操作ボタンSL143と同様であるため、説明を省略する。 In the handover data setting screen SC25 shown in FIG. 43, when the wireless terminal device P2 receives a selection (press) operation of the operation button SL251 "Take out" by the driver, the wireless terminal device P2 selects the safety confirmation behavior in the driving scene "before getting off the vehicle". The improvement support data is transmitted to the operation terminal P3 and written to the external storage medium EM. Note that the operation button SL252 is the same as the operation button SL142 shown in FIG. 42, so a description thereof will be omitted. Further, since the operation button SL253 is similar to the operation button SL143 shown in FIG. 42, the explanation will be omitted.

図44は、引継ぎデータの検索例を説明する画面遷移図である。なお、図44に示す引継ぎデータ設定画面SC21,SC22,SC31,SC32のそれぞれは一例であって、これに限定されないことは言うまでもない。 FIG. 44 is a screen transition diagram illustrating an example of searching for inherited data. Note that each of the transfer data setting screens SC21, SC22, SC31, and SC32 shown in FIG. 44 is an example, and it goes without saying that the present invention is not limited thereto.

無線端末装置P2は、図44に示す引継ぎデータ設定画面SC21の検索バーSRにおいて、検索バーSR21で検索条件「ブレーキ」の入力操作を受け付ける。無線端末装置P2は、すべての個人情報および個人特性データのうち検索条件「ブレーキ」を満たす個人情報あるいは個人特性データを検索し、検索結果を含む引継ぎデータ設定画面SC31を生成して、モニタに表示する。 The wireless terminal device P2 accepts an input operation for the search condition "brake" in the search bar SR21 of the handover data setting screen SC21 shown in FIG. The wireless terminal device P2 searches all the personal information and personal characteristic data for personal information or personal characteristic data that satisfies the search condition "brake", generates a transfer data setting screen SC31 including the search results, and displays it on the monitor. do.

引継ぎデータ設定画面SC31は、検索条件「ブレーキ」を満たす小分類項目SL313,SL315と、小分類項目SL313,SL315がグルーピングされた中分類項目SL312,SL314と、中分類項目SL312,SL314がグルーピングされた大分類項目SL311とを含む。なお、引継ぎデータ設定画面SC31は、検索条件「ブレーキ」を満たす小分類項目SL313,SL315のみを含んで生成されてもよい。 The transfer data setting screen SC31 includes small category items SL313 and SL315 that satisfy the search condition "brake", medium category items SL312 and SL314 in which small category items SL313 and SL315 are grouped, and medium category items SL312 and SL314 are grouped together. Major classification item SL311. Note that the takeover data setting screen SC31 may be generated including only the subcategory items SL313 and SL315 that satisfy the search condition "brake".

無線端末装置P2は、図44に示す引継ぎデータ設定画面SC31の検索バーSR31において、検索バーSR31で検索条件「ブレーキ 安全確認」の入力操作を受け付ける。無線端末装置P2は、すべての個人情報および個人特性データのうち検索条件「ブレーキ 安全確認」を満たす個人情報あるいは個人特性データを検索し、検索結果を含む引継ぎデータ設定画面SC32を生成して、モニタに表示する。 The wireless terminal device P2 accepts an input operation for the search condition "brake safety confirmation" in the search bar SR31 of the handover data setting screen SC31 shown in FIG. 44. The wireless terminal device P2 searches all the personal information and personal characteristic data for personal information or personal characteristic data that satisfies the search condition "brake safety confirmation", generates a transfer data setting screen SC32 containing the search results, and displays the screen on the monitor. to be displayed.

引継ぎデータ設定画面SC32は、検索条件「ブレーキ 安全確認」を満たす中分類項目SL322と、中分類項目SL322がグルーピングされた大分類項目SL321と、中分類項目SL322にグルーピングされた小分類項目SL323とを含む。なお、引継ぎデータ設定画面SC32は、検索条件「ブレーキ 安全確認」を満たす中分類項目SL322のみを含んで生成されてもよい。 The transfer data setting screen SC32 displays a medium category item SL322 that satisfies the search condition "brake safety confirmation," a major category item SL321 in which the medium category item SL322 is grouped, and a minor category item SL323 grouped in the medium category item SL322. include. Note that the handover data setting screen SC32 may be generated including only the medium classification item SL322 that satisfies the search condition "brake safety confirmation".

なお、検索バーSRは、無線端末装置P2が備える、あるいは無線端末装置P2に接続された入力インタフェース(例えば、タッチパネル,キーボード等)を介して検索条件の入力を受け付けてもよいし、無線端末装置P2が備えるマイク(不図示)により収音された発話音声を音声認識することで検索条件の入力を受け付けてもよい。 Note that the search bar SR may accept input of search conditions via an input interface (e.g., touch panel, keyboard, etc.) provided in or connected to the wireless terminal device P2, or The input of search conditions may be accepted by voice recognition of the utterances collected by a microphone (not shown) provided in P2.

図45は、引継ぎデータの編集例を説明する画面遷移図である。なお、図45に示す引継ぎデータ設定画面SC41,SC42のそれぞれ、および個人情報/個人特性データの系統図は一例であって、これに限定されないことは言うまでもない。 FIG. 45 is a screen transition diagram illustrating an example of editing inherited data. It should be noted that the succession data setting screens SC41 and SC42 and the system diagram of personal information/personal characteristic data shown in FIG. 45 are merely examples, and it goes without saying that the present invention is not limited thereto.

無線端末装置P2は、運転者操作を受け付け可能な引継ぎデータ設定画面SC21を生成し、モニタ(不図示)に表示する。 The wireless terminal device P2 generates a takeover data setting screen SC21 that can accept driver operations, and displays it on a monitor (not shown).

引継ぎデータ設定画面SC41は、引継ぎデータの大分類項目SL411「くらし」と、大分類項目SL412「クルマ」と、お気に入り項目SL413と、検索バーSRとを含む。大分類項目SL411「くらし」は、運転者の生活情報に関する個人情報がグルーピングされたグループを示す。大分類項目SL412「クルマ」は、運転者の運転特性データに関する運転特性データがグルーピングされたグループを示す。お気に入り項目SL413は、運転者操作に基づいてグルーピングされた1以上の個人情報あるいは個人特性データを示す。 The transfer data setting screen SC41 includes a transfer data major category item SL411 "Lifestyle", a major category item SL412 "Car", a favorite item SL413, and a search bar SR. Major classification item SL411 "Lifestyle" indicates a group in which personal information related to the driver's daily life information is grouped. Major classification item SL412 “Car” indicates a group in which driving characteristic data related to driver's driving characteristic data is grouped. Favorite item SL413 indicates one or more pieces of personal information or personal characteristic data grouped based on driver operations.

無線端末装置P2は、図45に示す引継ぎデータ設定画面SC41において、運転者によるお気に入りボタンSLT41の選択(押下)操作を受け付けた場合、お気に入り項目SL413にグルーピングされた各項目を含む引継ぎデータ設定画面SC42を生成して、モニタに表示する。 When the wireless terminal device P2 receives the selection (pressing) operation of the favorite button SLT41 by the driver on the handover data setting screen SC41 shown in FIG. Generate and display on the monitor.

引継ぎデータ設定画面SC42は、運転者によりグルーピングされた中分類項目SL421「睡眠」と、グルーピング項目SL422「乗降時の確認」と、グルーピング項目SL423「運転中の確認」と、検索バーSRとを含む。 The handover data setting screen SC42 includes a medium classification item SL421 "Sleep" grouped by the driver, a grouping item SL422 "Confirmation when getting on and off", a grouping item SL423 "Confirmation while driving", and a search bar SR. .

無線端末装置P2は、図45に示す引継ぎデータ設定画面SC41において、運転者による中分類項目SL421「睡眠」の選択(押下)操作を受け付けた場合、中分類項目SL421「睡眠」にグルーピングされたリストLST1を含む引継ぎデータ設定画面(不図示)を生成して、モニタに表示する。図45に示す例において、リストLST1は、中分類項目SL421と、中分類項目SL421にグルーピングされた複数の小分類項目「就寝時刻」,「起床時刻」,「呼吸数」,「睡眠の質」のそれぞれとを含む。 When the wireless terminal device P2 receives the driver's selection (press) operation of the intermediate classification item SL421 "Sleep" on the handover data setting screen SC41 shown in FIG. A takeover data setting screen (not shown) including LST1 is generated and displayed on the monitor. In the example shown in FIG. 45, the list LST1 includes a medium classification item SL421 and a plurality of small classification items grouped into the medium classification item SL421: "bedtime", "wake-up time", "breathing rate", and "sleep quality". and each of the following.

無線端末装置P2は、図45に示す引継ぎデータ設定画面SC41において、運転者によるグルーピング項目SL422「乗降時の確認」の選択(押下)操作を受け付けた場合、運転者により作成され、グルーピング項目SL422「乗降時の確認」にグルーピングされた各種項目(リストLST2)を含む引継ぎデータ設定画面(不図示)を生成して、モニタに表示する。図45に示す例において、リストLST2は、複数の小分類項目「車両に乗り込む前」,「車両から降りる前」,「同乗者が車両から降りる前」のそれぞれを含む。 When the wireless terminal device P2 receives a selection (press) operation of the grouping item SL422 "Confirmation when getting on and off" by the driver on the handover data setting screen SC41 shown in FIG. A transfer data setting screen (not shown) including various items (list LST2) grouped under "Confirmation when getting on and off" is generated and displayed on the monitor. In the example shown in FIG. 45, list LST2 includes a plurality of subcategories: "Before getting into the vehicle," "Before getting off the vehicle," and "Before the passenger gets off the vehicle."

無線端末装置P2は、図45に示す引継ぎデータ設定画面SC41において、運転者によるグルーピング項目SL423「運転中の確認」の選択(押下)操作を受け付けた場合、運転者により作成され、グルーピング項目SL423「運転中の確認」にグルーピングされた各種項目(リストLST3)を含む引継ぎデータ設定画面(不図示)を生成して、モニタに表示する。図45に示す例において、リストLST3は、複数の小分類項目「車両を発進する前」,「ブレーキをかける前」,「車線を変更する前」,「直進している時」,「右左折する前」,「車両を後退する前」のそれぞれを含む。 When the wireless terminal device P2 receives a selection (press) operation of the grouping item SL423 "Confirm while driving" by the driver on the handover data setting screen SC41 shown in FIG. A handover data setting screen (not shown) including various items (list LST3) grouped under "Confirmation during operation" is generated and displayed on the monitor. In the example shown in FIG. 45, list LST3 includes multiple subcategories: "Before starting the vehicle," "Before applying the brakes," "Before changing lanes," "While driving straight," "Turning right or left." ``before moving the vehicle'' and ``before reversing the vehicle.''

また、無線端末装置P2は、運転者操作に基づいて、各リストLST1~LST3に含まれる各種項目(大分類項目,中分類項目,小分類項目のそれぞれ)の名称変更,並び替えを実行する。 Furthermore, the wireless terminal device P2 renames and rearranges various items (major category items, medium category items, and minor category items, respectively) included in each list LST1 to LST3 based on the driver's operation.

例えば、無線端末装置P2は、運転者によりグルーピング項目の編集操作を受け付けた場合、グルーピング項目の名称「運転中の確認」の生成あるいは変更操作、グルーピング項目にグルーピングされる各種項目の選択,並び替え,削除操作等をさらに受け付ける。これにより、無線端末装置P2は、複数の小分類項目「車両に乗り込む前」,「車両から降りる前」,「同乗者が車両から降りる前」のそれぞれを含むグルーピング項目SL422「乗降時の確認」の生成を実行する。 For example, when the wireless terminal device P2 receives an editing operation for a grouping item from the driver, the wireless terminal device P2 generates or changes the name of the grouping item "confirmation while driving," and selects and rearranges various items grouped into the grouping item. , delete operations, etc. are further accepted. As a result, the wireless terminal device P2 selects the grouping item SL422 "Confirmation when getting on and off" that includes each of the multiple subcategories "Before getting into the vehicle", "Before getting off the vehicle", and "Before the passenger gets off the vehicle" Execute the generation.

例えば、無線端末装置P2は、運転者操作に基づいて、小分類項目「右左折する前」を、小分類項目「車両を発進する前」の後に並び替える。これにより、無線端末装置P2は、以降の引継ぎデータ設定画面で表示される小分類項目の順番を「車両を発進する前」、「右左折する前」、「ブレーキをかける前」…に変更することができる。 For example, the wireless terminal device P2 rearranges the minor category item "before turning right or left" after the minor category item "before starting the vehicle" based on the driver's operation. As a result, the wireless terminal device P2 changes the order of the subcategory items displayed on the subsequent handover data setting screen to "Before starting the vehicle," "Before turning left or right," "Before applying the brakes," etc. be able to.

以上により、実施の形態3に係る運転特性改善支援システム300は、少なくとも車両C2A(第1車両の一例)および車両C2B(第2車両の一例)と連携可能である運転特性改善サーバS4あるいは操作端末P3(コンピュータの一例)が実行可能な制御方法であって、車両C2Aにより取得され、車両C2Aを運転する運転者の運転特性の改善支援に用いられ、運転者に対応する個人特性データの入力を受け、所定の条件を満たす場合、運転者に対応する個人特性データを車両C2Bで利用可能にするために出力する。 As described above, the driving characteristic improvement support system 300 according to Embodiment 3 is configured to provide the driving characteristic improvement server S4 or the operation terminal that can cooperate with at least the vehicle C2A (an example of a first vehicle) and the vehicle C2B (an example of a second vehicle). P3 (an example of a computer) is an executable control method, which is acquired by the vehicle C2A, is used to support improvement of the driving characteristics of the driver driving the vehicle C2A, and inputs personal characteristic data corresponding to the driver. If a predetermined condition is satisfied, the personal characteristic data corresponding to the driver is output to be made available to the vehicle C2B.

これにより、実施の形態3に係る運転特性改善支援システム300は、外部記憶媒体EMあるいは乗り換え前の車両C2Aから運転者の個人情報,個人特性データの入力を受け付け、運転者が異なる車両に乗り換える場合に、乗り換え前の車両C2Aで収集(取得)された運転者の個人情報,個人特性データを乗り換え後の車両C2Bに送信することができる。したがって、運転特性改善支援システム300は、運転者が希望しない個人情報および個人特性データの引き継ぎ(共通)を防止することで運転者の個人情報を保護するとともに、異なる車両における運転者により適した運転特性改善支援を実現できる。 Thereby, the driving characteristic improvement support system 300 according to the third embodiment receives input of the driver's personal information and personal characteristic data from the external storage medium EM or the vehicle C2A before changing, and when the driver changes to a different vehicle. Furthermore, the driver's personal information and personal characteristic data collected (obtained) by the vehicle C2A before the transfer can be transmitted to the vehicle C2B after the transfer. Therefore, the driving characteristic improvement support system 300 protects the driver's personal information by preventing the handover (common) of personal information and personal characteristic data that the driver does not desire, and also improves driving characteristics that are more suitable for drivers in different vehicles. Characteristic improvement support can be realized.

また、以上により、実施の形態3に係る運転特性改善支援システム300の運転特性改善サーバS4あるいは操作端末P3は、少なくとも1つのコンピュータから構成される。これにより、実施の形態3に係る運転特性改善支援システム300は、コンピュータを用いて異なる車両C2A,C2Bのそれぞれで収集された運転者の運転特性データを管理できる。 Further, as described above, the driving characteristic improvement server S4 or the operating terminal P3 of the driving characteristic improvement support system 300 according to the third embodiment is configured from at least one computer. Thereby, the driving characteristic improvement support system 300 according to the third embodiment can manage the driver's driving characteristic data collected in each of the different vehicles C2A and C2B using a computer.

また、以上により、実施の形態3に係る運転特性改善支援システム300における所定の条件は、運転特性改善サーバS4あるいは操作端末P3が所定の指示(具体的には、運転者が車両を乗り換えたことを検知した制御指令,管理者による運転者の引継ぎデータの引き継ぎを開始する操作等)を受けた場合である。これにより、実施の形態3に係る運転特性改善支援システム300は、運転者が車両C2Aを乗り換えた場合、あるいは管理者が希望するタイミングで車両C2A,C2B間における運転者の運転特性データの引き継ぎを行うことができる。したがって、運転特性改善支援システム300は、運転者が希望しない個人情報および個人特性データの引き継ぎ(共通)を防止することで運転者の個人情報を保護するとともに、異なる車両における運転者により適した運転特性改善支援を実現できる。 Further, as described above, the predetermined condition in the driving characteristic improvement support system 300 according to the third embodiment is that the driving characteristic improvement server S4 or the operation terminal P3 receives a predetermined instruction (specifically, the driver changes vehicles). This is the case when a control command is received that detects a driver's handover data, an operation by an administrator to start handing over the driver's handover data, etc.). As a result, the driving characteristic improvement support system 300 according to the third embodiment can transfer the driving characteristic data of the driver between vehicles C2A and C2B when the driver changes vehicle C2A or at a timing desired by the administrator. It can be carried out. Therefore, the driving characteristic improvement support system 300 protects the driver's personal information by preventing the handover (common) of personal information and personal characteristic data that the driver does not desire, and also improves driving characteristics that are more suitable for drivers in different vehicles. Characteristic improvement support can be realized.

また、以上により、実施の形態3に係る運転特性改善支援システム300における所定の指示は、運転者を特定(指定)した情報を含む。これにより、実施の形態3に係る運転特性改善支援システム300は、特定された運転者の個人情報あるいは個人特性データのみを車両間で引き継ぐため、運転者が希望しない個人情報および個人特性データの引き継ぎ(共通)を防止できる。 Further, as described above, the predetermined instruction in the driving characteristic improvement support system 300 according to the third embodiment includes information specifying (designating) the driver. As a result, the driving characteristic improvement support system 300 according to the third embodiment transfers only the personal information or personal characteristic data of the specified driver between vehicles, and therefore transfers personal information and personal characteristic data that the driver does not wish to transfer. (common) can be prevented.

また、以上により、実施の形態3に係る運転特性改善支援システム300における運転特性改善サーバS4あるいは操作端末P3は、送信回路と受信回路(つまり、通信部51,61)を備え、車両C2Aにより取得され、車両C2Aを運転する運転者の運転特性の改善支援に用いられ、運転者に対応する個人特性データを受信回路が車両C2Aより受信し、所定の条件を満たす場合、運転者に対応する個人特性データを送信回路が車両C2Bへ送信する、制御方法であって、所定の条件は、運転者が車両C2Bへの乗車したことが検知された場合である。これにより、実施の形態3に係る運転特性改善支援システム300は、特定された運転者の個人情報あるいは個人特性データのみを車両間で引き継ぐため、運転者が希望しない個人情報および個人特性データの引き継ぎ(共通)を防止できる。 Further, as described above, the driving characteristic improvement server S4 or the operating terminal P3 in the driving characteristic improvement support system 300 according to the third embodiment includes a transmitting circuit and a receiving circuit (that is, communication units 51 and 61), and the driving characteristic improvement server S4 or the operating terminal P3 in the driving characteristic improvement support system 300 according to the third embodiment is is used to support the improvement of the driving characteristics of the driver driving the vehicle C2A, and when the receiving circuit receives the personal characteristic data corresponding to the driver from the vehicle C2A and satisfies a predetermined condition, the personal characteristic data corresponding to the driver is This is a control method in which a transmission circuit transmits characteristic data to vehicle C2B, and the predetermined condition is when it is detected that a driver has boarded vehicle C2B. As a result, the driving characteristic improvement support system 300 according to the third embodiment transfers only the personal information or personal characteristic data of the specified driver between vehicles, and therefore transfers personal information and personal characteristic data that the driver does not wish to transfer. (common) can be prevented.

また、以上により、実施の形態3に係る運転特性改善支援システム300は、運転者を第1運転者とし、車両C2Aにより取得され、車両C2Aを運転する第1運転者の運転特性の改善支援に用いられ、第1運転者に対応する第1個人特性データを受信し、車両C2Aにより取得され、車両C2Aを運転する第2運転者の運転特性の改善支援に用いられ、第2運転者に対応する第2個人特性データを受信し、第1運転者が車両C2Bへの乗車したことが検知された場合、第1運転者に対応する第1個人特性データを車両C2Bへ送信し、第2運転者が車両C2Bへの乗車したことが検知された場合、第2運転者に対応する第2個人特性データを第2車両へ送信する。これにより、実施の形態3に係る運転特性改善支援システム300は、運転者が希望しない個人情報および個人特性データの引き継ぎ(共通)を防止することで運転者の個人情報を保護するとともに、異なる車両における運転者により適した運転特性改善支援を実現できる。 Further, as described above, the driving characteristic improvement support system 300 according to the third embodiment uses the driver as the first driver, and is capable of supporting the improvement of the driving characteristics of the first driver who drives the vehicle C2A. used to receive first personal characteristic data corresponding to the first driver, acquired by the vehicle C2A, used to support improvement of driving characteristics of a second driver driving the vehicle C2A, and corresponding to the second driver. If it is detected that the first driver got into the vehicle C2B, the first personal characteristic data corresponding to the first driver is sent to the vehicle C2B, and the second driver When it is detected that the person has boarded the vehicle C2B, second personal characteristic data corresponding to the second driver is transmitted to the second vehicle. As a result, the driving characteristic improvement support system 300 according to the third embodiment protects the driver's personal information by preventing the transfer (common) of personal information and personal characteristic data that the driver does not desire, and also It is possible to realize driving characteristic improvement support that is more suitable for the driver in the vehicle.

また、以上により、実施の形態3に係る運転特性改善支援システム300における個人特性データは、車両C2Bにより実行される運転者の運転特性の改善支援に用いられる運転支援モデルの学習データである。これにより、実施の形態3に係る運転特性改善支援システム300は、車両C2Aと異なる車両C2Bにおいても、運転者により適した運転特性改善支援を実現できる。 Furthermore, as described above, the personal characteristic data in the driving characteristic improvement support system 300 according to the third embodiment is the learning data of the driving support model used for the driving characteristic improvement support of the driver executed by the vehicle C2B. Thereby, the driving characteristic improvement support system 300 according to the third embodiment can realize driving characteristic improvement support more suitable for the driver even in the vehicle C2B different from the vehicle C2A.

また、以上により、実施の形態3に係る運転特性改善支援システム300における個人特性データは、車両C2Aにより取得された複数の個人特性データのうち運転者により指定された少なくとも1つの個人特性データである。これにより、実施の形態3に係る運転特性改善支援システム300は、所定の運転者により利用される私用車と、不特定多数の運転者により利用され得る車両(レンタカー,カーシェアリングされる車両)等との間で運転者の個人情報,個人特性データの引き継ぎを行う場合であっても、運転者が希望する個人情報および個人特性データのみを引き継ぐ(共通する)ことができるため、運転者の個人情報を保護するとともに、異なる車両における運転者により適した運転特性改善支援を実現できる。 Further, as described above, the personal characteristic data in the driving characteristic improvement support system 300 according to the third embodiment is at least one personal characteristic data specified by the driver among the plurality of personal characteristic data acquired by the vehicle C2A. . As a result, the driving characteristic improvement support system 300 according to the third embodiment can handle private cars used by a predetermined driver and vehicles that can be used by an unspecified number of drivers (rental cars, car sharing vehicles). Even if the driver's personal information and personal characteristic data are transferred between the In addition to protecting personal information, it is possible to provide driving characteristic improvement support that is more suitable for drivers in different vehicles.

また、以上により、実施の形態3に係る運転特性改善支援システム300における運転特性改善サーバS4あるいは操作端末P3は、車両C2Aにより取得された複数の個人特性データのうち、予め定められた個人特性データの入力を受ける。これにより、実施の形態3に係る運転特性改善支援システム300は、運転者が希望しない個人情報および個人特性データの引き継ぎ(共通)を防止することで運転者の個人情報を保護するとともに、異なる車両における運転者により適した運転特性改善支援を実現できる。 Further, as described above, the driving characteristic improvement server S4 or the operation terminal P3 in the driving characteristic improvement support system 300 according to the third embodiment selects predetermined personal characteristic data from among the plurality of personal characteristic data acquired by the vehicle C2A. receives input. As a result, the driving characteristic improvement support system 300 according to the third embodiment protects the driver's personal information by preventing the transfer (common) of personal information and personal characteristic data that the driver does not desire, and also It is possible to realize driving characteristic improvement support that is more suitable for the driver in the vehicle.

また、以上により、実施の形態3に係る運転特性改善支援システム300における運転特性改善サーバS4は、予め定められた個人特性データの指定を外部(例えば、運転者により操作される無線端末装置P2)から受ける。これにより、実施の形態3に係る運転特性改善支援システム300は、運転者が希望する個人情報および個人特性データのみを引き継ぐ(共通する)ことができる。 Further, as described above, the driving characteristic improvement server S4 in the driving characteristic improvement support system 300 according to the third embodiment allows the specification of predetermined personal characteristic data to be sent to an external device (for example, the wireless terminal device P2 operated by the driver). receive from Thereby, the driving characteristic improvement support system 300 according to the third embodiment can inherit (common) only the personal information and personal characteristic data desired by the driver.

また、以上により、実施の形態3に係る運転特性改善支援システム300における運転特性改善サーバS4は、車両C2Aにより取得された複数の個人特性データを保持可能であって、保持された複数の個人特性データのうち、予め定められた個人特性データを出力する。これにより、実施の形態3に係る運転特性改善支援システム300は、運転者が希望する個人情報および個人特性データのみを引き継ぐ(共通する)ことができる。 Further, as described above, the driving characteristic improvement server S4 in the driving characteristic improvement support system 300 according to the third embodiment can hold a plurality of pieces of personal characteristic data acquired by the vehicle C2A, and can hold a plurality of pieces of personal characteristic data acquired by the vehicle C2A. Among the data, predetermined personal characteristic data is output. Thereby, the driving characteristic improvement support system 300 according to the third embodiment can inherit (common) only the personal information and personal characteristic data desired by the driver.

また、以上により、実施の形態3に係る運転特性改善支援システム300における運転特性改善サーバS4は、予め定められた個人特性データを外部(例えば、運転者により操作される無線端末装置P2)から指定を受ける。これにより、実施の形態3に係る運転特性改善支援システム300は、運転者が希望する個人情報および個人特性データのみを引き継ぐ(共通する)ことができる。 Further, as described above, the driving characteristic improvement server S4 in the driving characteristic improvement support system 300 according to the third embodiment specifies predetermined personal characteristic data from the outside (for example, the wireless terminal device P2 operated by the driver). receive. Thereby, the driving characteristic improvement support system 300 according to the third embodiment can inherit (common) only the personal information and personal characteristic data desired by the driver.

また、以上により、実施の形態3に係る運転特性改善支援システム300における運転特性改善サーバS4は、第1車両により取得された複数の個人特性データを保持可能であって、保持された複数の個人特性データのうち、少なくとも1つを外部(例えば、運転者により操作される無線端末装置P2)からの指示で削除可能である。これにより、実施の形態3に係る運転特性改善支援システム300は、運転者が希望する個人情報および個人特性データのみを引き継ぐ(共通する)ことができる。 Further, as described above, the driving characteristic improvement server S4 in the driving characteristic improvement support system 300 according to the third embodiment is capable of holding a plurality of pieces of personal characteristic data acquired by the first vehicle, and is capable of holding a plurality of pieces of personal characteristic data acquired by the first vehicle. At least one of the characteristic data can be deleted by an instruction from the outside (for example, the wireless terminal device P2 operated by the driver). Thereby, the driving characteristic improvement support system 300 according to the third embodiment can inherit (common) only the personal information and personal characteristic data desired by the driver.

以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that those skilled in the art can come up with various changes, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims, and It is understood that it falls within the technical scope of the present disclosure. Further, each of the constituent elements in the various embodiments described above may be arbitrarily combined without departing from the spirit of the invention.

本開示は、異なる車両で収集された運転者の運転特性データの管理と、車両間における運転者の運転特性データの引き継ぎとを支援する制御方法として有用である。 The present disclosure is useful as a control method that supports management of driver driving characteristic data collected in different vehicles and handing over of driver driving characteristic data between vehicles.

10,12 カーナビゲーション装置
11,11A 通信機器
12A,32,42,52,62 プロセッサ
12B,15,33,43,53,63 メモリ
12C,22C,64 表示部
12D,22D,65 入力部
13,13A 車内カメラ
14 ジャイロセンサ
16,16A ECU
17 操作部
17A アクセルペダル
17B ブレーキペダル
17C ターンランプ
17D ステアリング
18 速度センサ
19,19A 車外センサ/カメラ
20 GPSセンサ
24 車内センサ
25,25A,25B,25C,25D スピーカ
26,26A,26B 警告表示灯
31,41,51,61 通信部
52A 支援方法生成部
54 データベース
100 運転特性管理システム
300 運転特性改善支援システム
C1,C1A,C2A,C2B 車両
EM 外部記憶媒体
NW,NWA,NWB ネットワーク
P2 無線端末装置
P3 操作端末
S4 運転特性改善サーバ
TB3 運転特性履歴テーブル
TB4 運転特性改善管理テーブル
TB8,TB9 引継ぎデータリスト
TB10 個人特性データテーブル
10, 12 Car navigation device 11, 11A Communication device 12A, 32, 42, 52, 62 Processor 12B, 15, 33, 43, 53, 63 Memory 12C, 22C, 64 Display section 12D, 22D, 65 Input section 13, 13A In-vehicle camera 14 Gyro sensor 16, 16A ECU
17 Operation unit 17A Accelerator pedal 17B Brake pedal 17C Turn lamp 17D Steering 18 Speed sensor 19, 19A External sensor/camera 20 GPS sensor 24 In-vehicle sensor 25, 25A, 25B, 25C, 25D Speaker 26, 26A, 26B Warning indicator light 31, 41, 51, 61 Communication unit 52A Support method generation unit 54 Database 100 Driving characteristic management system 300 Driving characteristic improvement support system C1, C1A, C2A, C2B Vehicle EM External storage medium NW, NWA, NWB Network P2 Wireless terminal device P3 Operation terminal S4 Driving characteristics improvement server TB3 Driving characteristics history table TB4 Driving characteristics improvement management tables TB8, TB9 Transferred data list TB10 Personal characteristics data table

Claims (13)

少なくとも第1車両及び第2車両と連携可能であるコンピュータが実行可能な制御方法であって、
前記第1車両により取得され、前記第1車両を運転する運転者の運転特性の改善支援に用いられ、前記運転者に対応する個人特性データの入力を受け、
所定の条件を満たす場合、前記運転者に対応する前記個人特性データを前記第2車両で利用可能にするために出力する、
制御方法。
A control method executable by a computer capable of cooperating with at least a first vehicle and a second vehicle,
Receiving input of personal characteristic data corresponding to the driver, which is acquired by the first vehicle and used to support improvement of the driving characteristics of the driver driving the first vehicle;
If a predetermined condition is met, outputting the personal characteristic data corresponding to the driver to make it available to the second vehicle;
Control method.
請求項1に記載の制御方法であって、
前記コンピュータは、少なくとも1つのコンピュータから構成される、
制御方法。
The control method according to claim 1,
The computer is composed of at least one computer.
Control method.
請求項1に記載の制御方法であって、
前記所定の条件は、前記コンピュータが所定の指示を受けた場合である、
制御方法。
The control method according to claim 1,
The predetermined condition is when the computer receives a predetermined instruction;
Control method.
請求項3に記載の制御方法であって、
前記所定の指示は、前記運転者を特定した情報を含む、
制御方法。
4. The control method according to claim 3,
The predetermined instruction includes information specifying the driver,
Control method.
請求項1に記載の制御方法であって、
前記コンピュータは、送信回路と受信回路を備え、
前記第1車両により取得され、前記第1車両を運転する運転者の運転特性の改善支援に用いられ、前記運転者に対応する前記個人特性データを前記受信回路が前記第1車両より受信し、
前記所定の条件を満たす場合、前記運転者に対応する前記個人特性データを前記送信回路が前記第2車両へ送信する、制御方法であって、
前記所定の条件は、前記運転者が前記第2車両への乗車したことが検知された場合である、
制御方法。
The control method according to claim 1,
The computer includes a transmitting circuit and a receiving circuit,
the receiving circuit receives from the first vehicle the personal characteristic data corresponding to the driver, which is acquired by the first vehicle and is used to support improvement of driving characteristics of a driver driving the first vehicle;
If the predetermined condition is met, the transmission circuit transmits the personal characteristic data corresponding to the driver to the second vehicle, the control method comprising:
The predetermined condition is a case where it is detected that the driver has gotten into the second vehicle.
Control method.
請求項5に記載の制御方法であって、
前記運転者を第1運転者とし、
前記第1車両により取得され、前記第1車両を運転する前記第1運転者の運転特性の改善支援に用いられ、前記第1運転者に対応する第1個人特性データを受信し、
前記第1車両により取得され、前記第1車両を運転する第2運転者の運転特性の改善支援に用いられ、前記第2運転者に対応する第2個人特性データを受信し、
前記第1運転者が前記第2車両への乗車したことが検知された場合、前記第1運転者に対応する前記第1個人特性データを前記第2車両へ送信する、
前記第2運転者が前記第2車両への乗車したことが検知された場合、前記第2運転者に対応する前記第2個人特性データを前記第2車両へ送信する、
制御方法。
6. The control method according to claim 5,
The driver is a first driver,
receiving first personal characteristic data corresponding to the first driver, which is acquired by the first vehicle and is used to support improvement of driving characteristics of the first driver driving the first vehicle;
receiving second personal characteristic data corresponding to the second driver, which is acquired by the first vehicle and used to support improvement of driving characteristics of a second driver driving the first vehicle;
If it is detected that the first driver got into the second vehicle, transmitting the first personal characteristic data corresponding to the first driver to the second vehicle;
If it is detected that the second driver got into the second vehicle, transmitting the second personal characteristic data corresponding to the second driver to the second vehicle;
Control method.
請求項1に記載の制御方法であって、
前記個人特性データは、前記第2車両により実行される前記運転者の運転特性の改善支援に用いられる運転支援モデルの学習データである、
制御方法。
The control method according to claim 1,
The personal characteristic data is learning data for a driving support model used to support improvement of the driving characteristics of the driver, which is executed by the second vehicle.
Control method.
請求項1に記載の制御方法であって、
前記個人特性データは、前記第1車両により取得された複数の個人特性データのうち前記運転者により指定された少なくとも1つの個人特性データである、
制御方法。
The control method according to claim 1,
The personal characteristic data is at least one personal characteristic data specified by the driver among a plurality of personal characteristic data acquired by the first vehicle.
Control method.
請求項1に記載の制御方法であって、
前記コンピュータは、前記第1車両により取得された複数の個人特性データのうち、予め定められた個人特性データの入力を受ける、
制御方法。
The control method according to claim 1,
The computer receives input of predetermined personal characteristic data from among the plurality of personal characteristic data acquired by the first vehicle.
Control method.
請求項9に記載の制御方法であって、
前記コンピュータは、前記予め定められた個人特性データを外部から指定を受ける
制御方法。
The control method according to claim 9,
The computer receives designation of the predetermined personal characteristic data from an outside.
請求項1に記載の制御方法であって、
前記コンピュータは、前記第1車両により取得された複数の個人特性データを保持可能であって、保持された複数の個人特性データのうち、予め定められた個人特性データを出力する、
制御方法。
The control method according to claim 1,
The computer is capable of holding a plurality of personal characteristic data acquired by the first vehicle, and outputs predetermined personal characteristic data among the plurality of held personal characteristic data.
Control method.
請求項11に記載の制御方法であって、
前記コンピュータは、前記予め定められた個人特性データの指定を外部から受ける、
制御方法。
The control method according to claim 11,
the computer receives designation of the predetermined personal characteristic data from an external source;
Control method.
請求項1に記載の制御方法であって、
前記コンピュータは、前記第1車両により取得された複数の個人特性データを保持可能であって、保持された複数の個人特性データのうち、少なくとも1つを外部からの指示で削除可能である、
制御方法。
The control method according to claim 1,
The computer is capable of holding a plurality of personal characteristic data acquired by the first vehicle, and is capable of deleting at least one of the plurality of held personal characteristic data by an instruction from an outside.
Control method.
JP2022121788A 2021-10-25 2022-07-29 Management method of driving characteristic improvement support data Pending JP2024018437A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022121788A JP2024018437A (en) 2022-07-29 2022-07-29 Management method of driving characteristic improvement support data
PCT/JP2022/032660 WO2023074116A1 (en) 2021-10-25 2022-08-30 Management method for driving-characteristics improving assistance data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022121788A JP2024018437A (en) 2022-07-29 2022-07-29 Management method of driving characteristic improvement support data

Publications (1)

Publication Number Publication Date
JP2024018437A true JP2024018437A (en) 2024-02-08

Family

ID=89807502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022121788A Pending JP2024018437A (en) 2021-10-25 2022-07-29 Management method of driving characteristic improvement support data

Country Status (1)

Country Link
JP (1) JP2024018437A (en)

Similar Documents

Publication Publication Date Title
US11249544B2 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
US10467488B2 (en) Method to analyze attention margin and to prevent inattentive and unsafe driving
US11042619B2 (en) Vehicle occupant tracking and trust
US10908677B2 (en) Vehicle system for providing driver feedback in response to an occupant's emotion
US20200264623A1 (en) Method and System for Customizing Self-driving Motor Vehicle
US20210086778A1 (en) In-vehicle emergency detection and response handling
WO2019205642A1 (en) Emotion recognition-based soothing method, apparatus and system, computer device, and computer-readable storage medium
US20190197430A1 (en) Personalized ride experience based on real-time signals
CN107817714A (en) Passenger's monitoring system and method
CN107813828A (en) Passenger verification system and method
CN107813829A (en) Passenger's tracing system and method
US20200001892A1 (en) Passenger assisting apparatus, method, and program
EP4005252A1 (en) Multi-computer processing system for dynamically executing response actions based on movement data
CN108327722A (en) System and method for identifying vehicle driver by Move Mode
JPWO2019202881A1 (en) Information processing equipment, mobile devices, information processing systems, and methods, and programs
CN108688593A (en) System and method for identifying at least one passenger of vehicle by Move Mode
WO2021067380A1 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
CN110379443A (en) Voice recognition device and sound identification method
CN114340970A (en) Information processing device, mobile device, information processing system, method, and program
Wan et al. Driving anger states detection based on incremental association markov blanket and least square support vector machine
Busso et al. Advances in multimodal tracking of driver distraction
JP2020154996A (en) Information processing system, agent system, information processing method, and program
WO2023074116A1 (en) Management method for driving-characteristics improving assistance data
JP2024018437A (en) Management method of driving characteristic improvement support data
JP2023079904A (en) Management method of driving characteristic improvement support data

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20240308