JP2023079904A - Management method of driving characteristic improvement support data - Google Patents

Management method of driving characteristic improvement support data Download PDF

Info

Publication number
JP2023079904A
JP2023079904A JP2021193603A JP2021193603A JP2023079904A JP 2023079904 A JP2023079904 A JP 2023079904A JP 2021193603 A JP2021193603 A JP 2021193603A JP 2021193603 A JP2021193603 A JP 2021193603A JP 2023079904 A JP2023079904 A JP 2023079904A
Authority
JP
Japan
Prior art keywords
driving
driver
data
vehicle
driving characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021193603A
Other languages
Japanese (ja)
Inventor
敏広 宮道
Toshihiro MIYAMICHI
剛 西尾
Takeshi Nishio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021193603A priority Critical patent/JP2023079904A/en
Priority to PCT/JP2022/032660 priority patent/WO2023074116A1/en
Publication of JP2023079904A publication Critical patent/JP2023079904A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To more efficiently manage driving characteristic improvement support data based on driving characteristic data and feeling data.SOLUTION: A management method of driving characteristic improvement data links a plurality of pieces of driving scene information showing driving scenes of a vehicle, support data corresponding to the driving scene information to support improvement of safety confirmation behaviors of drivers, and driving characteristic data of the drivers for each driver ID to be registered, acquires the driver IDs of the drivers who drive the vehicle, the driving characteristic data of the drivers corresponding to the driving scene information, and feeling data of the drivers to support based on the support data, collates the driver ID of each of a plurality of drivers with the acquired driver IDs, generates new support data corresponding to the acquired driving scene information on the basis of the driving characteristic data and the feeling data, and updates the support data linked with the same driving scene information as the acquired driving scene information among a plurality of pieces of driving scene information to the generated new support data.SELECTED DRAWING: Figure 17

Description

本開示は、運転特性改善支援データの管理方法に関する。 The present disclosure relates to a method of managing driving characteristic improvement assistance data.

従来、運転者による運転中の安全確認、運転操作等を支援する車両用警報装置および運転支援装置が知られている。 2. Description of the Related Art Conventionally, a vehicle alarm device and a driving assistance device are known that assist a driver in confirming safety while driving, driving operation, and the like.

例えば、特許文献1には、車輌の運転者の生体情報を取得し、取得した生体情報に基づいて、運転者を特定する運転者特定システムが開示されている。運転者特定システムは、車輌に搭載された電子機器からの情報が、定期的に且つ所定条件を満たすと判定した場合に、生体情報の取得を行う。 For example, Patent Literature 1 discloses a driver identification system that acquires biological information of a driver of a vehicle and identifies the driver based on the acquired biological information. The driver identification system acquires biometric information periodically and when it is determined that the information from the electronic device mounted on the vehicle satisfies a predetermined condition.

例えば、特許文献2には、車両が走行する道路の所定道路パラメータとステアリング操舵角との関係に基づいて、運転者の安全確認を必要とする状況にあるか否かを判別し、安全確認が行われていないと判別された場合に、運転者に対して警告を与える車両用警報装置が開示されている。また、特許文献3には、運転者の運転操作の履歴に基づいて、運転者の運転習熟度を学習し、運転習熟度に基づく運転支援度に応じて運転の支援を行う運転支援装置が開示されている。また、特許文献4には、車両の外部環境により運転者の運転操作に要求される環境難易度と、運転者の運転操作に基づく運転技量とから外部環境に対する運転者の運転者状態を推定し、運転技量と運転者状態とに応じて運転支援を行ったり禁止したりする運転支援装置が開示されている。 For example, in Patent Document 2, based on the relationship between a predetermined road parameter of the road on which the vehicle travels and the steering angle, it is determined whether or not the driver's safety confirmation is required. A vehicle warning device is disclosed that warns a driver when it is determined that it has not been done. Further, Patent Document 3 discloses a driving assistance device that learns the driving proficiency level of the driver based on the history of driving operations of the driver and assists driving according to the driving assistance level based on the driving proficiency level. It is In addition, in Patent Document 4, the driver's state relative to the external environment is estimated from the environmental difficulty level required for the driver's driving operation due to the external environment of the vehicle and the driving skill based on the driver's driving operation. , a driving assistance device that performs or prohibits driving assistance according to the driving skill and the driver's condition.

特開2015-71319号公報JP 2015-71319 A 特開2007-233476号公報Japanese Patent Application Laid-Open No. 2007-233476 特開2009-48307号公報JP 2009-48307 A 特開2015-110417号公報JP 2015-110417 A

しかしながら、上述した車両用警報装置および運転支援装置では、運転者の運転技量(操作)に基づいて決定された運転支援を実行するため、運転者により適した運転支援を行う点において、更なる改善の余地があった。 However, in the above-described vehicle alarm device and driving assistance device, since driving assistance is determined based on the driving skill (operation) of the driver, further improvement can be made in terms of performing driving assistance more suitable for the driver. There was room for

本開示は、上述した従来の事情に鑑みて案出され、運転特性データおよび感情データに基づく運転特性改善支援データをより効率的に管理できる運転特性改善支援データの管理方法および運転特性改善支援方法を提供することを目的とする。 The present disclosure has been devised in view of the conventional circumstances described above, and is a method for managing driving characteristic improvement support data and a driving characteristic improvement support method capable of more efficiently managing driving characteristic improvement support data based on driving characteristic data and emotion data. intended to provide

本開示は、少なくとも1台の車両との間で通信可能である1以上のコンピュータが実行する運転特性改善支援データの管理方法であって、前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転場面情報における前記運転者の運転特性データとを複数の前記運転者の運転者IDごとに紐付けて登録し、前記運転場面情報と前記支援データとをそれぞれ紐付けて、前記車両に送信し、前記車両を運転する運転者の運転者IDと、前記運転場面情報に対応する前記運転者の運転特性データと、前記支援データに基づく支援に対する前記運転者の感情データとを取得し、前記複数の運転者のそれぞれの運転者IDと取得された前記運転者IDとを照合し、前記照合された運転者IDに紐付けられた運転特性データと、取得された前記運転特性データおよび前記感情データとに基づいて、取得された前記運転場面情報に対応する新たな支援データを生成し、前記照合された前記運転者IDに紐付けられた複数の運転場面情報のうち取得された前記運転場面情報と同一の運転場面情報に紐付けられた前記支援データを、生成された前記新たな支援データに更新する、運転特性改善支援データの管理方法を提供する。 The present disclosure provides a method for managing driving characteristic improvement assistance data executed by one or more computers communicable with at least one vehicle, comprising a plurality of pieces of driving scene information indicating a driving scene of the vehicle; Support data corresponding to the driving scene information and supporting improvement of safety confirmation behavior of the driver who drives the vehicle and driving characteristic data of the driver in the driving scene information are provided to a plurality of the drivers. Each ID is linked and registered, the driving scene information and the support data are linked, respectively, transmitted to the vehicle, and the driver ID of the driver who drives the vehicle and the driving scene information are associated with each other. obtaining the driving characteristic data of the driver and the emotion data of the driver with respect to assistance based on the assistance data, and comparing the driver IDs of the plurality of drivers with the acquired driver IDs; and generating new support data corresponding to the acquired driving scene information based on the driving characteristic data linked to the verified driver ID and the acquired driving characteristic data and emotion data. Then, the support data linked to the same driving scene information as the acquired driving scene information among the plurality of driving scene information linked to the collated driver ID is added to the generated new To provide a management method of driving characteristic improvement support data, which updates the data to a more suitable support data.

また、本開示は、車両が実行する運転特性改善支援データの管理方法であって、前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転者の運転者IDとを紐付けて記憶し、前記運転場面情報における前記運転者の運転特性データと、前記運転場面情報に対応する前記支援データに基づく支援に対する前記運転者の感情データとをセンサにより取得し、取得された前記運転特性データおよび前記感情データと、前記運転特性データおよび前記感情データが取得された前記運転場面情報と、前記運転者IDとを紐付けて、外部装置に送信し、前記外部装置から送信された前記運転場面情報に対応する新たな支援データを取得し、前記運転場面情報に紐付けられた前記支援データを、取得された前記新たな支援データに更新する、運転特性改善支援データの管理方法を提供する。 Further, the present disclosure is a method for managing driving characteristic improvement support data executed by a vehicle, comprising a plurality of pieces of driving scene information indicating a driving scene of the vehicle, and driving the vehicle corresponding to the driving scene information. support data for assisting the improvement of the safety confirmation behavior of the driver and the driver ID of the driver are linked and stored, and the driving characteristic data of the driver in the driving scene information and the driving scene information are associated with each other; A sensor acquires the emotion data of the driver with respect to the assistance based on the assistance data, and the acquired driving characteristic data and the emotion data, and the driving scene information from which the driving characteristic data and the emotion data are acquired. , the driving scene information is linked with the driver ID and transmitted to an external device, new assistance data corresponding to the driving scene information transmitted from the external device is acquired, and the assistance linked to the driving scene information is acquired. A method for managing driving characteristic improvement assistance data is provided, which updates the data to the acquired new assistance data.

また、本開示は、車両に搭載された1以上のコンピュータが実行する運転特性改善支援データの管理方法であって、前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転者の運転者IDとを紐付けて記憶し、前記運転場面情報における前記運転者の運転特性データと、前記運転場面情報に対応する前記支援データに基づく支援に対する前記運転者の感情データとをセンサにより取得し、取得された前記運転特性データおよび前記感情データと、前記運転特性データおよび前記感情データが取得された前記運転場面情報と、前記運転者IDとを紐付けて、外部装置に送信し、前記外部装置から送信された前記運転場面情報に対応する新たな支援データを取得し、前記運転場面情報に紐付けられた前記支援データを、取得された前記新たな支援データに更新する、運転特性改善支援データの管理方法を提供する。 The present disclosure also provides a method for managing driving characteristic improvement support data executed by one or more computers mounted on a vehicle, comprising a plurality of pieces of driving scene information indicating a driving scene of the vehicle and corresponding to the driving scene information. support data for assisting improvement of the safety confirmation behavior of the driver who drives the vehicle and the driver ID of the driver are linked and stored, and the driving characteristic data of the driver in the driving situation information and and the driver's emotion data for assistance based on the assistance data corresponding to the driving scene information is acquired by a sensor, and the acquired driving characteristic data and the emotion data and the driving characteristic data and the emotion data are combined. Linking the acquired driving scene information with the driver ID, transmitting to an external device, acquiring new support data corresponding to the driving scene information transmitted from the external device, and acquiring the driving scene A method for managing driving characteristic improvement support data is provided, which updates the support data linked to the information to the new support data obtained.

本開示によれば、運転特性データおよび感情データに基づく運転特性改善支援データをより効率的に管理できる。 According to the present disclosure, driving characteristic improvement support data based on driving characteristic data and emotion data can be managed more efficiently.

実施の形態1に係る運転特性管理システムのユースケース例を示す図FIG. 4 shows an example of a use case of the driving characteristic management system according to Embodiment 1. FIG. 実施の形態1における車両の内部構成例を示すブロック図1 is a block diagram showing an internal configuration example of a vehicle according to Embodiment 1. FIG. 実施の形態1における運転特性サーバの内部構成例を示すブロック図FIG. 2 is a block diagram showing an example internal configuration of a driving characteristic server according to the first embodiment; FIG. 実施の形態1における免許証サーバの内部構成例を示すブロック図Block diagram showing an example of the internal configuration of a license server according to Embodiment 1 実施の形態1に係る運転特性管理システムの運転者の初期登録手順例を示すシーケンス図FIG. 2 is a sequence diagram showing an example of a driver initial registration procedure in the driving characteristic management system according to Embodiment 1. FIG. 車両における運転者の初期登録手順例を示すフローチャートFlowchart showing an example of an initial registration procedure for a driver in a vehicle 車両における車両ID登録手順例を示すフローチャートFlowchart showing an example of a vehicle ID registration procedure in a vehicle 車両における免許証ID登録手順例を示すフローチャートFlowchart showing an example of a driver's license ID registration procedure in a vehicle 車両における運転者の顔画像登録手順例を示すフローチャートFlowchart showing an example of a procedure for registering a face image of a driver in a vehicle 運転特性サーバにおける運転者の初期登録手順例を示すフローチャートFlowchart showing an example of a procedure for initial registration of a driver in a driving characteristics server 運転特性サーバにおける車両ID登録手順例を示すフローチャートFlowchart showing an example of a vehicle ID registration procedure in the driving characteristic server 運転特性サーバにおける免許証ID登録手順例を示すフローチャートFlowchart showing an example of a license ID registration procedure in a driving characteristics server 運転特性サーバにおける運転者の顔画像登録手順例を示すフローチャートFlowchart showing an example of a procedure for registering a face image of a driver in a driving characteristic server 実施の形態1に係る運転特性管理システムの運転者の運転特性データ収集手順例を示すシーケンス図4 is a sequence diagram showing an example of a procedure for collecting driving characteristic data of a driver in the driving characteristic management system according to the first embodiment; FIG. 車両における運転者の運転特性データ取得手順例を示すフローチャートFlowchart showing an example of a procedure for acquiring driving characteristic data of a driver in a vehicle 運転特性サーバにおける運転者の運転特性データ収集手順例を示すフローチャートFlowchart showing an example of a procedure for collecting driving characteristic data of a driver in a driving characteristic server 実施の形態2に係る運転特性改善支援システムのユースケース例を示す図A diagram showing an example of a use case of the driving characteristic improvement support system according to the second embodiment. 実施の形態2における車両の内部構成例を示すブロック図Block diagram showing an internal configuration example of a vehicle according to Embodiment 2 運転特性履歴テーブルの一例を示す図A diagram showing an example of a driving characteristic history table 実施の形態2における運転特性改善サーバの内部構成例を示すブロック図Block diagram showing an internal configuration example of a driving characteristic improvement server according to Embodiment 2 運転特性改善管理テーブルの一例を示す図A diagram showing an example of a driving characteristic improvement management table 左折時の安全確認行動例を説明する図Diagram explaining an example of safety confirmation behavior when turning left 右折時の安全確認行動例を説明する図Diagram explaining an example of safety confirmation behavior when turning right 後退時の安全確認行動例を説明する図Diagram explaining an example of safety confirmation behavior when reversing 長距離直線道路を前進時の安全確認行動例を説明する図Diagram explaining an example of safety confirmation behavior when moving forward on a long-distance straight road 運転場面ごとの運転者の安全確認行動のセンシング例を説明する図Diagram explaining an example of sensing the driver's safety confirmation behavior for each driving situation 警告表示灯の配置例を説明する図Diagram explaining an example of the arrangement of warning indicator lights スピーカの配置例を説明する図Diagram explaining an example of speaker arrangement 運転特性改善支援の変更例を説明する図Diagram for explaining an example of modification of driving characteristic improvement support 実施の形態2に係る運転特性改善支援システムの動作手順例を示すフローチャートFlowchart showing an example of the operation procedure of the driving characteristic improvement support system according to the second embodiment 実施の形態2に係る運転特性改善支援システムの動作手順例を説明するフローチャートFlowchart for explaining an example of the operation procedure of the driving characteristic improvement support system according to the second embodiment

(実施の形態1に至る経緯)
近年、ユーザに対する本人確認をオンライン上で実現可能なシステムの一種として、例えばeKYC(electronic Know Your Customer)がある。eKYCは、ユーザ端末(例えば、PC(Personal Computer),スマートフォン,タブレット端末等)から送信されたユーザの顔が撮像された顔画像または動画と、ユーザの氏名,住所,生年月日等の個人情報とユーザの顔画像とが共に記載された本人確認書類(例えば、運転免許証,在留カード,パスポート,マイナンバーカード等)の動画像とを取得する。eKYCは、事前に登録されたこのユーザに関する登録情報(例えば、動画像,本人確認書類に記載された各種個人情報等)と、取得されたユーザの顔画像または動画および本人確認書類の動画像とを照合することで、ユーザの本人確認を行う。
(Background leading up to Embodiment 1)
In recent years, eKYC (electronic Know Your Customer), for example, is one type of system that can realize identity verification for users online. eKYC is a facial image or video of the user's face transmitted from a user terminal (e.g., PC (Personal Computer), smartphone, tablet terminal, etc.), and personal information such as the user's name, address, and date of birth. and a moving image of a personal identification document (for example, a driver's license, a residence card, a passport, a My Number card, etc.) in which the user's face image and the user's face image are described. eKYC collects pre-registered registration information related to this user (e.g., moving images, various personal information described in identity verification documents, etc.), acquired user's face image or video, and moving images of identity verification documents. The identity of the user is verified by matching the

従来、車両から運転者の生体情報と、運転者の運転操作に関する情報とを取得して、運転者を特定するとともに、特定された運転者の運転特徴情報と、運転者が運転する車輌IDとを対応付けて記録する運転者特定システムがある(例えば、特許文献1:特開2015-71319号公報)。しかし、車輌がレンタカー,シェアカー等の異なる複数の運転者により運転される車輌である場合、運転者特定システムは、運転者の運転特徴情報と、運転者が運転する車輌IDとを対応付けて記録するため、運転者ごとに運転特徴情報を記録し、管理することは困難だった。 Conventionally, the biological information of the driver and the information on the driving operation of the driver are acquired from the vehicle, the driver is specified, and the driving feature information of the specified driver and the ID of the vehicle driven by the driver are obtained. (For example, Patent Document 1: JP-A-2015-71319). However, when the vehicle is a rental car, a shared car, or the like, which is driven by a plurality of different drivers, the driver identification system associates the driver's driving feature information with the ID of the vehicle driven by the driver. Therefore, it was difficult to record and manage driving characteristic information for each driver.

また、近年、高齢運転者(高齢ドライバー)の加齢に伴う運転操作ミスに起因する事故が増加している。このような事故を防ぐための取り組みとして、例えば、運転免許証の更新時の高齢運転者の認知機能検査、所定の年齢以上の高齢運転者への運転免許証の返納推奨等がある。しかし、運転免許証を返納した場合、高齢運転者は、自律した日常生活に欠かせない移動手段を失う可能性があった。そこで、運転免許証の返納要否の判断にあたって、収集された運転特性データを用いて高齢運転者の運転操作を客観的に評価することで、高齢運転者の運転操作の変化を可視化することが望まれるが、運転者特定システムは、上述した運転者ごとの運転評価を得る目的で運転特性データを収集,管理することは想定していない。 Also, in recent years, there has been an increase in the number of accidents caused by driving errors caused by aging of elderly drivers (elderly drivers). Efforts to prevent such accidents include, for example, cognitive function tests for elderly drivers when renewing their driver's licenses, and recommendations for elderly drivers over a predetermined age to return their driver's licenses. However, if they surrendered their driver's license, the elderly driver could lose the means of transportation that are essential for independent daily living. Therefore, in determining whether or not to return the driver's license, it is possible to visualize changes in the driving behavior of elderly drivers by objectively evaluating the driving behavior of elderly drivers using collected driving characteristic data. Although desired, the driver identification system does not contemplate collecting and managing driving characteristic data for the purpose of obtaining the above-described driver-specific driving ratings.

そこで、以下の実施の形態1では、運転者ごとの運転特性データをより効率的に収集し、収集された運転特性データの管理を支援する運転特性データの管理方法および車載器の例を説明する。 Therefore, in the following first embodiment, an example of a method of managing driving characteristic data and an on-vehicle device for more efficiently collecting driving characteristic data for each driver and supporting management of the collected driving characteristic data will be described. .

以下、適宜図面を参照しながら、本開示に係る運転特性データの管理方法、車載器、および運転特性改善支援データの管理方法を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長化することを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, each embodiment specifically disclosing the management method of driving characteristic data, the vehicle-mounted device, and the management method of driving characteristic improvement support data according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided to allow those skilled in the art to fully understand the present disclosure and are not intended to limit the claimed subject matter.

(実施の形態1)
図1を参照して、実施の形態1に係る運転特性管理システム100のユースケース例について説明する。図1は、実施の形態1に係る運転特性管理システム100のユースケース例を示す図である。図1における運転特性管理システム100は、生体情報の一例として運転者の顔画像を送信する例を図示している。
(Embodiment 1)
A use case example of the driving characteristic management system 100 according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a use case example of the driving characteristic management system 100 according to the first embodiment. The driving characteristic management system 100 in FIG. 1 illustrates an example of transmitting a face image of a driver as an example of biological information.

運転特性管理システム100は、1台以上の車両C1,…のそれぞれと、運転特性サーバS1と、免許証サーバS2と、ネットワークNWと、を含んで構成される。なお、運転特性管理システム100は、無線端末装置P1を含む構成であってよい。 The driving characteristic management system 100 includes each of one or more vehicles C1, . . . , a driving characteristic server S1, a license server S2, and a network NW. Note that the driving characteristic management system 100 may be configured to include the wireless terminal device P1.

運転特性管理システム100は、1台以上の車両C1,…のそれぞれに搭載された通信機器11(図2参照)から送信された車両を運転する運転者の運転特性データを取得する。運転特性管理システム100は、取得された運転特性データと、運転者の免許証ID(Identification)とを紐付けて、運転特性サーバS1に蓄積して、管理する。また、運転特性管理システム100は、免許証サーバS2で事前に登録された複数の運転者のそれぞれの免許証IDを管理する。運転特性管理システム100は、運転特性サーバS1あるいは免許証サーバS2により運転者ごとの運転評価を実行し、運転評価結果を無線端末装置P1あるいはカーナビゲーション装置12に送信して、出力させる。 The driving characteristic management system 100 acquires the driving characteristic data of the driver who drives the vehicle transmitted from the communication device 11 (see FIG. 2) mounted on each of one or more vehicles C1, . The driving characteristic management system 100 associates the acquired driving characteristic data with the driver's license ID (Identification), accumulates them in the driving characteristic server S1, and manages them. In addition, the driving characteristics management system 100 manages license IDs of each of a plurality of drivers registered in advance in the license server S2. The driving characteristic management system 100 executes driving evaluation for each driver using the driving characteristic server S1 or the license server S2, and transmits the driving evaluation result to the wireless terminal device P1 or the car navigation device 12 for output.

なお、ここでいう運転特性データは、運転者の運転特性を示すデータであって、車両C1,…のそれぞれに搭載された、各種センサ(例えば車内カメラ13,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,速度センサ18,車外センサ/カメラ19,GPSセンサ20,あるいはステアリング17D等(図2参照))により取得される。 The driving characteristic data referred to here is data indicating the driving characteristics of the driver, and includes various sensors (for example, the in-vehicle camera 13, the gyro sensor 14, the accelerator pedal 17A, the brake It is acquired by the pedal 17B, the turn lamp 17C, the speed sensor 18, the outside sensor/camera 19, the GPS sensor 20, or the steering wheel 17D (see FIG. 2)).

例えば、運転特性データは、運転特性パラメータあるいは運転特性ベクトルの少なくとも一方により示されるデータであって、走行時の加速度,躍度,横G(つまり、進行方向と直角に発生する加速度),操舵角度,走行中の道路の種類、走行中の道路の制限速度に対する超過速度,運転者の視線方向等の1以上のデータである。なお、運転特性データは、上述の例に限定されず、これらのデータを2以上組み合わせることで得られる運転者の運転特性を示すデータであってもよい。 For example, the driving characteristic data is data indicated by at least one of a driving characteristic parameter and a driving characteristic vector, and includes acceleration, jerk, lateral G (that is, acceleration generated perpendicular to the direction of travel), steering angle, etc. , the type of road on which the vehicle is traveling, the speed exceeding the speed limit of the road on which the vehicle is traveling, the line of sight of the driver, and the like. The driving characteristic data is not limited to the above example, and may be data indicating the driving characteristic of the driver obtained by combining two or more of these data.

運転特性パラメータは、運転特性データに含まれるデータごとの値(パラメータ)である。運転特性ベクトルは、運転特性データに含まれるデータ数と、データごとの値とに基づいて算出される加算平均値である。例えば、運転特性ベクトルは、運転特性データのデータ数がN(N:1以上の整数)である場合、N次ベクトルにより表される。 The driving characteristic parameter is a value (parameter) for each data included in the driving characteristic data. The driving characteristic vector is an addition average value calculated based on the number of data included in the driving characteristic data and the value for each data. For example, the driving characteristic vector is represented by an Nth-order vector when the number of data in the driving characteristic data is N (N: an integer equal to or greater than 1).

車両C1,…のそれぞれは、ネットワークNWを介して運転特性サーバS1との間で無線通信可能に接続される。なお、ここでいう無線通信は、例えばWi-Fi(登録商標)に代表される無線LAN等であって、その種類は特に限定されない。車両C1,…のそれぞれは、運転者が自車両を初めて運転する場合に、この運転者の初期登録を要求する制御指令を生成して、初期登録対象である運転者の免許証IDと生体情報と車両IDとを紐付けて、運転特性サーバS1に送信する。また、車両C1,…のそれぞれは、運転者により運転されている間、運転者の運転特性データと車両IDとを紐付けて運転特性サーバS1に送信し、運転者の運転特性データと車両IDとを、初期登録済みの運転者の免許証IDに紐付けて記録させる。 Each of the vehicles C1, . Note that the wireless communication referred to here is, for example, a wireless LAN represented by Wi-Fi (registered trademark), and the type thereof is not particularly limited. When the driver drives the own vehicle for the first time, each of the vehicles C1, . and the vehicle ID are linked and transmitted to the driving characteristic server S1. Further, each of the vehicles C1, . are recorded in association with the driver's license ID that has already been initially registered.

初期登録において、車両C1,…のそれぞれは、カーナビゲーション装置12の入力部12D(図2参照)を介して、運転者による運転特性サーバS1への免許証IDの初期登録を要求する操作を受け付ける。車両C1,…のそれぞれは、運転者の免許証IDと、運転者の生体情報とを取得し、取得された運転者の免許証IDと生体情報と、自車両を識別可能な車両ID(例えば、ナンバープレート情報)とを紐付けて、運転特性サーバS1に送信する。 In the initial registration, each of the vehicles C1, . . Each of the vehicles C1, . , license plate information) and transmitted to the driving characteristic server S1.

運転特性データ収集時において、車両C1,…のそれぞれは、運転者の乗車を検知したタイミングから各種センサによる運転特性データの取得を開始し、取得された運転特性データと、車両IDとを紐付けて、運転特性サーバS1に送信する。また、車両C1,…のそれぞれは、運転者の乗車を検知したタイミングから運転者の生体情報の取得を開始し、取得された運転者の生体情報と、車両IDとを紐付けて、運転特性サーバS1に送信し、運転特性サーバS1に運転者認証(つまり、運転者の特定)を要求する。なお、車両C1,…のそれぞれは、運転特性データと、運転者の生体情報と、車両IDとを紐付けて、運転特性サーバS1に送信してもよい。さらに、車両C1,…のそれぞれは、運転特性サーバS1から送信された運転者認証が完了した(つまり、送信された運転者の生体情報と、運転特性サーバS1に登録済みの生体情報とが照合した)旨の電気信号を取得した場合、運転者の生体情報の取得および送信を終了する。 At the time of collecting the driving characteristic data, each of the vehicles C1, . and transmits it to the driving characteristic server S1. Further, each of the vehicles C1, . It is sent to the server S1 to request the driving characteristics server S1 to authenticate the driver (that is, identify the driver). Each of the vehicles C1, . Further, each of the vehicles C1, . When the electric signal indicating that the vehicle has been completed is obtained, the acquisition and transmission of the driver's biometric information are terminated.

車両C1,…のそれぞれは、運転者による運転終了を検知したタイミングで各種センサによる運転特性データおよび生体情報のそれぞれの取得を終了する。 Each of the vehicles C1, .

ここでいう免許証IDは、車内カメラ13により撮像された車両を運転する運転者の運転免許証の撮像画像、あるいは、運転免許証に記載された免許証IDを読み取り可能な免許証リーダ(不図示)により取得された運転免許証に関する情報(例えば、運転者の顔画像,運転者に関する情報,運転者を特定可能に割り当てられた各種番号等)である。免許証リーダは、NFC(Near Field Communication),Bluetooth(登録商標)等の近距離無線通信により読み取られた免許証IDをプロセッサ12Aに送信可能であってもよいし、USB(Universal Serial Bus)等によりカーナビゲーション装置12との間で有線通信により読み取られた免許証IDをプロセッサ12Aに送信可能であってもよい。 The driver's license ID here refers to the captured image of the driver's license of the driver who drives the vehicle captured by the in-vehicle camera 13, or a driver's license reader capable of reading the driver's license ID written on the driver's license. (illustration) (for example, face image of the driver, information about the driver, various numbers assigned to identify the driver, etc.). The license reader may be capable of transmitting the license ID read by short-range wireless communication such as NFC (Near Field Communication) or Bluetooth (registered trademark) to the processor 12A, or via USB (Universal Serial Bus) or the like. The driver's license ID read by wire communication with the car navigation device 12 may be transmitted to the processor 12A.

また、免許証IDは、車内カメラ13により撮像された撮像画像を画像解析することで取得される運転免許証に関する情報、あるいは運転者によるカーナビゲーション装置12の入力部12D(図2参照)への入力操作により入力された運転免許証に関する情報であってもよい。 The driver's license ID is information about the driver's license obtained by image analysis of the captured image captured by the in-vehicle camera 13, or input by the driver to the input unit 12D (see FIG. 2) of the car navigation device 12. It may be information about a driver's license input by an input operation.

また、ここでいう運転者の生体情報は、1枚以上の運転者の顔画像,虹彩,指紋,静脈,音声等である。運転者の生体情報が運転者の虹彩,指紋,静脈,音声等である場合、車両C1,…のそれぞれは、運転者の虹彩,指紋,静脈,音声を取得可能な装置(不図示)あるいはセンサ(不図示)を備えてよい。 Also, the biometric information of the driver here is one or more face images, irises, fingerprints, veins, voice, etc. of the driver. If the biological information of the driver is the driver's iris, fingerprint, vein, voice, etc., each of the vehicles C1, . . . (not shown).

運転者の顔画像は、車内カメラ13により撮像される。また、初期登録時に撮像される運転者の顔画像は、複数枚であることが望ましく、運転者が正面を向いている時に撮像された顔画像(以降、「正面顔画像」と表記)を少なくとも1枚含む。初期登録時に撮像される顔画像の枚数が2枚以上である場合、車内カメラ13は、運転者の顔の向きを画像解析により解析し、正面顔画像と、運転者が正面以外の他の方向(例えば、左方向,右方向等)を向いている時に撮像された1枚以上の顔画像とを撮像する。なお、以降の説明では、左方向を向いている時に撮像された顔画像を「左向き顔画像」と表記し、右方向を向いている時に撮像された顔画像を「右向き顔画像」と表記する。 A face image of the driver is captured by the in-vehicle camera 13 . In addition, it is desirable that a plurality of face images of the driver are captured at the time of initial registration. Includes 1 sheet. When the number of facial images captured at the time of initial registration is two or more, the in-vehicle camera 13 analyzes the orientation of the driver's face by image analysis, One or more face images captured while facing (for example, the left direction, the right direction, etc.) are captured. In the following description, a face image captured when the person is facing left is referred to as a "left face image", and a face image captured when the person is facing right is referred to as a "right face image". .

虹彩は、車内カメラ13により撮像された運転者の顔画像を用いて、車両C1,…に搭載されたICM(Intelligent Control Module,不図示)、カーナビゲーション装置12あるいは運転特性サーバS1による画像解析により取得されてよい。 The iris is obtained by image analysis by the ICM (Intelligent Control Module, not shown) mounted on the vehicle C1, the car navigation device 12, or the driving characteristic server S1 using the face image of the driver captured by the in-vehicle camera 13. may be obtained.

指紋は、車内カメラ13により撮像された運転者の1本以上の指先画像を用いて、車両C1,…に搭載されたICM、カーナビゲーション装置12あるいは運転特性サーバS1による画像解析により取得されてもよいし、車両C1,…が備える指紋センサ(不図示)、あるいは指紋センサ機能を有するステアリング17D等により取得されてもよい。 Fingerprints may be acquired by image analysis by the ICM, the car navigation device 12, or the driving characteristic server S1 mounted on the vehicles C1, . Alternatively, it may be acquired by a fingerprint sensor (not shown) provided in the vehicle C1, .

静脈は、車内カメラ13により撮像された運転者の手画像を用いて、車両C1,…に搭載されたICM、カーナビゲーション装置12あるいは運転特性サーバS1による画像解析により取得されてもよいし、車両C1,…が備える静脈センサ(不図示)により取得されてもよい。 The veins may be obtained by image analysis by the ICM, the car navigation device 12, or the driving characteristic server S1 mounted on the vehicle C1, using the image of the driver's hand captured by the in-vehicle camera 13. It may be acquired by a vein sensor (not shown) included in C1, . . . .

音声は、カーナビゲーション装置12が備えるマイク、あるいは他のマイク(不図示)により収音される運転者の音声である。ここで収音される音声は、所定のキーワード等であってよい。 The voice is the driver's voice picked up by a microphone provided in the car navigation device 12 or another microphone (not shown). The sound picked up here may be a predetermined keyword or the like.

運転特性サーバS1は、ネットワークNWを介して、車両C1,…のそれぞれと、無線端末装置P1と、免許証サーバS2との間でそれぞれデータ通信可能に接続される。運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の初期登録を要求する制御指令に基づいて、初期登録を実行する。また、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の運転特性データを収集し、収集された運転者の運転特性データを、初期登録済みの運転者の免許証IDに紐付けて記録する。 The driving characteristic server S1 is connected to each of the vehicles C1, . The driving characteristic server S1 executes initial registration based on the control command requesting the initial registration of the driver transmitted from each of the vehicles C1, . . . Further, the driving characteristic server S1 collects the driving characteristic data of the driver transmitted from each of the vehicles C1, . Link and record.

初期登録において、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の初期登録を要求する制御指令と、初期登録対象である運転者の生体情報と、免許証IDと、車両IDとを取得する。運転特性サーバS1は、取得された運転者の生体情報と免許証IDとを照合して、生体情報が示す運転者と免許証IDが示す運転者とが同一人物であるか否か(つまり、本人確認)を実行する。運転特性サーバS1は、取得された生体情報と免許証IDが示す運転者とが同一人物であると判定した場合、この運転者の免許証IDと、運転者の顔画像と、車両IDとを紐付けて登録(初期登録)する。なお、ここで登録される運転者の顔画像は、1枚の正面顔画像であってもよいし、1枚の正面顔画像と1枚以上の右向き顔画像または左向き顔画像であってもよい。 In the initial registration, the driving characteristic server S1 receives a control command requesting initial registration of the driver transmitted from each of the vehicles C1, . Get the ID. The driving characteristic server S1 collates the acquired biometric information of the driver with the license ID to determine whether the driver indicated by the biometric information and the driver indicated by the license ID are the same person (that is, identity verification). When the driving characteristic server S1 determines that the driver indicated by the acquired biometric information and the license ID is the same person, the driving characteristic server S1 stores the driver's license ID, the driver's face image, and the vehicle ID. Link and register (initial registration). The face image of the driver registered here may be one front face image, or may be one front face image and one or more right-facing face images or left-facing face images. .

運転特性データ収集時において、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の生体情報と運転特性データと車両IDとを取得し、取得された運転者の生体情報と、初期登録済みの複数の運転者の生体情報のそれぞれとを照合する。運転特性サーバS1は、複数の運転者の生体情報のそれぞれのうち照合する運転者がいると判定した場合、運転者の免許証IDに、取得された運転特性データと車両IDとを紐付けて記録する。 At the time of collecting the driving characteristic data, the driving characteristic server S1 acquires the driver's biological information, the driving characteristic data, and the vehicle ID transmitted from each of the vehicles C1, . Each of biometric information of a plurality of initially registered drivers is compared. If the driving characteristic server S1 determines that there is a driver to be compared among the biometric information of a plurality of drivers, the driving characteristic server S1 associates the driver's license ID with the acquired driving characteristic data and the vehicle ID. Record.

運転特性サーバS1は、免許証サーバS2から送信された所定の運転者の運転評価結果を要求する制御指令に基づいて、この所定の運転者の運転特性データを用いて、運転評価を実行する。運転特性サーバS1は、運転評価結果を生成して、無線端末装置P1に送信する。このような場合、無線端末装置P1は、例えば、運転者の免許更新を判断する警察庁の職員、自動車に関する保険(商品)を取り扱う保険会社の社員等により所持される。これにより、警察庁の職員は、無線端末装置P1に表示された所定の運転者の運転評価結果に基づいて、運転者の免許更新に関する判断を行うことができる。同様に、保険会社の社員は、無線端末装置P1に表示された所定の運転者の運転評価結果(つまり、安全運転の度合いを示す指標)に基づいて、所定の運転者の自動車保険料を算出できる。 The driving characteristic server S1 executes the driving evaluation using the driving characteristic data of the predetermined driver based on the control command requesting the result of the driving evaluation of the predetermined driver transmitted from the license server S2. The driving characteristic server S1 generates a driving evaluation result and transmits it to the wireless terminal device P1. In such a case, the wireless terminal device P1 is possessed by, for example, an employee of the National Police Agency who decides whether or not to renew a driver's license, or an employee of an insurance company who handles automobile insurance (products). Accordingly, the staff of the National Police Agency can make a decision regarding renewal of the driver's license based on the predetermined driving evaluation result of the driver displayed on the wireless terminal device P1. Similarly, the employee of the insurance company calculates the automobile insurance premium for the predetermined driver based on the driving evaluation result (that is, the index indicating the degree of safe driving) of the predetermined driver displayed on the wireless terminal device P1. can.

また、運転特性サーバS1は、運転者が所有する無線端末装置P1から送信された所定の運転者の運転特性データを要求する制御指令を取得する。運転特性サーバS1は、無線端末装置P1から送信された制御指令に含まれる免許証IDあるいは生体情報と、登録済みの複数の運転者の免許証IDあるいは生体情報とを照合する。運転特性サーバS1は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データと、運転特性データが取得された車両の車両IDとを抽出して、無線端末装置P1あるいはカーナビゲーション装置12に送信する。 The driving characteristic server S1 also acquires a control command requesting driving characteristic data of a predetermined driver transmitted from the wireless terminal device P1 owned by the driver. The driving characteristic server S1 collates the license ID or biometric information included in the control command transmitted from the wireless terminal device P1 with the license IDs or biometric information of a plurality of registered drivers. The driving characteristic server S1 extracts the driving characteristic data of the driver corresponding to the driver's license ID or biometric information included in the control command and the vehicle ID of the vehicle from which the driving characteristic data was acquired, based on the result of the matching. , to the wireless terminal device P1 or the car navigation device 12 .

なお、ここで、運転特性サーバS1が蓄積された運転特性データに基づいて、この運転者の運転評価を実行する場合、運転特性サーバS1は、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転評価結果を生成して、無線端末装置P1あるいはカーナビゲーション装置12に送信してもよい。 Here, when the driving characteristic server S1 executes the driving evaluation of the driver based on the accumulated driving characteristic data, the driving characteristic server S1 corresponds to the driver's license ID or biometric information included in the control command. A driving evaluation result of the driver may be generated and transmitted to the wireless terminal device P1 or the car navigation device 12 .

免許証サーバS2は、ネットワークNWを介して、運転特性サーバS1と、無線端末装置P1との間でそれぞれデータ通信可能に接続される。免許証サーバS2は、複数の運転者の免許証IDを記録、管理する。なお、免許証サーバS2により記録、管理される情報は、免許証IDに限定されず、例えば運転免許証の更新に関する情報、運転特性データを用いた運転評価結果等であってよい。 The driver's license server S2 is connected to the driving characteristic server S1 and the wireless terminal device P1 via the network NW so as to enable data communication. The license server S2 records and manages the license IDs of multiple drivers. The information recorded and managed by the license server S2 is not limited to the license ID, and may be, for example, information on renewal of the driver's license, driving evaluation results using driving characteristic data, and the like.

免許証サーバS2は、無線端末装置P1から送信された所定の運転者の運転特性データを要求する制御指令を取得する。免許証サーバS2は、無線端末装置P1から送信された制御指令に含まれる免許証IDあるいは生体情報と、登録済みの複数の運転者の免許証IDあるいは生体情報とを照合し、照合結果を運転特性サーバS1に送信する。運転特性サーバS1は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データと、運転特性データが取得された車両の車両IDとを抽出して、免許証サーバS2に送信する。 The license server S2 acquires a control command requesting driving characteristic data of a predetermined driver transmitted from the wireless terminal device P1. The license server S2 compares the license ID or biometric information included in the control command transmitted from the wireless terminal device P1 with the license IDs or biometric information of a plurality of registered drivers, and uses the matching result as a driving device. Send to property server S1. The driving characteristic server S1 extracts the driving characteristic data of the driver corresponding to the driver's license ID or biometric information included in the control command and the vehicle ID of the vehicle from which the driving characteristic data was acquired, based on the result of the matching. , to the license server S2.

なお、ここで、運転特性サーバS1が蓄積された運転特性データに基づいて、この運転者の運転評価を実行する場合、運転特性サーバS1は、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転評価結果を生成して、免許証サーバS2に送信してもよい。 Here, when the driving characteristic server S1 executes the driving evaluation of the driver based on the accumulated driving characteristic data, the driving characteristic server S1 corresponds to the driver's license ID or biometric information included in the control command. A driving evaluation result of the driver may be generated and transmitted to the license server S2.

無線端末装置P1は、ネットワークNWを介して、運転特性サーバS1との間で通信可能に接続される。無線端末装置P1は、例えば運転者、運転者の親族、警察官、保険会社の社員等が所有するPC(Personal Computer),ノートPC,タブレット端末,あるいはスマートフォン等である。なお、無線端末装置P1は、上述した例に限定されず、車両C1,…に搭載されたカーナビゲーション装置12であってもよい。 The wireless terminal device P1 is communicably connected to the driving characteristic server S1 via the network NW. The wireless terminal device P1 is, for example, a PC (Personal Computer) owned by a driver, a relative of the driver, a police officer, an employee of an insurance company, a notebook PC, a tablet terminal, a smart phone, or the like. Note that the wireless terminal device P1 is not limited to the example described above, and may be the car navigation device 12 mounted on the vehicle C1, . . .

無線端末装置P1は、運転者,運転者の親族等による入力操作を受け付け可能であって、入力操作に基づいて、運転者の運転評価結果を要求する制御指令を生成する。無線端末装置P1は、運転者の免許証IDあるいは生体情報を取得し、取得された運転者の免許証IDあるいは生体情報と、制御指令とを紐付けて運転特性サーバS1に送信する。また、無線端末装置P1は、運転特性サーバS1から送信された運転者の運転評価結果を取得した場合、取得された運転者の運転評価結果を無線端末装置P1のモニタ(不図示)に出力する。なお、無線端末装置P1がカーナビゲーション装置12により実現される場合、無線端末装置P1(つまり、カーナビゲーション装置12)は、取得された運転者の運転評価結果をカーナビゲーション装置12の表示部12Cに出力する。 The wireless terminal device P1 can receive an input operation by the driver, a relative of the driver, or the like, and generates a control command requesting the driver's driving evaluation result based on the input operation. The wireless terminal device P1 acquires the driver's license ID or biometric information, associates the acquired driver's license ID or biometric information with the control command, and transmits them to the driving characteristic server S1. Further, when the wireless terminal device P1 acquires the driving evaluation result of the driver transmitted from the driving characteristic server S1, the wireless terminal device P1 outputs the acquired driving evaluation result of the driver to the monitor (not shown) of the wireless terminal device P1. . When the wireless terminal device P1 is realized by the car navigation device 12, the wireless terminal device P1 (that is, the car navigation device 12) displays the acquired driving evaluation result of the driver on the display unit 12C of the car navigation device 12. Output.

ネットワークNWは、複数の車両C1,…のそれぞれと、運転特性サーバS1と、免許証サーバS2との間、および、運転特性サーバS1と無線端末装置P1との間を、無線通信可能に接続する。 The network NW connects each of the plurality of vehicles C1, . .

次に、図2を参照して、実施の形態1における車両C1,…の内部構成例について説明する。図2は、実施の形態1における車両C1,…の内部構成例を示すブロック図である。なお、図2に示す車両C1,…の内部構成は、生体情報として運転者の顔画像を用いる場合の内部構成例を図示し、他の生体情報を取得するためのセンサ、および免許証リーダ等の図示を省略している。また、車両C1,…のそれぞれは、同様の内部構成であるため、以降の説明では車両C1の内部構成について説明する。 Next, an internal configuration example of the vehicle C1, . . . according to the first embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing an internal configuration example of vehicles C1, . . . according to the first embodiment. The internal configuration of the vehicle C1, . is omitted. Since each of the vehicles C1, . . . has the same internal configuration, the internal configuration of the vehicle C1 will be described below.

車両C1は、通信機器11と、カーナビゲーション装置12と、車内カメラ13と、ジャイロセンサ14と、メモリ15と、ECU(Electronic Control Unit)16と、を少なくとも含んで構成される。車両C1内部の各部は、CAN(Controller Area Network)等によりデータ送受信可能に接続される。 The vehicle C1 includes at least a communication device 11, a car navigation device 12, an in-vehicle camera 13, a gyro sensor 14, a memory 15, and an ECU (Electronic Control Unit) 16. Each part inside the vehicle C1 is connected by a CAN (Controller Area Network) or the like so that data can be transmitted and received.

なお、通信機器11、カーナビゲーション装置12、車内カメラ13、およびジャイロセンサ14は、1つのカーナビゲーション装置10として一体的に構成されてもよい。また、図2に示す車両C1に搭載されるセンサは一例であってこれに限定されない。 Communication device 11 , car navigation device 12 , in-vehicle camera 13 , and gyro sensor 14 may be integrally configured as one car navigation device 10 . Moreover, the sensor mounted on the vehicle C1 shown in FIG. 2 is an example and is not limited to this.

通信機器11は、ネットワークNWを介して、車両C1と運転特性サーバS1との間で無線通信によるデータの送受信を実行する。通信機器11は、運転者の免許証ID、生体情報(ここでは、1枚以上の顔画像)、車両ID、運転特性データ等を運転特性サーバS1に送信する。通信機器11は、運転特性サーバS1から送信された初期登録完了を通知する電気信号、運転者の特定完了を通知する電気信号等を受信して、プロセッサ12Aに出力する。 The communication device 11 transmits and receives data by wireless communication between the vehicle C1 and the driving characteristic server S1 via the network NW. The communication device 11 transmits the driver's license ID, biometric information (here, one or more facial images), vehicle ID, driving characteristic data, etc. to the driving characteristic server S1. The communication device 11 receives an electric signal for notifying completion of initial registration, an electric signal for notifying completion of driver identification, and the like, which are transmitted from the driving characteristics server S1, and outputs them to the processor 12A.

カーナビゲーション装置12は、運転者操作を受け付け可能な装置である。また、カーナビゲーション装置12は、例えばカーナビゲーション機能、位置情報提供サービス機能、インターネット接続機能、マルチメディア再生機能等を提供可能なIVI(In-Vehicle Infotainment)装置であってもよい。カーナビゲーション装置12は、プロセッサ12Aと、メモリ12Bと、表示部12Cと、入力部12Dとを含んで構成される。 The car navigation device 12 is a device capable of accepting a driver's operation. Also, the car navigation device 12 may be an IVI (In-Vehicle Information) device capable of providing, for example, a car navigation function, a location information providing service function, an Internet connection function, a multimedia reproduction function, and the like. The car navigation device 12 includes a processor 12A, a memory 12B, a display section 12C, and an input section 12D.

プロセッサ12Aは、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、各部の動作を制御する。プロセッサ12Aは、メモリ12Bと協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ12Aは、メモリ12Bに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。 The processor 12A is configured using, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor) or an FPGA (Field Programmable Gate Array), and controls the operation of each section. The processor 12A cooperates with the memory 12B to collectively perform various processes and controls. Specifically, the processor 12A implements the function of each part by referring to the programs and data held in the memory 12B and executing the programs.

プロセッサ12Aは、入力部12Dから出力された運転特性サーバS1への運転者の初期登録を開始するための制御指令に基づいて、初期登録処理を開始する。プロセッサ12Aは、車内カメラ13により撮像された1枚以上の運転者の顔画像と、運転免許証が撮像された撮像画像(免許証ID)と、車両IDと、運転者の初期登録を要求する制御指令とを紐付けて、運転特性サーバS1に送信する。なお、免許証IDは、運転者操作により入力部12Dに入力された免許証情報であってもよい。同様に、運転者操作により入力部12Dに入力されたナンバープレート情報であってもよい。 The processor 12A starts the initial registration process based on the control command for starting the initial registration of the driver in the driving characteristic server S1 output from the input unit 12D. The processor 12A requests one or more facial images of the driver captured by the in-vehicle camera 13, a captured image of the driver's license (license ID), the vehicle ID, and initial registration of the driver. It is linked with the control command and transmitted to the driving characteristic server S1. The driver's license ID may be driver's license information input to the input unit 12D. Similarly, it may be the license plate information input to the input unit 12D by the driver's operation.

プロセッサ12Aは、ECU16あるいは通信機器11から運転者の乗車を検知した旨の制御指令を取得したタイミングから、運転者の運転特性データの取得を開始する。プロセッサ12Aは、ジャイロセンサ14から出力された電気信号に基づいて、運転特性データとして車両C1の角速度を取得したり、ECU16を介して、各種センサ(例えば車内カメラ13,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,速度センサ18,車外センサ/カメラ19,GPSセンサ20,あるいはステアリング17D等)により取得された各種運転特性データを取得したりする。なお、各種センサにより取得される運転特性データは、それぞれ後述する。プロセッサ12Aは、取得された運転特性データと、車両IDとを紐付けて、運転特性サーバS1に送信する。また、プロセッサ12Aは、運転特性サーバS1により実行される運転者の登録あるいは特定に用いられる運転者の生体情報として、車内カメラ13に運転者の顔画像を撮像させる。プロセッサ12Aは、車内カメラ13から出力された運転者の顔画像と車両IDとを紐付けて、運転特性サーバS1に送信する。 The processor 12A starts acquiring the driver's driving characteristic data at the timing of acquiring the control command from the ECU 16 or the communication device 11 indicating that the driver's boarding has been detected. The processor 12A acquires the angular velocity of the vehicle C1 as driving characteristic data based on the electrical signal output from the gyro sensor 14, and receives various sensors (for example, the in-vehicle camera 13, the gyro sensor 14, the accelerator pedal 17A) via the ECU 16. , brake pedal 17B, turn lamp 17C, speed sensor 18, vehicle exterior sensor/camera 19, GPS sensor 20, steering wheel 17D, etc.). Driving characteristic data acquired by various sensors will be described later. The processor 12A associates the acquired driving characteristic data with the vehicle ID, and transmits them to the driving characteristic server S1. In addition, the processor 12A causes the in-vehicle camera 13 to capture a facial image of the driver as the biological information of the driver used for driver registration or identification performed by the driving characteristic server S1. The processor 12A associates the face image of the driver output from the in-vehicle camera 13 with the vehicle ID, and transmits the result to the driving characteristic server S1.

プロセッサ12Aは、ECU16あるいは通信機器11から運転者の降車を検知した旨の制御指令を取得したタイミングで、運転者の運転特性データの取得処理、および運転特性サーバS1への運転特性データの送信処理を終了する。なお、プロセッサ12Aは、運転特性サーバS1から送信された初期登録あるいは運転者の顔照合が完了した旨の制御指令に基づいて、車内カメラ13による撮像処理を終了させてよい。 The processor 12A acquires the driving characteristic data of the driver and transmits the driving characteristic data to the driving characteristic server S1 at the timing when the processor 12A acquires a control command from the ECU 16 or the communication device 11 indicating that the driver has exited the vehicle. exit. Note that the processor 12A may terminate the imaging process by the in-vehicle camera 13 based on the control command sent from the driving characteristics server S1 indicating that the initial registration or the face matching of the driver has been completed.

また、プロセッサ12Aは、車内カメラ13から出力された運転者の顔画像を画像解析し、運転者の視線検知,眠気検知,感情検知等を実行してもよい。プロセッサ12Aは、検知された検知結果を運転特性データとして、車両IDと紐付けて運転特性サーバS1に送信する。 In addition, the processor 12A may perform image analysis of the face image of the driver output from the in-vehicle camera 13, and detect the line of sight of the driver, the drowsiness detection, the emotion detection, and the like. The processor 12A associates the detected detection result with the vehicle ID as driving characteristic data and transmits the data to the driving characteristic server S1.

メモリ12Bは、例えばプロセッサ12Aの各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ12Aの動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ12Aにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ12Aの動作を規定するプログラムが書き込まれている。また、メモリ12Bは、車両C1の車両IDを記憶する。 The memory 12B includes, for example, a RAM (Random Access Memory) as a work memory used when executing each process of the processor 12A, and a ROM (Read Only Memory) for storing programs and data defining the operation of the processor 12A. have. The RAM temporarily stores data or information generated or obtained by the processor 12A. A program that defines the operation of the processor 12A is written in the ROM. The memory 12B also stores the vehicle ID of the vehicle C1.

表示部12Cは、例えばLCD(Liquid Crystal Display)もしくは有機EL(Electroluminescence)を用いて構成される。 The display unit 12C is configured using, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence).

入力部12Dは、表示部12Cと一体的に構成されたユーザインタフェースである。入力部12Dは、受け付けられた運転者操作を電気信号(制御指令)に変換して、プロセッサ12Aに出力する。入力部12Dは、運転者による初期登録を開始するための入力操作を受け付けたり、免許証IDあるいは車両IDの入力操作を受け付けたりする。 The input unit 12D is a user interface configured integrally with the display unit 12C. The input unit 12D converts the received driver's operation into an electric signal (control command) and outputs it to the processor 12A. The input unit 12D accepts an input operation by the driver to start initial registration, or accepts an input operation of a driver's license ID or a vehicle ID.

車内カメラ13は、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCD(Charged-Coupled Device)あるいはCMOS(Complementary Metal-Oxide-Semiconductor)等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。 The in-vehicle camera 13 includes at least a lens (not shown) and an image sensor (not shown). The image sensor is a solid-state imaging device such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and converts an optical image formed on an imaging surface into an electrical signal.

車内カメラ13は、入力部12Dを介した運転者による入力操作あるいは運転者の乗車検知に基づいて、運転席に座る運転者の顔を撮像して、プロセッサ12Aに出力する。プロセッサ12Aは、撮像された運転者の顔画像を画像解析し、運転者の顔の向きを検出する。プロセッサ12Aは、検出された運転者の顔の向きが事前に設定された顔の向きであると判定した場合、この顔画像と車両IDとを紐付けて、通信機器11から運転特性サーバS1に送信させる。なお、顔画像から運転者の顔の向きを検出する処理は、運転特性サーバS1により実行されてもよい。 The in-vehicle camera 13 captures an image of the face of the driver sitting in the driver's seat based on an input operation by the driver via the input unit 12D or detection of boarding by the driver, and outputs the image to the processor 12A. The processor 12A analyzes the captured face image of the driver to detect the orientation of the driver's face. When the processor 12A determines that the detected face orientation of the driver is the preset face orientation, the processor 12A associates the face image with the vehicle ID, and transmits the information from the communication device 11 to the driving characteristic server S1. send. Note that the process of detecting the orientation of the driver's face from the face image may be executed by the driving characteristic server S1.

例えば、初期登録時の運転者認証、あるいは運転特性データの記録時の運転者の特定において、正面顔画像が必要である場合、プロセッサ12Aは、検出された運転者の顔の向きが正面であると判定した正面顔画像と、車両IDとを紐付けて、運転特性サーバS1に送信する。 For example, if a frontal face image is required for driver authentication during initial registration or identification of a driver during recording of driving characteristic data, processor 12A determines that the detected driver's face orientation is frontal. The front face image determined as the vehicle ID is associated with the vehicle ID and transmitted to the driving characteristic server S1.

また、例えば、初期登録の運転者認証、あるいは運転特性データの記録時の運転者の特定において、運転者が異なる複数の方向を向いている顔画像が必要である場合、プロセッサ12Aは、検出された運転者の顔の向きが正面であると判定した正面顔画像と、右向きであると判定した右向き顔画像、あるいは左向きであると判定した左向き顔画像のそれぞれのうち1枚以上の顔画像とを選定する。プロセッサ12Aは、選定された2枚以上の顔画像と車両IDとを紐付けて、運転特性サーバS1に送信する。これにより、車両C1は、事前に撮像された運転者の正面顔画像を用いた運転者へのなりすまし行為をより効果的に抑制することができる。 Further, for example, in driver authentication at initial registration or identification of a driver at the time of recording driving characteristic data, when face images in which the driver faces a plurality of different directions are required, the processor 12A One or more face images selected from each of a front face image determined to be facing the front, a right-facing face image determined to be facing right, or a left-facing face image determined to be facing left, and to select. The processor 12A associates the selected two or more face images with the vehicle ID, and transmits them to the driving characteristic server S1. As a result, the vehicle C1 can more effectively suppress impersonation of the driver using the front face image of the driver captured in advance.

また、車内カメラ13は、入力部12Dを介した運転者による入力操作に基づいて、運転者の運転免許証を撮像してもよい。このような場合、プロセッサ12Aは、車内カメラ13により撮像された撮像画像をプロセッサ12Aに出力して表示部12Cに表示させ、表示部12Cに表示された撮像画像に、運転免許証の撮像領域を示す枠線を重畳してもよい。これにより、カーナビゲーション装置10は、運転者の特定に使用される運転免許証の顔画像の撮像、あるいは運転免許証に記載された各種情報を読み取り可能な運転免許証の撮像を支援できる。 Further, the in-vehicle camera 13 may capture an image of the driver's driver's license based on the driver's input operation via the input unit 12D. In such a case, the processor 12A outputs the captured image captured by the in-vehicle camera 13 to the processor 12A to display it on the display unit 12C, and the captured image displayed on the display unit 12C includes the captured area of the driver's license. The frame line shown may be superimposed. As a result, the car navigation device 10 can support the imaging of the face image of the driver's license used to identify the driver, or the imaging of the driver's license from which various information described on the driver's license can be read.

ジャイロセンサ14は、所謂角速度センサであって、機械式,光学式あるいは振動式等のいずれであってもよい。ジャイロセンサ14は、車両C1の回転,向きの変化を角速度として検知し、電気信号に変換してプロセッサ12Aに出力する。 The gyro sensor 14 is a so-called angular velocity sensor, and may be of mechanical type, optical type, vibration type, or the like. The gyro sensor 14 detects changes in the rotation and direction of the vehicle C1 as angular velocities, converts them into electrical signals, and outputs them to the processor 12A.

メモリ15は、例えばECU16の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、ECU16の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、ECU16により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、ECU16の動作を規定するプログラムが書き込まれている。また、メモリ15は、車両C1の車両IDを記憶していてよい。 The memory 15 has, for example, a RAM (Random Access Memory) as a work memory used when executing each process of the ECU 16, and a ROM (Read Only Memory) for storing programs and data defining the operation of the ECU 16. Data or information generated or acquired by the ECU 16 is temporarily stored in the RAM. A program that defines the operation of the ECU 16 is written in the ROM. Moreover, the memory 15 may store the vehicle ID of the vehicle C1.

ECU16は、各部の処理および制御をそれぞれ統括的に実行する。ECU16は、所謂電子回路制御装置を用いて構成され、メモリ15に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ECU16は、操作部17から出力された電気信号に基づいて、運転者によるアクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D等の各種操作情報(例えば、急加速,急減速,点灯情報、操舵(トルク)情報等)を、運転特性データとして取得する。ECU16は、取得された操作部17の操作情報に基づく運転特性データをプロセッサ12Aに出力する。 The ECU 16 comprehensively executes processing and control of each unit. The ECU 16 is configured using a so-called electronic circuit control device, refers to programs and data held in the memory 15, and implements the functions of each part by executing the programs. Based on the electric signal output from the operation unit 17, the ECU 16 receives various operation information (for example, rapid acceleration, sudden deceleration, lighting information, steering (torque) information, etc.) is acquired as driving characteristic data. The ECU 16 outputs driving characteristic data based on the acquired operation information of the operation unit 17 to the processor 12A.

また、ECU16は、運転者の乗車検知条件として、例えば運転席のドアの閉扉、運転席のシートベルトの着用、イグニッションON後のサイドブレーキの解除、運転席に設けられた荷重センサ(不図示)による運転者の着座検知、あるいはステアリング17Dのトルク検知等を実行する。ECU16は、1以上あるいは2以上の運転者の乗車検知条件を満たすか否かに基づいて、運転者の乗車を検知する。ECU16は、運転者の乗車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aあるいは通信機器11に出力する。 In addition, the ECU 16 detects conditions for detecting the driver's boarding, such as closing the door of the driver's seat, wearing the seat belt of the driver's seat, releasing the side brake after the ignition is turned on, and a load sensor (not shown) provided in the driver's seat. The driver's seated detection is performed by the driver, or the torque of the steering wheel 17D is detected. The ECU 16 detects whether the driver gets on the vehicle based on whether or not one or more or two conditions for detecting the driver's getting on are satisfied. The ECU 16 generates a control command indicating that the driver's boarding has been detected, and outputs the control command to the processor 12A of the car navigation device 12 or the communication device 11 .

また、ECU16は、運転者の降車検知条件として、例えば運転席のドアの開扉、運転席のシートベルトの解除、イグニッションOFFの検知、あるいは運転席に設けられた荷重センサ(不図示)による運転者の離席検知等を実行する。ECU16は、1以上あるいは2以上の運転者の降車検知条件を満たすか否かに基づいて、運転者の降車を検知する。ECU16は、運転者の降車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aあるいは通信機器11に出力する。 In addition, the ECU 16 detects, for example, the opening of the driver's door, the unlocking of the driver's seat belt, the ignition OFF, or the detection of driving by a load sensor (not shown) provided in the driver's seat, as conditions for detecting the driver's getting off the vehicle. Detects the absence of a person, etc. The ECU 16 detects the driver getting off the vehicle based on whether or not one or more or two or more driver getting off detection conditions are satisfied. The ECU 16 generates a control command indicating that it has detected that the driver has gotten off the vehicle, and outputs the control command to the processor 12A of the car navigation device 12 or the communication device 11 .

速度センサ18は、車両C1内部の駆動軸の回転数により発生する車速パルスに基づいて、車両C1の速度を計測する。速度センサ18は、計測された車両C1の速度をプロセッサ12Aに出力する。 The speed sensor 18 measures the speed of the vehicle C1 based on a vehicle speed pulse generated by the number of revolutions of the drive shaft inside the vehicle C1. The speed sensor 18 outputs the measured speed of the vehicle C1 to the processor 12A.

車外センサ/カメラ19は、車両C1に備えられたレーダ,ソナー等の1つ以上のセンサ、車両C1の周囲(車外)を撮像可能な1つ以上のカメラである。ここでいうカメラは、ドライブレコーダであってもよい。車外センサ/カメラ19は、車両C1の周辺に存在する物体(例えば、壁,障害物,他車両,人物等)の位置および方向を検知したり、標識を検知したり、道路上の白線等を検知したりする。車外センサ/カメラ19は、検知された検知情報をプロセッサ12Aに出力する。プロセッサ12Aは、車外センサ/カメラ19から出力された検知情報と運転特性データとして運転特性サーバS1に送信する。 The vehicle exterior sensor/camera 19 is one or more sensors such as radar and sonar installed in the vehicle C1, and one or more cameras capable of imaging the surroundings (outside the vehicle) of the vehicle C1. The camera referred to here may be a drive recorder. The sensor/camera 19 outside the vehicle detects the position and direction of objects (for example, walls, obstacles, other vehicles, people, etc.) existing around the vehicle C1, detects signs, detects white lines on the road, and the like. detect. The vehicle exterior sensor/camera 19 outputs the detected detection information to the processor 12A. The processor 12A transmits the detection information and the driving characteristic data output from the external sensor/camera 19 to the driving characteristic server S1.

GPSセンサ20は、米国のGPS(Global Positioning System)の信号に限らず、例えばロシアのGLONASS(Global Navigation Satellite System)または欧州のGalileo等の衛星測位サービスを提供可能な人工衛星(不図示)、あるいは準天頂衛星(不図示)から送信された衛星測位信号を受信する。GPSセンサ20は、受信された衛星測位信号に基づいて、車両C1の走行速度および走行位置の情報を演算によって算出し、プロセッサ12Aに出力する。なお、衛星測位信号あるいは準天頂衛星に基づく車両C1の走行速度および走行位置の情報の演算は、GPSセンサ20によって実行されてもよい。 The GPS sensor 20 is not limited to the signal of the US GPS (Global Positioning System), for example, a satellite (not shown) capable of providing a satellite positioning service such as Russia's GLONASS (Global Navigation Satellite System) or Europe's Galileo, or A satellite positioning signal transmitted from a quasi-zenith satellite (not shown) is received. The GPS sensor 20 calculates information on the traveling speed and traveling position of the vehicle C1 based on the received satellite positioning signals, and outputs the information to the processor 12A. The GPS sensor 20 may be used to calculate the travel speed and travel position information of the vehicle C1 based on satellite positioning signals or quasi-zenith satellites.

次に、図3を参照して、実施の形態1における運転特性サーバS1の内部構成について説明する。図3は、実施の形態1における運転特性サーバS1の内部構成例を示すブロック図である。なお、以降の説明では、説明を分かり易くするために、一例として運転特性テーブルTB1を用いて運転特性サーバS1により収集(記録),管理される各種データまたは情報について説明するが、運転特性テーブルTB1は必須でなく、省略されてよい。 Next, referring to FIG. 3, the internal configuration of the driving characteristic server S1 according to Embodiment 1 will be described. FIG. 3 is a block diagram showing an example internal configuration of the driving characteristic server S1 according to the first embodiment. In the following description, various data or information collected (recorded) and managed by the driving characteristic server S1 will be described using the driving characteristic table TB1 as an example for ease of understanding. is not required and may be omitted.

運転特性サーバS1は、通信部31と、プロセッサ32と、メモリ33と、を含んで構成される。 The driving characteristic server S<b>1 includes a communication unit 31 , a processor 32 and a memory 33 .

通信部31は、ネットワークNWを介して、車両C1,…のそれぞれ、無線端末装置P1、および免許証サーバS2との間でそれぞれデータ送受信可能に接続される。 The communication unit 31 is connected to each of the vehicles C1, .

プロセッサ32は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ32は、メモリ33と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ32は、メモリ33に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。プロセッサ32は、運転特性テーブルTB1を生成して、メモリ33に記憶する。 The processor 32 is configured using, for example, a CPU, DSP, or FPGA, and controls the operation of each section. The processor 32 cooperates with the memory 33 to collectively perform various processes and controls. Specifically, the processor 32 refers to the programs and data held in the memory 33 and executes the programs, thereby implementing the functions of the units. Processor 32 generates driving characteristic table TB1 and stores it in memory 33 .

運転特性テーブルTB1は、車両IDと、運転特性データと、生体情報(図3に示す例では運転者の顔画像)と、を免許証IDに紐付けて記録し、管理する。なお、図3に示す運転特性テーブルTB1は、一例として、運転者ごとに割り当てられ、運転者を識別可能な利用者IDを免許証IDにさらに紐付けて記録する。また、運転特性テーブルTB1に記録される生体情報は、初期登録時に登録(格納)された生体情報である。 The driving characteristic table TB1 records and manages a vehicle ID, driving characteristic data, and biometric information (a driver's face image in the example shown in FIG. 3) in association with a driver's license ID. As an example, the driving characteristic table TB1 shown in FIG. 3 records a user ID that is assigned to each driver and that can identify the driver, in association with the driver's license ID. Also, the biometric information recorded in the driving characteristic table TB1 is the biometric information registered (stored) at the time of initial registration.

例えば、図3に示す運転特性テーブルTB1は、免許証ID「XXX」に、車両ID「KKK」と、利用者ID「AAA」と、顔画像のデータと、運転特性データとを紐付け、免許証ID「YYY」に、車両ID「KKK」と、利用者ID「BBB」と、顔画像のデータと、運転特性データとを紐付け、免許証ID「ZZZ」に、車両ID「MMM」と、利用者ID「CCC」と、顔画像のデータと、運転特性データとを紐付けて、それぞれ記録する。これにより、運転特性テーブルTB1は、同一の車両ID「KKK」を有する車両を、異なる複数の運転者のそれぞれ(例えば、2人の利用者「AAA」,「BBB」のそれぞれ)が運転する場合であっても、免許証IDごとに運転特性データを記録できるため、運転者ごとに運転特性データを管理できる。 For example, the driving characteristic table TB1 shown in FIG. The certificate ID "YYY" is linked with the vehicle ID "KKK", the user ID "BBB", the facial image data, and the driving characteristic data, and the license ID "ZZZ" is linked with the vehicle ID "MMM". , the user ID “CCC”, face image data, and driving characteristic data are associated with each other and recorded. As a result, the driving characteristic table TB1 shows that when a vehicle having the same vehicle ID "KKK" is driven by a plurality of different drivers (for example, two users "AAA" and "BBB"), However, since the driving characteristic data can be recorded for each license ID, the driving characteristic data can be managed for each driver.

プロセッサ32は、車両C1,…のそれぞれから送信された初期登録を要求する制御指令に基づいて、初期登録処理を開始する。プロセッサ32は、車両C1,…のそれぞれから送信された免許証IDと、運転者の生体情報と、車両IDとを紐付けて、運転特性テーブルTB1に登録(格納)する。なお、プロセッサ32は、取得された免許証IDが、運転特性テーブルTB1に登録済みであると判定した場合、登録済みの免許証IDに紐付けられた運転者の生体情報と、取得された生体情報とを照合する。プロセッサ32は、登録済みの免許証IDに紐付けられた運転者の生体情報と、取得された生体情報とが照合すると判定した場合、運転特性テーブルTB1において登録済みの免許証IDに、取得された車両IDをさらに紐付けて記録する。 Processor 32 starts initial registration processing based on the control command requesting initial registration transmitted from each of vehicles C1, . . . . The processor 32 associates the driver's license ID, the biological information of the driver, and the vehicle ID transmitted from each of the vehicles C1, . If the processor 32 determines that the acquired driver's license ID has already been registered in the driving characteristics table TB1, the driver's biometric information linked to the registered driver's license ID and the acquired biometric information Match information. When the processor 32 determines that the biometric information of the driver linked to the registered license ID matches the acquired biometric information, the processor 32 matches the acquired biometric information to the license ID registered in the driving characteristic table TB1. The vehicle ID obtained is further linked and recorded.

プロセッサ32は、車両C1,…のそれぞれから送信された車両IDと、運転特性データとを取得した場合、取得された車両IDごとの運転特性データを、メモリ33に一時保存する。また、プロセッサ32は、車両C1,…のそれぞれから送信された車両IDと、運転者の生体情報とを取得した場合、取得された運転者の生体情報と、運転特性テーブルTB1に登録(格納)された生体情報とを照合し、取得された生体情報に対応する運転者が登録済みであるか否かを判定する。 When the processor 32 acquires the vehicle ID and the driving characteristic data transmitted from each of the vehicles C1, . Further, when the processor 32 acquires the vehicle ID transmitted from each of the vehicles C1, . Then, it is determined whether or not the driver corresponding to the acquired biometric information has been registered.

プロセッサ32は、取得された生体情報に対応する運転者が登録済みである(つまり、取得された運転者の生体情報と、運転特性テーブルTB1に登録(格納)された生体情報とが照合する)と判定した場合、この生体情報に紐付けられた免許証IDを特定する。プロセッサ32は、特定された免許証IDに、取得された車両IDと、運転特性データと、を紐付けて、運転特性テーブルTB1に記録する。これにより、プロセッサ32は、免許証ID(つまり、運転者)ごとに運転特性データを記録し、管理できる。 The processor 32 has already registered a driver corresponding to the acquired biometric information (that is, the acquired biometric information of the driver and the biometric information registered (stored) in the driving characteristic table TB1 are collated). If so, the driver's license ID linked to this biometric information is specified. The processor 32 associates the specified license ID with the acquired vehicle ID and driving characteristic data, and records them in the driving characteristic table TB1. This allows processor 32 to record and manage driving characteristic data for each license ID (ie, driver).

また、プロセッサ32は、無線端末装置P1から送信された所定の運転者に対する運転評価を要求する制御指令と、所定の運転者に対応する免許証IDあるいは生体情報とを取得する。プロセッサ32は、取得された免許証IDあるいは生体情報と、運転特性テーブルTB1に登録済みの複数の運転者の免許証IDあるいは生体情報とを照合する。プロセッサ32は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データを用いて、運転者の運転評価を実行する。プロセッサ32は、運転評価結果を生成し、無線端末装置P1に送信する。 Also, the processor 32 acquires a control command requesting a driving evaluation for a predetermined driver transmitted from the wireless terminal device P1, and the driver's license ID or biometric information corresponding to the predetermined driver. The processor 32 collates the acquired license ID or biometric information with the license IDs or biometric information of a plurality of drivers registered in the driving characteristic table TB1. Based on the verification result, the processor 32 uses the driver's driving characteristic data corresponding to the driver's license ID or the biometric information included in the control command to perform the driving evaluation of the driver. The processor 32 generates driving evaluation results and transmits them to the wireless terminal device P1.

同様に、プロセッサ32は、免許証サーバS2から送信された所定の運転者に対する運転評価を要求する制御指令と、所定の運転者に対応する免許証IDあるいは生体情報とを取得する。プロセッサ32は、取得された免許証IDあるいは生体情報と、メモリ33に登録済みの複数の運転者の免許証IDあるいは生体情報とを照合する。プロセッサ32は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データを用いて、運転者の運転評価を実行する。プロセッサ32は、運転評価結果を生成し、免許証サーバS2に送信する。 Similarly, the processor 32 acquires a control command requesting a driving evaluation for a given driver transmitted from the license server S2, and the license ID or biometric information corresponding to the given driver. The processor 32 collates the obtained driver's license ID or biometric information with the driver's license IDs or biometric information registered in the memory 33 . Based on the verification result, the processor 32 uses the driver's driving characteristic data corresponding to the driver's license ID or the biometric information included in the control command to perform the driving evaluation of the driver. Processor 32 generates and transmits driving evaluation results to license server S2.

メモリ33は、例えばプロセッサ32の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ32の動作を規定したプログラムおよびデータを格納するROMとを有する。なお、メモリ33は、SSDあるいはHDD等によるストレージデバイスのうちいずれかを含む記憶デバイスを有してもよい。RAMには、プロセッサ32により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ32の動作を規定するプログラムが書き込まれている。メモリ33は、プロセッサ32により生成された運転特性テーブルTB1を記憶する。 The memory 33 has, for example, a RAM as a work memory that is used when executing each process of the processor 32 and a ROM that stores programs and data that define the operation of the processor 32 . Note that the memory 33 may have a storage device including either a storage device such as an SSD or an HDD. Data or information generated or obtained by the processor 32 is temporarily stored in the RAM. A program that defines the operation of the processor 32 is written in the ROM. The memory 33 stores the driving characteristic table TB1 generated by the processor 32. FIG.

なお、メモリ33は、運転者ごとに所定期間、あるいは所定回数分の運転の運転特性データを蓄積してよい。なお、ここでいう所定期間は、例えば直近6ヶ月分,直近50回分等である。また、1回の運転は、車両C1,…により運転者の乗車が検知されたタイミングから運転者の降車が検知されたタイミングまでの間に行われた運転である。 Note that the memory 33 may accumulate driving characteristic data for a predetermined period of time or a predetermined number of times of driving for each driver. The predetermined period here is, for example, the most recent 6 months, the most recent 50 times, or the like. One drive is a drive performed between the timing at which the driver's boarding is detected by the vehicles C1, . . . and the timing at which the driver's getting off is detected.

このような場合、プロセッサ32は、同一の免許証IDに紐付けて蓄積された複数の運転特性データのうち所定期間以上蓄積されている運転特性データがあると判定した場合、所定期間以上蓄積されている運転特性データを削除する。また、プロセッサ32は、同一の免許証IDに紐付けて蓄積された運転特性データのうち直近の所定回数以上の運転の運転特性データがあると判定した場合、直近の所定回数以上の運転の運転特性データを削除する。これにより、運転特性サーバS1は、直近の運転者の運転技能の変化を評価可能な運転特性データを優先して蓄積できる。 In such a case, if the processor 32 determines that there is driving characteristic data that has been accumulated for a predetermined period of time or more among the plurality of driving characteristic data that have been stored in association with the same license ID, the processor 32 has accumulated the driving characteristic data for a predetermined period or longer. Delete the driving characteristic data In addition, when the processor 32 determines that there is driving characteristic data of driving more than the most recent predetermined number of times among the driving characteristic data accumulated in association with the same license ID, the processor 32 Delete property data. As a result, the driving characteristic server S1 can preferentially accumulate driving characteristic data that can evaluate the most recent change in the driving skill of the driver.

次に、図4を参照して、実施の形態1における免許証サーバS2の内部構成について説明する。図4は、実施の形態1における免許証サーバS2の内部構成例を示すブロック図である。なお、以降の説明では、説明を分かり易くするために、一例として免許証テーブルTB2を用いて免許証サーバS2により収集(記録),管理される各種データまたは情報について説明するが、免許証テーブルTB2は必須でなく、省略されてよい。 Next, referring to FIG. 4, the internal configuration of the license server S2 according to the first embodiment will be described. FIG. 4 is a block diagram showing an example internal configuration of the license server S2 according to the first embodiment. In the following description, the license table TB2 is used as an example to explain various data or information collected (recorded) and managed by the license server S2 for ease of understanding. is not required and may be omitted.

免許証サーバS2は、通信部41と、プロセッサ42と、メモリ43と、を含んで構成される。 The license server S2 includes a communication unit 41, a processor 42, and a memory 43.

通信部41は、ネットワークNWを介して、運転特性サーバS1、および無線端末装置P1との間でそれぞれデータ送受信可能に接続される。なお、無線端末装置P1がカーナビゲーション装置12により実現される場合、通信部41は、ネットワークNWを介して、車両C1,…のそれぞれに搭載されたカーナビゲーション装置12との間でデータ送受信可能に接続されてよい。 The communication unit 41 is connected to the driving characteristic server S1 and the wireless terminal device P1 via the network NW so as to be able to transmit and receive data. When the wireless terminal device P1 is realized by the car navigation device 12, the communication unit 41 can transmit and receive data to and from the car navigation device 12 mounted on each of the vehicles C1, . . . via the network NW. may be connected.

プロセッサ42は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ42は、メモリ43と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ42は、メモリ43に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。 The processor 42 is configured using, for example, a CPU, DSP, or FPGA, and controls the operation of each unit. The processor 42 cooperates with the memory 43 to collectively perform various processes and controls. Specifically, the processor 42 refers to the programs and data held in the memory 43 and executes the programs to implement the functions of the respective units.

プロセッサ42は、例えば、運転者,警察官,保険会社の社員等が所有する無線端末装置P1のそれぞれから送信された複数の運転者のそれぞれの免許証IDと、運転者に関する情報(例えば、運転者の氏名,住所,生体情報の一例としての顔画像データ等)とを取得する。プロセッサ42は、取得された免許証IDに、この免許証IDに対応する運転者に関する情報を紐付けて、免許証テーブルTB2を生成する。プロセッサ42は、生成された免許証テーブルTB2をメモリ43に記憶する。 The processor 42 receives, for example, license IDs of a plurality of drivers transmitted from each of the wireless terminal devices P1 owned by the drivers, police officers, employees of insurance companies, etc., and information on the drivers (for example, driving person's name, address, face image data as an example of biometric information, etc.). The processor 42 creates a license table TB2 by associating the acquired license ID with the information about the driver corresponding to this license ID. Processor 42 stores generated license table TB2 in memory 43 .

免許証テーブルTB2は、運転者に関する情報(図4では、運転者の氏名,住所)と、運転者の生体情報(図4に示す例では運転者の顔画像)と、を免許証IDに紐付けて記録し、管理する。なお、免許証テーブルTB2で免許証IDに紐づけられる情報は、図4に示す例に限定されず、例えば運転免許証の有効期限日,更新日等の情報等がさらに紐づけられていてもよい。 The driver's license table TB2 links the driver's information (the driver's name and address in FIG. 4) and the driver's biological information (the driver's face image in the example shown in FIG. 4) to the driver's license ID. be recorded and managed. The information linked to the license ID in the license table TB2 is not limited to the example shown in FIG. good.

例えば、図4に示す免許証テーブルTB2は、免許証ID「AAA」に、運転者の氏名「○○×」と、住所「***」と、顔画像のデータとを紐付け、免許証ID「BBB」に、運転者の氏名「△△□」と、住所「***」と、顔画像のデータとを紐付け、免許証ID「CCC」に、運転者の氏名「○△×」と、住所「***」と、顔画像のデータとを紐付けて、それぞれ記録する。 For example, the driver's license table TB2 shown in FIG. The driver's name "△△□", the address "***", and the face image data are linked to the ID "BBB", and the driver's name "○△× ”, the address “***”, and the data of the face image are associated with each other and recorded.

また、プロセッサ42は、無線端末装置P1から送信された所定の運転者の運転評価を要求する制御指令と、所定の運転者に対応する免許証IDを取得する。プロセッサ42は、所定の運転者に対する運転評価を要求する制御指令を生成し、生成された制御指令と取得された免許証IDとを紐付けて、運転特性サーバS1に送信する。プロセッサ42は、通信部41を介して、運転特性サーバS1から送信された所定の運転者の運転評価結果を取得した場合、取得された運転評価結果を無線端末装置P1に送信する。 Also, the processor 42 acquires the control command requesting the driving evaluation of the predetermined driver transmitted from the wireless terminal device P1 and the driver's license ID corresponding to the predetermined driver. The processor 42 generates a control command requesting a driving evaluation for a predetermined driver, associates the generated control command with the obtained license ID, and transmits them to the driving characteristic server S1. When the processor 42 acquires the driving evaluation result of the predetermined driver transmitted from the driving characteristic server S1 via the communication unit 41, the processor 42 transmits the acquired driving evaluation result to the wireless terminal device P1.

メモリ43は、例えばプロセッサ42の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ42の動作を規定したプログラムおよびデータを格納するROMとを有する。なお、メモリ43は、SSDあるいはHDD等によるストレージデバイスのうちいずれかを含む記憶デバイスを有してもよい。RAMには、プロセッサ42により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ42の動作を規定するプログラムが書き込まれている。メモリ43は、プロセッサ42により生成された免許証テーブルTB2を記憶する。 The memory 43 has, for example, a RAM as a work memory that is used when executing each process of the processor 42, and a ROM that stores programs and data that define the operation of the processor 42. FIG. Note that the memory 43 may have a storage device including either a storage device such as an SSD or an HDD. Data or information generated or obtained by the processor 42 is temporarily stored in the RAM. A program that defines the operation of the processor 42 is written in the ROM. Memory 43 stores license table TB2 generated by processor .

次に、図5を参照して、運転特性管理システム100により実行される運転者の初期登録手順について説明する。図5は、実施の形態1に係る運転特性管理システム100の運転者の初期登録手順例を示すシーケンス図である。なお、以降の説明では、運転者の生体情報として運転者の正面顔画像、左向き顔画像および右向き顔画像のそれぞれを用いる例について説明するが、これに限定されないことは言うまでもない。 Next, referring to FIG. 5, an initial driver registration procedure executed by the driving characteristic management system 100 will be described. FIG. 5 is a sequence diagram showing an example of an initial driver registration procedure of the driving characteristic management system 100 according to the first embodiment. In the following description, an example in which the driver's front face image, left-facing face image, and right-facing face image are used as the biometric information of the driver will be described, but it is needless to say that the present invention is not limited to this.

運転特性管理システム100を利用する利用者の一例としての運転者は、カーナビゲーション装置12を操作し、表示部12Cに表示された初期登録ボタン(不図示)を選択(押下)することで、入力部12Dを介して、初期登録を要求する操作を行う(St101)。 A driver, who is an example of a user who uses the driving characteristic management system 100, operates the car navigation device 12 and selects (presses) an initial registration button (not shown) displayed on the display unit 12C. An operation to request initial registration is performed via the unit 12D (St101).

カーナビゲーション装置12は、入力部12Dにより受け付けられた運転者操作に基づいて、車内カメラ13により運転者の顔画像(生体情報の一例)を撮像させる。車内カメラ13は、カーナビゲーション装置12により制御され、運転者の顔を撮像する(St102)。また、車内カメラ13は、運転者により車内カメラ13の画角内にかざされた運転者の運転免許証(免許証IDの一例)を撮像する(St103)。車内カメラ13は、撮像された運転者の顔画像と、免許証IDとを紐付けて、カーナビゲーション装置12に送信する(St104)。 The car navigation device 12 causes the in-vehicle camera 13 to capture a facial image (an example of biometric information) of the driver based on the driver's operation received by the input unit 12D. The in-vehicle camera 13 is controlled by the car navigation device 12 and images the face of the driver (St102). Further, the in-vehicle camera 13 captures an image of the driver's driver's license (an example of the driver's license ID) held within the angle of view of the in-vehicle camera 13 by the driver (St103). The in-vehicle camera 13 associates the captured face image of the driver with the driver's license ID and transmits them to the car navigation device 12 (St104).

カーナビゲーション装置12は、運転者の顔画像と、免許証IDと、自車両の車両IDとを紐付ける(St105)。なお、ここで紐付けられる車両IDは、運転者により入力部12Dに入力された、あるいはカーナビゲーション装置12に記憶された車両のナンバープレート情報、自車両を識別可能な情報等であってよい。カーナビゲーション装置12は、紐付けられた運転者の顔画像、免許証ID、および自車両の車両ID(初期登録データ)と、初期登録を要求する制御指令(初期登録要求)とを、通信機器11を介して、運転特性サーバS1に送信する(St106)。 The car navigation device 12 links the face image of the driver, the driver's license ID, and the vehicle ID of the own vehicle (St105). The vehicle ID associated here may be the license plate information of the vehicle input to the input unit 12D by the driver or stored in the car navigation device 12, information that can identify the own vehicle, or the like. The car navigation device 12 transmits the associated face image of the driver, driver's license ID, and vehicle ID of the own vehicle (initial registration data) and a control command requesting initial registration (initial registration request) to a communication device. 11 to the driving characteristic server S1 (St106).

運転特性サーバS1は、カーナビゲーション装置12から送信された初期登録データと、初期登録を要求する制御指令とを受信する(St107)。 The driving characteristic server S1 receives the initial registration data transmitted from the car navigation device 12 and the control command requesting the initial registration (St107).

運転特性サーバS1は、初期登録を要求する制御指令に基づいて、取得された免許証IDに映る運転者の正面顔画像と、登録済みの顔画像とを照合する(St108)。運転特性サーバS1は、免許証IDに映る運転者の正面顔画像と、登録済みの顔画像とが照合する(つまり、同一の運転者である)と判定した場合、運転者の顔画像と、免許証IDと、車両IDとを紐付けてメモリ33に登録(格納)して、運転者の初期登録を完了する(St109)。運転特性サーバS1は、初期登録完了後、初期登録が完了した旨の初期登録完了通知を生成して、ネットワークNWを介して、通信機器11に送信する(St110)。 Based on the control command requesting initial registration, the driving characteristic server S1 collates the front face image of the driver appearing in the acquired driver's license ID with the registered face image (St108). When the driving characteristic server S1 determines that the front face image of the driver reflected in the driver's license ID matches the registered face image (that is, the driver is the same driver), the driver's face image and The license ID and the vehicle ID are linked and registered (stored) in the memory 33 to complete the initial registration of the driver (St109). After completing the initial registration, the driving characteristic server S1 generates an initial registration completion notification indicating that the initial registration is completed, and transmits the notification to the communication device 11 via the network NW (St110).

カーナビゲーション装置12は、通信機器11を介して、運転特性サーバS1から送信された初期登録完了通知を表示部12Cに出力して、運転者に初期登録完了を通知する(St111)。 The car navigation device 12 outputs the initial registration completion notification transmitted from the driving characteristic server S1 to the display unit 12C via the communication device 11 to notify the driver of the initial registration completion (St111).

なお、運転特性サーバS1は、登録済みの複数の運転者の免許証IDと、取得された免許証IDまたは顔画像とを照合し、照合の結果、登録済みの複数の運転者の免許証IDと、取得された免許証IDまたは顔画像とが照合しない(つまり、同一の運転者が登録済みでない)と判定した場合にのみ、ステップSt108の処理を実行し、初期登録を実行してもよい。運転特性サーバS1は、登録済みの複数の運転者の免許証IDと、取得された免許証IDまたは顔画像とが照合する(つまり、同一の運転者が登録済みである)と判定した場合には、登録済みの免許証IDに取得された車両IDを紐付けて記録することで、初期登録を完了してもよい。 The driving characteristic server S1 compares the license IDs of a plurality of registered drivers with the obtained license IDs or face images, and as a result of the matching, the license IDs of the plurality of registered drivers are checked. and the obtained driver's license ID or face image do not match (that is, the same driver is not registered), the process of step St108 may be executed to execute initial registration. . When the driving characteristic server S1 determines that the license IDs of a plurality of registered drivers match the obtained license ID or face image (that is, the same driver is registered), may complete the initial registration by linking the acquired vehicle ID to the registered driver's license ID.

以上により、実施の形態1に係る運転特性管理システム100は、運転者の免許証IDを登録(格納)と、車両IDとを紐付けて管理できる。 As described above, the driving characteristic management system 100 according to the first embodiment can manage the registration (storage) of the driver's license ID and the vehicle ID in association with each other.

次に、図6を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図6は、車両C1,…における運転者の初期登録手順例を示すフローチャートである。 Next, referring to FIG. 6, an initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 6 is a flow chart showing an example of an initial driver registration procedure for vehicles C1, . . .

車両C1,…のそれぞれは、カーナビゲーション装置12の入力部12Dに、運転者の初期登録を要求する操作があるか否かを判定する(St11)。 Each of the vehicles C1, .

車両C1,…のそれぞれは、ステップSt11の処理において、運転者の初期登録を要求する操作があると判定した場合(St11,YES)、初期登録手順を示す画面を生成して、カーナビゲーション装置12の表示部12Cに出力して表示する(St12)。ここでいう初期登録手順を示す画面は、初期登録データの一例である運転者が運転する車両IDと、運転者の免許証IDと、運転者の生体情報とをそれぞれ取得するための手順を示す1以上の画面である。 Each of the vehicles C1, . is output to and displayed on the display unit 12C (St12). The screen showing the initial registration procedure here shows the procedure for acquiring the vehicle ID driven by the driver, the driver's license ID, and the driver's biometric information, which are examples of the initial registration data. One or more screens.

一方、車両C1,…のそれぞれは、ステップSt11の処理において、運転者の初期登録を要求する操作がないと判定した場合(St11,NO)、図6に示す初期登録手順を終了する。 On the other hand, each of the vehicles C1, . . . ends the initial registration procedure shown in FIG.

車両C1,…のそれぞれは、車両IDの登録を実行し(St13)、免許証IDの登録を実行し(St14)、顔画像の登録を実行する(St15)。車両C1,…のそれぞれは、ステップSt13~ステップSt15のそれぞれの処理(つまり、初期登録)がすべて完了したか否かを判定する(St16)。 Each of the vehicles C1, . . . performs vehicle ID registration (St13), license ID registration (St14), and facial image registration (St15). Each of the vehicles C1, .

車両C1,…のそれぞれは、ステップSt16の処理において、ステップSt13~ステップSt15のそれぞれの処理(つまり、初期登録)がすべて完了したと判定した場合(St16,YES)、図6に示す初期登録手順を終了する。 Each of the vehicles C1, . exit.

一方、車両C1,…のそれぞれは、ステップSt16の処理において、ステップSt13~ステップSt15のそれぞれの処理(つまり、初期登録)がすべて完了していないと判定した場合(St16,NO)、ステップSt12の処理に移行し、未完了であるステップSt13~ステップSt15の処理に対応する初期登録手順を表示し、未完了であるステップSt13~ステップSt15に対応する処理のみを再度実行する。例えば、車両C1,…のそれぞれは、ステップSt13の処理が未完了である場合には、ステップSt13の処理(車両IDの登録処理)に対応する初期登録手順を表示し、ステップSt13の処理(車両IDの登録処理)を再度実行する。 On the other hand, in the process of step St16, each of the vehicles C1, . Then, the initial registration procedure corresponding to the incomplete processing of steps St13 to St15 is displayed, and only the incomplete processing of steps St13 to St15 is executed again. For example, each of the vehicles C1, . ID registration process) is executed again.

次に、図7を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図7は、車両C1,…における車両ID登録手順例を示すフローチャートである。具体的に、図7は、図6に示すステップSt13の処理を示すフローチャートである。 Next, referring to FIG. 7, an initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 7 is a flow chart showing an example of a vehicle ID registration procedure in vehicles C1, . . . Specifically, FIG. 7 is a flowchart showing the process of step St13 shown in FIG.

カーナビゲーション装置12は、メモリ12Bに記録された車両IDの登録手順に対応する画像、映像あるいは音声等を表示部12Cに出力する(St131)。 The car navigation device 12 outputs to the display unit 12C an image, a video, or a sound corresponding to the vehicle ID registration procedure recorded in the memory 12B (St131).

車両C1,…のそれぞれは、以下に示すステップSt132A,ステップSt132BあるいはステップSt132Cのいずれかの処理により、自車両の車両IDを取得する(St132)。 Each of the vehicles C1, .

カーナビゲーション装置12は、運転者操作により、入力部12Dへの車両ID(例えば、車両のナンバープレート情報等)の入力を受け付ける(St132A)。 The car navigation device 12 receives an input of a vehicle ID (for example, vehicle license plate information, etc.) to the input unit 12D by the driver's operation (St132A).

ECU16は、メモリ15に記録された自車両の車両IDを取得する(St132B)。 The ECU 16 acquires the vehicle ID of the own vehicle recorded in the memory 15 (St132B).

車内カメラ13は、運転者により画角内にかざされた自車両の車検証を撮像し、撮像された車検証の撮像画像をカーナビゲーション装置12のプロセッサ12Aに出力する。カーナビゲーション装置12は、出力された車検証の撮像画像を画像解析し、撮像画像に映る車両IDを取得する(St132C)。 The in-vehicle camera 13 captures the vehicle inspection certificate of the own vehicle held within the angle of view by the driver, and outputs the captured image of the vehicle inspection inspection to the processor 12</b>A of the car navigation device 12 . The car navigation device 12 analyzes the captured image of the output vehicle inspection certificate and acquires the vehicle ID appearing in the captured image (St132C).

取得された車両IDは、通信機器11に出力される。通信機器11は、出力された車両IDを、ネットワークNWを介して、運転特性サーバS1に送信する(St133)。 The acquired vehicle ID is output to the communication device 11 . The communication device 11 transmits the output vehicle ID to the driving characteristic server S1 via the network NW (St133).

次に、図8を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図8は、車両C1,…における運転者の免許証ID登録手順例を示すフローチャートである。具体的に、図8は、図6に示すステップSt14の処理を示すフローチャートである。 Next, referring to FIG. 8, an initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 8 is a flow chart showing an example of driver's license ID registration procedures for vehicles C1, . . . Specifically, FIG. 8 is a flowchart showing the process of step St14 shown in FIG.

カーナビゲーション装置12は、メモリ12Bに記録された免許証IDの登録手順に対応する画像、映像あるいは音声等を表示部12Cに出力する(St141)。 The car navigation device 12 outputs to the display unit 12C an image, a video, or a sound corresponding to the license ID registration procedure recorded in the memory 12B (St141).

カーナビゲーション装置12は、運転者操作により、入力部12Dへの免許証ID(例えば、車両のナンバープレート情報等)の入力を受け付ける(St142)。なお、ステップSt142の処理は必須でなく、省略されてもよい。このような場合、カーナビゲーション装置12のプロセッサ12Aまたは運転特性サーバS1は、ステップSt143の処理で撮像された運転免許証の撮像画像を画像解析することで免許証IDを取得する。 The car navigation device 12 receives an input of a driver's license ID (for example, vehicle license plate information, etc.) to the input unit 12D (St142). Note that the processing of step St142 is not essential and may be omitted. In such a case, the processor 12A of the car navigation device 12 or the driving characteristic server S1 obtains the driver's license ID by analyzing the captured image of the driver's license captured in the process of step St143.

車内カメラ13は、運転者により画角内にかざされた運転者の運転免許証を撮像する(St143)。車内カメラ13は、撮像された運転免許証の撮像画像をカーナビゲーション装置12のプロセッサ12Aに出力する。カーナビゲーション装置12は、出力された運転免許証の撮像画像と、入力された免許証IDとを紐付けて、通信機器11に出力する。通信機器11は、カーナビゲーション装置12から出力された運転免許証の撮像画像と、免許証IDとを運転特性サーバS1に送信する(St144)。なお、ステップSt142の処理が省略される場合、通信機器11は、カーナビゲーション装置12から出力された運転免許証の撮像画像を運転特性サーバS1に送信する。 The in-vehicle camera 13 captures an image of the driver's driver's license held within the angle of view by the driver (St143). The in-vehicle camera 13 outputs the captured image of the driver's license to the processor 12A of the car navigation device 12 . The car navigation device 12 associates the output captured image of the driver's license with the input license ID, and outputs them to the communication device 11 . Communication device 11 transmits the captured image of the driver's license output from car navigation device 12 and the driver's license ID to driving characteristic server S1 (St144). If the processing of step St142 is omitted, the communication device 11 transmits the captured image of the driver's license output from the car navigation device 12 to the driving characteristic server S1.

次に、図9を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図9は、車両C1,…における運転者の顔画像登録手順例を示すフローチャートである。具体的に、図9は、図6に示すステップSt15の処理を示すフローチャートである。 Next, referring to FIG. 9, an initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 9 is a flow chart showing an example of procedures for registering the driver's face image in the vehicles C1, . . . Specifically, FIG. 9 is a flowchart showing the process of step St15 shown in FIG.

カーナビゲーション装置12は、メモリ12Bに記録された顔画像の登録手順に対応する画像、映像あるいは音声等を表示部12Cに出力する(St151)。カーナビゲーション装置12は、車内カメラ13を制御して、撮像を開始させる。 The car navigation device 12 outputs to the display unit 12C an image, video, audio, or the like corresponding to the facial image registration procedure recorded in the memory 12B (St151). The car navigation device 12 controls the in-vehicle camera 13 to start imaging.

車内カメラ13は、運転者により車内カメラ13の画角内に提示された運転者の運転免許証を撮像する。ここで、車内カメラ13は、運転免許証の全域であって、例えば、運転免許証に記載された運転者の顔画像と、運転免許証に記載された各種情報(例えば、運転者の氏名情報,住所情報,国籍情報,有効年月日情報,番号情報,種別情報等)とが画角内に映りこむように撮像する(St152)。車内カメラ13は、撮像された運転免許証の撮像画像をプロセッサ12Aに出力する。 The in-vehicle camera 13 captures an image of the driver's driver's license presented within the angle of view of the in-vehicle camera 13 by the driver. Here, the in-vehicle camera 13 covers the entire area of the driver's license. , address information, nationality information, valid date information, number information, type information, etc.) are captured within the angle of view (St152). In-vehicle camera 13 outputs the captured image of the driver's license to processor 12A.

なお、ステップSt142において免許証IDが運転者により入力される場合には、運転免許証に映る運転者の顔画像のみを撮像してもよいし、ステップSt143の処理において運転者の顔画像と、運転免許証に記載された各種情報とを撮像する場合には、ステップSt152の処理は省略されてもよい。また、撮像された運転免許証の撮像画像に運転者の顔画像と、運転免許証に記載された各種情報とが映っているか否かの判定は、運転特性サーバS1により実行されてもよいし、カーナビゲーション装置12のプロセッサ12Aにより実行されてもよい。 When the license ID is input by the driver in step St142, only the face image of the driver shown in the driver's license may be captured, or in the process of step St143, the face image of the driver, In the case of capturing an image of various information written on the driver's license, the processing of step St152 may be omitted. Further, the driving characteristics server S1 may determine whether or not the face image of the driver and various information described in the driver's license are included in the captured image of the driver's license. , may be executed by the processor 12</b>A of the car navigation device 12 .

車内カメラ13は、運転者の顔が正面を向いている状態で撮像し(St153)、撮像された正面顔画像F11をプロセッサ12Aに出力する。車内カメラ13は、運転者の顔が、運転者の正面に位置する車内カメラ13に対して右側を向いている状態で撮像し(St154)、撮像された右向き顔画像F12をプロセッサ12Aに出力する。車内カメラ13は、運転者の顔が、運転者の正面に位置する車内カメラ13に対して左側を向いている状態で撮像し(St154)、撮像された左向き顔画像F13をプロセッサ12Aに出力する。 The in-vehicle camera 13 captures an image of the driver's face facing forward (St153), and outputs the captured front face image F11 to the processor 12A. The in-vehicle camera 13 takes an image of the driver's face facing rightward with respect to the in-vehicle camera 13 positioned in front of the driver (St154), and outputs the imaged right-facing face image F12 to the processor 12A. . The in-vehicle camera 13 takes an image of the driver's face facing leftward with respect to the in-vehicle camera 13 positioned in front of the driver (St154), and outputs the imaged left-facing face image F13 to the processor 12A. .

カーナビゲーション装置12は、車内カメラ13から出力された運転免許証の撮像画像、正面顔画像F11、右向き顔画像F12、および左向き顔画像F13のそれぞれを通信機器11に出力し、運転特性サーバS1に送信させる(St155)。 The car navigation device 12 outputs the captured image of the driver's license output from the in-vehicle camera 13, the front face image F11, the right-facing face image F12, and the left-facing face image F13 to the communication device 11, and outputs them to the driving characteristic server S1. Send it (St155).

次に、図10を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図10は、運転特性サーバS1における運転者の初期登録手順例を示すフローチャートである。 Next, referring to FIG. 10, an initial driver registration procedure executed by the driving characteristic server S1 will be described. FIG. 10 is a flow chart showing an example of an initial driver registration procedure in the driving characteristic server S1.

運転特性管理システム100における運転特性サーバS1は、車両C1,…のそれぞれから初期登録を要求する制御指令を取得したか否かを判定する(St21)。 The driving characteristic server S1 in the driving characteristic management system 100 determines whether or not a control command requesting initial registration has been obtained from each of the vehicles C1, . . . (St21).

運転特性サーバS1は、ステップSt21の処理において、車両C1,…のそれぞれから初期登録を要求する制御指令を取得したと判定した場合(St21,YES)、制御指令に紐付けられた初期登録データの登録処理を実行する。なお、ここでいう初期登録データは、一例として、車両の車両IDと、運転者の免許証IDと、運転者の生体情報(ここでは、運転者の複数の顔画像であって、異なる3方向のそれぞれから撮像された3枚の顔画像)とを含むデータであるが、これに限定されないことは言うまでもない。 When the driving characteristic server S1 determines in the process of step St21 that the control command requesting initial registration has been acquired from each of the vehicles C1, . . . Execute the registration process. Note that the initial registration data referred to here is, for example, the vehicle ID of the vehicle, the driver's license ID, the driver's biometric information (here, a plurality of face images of the driver, which are displayed in three different directions). (three face images captured from each of the above), but needless to say, the present invention is not limited to this.

一方、運転特性サーバS1は、ステップSt21の処理において、車両C1,…のそれぞれから初期登録を要求する制御指令を取得していないと判定した場合(St21,NO)、図10に示す初期登録手順を終了する。 On the other hand, when the driving characteristics server S1 determines in the process of step St21 that the control command requesting initial registration has not been acquired from each of the vehicles C1, . exit.

運転特性サーバS1は、車両IDの登録を実行し(St22)、免許証IDの登録を実行し(St23)、顔画像の登録を実行する(St24)。運転特性サーバS1は、ステップSt22~ステップSt24のそれぞれの処理(つまり、初期登録)がすべて完了したか否かを判定する(St25)。 The driving characteristics server S1 executes registration of the vehicle ID (St22), registration of the driver's license ID (St23), and registration of the face image (St24). The driving characteristic server S1 determines whether or not all the processes (that is, initial registration) of steps St22 to St24 have been completed (St25).

運転特性サーバS1は、ステップSt25の処理において、ステップSt22~ステップSt24のそれぞれの処理(つまり、初期登録)がすべて完了したと判定した場合(St25,YES)、図10に示す初期登録手順を終了する。 When the driving characteristic server S1 determines in the process of step St25 that the processes of steps St22 to St24 (that is, the initial registration) are all completed (St25, YES), the initial registration procedure shown in FIG. 10 is terminated. do.

一方、運転特性サーバS1は、ステップSt25の処理において、ステップSt22~ステップSt24のそれぞれの処理(つまり、初期登録)がすべて完了していないと判定した場合(St25,NO)、ステップSt21の処理に移行し、未完了であるステップSt22~ステップSt24の処理に対応する初期登録手順を表示し、未完了であるステップSt22~ステップSt24に対応する処理のみを再度実行する。例えば、車両C1,…のそれぞれは、ステップSt22の処理が未完了である場合には、ステップSt22の処理に対応する初期登録手順を表示し、ステップSt22の処理である車両IDの登録処理を再度実行する。 On the other hand, when the driving characteristic server S1 determines in the process of step St25 that the processes of steps St22 to St24 (that is, the initial registration) are not all completed (St25, NO), the process of step St21 Then, the initial registration procedure corresponding to the incomplete processes of steps St22 to St24 is displayed, and only the incomplete processes of steps St22 to St24 are executed again. For example, each of the vehicles C1, . Execute.

次に、図11を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図11は、運転特性サーバS1における車両ID登録手順例を示すフローチャートである。具体的に、図11は、図10に示すステップSt22の処理を示すフローチャートである。 Next, referring to FIG. 11, an initial driver registration procedure executed by the driving characteristic server S1 will be described. FIG. 11 is a flow chart showing an example of a vehicle ID registration procedure in the driving characteristic server S1. Specifically, FIG. 11 is a flow chart showing the process of step St22 shown in FIG.

運転特性サーバS1は、車両C1,…のそれぞれから送信された車両IDを受信し、取得する(St221)。 The driving characteristic server S1 receives and acquires the vehicle ID transmitted from each of the vehicles C1, . . . (St221).

運転特性サーバS1は、取得された車両IDを解析し(St222)、初期登録される車両IDとして、解析された車両IDが有効であるか否かを判定する(St223)。例えば、運転特性サーバS1は、取得された車両IDが撮像画像である場合には、画像解析を実行し、車検証またはナンバープレートのいずれに基づく車両IDであるかを解析したり、取得された車両IDが運転者操作により入力された文字情報である場合には、文字情報が車検証またはナンバープレートに含まれるいずれの情報であるかを解析したりする。運転特性サーバS1は解析結果が、車両IDとして利用可能な情報であると判定した場合、車両IDが有効であると判定する。 The driving characteristic server S1 analyzes the acquired vehicle ID (St222), and determines whether or not the analyzed vehicle ID is valid as the vehicle ID to be initially registered (St223). For example, when the acquired vehicle ID is a captured image, the driving characteristic server S1 performs image analysis to analyze whether the vehicle ID is based on a vehicle inspection certificate or a license plate, or If the vehicle ID is character information input by the driver's operation, it is analyzed whether the character information is information contained in the vehicle inspection certificate or the license plate. When the driving characteristic server S1 determines that the analysis result is information that can be used as the vehicle ID, the driving characteristic server S1 determines that the vehicle ID is valid.

運転特性サーバS1は、ステップSt223の処理において、初期登録される車両IDとして、解析された車両IDが有効であると判定した場合(St223,YES)、新たな利用者IDを生成し、生成された利用者IDと車両IDとを紐付けて登録あるいは一時保存する(St224)。なお、ステップSt224の処理において、利用者IDの生成は必須でなく、省略されてよい。 When the driving characteristic server S1 determines in the process of step St223 that the analyzed vehicle ID is valid as the vehicle ID to be initially registered (St223, YES), it generates a new user ID. The obtained user ID and vehicle ID are linked and registered or temporarily stored (St224). In addition, in the processing of step St224, generation of the user ID is not essential and may be omitted.

一方、運転特性サーバS1は、ステップSt223の処理において、初期登録される車両IDとして、解析された車両IDが有効でないと判定した場合(St223,NO)、車両IDの再送を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St225)。 On the other hand, when the driving characteristic server S1 determines in the processing of step St223 that the analyzed vehicle ID is not valid as the vehicle ID to be initially registered (St223, NO), it issues a control command requesting retransmission of the vehicle ID. It is generated and transmitted (notified) to the vehicle via the network NW (St225).

運転特性サーバS1は、車両IDを登録した後、車両IDの登録完了を通知する制御指令を生成し、ネットワークNWを介して、車両に送信する(St226)。なお、ステップSt226の処理は、ステップSt234(図12参照)およびステップSt249(図13参照)のそれぞれの処理と同時に実行されてよい。 After registering the vehicle ID, the driving characteristics server S1 generates a control command notifying completion of registration of the vehicle ID, and transmits it to the vehicle via the network NW (St226). Note that the process of step St226 may be executed simultaneously with the processes of steps St234 (see FIG. 12) and step St249 (see FIG. 13).

次に、図12を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図12は、運転特性サーバS1における免許証ID登録手順例を示すフローチャートである。具体的に、図12は、図10に示すステップSt23の処理を示すフローチャートである。 Next, referring to FIG. 12, an initial driver registration procedure executed by the driving characteristic server S1 will be described. FIG. 12 is a flow chart showing an example of a license ID registration procedure in the driving characteristic server S1. Specifically, FIG. 12 is a flow chart showing the process of step St23 shown in FIG.

運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の免許証IDを受信し、取得する(St231)。 The driving characteristic server S1 receives and acquires the driver's license ID transmitted from each of the vehicles C1, . . . (St231).

運転特性サーバS1は、取得された免許証IDに対応する運転免許証の各種情報(例えば、運転免許証に記載された運転者の顔画像,氏名情報,住所情報,国籍情報,有効年月日情報,番号情報,種別情報等)を要求する制御指令を生成して、免許証サーバS2に送信する。運転特性サーバS1は、免許証サーバS2から送信された免許証IDに対応する運転免許証の各種情報を取得する(St232A)。なお、ステップSt232Aの処理は、車両C1,…のそれぞれから運転免許証に記載の顔画像を取得可能でない場合、あるいは取得された顔画像と運転特性テーブルTB1に登録済みの運転者の顔画像とが照合されない場合等に実行されてよい。 The driving characteristic server S1 stores various information of the driver's license corresponding to the acquired license ID (for example, the driver's face image, name information, address information, nationality information, valid date written on the driver's license, etc.) information, number information, type information, etc.) and transmits it to the license server S2. The driving characteristic server S1 acquires various information of the driver's license corresponding to the license ID transmitted from the license server S2 (St232A). Note that the process of step St232A is executed when the face image described in the driver's license cannot be acquired from each of the vehicles C1, . is not matched.

運転特性サーバS1は、取得された免許証IDが有効であるか否かを判定する(St232B)。具体的に、運転特性サーバS1は、取得された免許証IDが運転免許証の撮像画像である場合には、撮像画像から各種情報を読み取り可能であるか否か、あるいは文字認識により運転免許証が有効期限であるか否かを判定したり、取得された免許証IDに含まれる運転者の顔画像と運転特性テーブルTB1に登録済みの運転者の顔画像とを照合し、運転者を特定可能であるか否かを判定したりする。 The driving characteristic server S1 determines whether the obtained license ID is valid (St232B). Specifically, when the acquired license ID is a captured image of a driver's license, the driving characteristics server S1 determines whether or not various information can be read from the captured image, or determines whether the driver's license is the expiration date, and the driver's facial image included in the acquired license ID is compared with the facial image of the driver registered in the driving characteristic table TB1 to identify the driver. determine whether it is possible.

運転特性サーバS1は、ステップSt232Aの処理の後、またはステップSt232Bの処理において、取得された免許証IDが有効であると判定した場合(St232B,YES)、取得された免許証IDを登録する(St233)。なお、運転特性サーバS1は、運転特性テーブルTB1において既に登録済みの免許証IDであると判定した場合には、ステップSt233における免許証IDの登録処理を省略してよい。 After the processing of step St232A, or when determining that the acquired license ID is valid in the processing of step St232B (St232B, YES), the driving characteristic server S1 registers the acquired license ID ( St 233). If the driving characteristic server S1 determines that the driver's license ID has already been registered in the driving characteristic table TB1, the process of registering the license ID in step St233 may be omitted.

一方、運転特性サーバS1は、ステップSt232Bの処理において、取得された免許証IDが有効でないと判定した場合(St232B,NO)、免許証IDの再送を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St232C)。なお、運転特性サーバS1は、ステップSt232Aの処理において、免許証サーバS2から運転免許証の各種情報が取得不可である場合も同様に、ステップSt232Cの処理を実行してもよい。 On the other hand, when the driving characteristic server S1 determines in the processing of step St232B that the acquired license ID is not valid (St232B, NO), it generates a control command requesting retransmission of the license ID, and (St232C). Note that the driving characteristic server S1 may similarly execute the process of step St232C when various information on the driver's license cannot be obtained from the license server S2 in the process of step St232A.

運転特性サーバS1は、免許証IDを登録した後、免許証IDの登録完了を通知する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St234)。なお、ステップSt234の処理は、ステップSt226(図11参照)およびステップSt249(図13参照)のそれぞれの処理と同時に実行されてよい。 After registering the driver's license ID, the driving characteristics server S1 generates a control command for notifying the registration completion of the driver's license ID, and transmits (notifies) it to the vehicle via the network NW (St234). Note that the process of step St234 may be executed simultaneously with the processes of steps St226 (see FIG. 11) and step St249 (see FIG. 13).

次に、図13を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図13は、運転特性サーバS1における顔画像登録手順例を示すフローチャートである。具体的に、図13は、図10に示すステップSt24の処理を示すフローチャートである。 Next, referring to FIG. 13, an initial driver registration procedure executed by the driving characteristic server S1 will be described. FIG. 13 is a flow chart showing an example of a facial image registration procedure in the driving characteristic server S1. Specifically, FIG. 13 is a flow chart showing the process of step St24 shown in FIG.

運転特性サーバS1は、車両C1,…のそれぞれから送信された運転免許証の撮像画像を受信し、取得する(St241)。また、運転特性サーバS1は、車両C1,…のそれぞれから送信された正面顔画像、左向き顔画像、および右向き顔画像のそれぞれ(生体情報の一例)を受信し、取得する(St242)。 The driving characteristic server S1 receives and acquires the captured images of the driver's license transmitted from each of the vehicles C1, . . . (St241). Further, the driving characteristic server S1 receives and acquires each of the front face image, the left-facing face image, and the right-facing face image (an example of biometric information) transmitted from each of the vehicles C1, . . . (St242).

運転特性サーバS1は、取得された運転免許証の撮像画像に映る運転者の顔画像と、正面顔画像との顔照合を実行して、運転免許証の撮像画像に映る運転者の顔画像と、取得された正面顔画像とが同一あるいは類似するか否か(つまり、同一人物であるか否か)を判定する(St243)。 The driving characteristic server S1 performs face matching between the driver's face image in the captured image of the acquired driver's license and the front face image, and compares the face image of the driver in the captured image of the driver's license with the front face image. , and the obtained front face image are the same or similar (that is, whether or not they are the same person) (St243).

運転特性サーバS1は、ステップSt243の処理において、運転免許証の撮像画像に映る運転者の顔画像と、取得された正面顔画像とが同一あるいは類似する(つまり、同一人物である)と判定した場合(St243,YES)、この正面顔画像と、左向き顔画像および右向き顔画像のそれぞれとを用いて、顔照合を実行する(St244)。 In the processing of step St243, the driving characteristic server S1 determines that the face image of the driver appearing in the captured image of the driver's license and the acquired front face image are the same or similar (that is, they are the same person). If so (St243, YES), this front face image and each of the left-facing face image and the right-facing face image are used to perform face matching (St244).

一方、運転特性サーバS1は、ステップSt243の処理において、運転免許証の撮像画像に映る運転者の顔画像と正面顔画像とが同一あるいは類似する(つまり、同一人物でない)と判定した場合(St243,NO)、運転免許証の撮像画像あるいは正面顔画像の撮像やり直し(つまり、再撮像)を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St245)。 On the other hand, in the process of step St243, the driving characteristic server S1 determines that the face image and the front face image of the driver appearing in the captured image of the driver's license are the same or similar (that is, they are not the same person) (St243 , NO), generates a control command requesting re-imaging (that is, re-imaging) of the captured image of the driver's license or the front face image, and transmits (notifies) the vehicle via the network NW (St245).

運転特性サーバS1は、正面顔画像に映る顔と、左向き顔画像および右向き顔画像のそれぞれに映る顔とが同一あるいは類似する(つまり、同一人物である)か否かを判定する(St246)。 The driving characteristic server S1 determines whether or not the face shown in the front face image and the faces shown in the left-facing face image and the right-facing face image are the same or similar (that is, they are the same person) (St246).

運転特性サーバS1は、ステップSt246の処理において、正面顔画像に映る顔と、左向き顔画像および右向き顔画像のそれぞれに映る顔とが同一あるいは類似する(つまり、同一人物である)と判定した場合(St246,YES)、ステップSt232Bの処理において、有効であると判定された免許証IDに、運転免許証の撮像画像と、正面顔画像、左向き顔画像、および右向き顔画像のそれぞれとを紐付けて記録する(St247)。 When the driving characteristic server S1 determines in the processing of step St246 that the face reflected in the front face image and the faces reflected in the left-facing face image and the right-facing face image are the same or similar (that is, they are the same person). (St246, YES), the captured image of the driver's license and each of the front face image, the left face image, and the right face image are linked to the license ID determined to be valid in the process of step St232B. is recorded (St247).

一方、運転特性サーバS1は、ステップSt246の処理において、正面顔画像に映る顔と、左向き顔画像および右向き顔画像のそれぞれに映る顔とが同一あるいは類似しない(つまり、同一人物でない)と判定した場合(St246,NO)、運転免許証の撮像画像、正面顔画像、左向き顔画像、および右向き顔画像のそれぞれの撮像やり直し(つまり、再撮像)を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St248)。 On the other hand, in the processing of step St246, the driving characteristic server S1 determines that the face reflected in the front face image and the faces reflected in the left-facing face image and the right-facing face image are the same or not similar (that is, they are not the same person). If (St246, NO), a control command is generated to request re-imaging (i.e., re-imaging) of the captured image of the driver's license, the front face image, the left-facing face image, and the right-facing face image, and via the network NW. is transmitted (notified) to the vehicle (St248).

運転特性サーバS1は、生体情報の一例としての複数の顔画像のそれぞれを免許証IDに紐付けて登録した後、顔画像の登録完了を通知する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St249)。なお、ステップSt249の処理は、ステップSt226(図11参照)およびステップSt234(図12参照)のそれぞれの処理と同時に実行されてよい。 The driving characteristic server S1 registers each of a plurality of facial images as an example of biometric information in association with a driver's license ID, generates a control command for notifying completion of registration of the facial image, and, via the network NW, It transmits (notifies) to the vehicle (St249). Note that the process of step St249 may be executed simultaneously with the processes of steps St226 (see FIG. 11) and step St234 (see FIG. 12).

次に、図14を参照して、運転特性管理システム100により実行される運転者の運転特性データの収集手順について説明する。図14は、実施の形態1に係る運転特性管理システム100の運転者の運転特性データ収集手順例を示すシーケンス図である。なお、以降の説明では、運転者の生体情報として運転者の正面顔画像、左向き顔画像および右向き顔画像のそれぞれを用いる例について説明するが、これに限定されないことは言うまでもない。 Next, referring to FIG. 14, a procedure for collecting driving characteristic data of the driver executed by the driving characteristic management system 100 will be described. FIG. 14 is a sequence diagram showing an example of a driver's driving characteristic data collection procedure of the driving characteristic management system 100 according to the first embodiment. In the following description, an example in which the driver's front face image, left-facing face image, and right-facing face image are used as the biometric information of the driver will be described, but it is needless to say that the present invention is not limited to this.

また、図14~図16のそれぞれを参照して説明する運転特性データの収集手順は、初期登録完了後、あるいは事前に初期登録済みの車両C1を運転者が運転する場合に実行される処理である。なお、運転特性データの収集手順は、他の車両でも同様である。 The procedure for collecting the driving characteristic data, which will be described with reference to FIGS. 14 to 16, is a process that is executed after the initial registration is completed or when the driver drives the vehicle C1 that has been initially registered in advance. be. The procedure for collecting driving characteristic data is the same for other vehicles.

運転者は、車両C1に乗車する(St301)。車両C1のECU16は、1以上あるいは2以上の運転者の乗車検知条件を満たすか否かに基づいて、運転者の乗車を検知する(St302)。ECU16は、運転者の乗車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aに出力するとともに、運転者の運転特性データのセンシング(取得)を開始する。カーナビゲーション装置12は、ECU16から出力された制御指令に基づいて、運転者の運転特性データのセンシング(取得)を開始する。 The driver gets on the vehicle C1 (St301). The ECU 16 of the vehicle C1 detects the boarding of the driver based on whether or not one or more or two or more driver boarding detection conditions are satisfied (St302). The ECU 16 generates a control command indicating that the driver's boarding has been detected, outputs the control command to the processor 12A of the car navigation device 12, and starts sensing (obtaining) driving characteristic data of the driver. The car navigation device 12 starts sensing (obtaining) driving characteristic data of the driver based on the control command output from the ECU 16 .

なお、運転特性データは、各種センサ(例えば車内カメラ13,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19あるいはGPSセンサ20等(図2参照))により取得され、カーナビゲーション装置12あるいはECU16に出力される。 The driving characteristic data is obtained from various sensors (for example, the in-vehicle camera 13, the gyro sensor 14, the accelerator pedal 17A, the brake pedal 17B, the turn lamp 17C, the steering wheel 17D, the speed sensor 18, the exterior sensor/camera 19, the GPS sensor 20, etc. 2)) and output to the car navigation device 12 or the ECU 16. FIG.

ECU16は、取得された運転者の運転特性データをカーナビゲーション装置12に出力する。カーナビゲーション装置12は、取得された1以上の運転特性データと車両IDとを紐付けて通信機器11に出力する(St304)。通信機器11は、紐付けられた1以上の運転特性データと車両IDとを、ネットワークNWを介して、運転特性サーバS1に送信させる(St305)。 The ECU 16 outputs the acquired driving characteristic data of the driver to the car navigation device 12 . The car navigation device 12 associates the one or more acquired driving characteristic data with the vehicle ID and outputs them to the communication device 11 (St304). The communication device 11 transmits the linked one or more pieces of driving characteristic data and the vehicle ID to the driving characteristic server S1 via the network NW (St305).

運転特性サーバS1は、通信機器11から送信された運転特性データと車両IDとを受信して、一時保存する(St306)。 The driving characteristic server S1 receives and temporarily stores the driving characteristic data and the vehicle ID transmitted from the communication device 11 (St306).

また、車両C1は、車内カメラ13によって運転者の顔を撮像する(St307)。車内カメラ13は、撮像された顔画像をカーナビゲーション装置12に出力する。カーナビゲーション装置12は、車内カメラ13により撮像された1以上の顔画像と、車両IDとを紐付けて、通信機器11に出力する(St308)。通信機器11は、紐付けられた1以上の運転者の顔画像と車両IDとを、ネットワークNWを介して、運転特性サーバS1に送信させる(St309)。 In addition, the vehicle C1 captures an image of the driver's face with the in-vehicle camera 13 (St307). The in-vehicle camera 13 outputs the captured face image to the car navigation device 12 . The car navigation device 12 associates one or more facial images captured by the in-vehicle camera 13 with the vehicle ID, and outputs them to the communication device 11 (St308). The communication device 11 transmits one or more associated face images of the driver and the vehicle ID to the driving characteristic server S1 via the network NW (St309).

なお、ステップSt307の処理で撮像される顔画像は、異なる2以上の方向を向いている運転者の顔が撮像された複数の顔画像(例えば、運転者の正面顔画像、左向き顔画像および右向き顔画像のうちいずれか2枚以上の顔画像)であることが望ましいが、少なくとも1枚の正面顔画像であればよい。また、顔画像に映る運転者の顔の向きの判定は、運転特性サーバS1により実行されてよい。 Note that the face images captured in the process of step St307 include a plurality of face images (for example, the driver's front face image, left-facing face image, and right-facing It is preferable that the face image is two or more of the face images, but at least one front face image is sufficient. Further, determination of the direction of the driver's face reflected in the face image may be performed by the driving characteristic server S1.

運転特性サーバS1は、通信機器11から送信された車両IDと運転者の顔画像とを受信して、取得する(St310)。運転特性サーバS1は、取得された運転者の顔画像の顔照合を実行し、運転特性テーブルTB1に登録済みの複数の運転者の顔画像(例えば、運転免許証の撮像画像に映る顔画像)のうち、取得された運転者の顔画像に同一あるいは類似する顔画像があるか否かを判定する(St311)。 The driving characteristic server S1 receives and acquires the vehicle ID and the face image of the driver transmitted from the communication device 11 (St310). The driving characteristic server S1 performs face matching on the obtained facial images of the drivers, and compares the facial images of a plurality of drivers registered in the driving characteristic table TB1 (for example, the facial images appearing in the captured image of the driver's license). Among them, it is determined whether or not there is a face image identical or similar to the obtained face image of the driver (St311).

運転特性サーバS1は、運転特性テーブルTB1に登録済みの複数の運転者の顔画像のうち、取得された運転者の顔画像に同一あるいは類似する顔画像に対応する運転者を、取得された顔画像に対応する運転者であると特定する。また、運転特性サーバS1は、一時保存された運転特性データのうち、運転者の顔画像に紐付けられた車両IDと同一の車両IDに紐付けられた運転特性データを抽出する。運転特性サーバS1は、抽出された運転特性データを、特定された運転者の免許証IDに紐付けて記録(保存)する(St312)。 The driving characteristic server S1 selects the driver corresponding to the facial image identical or similar to the obtained facial image of the driver among the facial images of the plurality of drivers registered in the driving characteristic table TB1. Identify the driver corresponding to the image. Further, the driving characteristic server S1 extracts the driving characteristic data associated with the same vehicle ID as the vehicle ID associated with the facial image of the driver from among the temporarily stored driving characteristic data. The driving characteristic server S1 records (stores) the extracted driving characteristic data in association with the identified driver's license ID (St312).

運転者は、運転終了後、降車する(St313)。車両C1のECU16は、1以上あるいは2以上の運転者の降車検知条件を満たすか否かに基づいて、運転者の降車を検知する(St314)。ECU16は、運転者の降車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aに出力するとともに、運転者の運転特性データのセンシング(取得)を終了する。カーナビゲーション装置12は、ECU16から出力された制御指令に基づいて、運転者の運転特性データのセンシング(取得)を終了する。 After finishing driving, the driver gets off the vehicle (St313). The ECU 16 of the vehicle C1 detects the driver getting off based on whether or not one or more or two or more driver getting off detection conditions are satisfied (St314). The ECU 16 generates a control command indicating that the driver has exited the vehicle, outputs the control command to the processor 12A of the car navigation device 12, and terminates sensing (acquisition) of the driver's driving characteristic data. The car navigation device 12 terminates sensing (acquisition) of the driver's driving characteristic data based on the control command output from the ECU 16 .

通信機器11は、ステップSt302からステップSt314までの期間T1に亘って、カーナビゲーション装置12またはECU16により取得された運転特性データを運転特性サーバS1に送信し続ける。運転特性サーバS1は、通信機器11から期間T1の間に取得された運転特性データを、運転者の免許証IDに紐付けて、運転特性テーブルTB1に記録し続ける。 The communication device 11 continues to transmit the driving characteristic data acquired by the car navigation device 12 or the ECU 16 to the driving characteristic server S1 over a period T1 from step St302 to step St314. The driving characteristic server S1 continues to record the driving characteristic data acquired from the communication device 11 during the period T1 in the driving characteristic table TB1 in association with the license ID of the driver.

免許証サーバS2は、無線端末装置P1から送信された所定の運転者の運転評価を要求する制御指令を取得した場合(St315)、所定の運転者の運転評価を要求する制御指令と免許証IDとを紐付けて、運転特性サーバS1に送信する(St316)。 When the license server S2 acquires the control command requesting the driving evaluation of the predetermined driver transmitted from the wireless terminal device P1 (St315), the license server S2 receives the control command requesting the driving evaluation of the predetermined driver and the license ID. are linked and transmitted to the driving characteristic server S1 (St316).

運転特性サーバS1は、免許証サーバS2から送信された制御指令と免許証IDとを取得する。運転特性サーバS1は、取得された制御指令に基づいて、運転特性テーブルTB1に登録済みの複数の運転者の免許証IDと、取得された所定の運転者の免許証IDとを照合する。運転特性サーバS1は、照合された免許証IDに紐付けられた運転特性データを用いて、所定の運転者の運転評価を実行する(St317)。運転特性サーバS1は、運転評価結果を免許証サーバS2に送信する(St318)。 The driving characteristic server S1 acquires the control command and license ID transmitted from the license server S2. The driving characteristic server S1 collates the license IDs of the plurality of drivers registered in the driving characteristic table TB1 with the acquired predetermined driver's license ID based on the acquired control command. The driving characteristic server S1 uses the driving characteristic data linked to the collated license ID to perform the driving evaluation of the predetermined driver (St317). The driving characteristic server S1 transmits the driving evaluation result to the license server S2 (St318).

免許証サーバS2は、運転特性サーバS1から送信された運転評価結果を取得する(St319)。免許証サーバS2は、免許証テーブルTB2に登録された免許証IDに紐付けて記録するとともに、無線端末装置P1に送信する。なお、無線端末装置P1は、カーナビゲーション装置12により実現されてもよい。なお、所定の運転者の運転評価処理は、免許証サーバS2により実行されてよい。このような場合、免許証サーバS2は、運転特性サーバS1から運転評価に用いられる運転特性データを取得する。 The license server S2 acquires the driving evaluation result transmitted from the driving characteristic server S1 (St319). The license server S2 stores the information in association with the license ID registered in the license table TB2, and transmits it to the wireless terminal device P1. Note that the wireless terminal device P1 may be implemented by the car navigation device 12 . Note that the predetermined driver's driving evaluation process may be executed by the license server S2. In such a case, the license server S2 acquires driving characteristic data used for driving evaluation from the driving characteristic server S1.

次に、図15を参照して、車両C1,…のそれぞれで実行される運転者の運転特性データ取得手順について説明する。図15は、車両C1,…における運転者の運転特性データ取得手順例を示すフローチャートである。 Next, with reference to FIG. 15, a driver's driving characteristic data acquisition procedure executed in each of the vehicles C1, . . . will be described. FIG. 15 is a flow chart showing an example of a procedure for acquiring the driving characteristic data of the drivers of the vehicles C1, . . .

車両C1,…のそれぞれは、運転席への運転者の乗車を検知したか否かを判定する(St31)。車両C1,…のそれぞれは、ステップSt31の処理において、運転者の乗車を検知したと判定した場合(St31,YES)、各種センサによる運転者の運転特性データの取得を開始する(St32)。 Each of the vehicles C1, . In the process of step St31, each of the vehicles C1, .

一方、車両C1,…のそれぞれは、ステップSt31の処理において、運転者の乗車を検知していないと判定した場合(St31,NO)、ステップSt31の処理に戻り、運転席への運転者の乗車検知を継続する。 On the other hand, each of the vehicles C1, . Continue detection.

車両C1,…のそれぞれは、車内カメラ13により運転者の顔を撮像する(St33)。なお、ここで撮像される顔画像は、正面顔画像F21,右向き顔画像F22および左向き顔画像F23のそれぞれであることが望ましいが、これに限定されなくてもよい。 Each of the vehicles C1, . It is desirable that the face images captured here are the front face image F21, the right-facing face image F22, and the left-facing face image F23, but are not limited thereto.

車両C1,…のそれぞれは、自車両の車両IDと、各種センサにより取得された1以上の運転特性データと、正面顔画像F21,右向き顔画像F22および左向き顔画像F23のそれぞれとを紐付けて、運転特性サーバS1に送信する(St34)。 Each of the vehicles C1, . , to the driving characteristic server S1 (St34).

車両C1,…のそれぞれは、運転席からの運転者の降車を検知したか否かを判定する(St35)。車両C1,…のそれぞれは、ステップSt35の処理において、運転者の降車を検知したと判定した場合(St35,YES)、各種センサによる運転者の運転特性データの取得を終了して、図15に示す運転者の運転特性データ取得手順を終了する。なお、車両C1,…のそれぞれは、運転者の降車を検知した場合、運転者による運転が終了した旨を通知する制御指令を生成し、生成された制御指令と車両IDとを紐付けて、運転特性サーバS1に送信してもよい。 Each of the vehicles C1, . When each of the vehicles C1, . The procedure for acquiring the driver's driving characteristic data shown is terminated. Each of the vehicles C1, . It may be transmitted to the driving characteristic server S1.

一方、車両C1,…のそれぞれは、ステップSt35の処理において、運転者の降車を検知していないと判定した場合(St35,NO)、ステップSt21の処理に戻り、各種センサによる運転者の運転特性データの取得を継続する。なお、ステップSt33の処理は、運転特性サーバS1による運転者の特定処理(ステップSt44)の完了後、省略されてもよい。 On the other hand, when each of the vehicles C1, . Continue to acquire data. Note that the process of step St33 may be omitted after the driver identification process (step St44) by the driving characteristic server S1 is completed.

次に、図16を参照して、運転特性サーバS1で実行される運転者の運転特性データ収集手順について説明する。図16は、運転特性サーバS1における運転者の運転特性データ収集手順例を示すフローチャートである。 Next, referring to FIG. 16, a procedure for collecting driving characteristic data of the driver executed by the driving characteristic server S1 will be described. FIG. 16 is a flowchart showing an example of a procedure for collecting driving characteristic data of a driver in the driving characteristic server S1.

運転特性サーバS1は、車両C1,…のそれぞれから送信された車両IDと、1以上の運転特性データと、1枚以上の顔画像とを受信したか否かを判定する(St41)。 The driving characteristic server S1 determines whether or not it has received the vehicle ID, one or more driving characteristic data, and one or more face images transmitted from each of the vehicles C1, . . . (St41).

運転特性サーバS1は、ステップSt41の処理において、車両C1,…のそれぞれから送信された車両IDと、1以上の運転特性データと、1枚以上の顔画像とを受信したと判定した場合(St41,YES)、運転特性データを車両IDごとに、メモリ43に一時保存する(St42)。 If the driving characteristic server S1 determines in the process of step St41 that it has received the vehicle ID, the one or more driving characteristic data, and the one or more facial images transmitted from each of the vehicles C1, . . . , YES), the driving characteristic data is temporarily stored in the memory 43 for each vehicle ID (St42).

一方、運転特性サーバS1は、ステップSt41の処理において、車両C1,…のそれぞれから送信された車両IDと、1以上の運転特性データと、1枚以上の顔画像とを受信していないと判定した場合(St41,NO)、ステップSt41の処理に戻る。 On the other hand, in the process of step St41, the driving characteristic server S1 determines that it has not received the vehicle ID, the one or more driving characteristic data, and the one or more facial images transmitted from each of the vehicles C1, . . . If so (St41, NO), the process returns to step St41.

運転特性サーバS1は、取得された運転者の顔画像の顔照合を実行する(St43)。運転特性サーバS1は、運転特性テーブルTB1に登録済みの複数の運転者の顔画像(例えば、運転免許証の撮像画像に映る顔画像)のうち、取得された運転者の顔画像に同一あるいは類似する顔画像があるか否かに基づいて、取得された運転者の顔画像に同一あるいは類似する顔画像に紐付けられた運転者の免許証IDを特定する(St44)。 The driving characteristic server S1 performs face matching on the acquired face image of the driver (St43). The driving characteristic server S1 selects a face image that is the same as or similar to the acquired driver's face image among the plurality of driver's face images (for example, the face image shown in the captured image of the driver's license) registered in the driving characteristic table TB1. The driver's license ID linked to the facial image identical or similar to the acquired facial image of the driver is specified based on whether or not there is a facial image to be acquired (St44).

なお、ここで運転特性サーバS1は、ステップSt43の処理の前に、車両C1,…のそれぞれから送信された車両IDと、運転特性テーブルTB1に登録済みの複数の車両IDのそれぞれとを照合し、照合された車両IDに紐付けられた1以上の運転者の免許証IDを抽出してもよい。これにより、運転特性サーバS1は、ステップSt44の処理において、運転特性テーブルTB1に登録済みであって、取得された運転者の顔画像と照合される運転者の顔画像の枚数を減少させ、顔照合の照合精度を向上させることができる。 Here, before the process of step St43, the driving characteristic server S1 collates the vehicle IDs transmitted from each of the vehicles C1, . , one or more driver's license IDs associated with the matched vehicle ID may be extracted. As a result, in the process of step St44, the driving characteristic server S1 reduces the number of facial images of the driver that have been registered in the driving characteristic table TB1 and are compared with the acquired facial image of the driver. The accuracy of matching can be improved.

運転特性サーバS1は、ステップSt44の処理において、取得された運転者の顔画像に同一あるいは類似する顔画像があると判定した場合、この顔画像に紐付けられた運転者の免許証IDに基づいて、取得された顔画像に対応する運転者を特定したと判定する(St44,YES)。運転特性サーバS1は、特定された免許証IDに、取得された運転特性データを紐付けて運転特性テーブルTB1に記録(蓄積)する(St45)。 When the driving characteristic server S1 determines in the process of step St44 that there is a facial image identical or similar to the obtained facial image of the driver, the driving characteristic server S1 determines the driver's license ID linked to the facial image. Then, it is determined that the driver corresponding to the obtained face image has been identified (St44, YES). The driving characteristic server S1 associates the acquired driving characteristic data with the specified license ID and records (accumulates) it in the driving characteristic table TB1 (St45).

一方、運転特性サーバS1は、ステップSt44の処理において、取得された運転者の顔画像に同一あるいは類似する顔画像がないと判定した場合、この顔画像に紐付けられた運転者の免許証IDに基づいて、取得された顔画像に対応する運転者を特定できないと判定する(St44,NO)。運転特性サーバS1は、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したか否かを判定する(St46)。 On the other hand, when the driving characteristics server S1 determines in the process of step St44 that there is no face image identical or similar to the acquired face image of the driver, the driver's license ID linked to this face image (St44, NO). The driving characteristic server S1 determines whether or not it has received a control command for notifying the end of driving from each of the vehicles C1, . . . (St46).

運転特性サーバS1は、ステップSt46の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したと判定した場合(St46,YES)、取得された顔画像と、1以上の運転特性データとを紐付けて、車両IDごとに一時保存する(St47A)。運転特性サーバS1は、同日あるいは後日、再度、新たに取得された顔画像を用いて、ステップSt44の処理を実行する。運転特性サーバS1は、運転者の免許証IDが特定されたと判定した場合、同一の車両IDが紐付けられ、一時保存された運転特性データを、特定された免許証IDに紐付けて記録(蓄積)する(St47A)。これにより、運転特性サーバS1は、免許証IDの初期登録が完了していない場合であっても、一時保存された運転特性データを蓄積できる。 When the driving characteristic server S1 determines in the process of step St46 that it has received a control command to notify the end of driving from each of the vehicles C1, . , and temporarily stored for each vehicle ID (St47A). The driving characteristic server S1 executes the process of step St44 again on the same day or at a later date using the newly acquired face image. When the driving characteristic server S1 determines that the driver's license ID is identified, the driving characteristic data that is associated with the same vehicle ID and is temporarily stored is linked to the identified license ID and recorded ( accumulation) (St47A). As a result, the driving characteristic server S1 can accumulate the temporarily stored driving characteristic data even if the initial registration of the driver's license ID has not been completed.

また、運転特性サーバS1は、ステップSt46の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したと判定した場合(St46,YES)、同一の車両IDに紐付けられた運転特性データを破棄(削除)する(St47B)。 Further, when the driving characteristic server S1 determines in the process of step St46 that it has received a control command to notify the end of driving from each of the vehicles C1, . . . The acquired driving characteristic data is discarded (deleted) (St47B).

運転特性サーバS1は、車両C1,…のそれぞれから免許証IDが特定済みの車両IDに紐付けられた1以上の運転特性データと、1枚以上の顔画像とを受信したか否かを判定する(St48)。 The driving characteristic server S1 determines whether or not it has received one or more driving characteristic data linked to the vehicle ID whose license ID has been identified and one or more face images from each of the vehicles C1, . . . (St48).

運転特性サーバS1は、ステップSt48の処理において、免許証IDが特定済みの車両IDに紐付けられた1以上の運転特性データと、1枚以上の顔画像とを受信したと判定した場合(St48,YES)、特定されている免許証IDに取得された運転特性データを紐付けて運転特性テーブルTB1に記録(蓄積)する(St45)。 When the driving characteristic server S1 determines in the process of step St48 that it has received one or more driving characteristic data linked to the vehicle ID whose license ID has been specified and one or more face images (St48 , YES), the acquired driving characteristic data is associated with the identified license ID and recorded (accumulated) in the driving characteristic table TB1 (St45).

一方、運転特性サーバS1は、ステップSt48の処理において、免許証IDが特定済みの車両IDに紐付けられた1以上の運転特性データと、1枚以上の顔画像とを受信しないと判定した場合(St48,NO)、運転特性サーバS1は、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したか否かを判定する(St49)。 On the other hand, when the driving characteristic server S1 determines in the process of step St48 that it has not received one or more driving characteristic data linked to the vehicle ID whose license ID has been identified and one or more face images. (St48, NO), the driving characteristics server S1 determines whether or not it has received a control command to notify the end of driving from each of the vehicles C1, . . . (St49).

運転特性サーバS1は、ステップSt49の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したと判定した場合(St49,YES)、図16に示す運転者の運転特性データ収集手順を終了する。 If the driving characteristic server S1 determines in the process of step St49 that it has received a control command to notify the end of driving from each of the vehicles C1, . . . End the data collection procedure.

一方、運転特性サーバS1は、ステップSt49の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信していないと判定した場合(St49,NO)、ステップSt48の処理に戻る。 On the other hand, when the driving characteristic server S1 determines in the process of step St49 that it has not received a control command to notify the end of driving from each of the vehicles C1, . . . return.

以上により、実施の形態1に係る1以上のコンピュータの一例である運転特性サーバS1により実行される運転特性データの管理方法は、複数の運転者の生体情報(生体情報の一例であって、運転特性テーブルTB1に登録された生体情報)と、運転者の免許証IDとを紐付けて登録し、車両C1,…を運転する運転者の生体情報と、運転者の運転特性を示す運転特性データとを取得し、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報があると判定した場合、同一あるいは類似する生体情報に紐付けられた免許証IDと運転特性データとを紐付けて記録する。 As described above, the method of managing driving characteristic data executed by the driving characteristic server S1, which is an example of one or more computers according to the first embodiment, includes the biological information of a plurality of drivers (an example of The biological information registered in the characteristic table TB1) and the driver's license ID are linked and registered, and the biological information of the driver who drives the vehicle C1, . and when it is determined that there is biometric information identical or similar to the biometric information (biological information transmitted from each of the vehicles C1, . . . ) among the registered biometric information of the drivers The driver's license ID and the driving characteristic data linked to the biometric information are linked and recorded.

これにより、実施の形態1に係る運転特性サーバS1は、特定された免許証IDに、車両C1,…のそれぞれから送信された運転者の運転特性データを紐付けて記録できるため、運転者が異なる複数の車両を運転する場合であっても、運転者の運転特性データをより効率的に管理できる。したがって、運転者が高齢であって、運転免許証の返納要否の判断を行うための運転評価に用いられる運転特性データの収集および管理(記録)において、運転特性サーバS1は、免許証IDに対応する高齢運転者の運転操作を客観的に評価するための運転特性データをより効果的に収集および管理(記録)できる。 As a result, the driving characteristic server S1 according to Embodiment 1 can record the identified driver's license ID in association with the driving characteristic data of the driver transmitted from each of the vehicles C1, . . . Even when driving a plurality of different vehicles, the driving characteristic data of the driver can be managed more efficiently. Therefore, in collecting and managing (recording) driving characteristic data used for driving evaluation for determining whether or not to return the driver's license when the driver is elderly, the driving characteristic server S1 uses the driver's license ID It is possible to more effectively collect and manage (record) driving characteristic data for objectively evaluating the driving behavior of corresponding elderly drivers.

また、以上により、実施の形態1に係る運転特性サーバS1は、生体情報と、運転特性データと、車両C1,…のそれぞれを識別可能な車両ID(車両識別情報の一例)とをさらに取得し、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報があると判定した場合、同一あるいは類似する生体情報に紐付けられた免許証IDと、運転特性データと、車両IDとを紐付けて記録する。これにより、実施の形態1に係る運転特性サーバS1は、運転特性データが取得された車両を識別可能にし、免許証IDに対応する高齢運転者の車両ごとの運転操作を客観的に評価するための運転特性データをより効果的に収集および管理(記録)できる。 Further, as described above, the driving characteristic server S1 according to the first embodiment further acquires the biological information, the driving characteristic data, and the vehicle ID (an example of the vehicle identification information) that can identify each of the vehicles C1, . . . , when it is determined that there is the same or similar biometric information among the registered biometric information of the plurality of drivers (the biometric information transmitted from each of the vehicles C1, . . . ), the same or similar biometric information The linked license ID, driving characteristic data, and vehicle ID are linked and recorded. As a result, the driving characteristic server S1 according to the first embodiment makes it possible to identify the vehicle for which the driving characteristic data is acquired, and objectively evaluates the driving operation of each vehicle of the elderly driver corresponding to the driver's license ID. driving characteristic data can be collected and managed (recorded) more effectively.

また、以上により、実施の形態1に係る運転特性サーバS1は、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データと車両IDとを紐付けて一時保存する。これにより、実施の形態1に係る運転特性サーバS1は、生体情報を用いた運転者の特定できない場合であっても、車両C1,…のそれぞれから送信された運転特性データと車両IDとを紐付けることにより、運転者が特定されるまでの間、運転特性データを一時保存できる。 In addition, as described above, the driving characteristic server S1 according to the first embodiment has the same or similar biological information among the plurality of registered drivers' biological information (biological information transmitted from each of the vehicles C1, . . . ). If it is determined that there is no biometric information, the driving characteristic data and the vehicle ID are associated and temporarily stored. As a result, the driving characteristic server S1 according to Embodiment 1 links the driving characteristic data transmitted from each of the vehicles C1, . By attaching it, the driving characteristic data can be temporarily stored until the driver is specified.

また、以上により、実施の形態1に係る運転特性サーバS1は、車両C1,…の運転終了情報をさらに取得し、運転終了情報を取得したタイミングで、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データと車両IDとを紐付けて一時保存する。これにより、実施の形態1に係る運転特性サーバS1は、運転者による運転が終了したタイミングで、生体情報を用いた運転者の特定が完了しない場合であっても、車両C1,…のそれぞれから送信された運転特性データと車両IDとを紐付けることにより、運転者が特定されるまでの間、運転特性データを一時保存できる。 Further, as described above, the driving characteristic server S1 according to the first embodiment further acquires the driving end information of the vehicles C1, . . . If it is determined that there is no identical or similar biological information among the biological information (biological information transmitted from each of the vehicles C1, . . . ), the driving characteristic data and the vehicle ID are associated and temporarily stored. As a result, the driving characteristic server S1 according to Embodiment 1, even when the identification of the driver using the biological information is not completed at the timing when the driver finishes driving, By associating the transmitted driving characteristic data with the vehicle ID, the driving characteristic data can be temporarily stored until the driver is identified.

また、以上により、実施の形態1に係る運転特性サーバS1は、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、車両を運転する運転者の新たな生体情報(車両C1,…のそれぞれから送信された新たな生体情報)を取得し、登録された複数の運転者の生体情報のうち新たな生体情報に同一あるいは類似する生体情報があると判定した場合、同一あるいは類似する生体情報に紐付けられた免許証IDと、一時保存された運転特性データと車両IDとを紐付けて記録する。これにより、実施の形態1に係る運転特性サーバS1は、運転者を特定するまでの間、車両C1,…のそれぞれから運転者の新たな生体情報を取得し、取得された新たな生体情報に基づいて、運転者の特定処理を繰り返し実行できる。したがって、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転特性データに対応する運転者を特定したタイミングで、特定された運転者の免許証IDと、一時保存された運転特性サーバおよび車両IDとを紐付けて記録できる。 In addition, as described above, the driving characteristic server S1 according to the first embodiment has the same or similar biological information among the plurality of registered drivers' biological information (biological information transmitted from each of the vehicles C1, . . . ). If it is determined that there is no biometric information, new biometric information of the driver driving the vehicle (new biometric information transmitted from each of the vehicles C1, . If it is determined that the new biometric information has the same or similar biometric information, the license ID linked to the same or similar biometric information, the temporarily stored driving characteristic data and the vehicle ID are linked. to record. As a result, the driving characteristic server S1 according to Embodiment 1 acquires new biological information of the driver from each of the vehicles C1, . Based on this, the driver identification process can be repeatedly executed. Therefore, at the timing when the driver corresponding to the driving characteristic data transmitted from each of the vehicles C1, . and vehicle ID can be linked and recorded.

また、以上により、実施の形態1に係る運転特性サーバS1は、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データを削除する。これにより、実施の形態1に係る運転特性サーバS1は、運転者が特定不可であると判定した運転特性データをメモリ33に記録しないため、メモリ33のメモリ不足の発生をより効果的に抑制できる。 In addition, as described above, the driving characteristic server S1 according to the first embodiment has the same or similar biological information among the plurality of registered drivers' biological information (biological information transmitted from each of the vehicles C1, . . . ). If it is determined that there is no biological information, the driving characteristic data is deleted. As a result, the driving characteristic server S1 according to the first embodiment does not record in the memory 33 the driving characteristic data for which the driver is determined to be unidentifiable. .

また、以上により、実施の形態1に係る運転特性サーバS1は、車両C1,…の運転終了情報をさらに取得し、運転終了情報を取得したタイミングで、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データを削除する。これにより、実施の形態1に係る運転特性サーバS1は、運転者による運転が終了したタイミングで運転者が特定不可であると判定した運転特性データをメモリ33に記録しないため、メモリ33のメモリ不足の発生をより効果的に抑制できる。 Further, as described above, the driving characteristic server S1 according to the first embodiment further acquires the driving end information of the vehicles C1, . . . If it is determined that there is no identical or similar biological information among the biological information (biological information transmitted from each of the vehicles C1, . . . ), the driving characteristic data is deleted. As a result, the driving characteristic server S1 according to Embodiment 1 does not record in the memory 33 the driving characteristic data for which it is determined that the driver cannot be identified at the timing when the driver finishes driving. can be more effectively suppressed.

また、以上により、実施の形態1に係る運転特性サーバS1は、運転者の生体情報と、生体情報に対応する運転者の免許証IDとを取得し、生体情報と免許証IDに含まれる運転者の顔画像とが照合すると判定した場合、生体情報と免許証IDとを紐付けて登録する。これにより、実施の形態1に係る運転特性サーバS1は、車両C1…のそれぞれから送信された運転者の生体情報(例えば、顔画像,虹彩等)と、免許証IDに含まれる運転者の顔画像との照合結果に基づいて、新たな運転者の免許証IDを登録することで、他者によるなりすまし行為をより効果的に抑制できる。 As described above, the driving characteristic server S1 according to Embodiment 1 acquires the driver's biological information and the driver's license ID corresponding to the biological information, and obtains the driving characteristics included in the biological information and the driver's license ID. If it is determined that the face image of the person matches, the biometric information and the driver's license ID are linked and registered. As a result, the driving characteristic server S1 according to the first embodiment stores the driver's biometric information (for example, face image, iris, etc.) transmitted from each of the vehicles C1, and the driver's face included in the driver's license ID. By registering a new driver's license ID based on the result of matching with the image, spoofing by others can be suppressed more effectively.

また、以上により、実施の形態1に係る運転特性サーバS1に登録された生体情報(登録生体情報)は、複数の運転者の顔画像である。また、生体情報(車両C1,…のそれぞれから送信された生体情報)は、車両を運転する運転者の顔画像である。これにより、実施の形態1に係る運転特性サーバS1は、車両C1,…のそれぞれにより撮像され、送信された運転者の顔画像と、事前に運転特性テーブルTB1に登録済みの複数の運転者の顔画像とを顔照合することで、運転者を特定できる。また、生体情報として顔画像を用いることで、車両C1,…のそれぞれは、運転者操作なしに車内カメラ13を用いて運転中の運転者を撮像し、撮像された運転者の顔画像を運転特性サーバS1に送信できる。したがって、運転特性サーバS1は、車両C1,…のそれぞれに繰り返し運転者の顔画像の送信の要求処理と、送信された顔画像を用いた顔照合処理とを、運転者が特定されるまでの間、繰り返し実行できる。 Further, as described above, the biometric information (registered biometric information) registered in the driving characteristic server S1 according to Embodiment 1 is facial images of a plurality of drivers. Also, the biological information (biological information transmitted from each of the vehicles C1, . . . ) is the facial image of the driver who drives the vehicle. As a result, the driving characteristic server S1 according to the first embodiment uses the face images of the drivers captured and transmitted by the respective vehicles C1, . . . The driver can be identified by face matching with the face image. In addition, by using the face image as the biometric information, each of the vehicles C1, . It can be sent to the property server S1. Therefore, the driving characteristic server S1 repeats the process of requesting transmission of the face image of the driver and the face matching process using the transmitted face image to each of the vehicles C1 until the driver is specified. can be executed repeatedly.

また、以上により、実施の形態1に係る運転特性サーバS1は、運転者の顔が正面(第1の方向の一例)を向いている正面顔画像(第1登録顔画像の一例)と、運転者の顔が正面と異なる右向きまたは左向き(第2の方向の一例)を向いている右向き顔画像または左向き顔画像(第2登録顔画像の一例)と、免許証IDとを紐付けて登録し、車両C1,…を運転する運転者の顔が正面を向いている正面顔画像(第1顔画像の一例)と右向きまたは左向きを向いている右向き顔画像(第2顔画像の一例)または左向き顔画像(第2顔画像の一例)と、運転特性データとを取得し、登録された複数の運転者の正面顔画像(第1登録顔画像の一例)のうち車両C1,…から送信された正面顔画像に同一あるいは類似する正面顔画像と、登録された複数の運転者の右向き顔画像または左向き顔画像(第2登録顔画像の一例)のうち車両C1,…から送信された右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像とをそれぞれ照合し、車両C1,…から送信された正面顔画像に同一あるいは類似する正面顔画像があり、かつ、車両C1,…から送信された右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像があると判定した場合、登録された同一あるいは類似する正面顔画像、および右向き顔画像または左向き顔画像に紐付けられた免許証IDと、運転特性データとを紐付けて記録する。これにより、実施の形態1に係る運転特性サーバS1は、車両C1,…のそれぞれにより撮像され、送信された運転者の正面顔画像と、事前に運転特性テーブルTB1に登録済みの複数の運転者の正面顔画像とを顔照合することで、運転者を特定できる。また、運転特性サーバS1は、車両C1,…のそれぞれに繰り返し運転者の正面顔画像の送信の要求処理と、送信された正面顔画像を用いた顔照合処理とを、運転者が特定されるまでの間、繰り返し実行できる。 In addition, as described above, the driving characteristic server S1 according to Embodiment 1 stores a front face image (an example of the first registered face image) in which the face of the driver faces the front (an example of the first direction), A right-facing face image or left-facing face image (an example of a second registered face image) in which the person's face is facing right or left (an example of a second direction), which is different from the front, is registered in association with the driver's license ID. , vehicles C1, . A facial image (an example of a second facial image) and driving characteristic data are acquired, and among a plurality of registered frontal facial images (an example of a first registered facial image) transmitted from vehicles C1, . . . A frontal face image identical or similar to the frontal face image, and rightward-facing face images transmitted from vehicles C1, . Alternatively, a right-facing face image or a left-facing face image identical or similar to the left-facing face image is collated, respectively, and the front face images transmitted from the vehicles C1, . If it is determined that there is a right-facing face image or left-facing face image that is the same or similar to the right-facing face image or left-facing face image sent from The linked license ID and the driving characteristic data are linked and recorded. As a result, the driving characteristic server S1 according to the first embodiment is configured to store the transmitted front face images of the drivers captured by the vehicles C1, . . . The driver can be identified by matching the face with the front face image. Further, the driving characteristic server S1 repeats to each of the vehicles C1, . It can be executed repeatedly until

また、以上により、実施の形態1に係る運転特性サーバS1は、車両C1,…から送信された正面顔画像に同一あるいは類似する正面顔画像がないと判定した場合には、車両C1,…から新たな正面顔画像を取得し、登録された複数の運転者の正面顔画像のうち、新たな正面顔画像に同一あるいは類似する正面顔画像があるか否かを再度判定する。運転特性サーバS1は、車両C1,…から送信された右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像がないと判定した場合には、車両C1,…から送信された新たな右向き顔画像または左向き顔画像を取得し、登録された複数の運転者の右向き顔画像または左向き顔画像のうち、新たな右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像があるか否かを再度判定する。これにより、実施の形態1に係る運転特性サーバS1は、車両C1,…のそれぞれにより撮像され、送信された運転者の右向き顔画像または左向き顔画像と、事前に運転特性テーブルTB1に登録済みの複数の運転者の右向き顔画像または左向き顔画像とを顔照合することで、運転者を特定できる。また、運転特性サーバS1は、車両C1,…のそれぞれに繰り返し運転者の右向き顔画像または左向き顔画像の送信の要求処理と、送信された右向き顔画像または左向き顔画像を用いた顔照合処理とを、運転者が特定されるまでの間、繰り返し実行できる。さらに、実施の形態1に係る運転特性サーバS1は、正面顔画像を用いた顔照合だけでなく、右向き顔画像あるいは左向き顔画像を用いた顔照合をさらに実行することで、他者による運転者のなりすまし行為をより効果的に抑制できる。 Further, as described above, when the driving characteristic server S1 according to Embodiment 1 determines that there is no front face image identical or similar to the front face images transmitted from the vehicles C1, . A new front face image is acquired, and it is determined again whether or not there is a front face image identical or similar to the new front face image among a plurality of registered front face images of the driver. If the driving characteristic server S1 determines that there is no right-facing facial image or left-facing facial image identical or similar to the right-facing facial image or left-facing facial image transmitted from the vehicles C1, . Acquiring a new right-facing face image or left-facing face image, and selecting a right-facing face image or left-facing face image identical or similar to the new right-facing face image or left-facing face image among a plurality of registered right-facing face images or left-facing face images of the driver It is determined again whether or not there is a face image. As a result, the driving characteristic server S1 according to the first embodiment can capture and transmit the right-facing face image or left-facing face image of the driver, which is captured by each of the vehicles C1, . . . The driver can be identified by matching the right-facing face images or left-facing face images of a plurality of drivers. Further, the driving characteristic server S1 performs a process of requesting transmission of the driver's right-facing face image or left-facing face image repeatedly to each of the vehicles C1, . . . can be repeatedly executed until the driver is identified. Furthermore, the driving characteristic server S1 according to Embodiment 1 performs not only face matching using a front face image, but also face matching using a right-facing face image or a left-facing face image, thereby making it possible to spoofing can be suppressed more effectively.

以上により、実施の形態1に係るカーナビゲーション装置10は、車両C1,…に搭載された車載器であって、運転特性サーバS1(外部装置の一例)との間でデータ通信を行う通信機器11(通信部の一例)と、車両C1,…を運転する運転者の生体情報を取得する車内カメラ13(第1取得部の一例)と、運転者の運転特性を示す運転特性データを取得するジャイロセンサ14あるいは各種センサ(第2取得部の一例)と、生体情報と運転特性データとを紐付けて出力するプロセッサ12A(制御部の一例)と、を備える。プロセッサ12Aは、紐付けられた生体情報と運転特性データとを通信機器11に出力して、運転特性サーバS1に送信させる。なお、ここでいう各種センサは、例えば車内カメラ13,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19あるいはGPSセンサ20等(図2参照)である。 As described above, the car navigation device 10 according to the first embodiment is an on-vehicle device mounted on the vehicle C1, . (an example of a communication unit), an in-vehicle camera 13 (an example of a first acquisition unit) that acquires biological information of a driver who drives a vehicle C1, . It includes a sensor 14 or various sensors (an example of a second acquisition unit), and a processor 12A (an example of a control unit) that links and outputs biological information and driving characteristic data. The processor 12A outputs the linked biological information and the driving characteristic data to the communication device 11 and causes it to be transmitted to the driving characteristic server S1. The various sensors referred to here are, for example, the in-vehicle camera 13, the accelerator pedal 17A, the brake pedal 17B, the turn lamp 17C, the steering wheel 17D, the speed sensor 18, the exterior sensor/camera 19, the GPS sensor 20, etc. (see FIG. 2). .

これにより、実施の形態1に係るカーナビゲーション装置10は、運転者を特定するための生体情報と、運転評価に用いられる運転特性データとを取得し、取得された生体情報と運転特性データとを紐付けて、運転特性サーバS1に送信するため、運転特性サーバS1による運転者ごとの運転特性データの管理をより効果的に収集および管理(記録)可能に支援できる。 As a result, the car navigation device 10 according to Embodiment 1 acquires the biological information for identifying the driver and the driving characteristic data used for driving evaluation, and stores the acquired biological information and the driving characteristic data. Since it is linked and transmitted to the driving characteristic server S1, it is possible to support the management of the driving characteristic data for each driver by the driving characteristic server S1 so that it can be collected and managed (recorded) more effectively.

また、以上により、実施の形態1に係るカーナビゲーション装置10は、車両C1,…を識別可能な車両ID(車両識別情報の一例)を記録するメモリ12B(記録部の一例)、をさらに備える。プロセッサ12Aは、取得された生体情報と運転特性データと車両IDとを紐付けて通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者を特定するための生体情報と、運転評価に用いられる運転特性データと、車両IDとを取得し、取得された生体情報と運転特性データと、車両IDとを紐付けて、運転特性サーバS1に送信するため、1台の車両C1,…が複数の運転者により運転される場合であっても、運転特性サーバS1による運転者ごとの運転特性データの管理をより効果的に収集および管理(記録)可能に支援できる。 As described above, the car navigation device 10 according to Embodiment 1 further includes a memory 12B (an example of a recording unit) that records vehicle IDs (an example of vehicle identification information) that can identify the vehicles C1, . The processor 12A associates the acquired biological information, the driving characteristic data, and the vehicle ID, outputs them to the communication device 11, and causes them to be transmitted to the driving characteristic server S1. As a result, the car navigation device 10 according to Embodiment 1 acquires the biological information for identifying the driver, the driving characteristic data used for driving evaluation, and the vehicle ID, and acquires the acquired biological information and driving. Since the characteristic data and the vehicle ID are linked to each other and transmitted to the driving characteristic server S1, even if one vehicle C1, . It is possible to support the management of each driving characteristic data to be collected and managed (recorded) more effectively.

また、以上により、実施の形態1に係るカーナビゲーション装置10は、車両C1,…への運転者の乗車情報または降車情報を取得するプロセッサ12A(第3取得部の一例)、をさらに備える。プロセッサ12Aは、運転者の乗車情報が取得されたタイミングから車内カメラ13に生体情報の取得と、ジャイロセンサ14または各種センサによる運転特性データの取得とを開始させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者の乗車情報が取得されたタイミング(つまり、運転者の乗車が検知されたタイミング)から自動で生体情報の取得処理と、運転特性データの取得処理とを開始できる。したがって、カーナビゲーション装置10は、運転者操作なしに運転特性データの取得を開始できるため、運転者による運転特性データの取得開始のための操作忘れ等に起因する運転特性データの取得漏れを抑制できる。 As described above, the car navigation device 10 according to the first embodiment further includes the processor 12A (an example of the third acquisition unit) that acquires information on the driver getting on or off the vehicle C1. The processor 12A causes the in-vehicle camera 13 to start acquiring biological information and the acquisition of driving characteristic data by the gyro sensor 14 or various sensors from the timing when the driver's boarding information is acquired. As a result, the car navigation device 10 according to Embodiment 1 automatically performs the biometric information acquisition process and the driving characteristics from the timing when the driver's boarding information is acquired (that is, the timing when the driver's boarding is detected). Data acquisition process can be started. Therefore, since the car navigation device 10 can start acquiring the driving characteristic data without the driver's operation, it is possible to suppress the omission of acquiring the driving characteristic data due to the driver forgetting to start acquiring the driving characteristic data. .

また、以上により、実施の形態1に係るカーナビゲーション装置10におけるプロセッサ12Aは、運転者の降車情報が取得されたタイミングで車内カメラ13による生体情報の取得と、ジャイロセンサ14または各種センサによる運転特性データの取得とを終了させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者の降車情報が取得されたタイミング(つまり、運転者の降車が検知されたタイミング)で、自動で生体情報の取得処理と、運転特性データの取得処理とを終了できる。 As described above, the processor 12A in the car navigation device 10 according to the first embodiment acquires the biometric information by the in-vehicle camera 13 at the timing when the information on getting off the driver is acquired, and the driving characteristics by the gyro sensor 14 or various sensors. Terminate data acquisition. As a result, the car navigation device 10 according to Embodiment 1 automatically performs the biometric information acquisition process and the driving process at the timing when the driver's exit information is acquired (that is, at the timing when the driver's exit is detected). Acquisition processing of characteristic data can be ended.

また、以上により、実施の形態1に係るカーナビゲーション装置10における車内カメラ13は、運転者の顔を撮像するカメラである。生体情報は、車内カメラ13により撮像された運転者の顔画像である。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者が運転中であっても車内カメラ13により運転者の顔を撮像でき、撮像された撮像画像を生体情報として取得できる。 As described above, the in-vehicle camera 13 in the car navigation device 10 according to Embodiment 1 is a camera that captures the driver's face. The biological information is a facial image of the driver captured by the in-vehicle camera 13 . Thus, the car navigation device 10 according to Embodiment 1 can capture the face of the driver with the in-vehicle camera 13 even while the driver is driving, and acquire the captured image as biometric information.

また、以上により、実施の形態1に係るカーナビゲーション装置10におけるプロセッサ12Aは、車内カメラ13により撮像された顔画像に映る運転者の顔の向きが所定の向き(例えば、正面、右向きあるいは左向き等)であると判定した場合、顔画像と運転特性データとを紐付けて、通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、顔画像を選定でき、運転特性サーバS1への顔画像の送信に要するデータ通信量の増加をより効果的に抑制できる。 As described above, the processor 12A in the car navigation device 10 according to the first embodiment can detect that the face image of the driver captured by the in-vehicle camera 13 is facing a predetermined direction (for example, front, right, left, etc.). ), the facial image and the driving characteristic data are linked, output to the communication device 11, and transmitted to the driving characteristic server S1. As a result, the car navigation device 10 according to Embodiment 1 can select a facial image, and can more effectively suppress an increase in the amount of data communication required to transmit the facial image to the driving characteristic server S1.

また、以上により、実施の形態1に係るカーナビゲーション装置10における通信機器11は、運転特性サーバS1から顔画像に映る運転者の顔の向きの指定を受け付ける。プロセッサ12Aは、顔画像に映る運転者の顔の向きが指定された運転者の顔の向きであると判定した場合、顔画像と運転特性データとを紐付けて、通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、顔照合に用いられる顔画像を選定でき、運転特性サーバS1への顔画像の送信に要するデータ通信量の増加をより効果的に抑制できる。 Further, as described above, the communication device 11 in the car navigation device 10 according to Embodiment 1 accepts from the driving characteristic server S1 the direction of the face of the driver shown in the face image. When the processor 12A determines that the face orientation of the driver reflected in the face image is the specified face orientation of the driver, the processor 12A associates the face image with the driving characteristic data and outputs the result to the communication device 11. , to the driving characteristic server S1. As a result, the car navigation device 10 according to Embodiment 1 can select a face image to be used for face matching, and can more effectively suppress an increase in the amount of data communication required to transmit the face image to the driving characteristic server S1. .

また、以上により、実施の形態1に係るカーナビゲーション装置10は、運転者の免許証IDを取得する入力部12Dまたは車内カメラ13(第4取得部の一例)、をさらに備える。プロセッサ12Aは、取得された生体情報と車両IDと免許証IDとを紐付けて通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者の初期登録処理に必要な初期登録データである運転者の生体情報と、車両IDと、免許証IDとを紐付けて運転特性サーバS1に送信できる。したがって、運転特性サーバS1は、車両C1,…におけるカーナビゲーション装置10から送信された運転者の生体情報と、免許証IDとに基づいて、運転者の顔照合を実行でき、顔照合したと判定した場合には、運転者の生体情報と、車両IDと、免許証IDとを紐付けて運転特性テーブルTB1に登録(格納)することで初期登録を完了できる。また、この初期登録処理の後、運転特性サーバS1は、同一あるいは他車両から送信された生体情報が、初期登録済みの生体情報に同一あるいは類似すると判定した場合、同一あるいは他車両から送信された生体情報に対応する運転者が、同一あるいは類似すると判定された生体情報に紐付けられた免許証IDに対応する運転者であると特定できるとともに、同一あるいは他車両から送信された運転特性データを、この運転者の免許証IDに紐付けて記録することにより、運転者ごとの運転特性データの取集および管理(記録)を実行できる。 As described above, the car navigation device 10 according to Embodiment 1 further includes the input unit 12D or the in-vehicle camera 13 (an example of the fourth acquisition unit) for acquiring the license ID of the driver. The processor 12A associates the acquired biometric information, vehicle ID, and driver's license ID, outputs them to the communication device 11, and causes them to be transmitted to the driving characteristic server S1. As a result, the car navigation device 10 according to the first embodiment associates the driver's biometric information, which is the initial registration data necessary for the driver's initial registration process, the vehicle ID, and the driver's license ID, to determine the driving characteristics. It can be sent to server S1. Therefore, the driving characteristic server S1 can perform face matching of the driver based on the driver's license ID transmitted from the car navigation device 10 of the vehicle C1, . In this case, the initial registration can be completed by linking the biometric information of the driver, the vehicle ID, and the driver's license ID and registering (storing) them in the driving characteristic table TB1. Further, after this initial registration process, if the driving characteristic server S1 determines that the biometric information transmitted from the same or another vehicle is the same or similar to the biometric information that has already been initially registered, the driving characteristic server S1 determines that the biometric information transmitted from the same or another vehicle The driver corresponding to the biometric information can be identified as the driver corresponding to the driver's license ID linked to the biometric information determined to be the same or similar, and the driving characteristic data transmitted from the same or another vehicle can be identified. , by recording in association with the driver's license ID, it is possible to collect and manage (record) the driving characteristic data for each driver.

(実施の形態2に至る経緯)
近年、車両を運転することは、高齢者の認知症リスクの低下、健康寿命の延伸等に効果があり、行動範囲,行動頻度の低下を抑制し、心身の機能の低下を抑制することで高齢者の健康的な社会参加を継続の一助となることが分かっている。そこで、高齢運転者(高齢ドライバー)の加齢に伴う運転操作ミス,安全確認忘れ等に起因する事故の増加を抑制し、高齢運転者の運転寿命を延ばす技術が求められている。
(Background leading up to Embodiment 2)
In recent years, driving a vehicle is effective in reducing the risk of dementia and extending healthy life expectancy among the elderly. It has been shown to help people maintain healthy social participation. Therefore, there is a demand for a technology that extends the driving life of elderly drivers by suppressing the increase in accidents caused by driving operation mistakes and forgetting to confirm safety as they age.

従来、特許文献2には、運転支援を行う技術として、車両が走行する道路の所定道路パラメータとステアリング操舵角との関係に基づいて、運転者の安全確認を必要とする状況にあるか否かを判別し、安全確認が行われていないと判別された場合に、運転者に対して警告を与える車両用警報装置が開示されている。また、特許文献3には、運転者の運転支援を行う運転支援装置は、運転者の運転操作の履歴に基づいて、運転者の運転習熟度を学習し、運転習熟度に基づく運転支援度に応じて運転の支援を行う。しかし、このような運転支援装置は、運転場面に対応し、かつ、運転者の状態に対応した動的な運転支援を行うことが望ましい。 Japanese Unexamined Patent Application Publication No. 2002-200002 discloses a technique for assisting driving, based on the relationship between a predetermined road parameter of the road on which the vehicle travels and the steering angle. and warns the driver when it is determined that safety confirmation has not been performed. Further, in Patent Document 3, a driving assistance device that assists a driver in driving learns the driving proficiency level of the driver based on the history of the driving operation of the driver, and adjusts the driving assistance level based on the driving proficiency level. Provide driving assistance as necessary. However, it is desirable for such a driving assistance device to perform dynamic driving assistance corresponding to the driving situation and the state of the driver.

また、特許文献4に開示された自動運転により運転者の運転支援を行う運転支援装置は、車両の外部環境により運転者の運転操作に要求される環境難易度と、運転者の運転操作に基づく運転技量とから外部環境に対する運転者の運転者状態を推定し、運転技量と運転者状態(例えば、感情,心理等)とに基づいて、運転支援内容(例えば、自動操舵、自動ブレーキ等)を選択して実行する。しかし、自動運転による運転支援は、運転者自身の運転特性(運転技量,安全確認等)の改善支援を行うことができなかった。 In addition, the driving support device that assists the driver in driving by automatic driving disclosed in Patent Document 4 is based on the environmental difficulty level required for the driver's driving operation due to the external environment of the vehicle and the driver's driving operation. Based on the driving skill and the driver's state of the driver in relation to the external environment, based on the driving skill and the driver's state (e.g., emotion, psychology, etc.), driving assistance content (e.g., automatic steering, automatic braking, etc.) Select and execute. However, driving assistance by automatic driving cannot assist the improvement of the driver's own driving characteristics (driving skill, safety confirmation, etc.).

そこで、以下の実施の形態2では、運転者ごとの運転特性データをより効率的に収集し、収集された運転特性データの管理を支援できる運転特性改善支援データの管理方法の例を説明する。なお、以下の説明において、実施の形態1と同一の構成要素については同一の符号を用いることで、その説明を省略する。 Therefore, in the second embodiment below, an example of a method for managing driving characteristic improvement support data that can more efficiently collect driving characteristic data for each driver and support management of the collected driving characteristic data will be described. In addition, in the following description, the same reference numerals are used for the same components as those in the first embodiment, and the description thereof will be omitted.

なお、実施の形態2における運転特性データは、運転者の運転特性を示すデータと行動特性(例えば、運転者の体,顔,目線等の動作情報等)を示すデータとを含む例について説明する。また、実施の形態2における運転特性評価結果は、運転者により実行される安全確認行動を含む運転者の運転技量を示す。 It should be noted that the driving characteristic data in the second embodiment will be described as an example including data indicating the driving characteristics of the driver and data indicating behavioral characteristics (for example, motion information such as the driver's body, face, line of sight, etc.). . Further, the driving characteristic evaluation result in the second embodiment indicates the driving skill of the driver including the safety confirmation action performed by the driver.

(実施の形態2)
図17を参照して、実施の形態2に係る運転特性改善支援システム200のユースケース例について説明する。図17は、実施の形態2に係る運転特性改善支援システム200のユースケース例を示す図である。
(Embodiment 2)
A use case example of the driving characteristic improvement support system 200 according to the second embodiment will be described with reference to FIG. FIG. 17 is a diagram showing a use case example of the driving characteristic improvement support system 200 according to the second embodiment.

運転特性改善支援システム200は、1台以上の車両C1A,…のそれぞれと、運転特性改善サーバS3と、ネットワークNWAと、を含んで構成される。なお、運転特性改善支援システム200は、無線端末装置P1Aを含む構成であってよい。 The driving characteristic improvement support system 200 includes each of one or more vehicles C1A, . . . , a driving characteristic improvement server S3, and a network NWA. Driving characteristic improvement support system 200 may be configured to include wireless terminal device P1A.

運転特性改善支援システム200は、1台以上の車両C1A,…のそれぞれに搭載された通信機器11A(図18参照)から送信された車両を運転する運転者の運転特性データと、安全確認行動データとを取得する。運転特性改善支援システム200は、取得された運転特性データと安全確認行動データとを運転特性改善サーバS3に送信する。運転特性改善支援システム200は、運転特性データが示す運転者の運転技量と、安全確認行動データが示す運転者の運転中の安全確認行動とに基づく運転者の運転特性が改善したか否かを判定し、運転特性改善評価結果を車両C1A,…に送信する。運転特性改善支援システム200は、運転特性改善評価結果に基づいて、車両C1A,…のそれぞれに運転者への運転支援内容を示す改善効果データ(新たな改善効果データの一例)を更新し、更新された改善効果データに基づく運転特性改善支援を実行する。 The driving characteristic improvement support system 200 receives the driving characteristic data of the driver who drives the vehicle and the safety confirmation action data transmitted from the communication device 11A (see FIG. 18) mounted on each of the one or more vehicles C1A, . . . and get. The driving characteristic improvement support system 200 transmits the acquired driving characteristic data and safety confirmation action data to the driving characteristic improvement server S3. The driving characteristic improvement support system 200 determines whether or not the driving characteristic of the driver has improved based on the driving skill of the driver indicated by the driving characteristic data and the safety confirmation behavior during driving indicated by the safety confirmation behavior data. Then, the driving characteristics improvement evaluation results are transmitted to the vehicles C1A, . . . The driving characteristic improvement support system 200 updates improvement effect data (an example of new improvement effect data) indicating the content of driving support to the driver for each of the vehicles C1A, . . . based on the driving characteristic improvement evaluation results. driving characteristic improvement support based on the obtained improvement effect data.

実施の形態2における運転特性データは、運転者の運転特性を示すデータであって、車両C1A,…のそれぞれに搭載された、各種センサ(例えば車内カメラ13A,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19A,車内センサ24等(図18参照))により取得されてもよい。 The driving characteristic data in Embodiment 2 is data indicating the driving characteristic of the driver, and is obtained from various sensors (for example, the in-vehicle camera 13A, the gyro sensor 14, the accelerator pedal 17A, the brake It may be acquired by the pedal 17B, the turn lamp 17C, the steering wheel 17D, the speed sensor 18, the vehicle exterior sensor/camera 19A, the vehicle interior sensor 24, etc. (see FIG. 18)).

なお、ここでいう改善効果データは、運転特性改善サーバS3により生成されるデータであって、車両C1A,…のそれぞれの運転者の運転特性データと、運転特性改善支援改善前後の時間帯における運転者の反応(例えば、運転者の感情,表情,心拍等)を示すデータ(以降、「感情データ」と表記)と、運転特性が取得された運転場面を示す運転場面情報とに基づいて、運転特性改善のための支援方法を決定するデータである。 The improvement effect data referred to here is data generated by the driving characteristic improvement server S3, and includes the driving characteristic data of the drivers of the vehicles C1A, . . . Based on data (hereinafter referred to as "emotional data") indicating a person's reaction (for example, driver's emotion, facial expression, heartbeat, etc.) and driving scene information indicating the driving scene in which the driving characteristics are acquired, the driving is performed. This is data for determining a support method for improving characteristics.

また、ここでいう運転場面は、運転中の任意の場面(例えば、車線変更,右左折,前進あるいは後退等)だけでなく、運転前であって運転者が車両に乗車する場面、運転後あるいは一時停止中に車両から運転者または同乗者が降車する場面等の運転前後の場面であって、安全確認が必要な場面を含む。また、運転場面は、走行中の道路環境(例えば、T字路,十字路,下り坂等)あるいは道路状況(例えば、渋滞中等),走行中の道路の環境情報(例えば、時間帯,天候等),走行中の道路で発生した事故の回数,頻度等に基づいて、事前に事故の発生しやすさ、あるいは安全確認の重要性等に基づく危険度(スコア)がそれぞれ設定されてよい。 In addition, the driving scene here means not only any scene during driving (for example, lane change, right/left turn, forward or backward, etc.), but also the scene before driving and the driver getting into the vehicle, after driving, or Scenes before and after driving, such as scenes in which the driver or a fellow passenger exits the vehicle during a temporary stop, including scenes that require safety confirmation. In addition, the driving scene includes the road environment (eg, T-junction, crossroads, downhill, etc.), road conditions (eg, traffic congestion, etc.), and environmental information of the road during driving (eg, time of day, weather, etc.). , based on the number and frequency of accidents that have occurred on the road on which the vehicle is traveling, the degree of risk (score) based on the likelihood of an accident occurring, or the importance of safety confirmation, etc., may be set in advance.

また、運転場面は、危険度(スコア)に対応して安全確認行動が実行された頻度に関する閾値が設定されていてもよい。このような場合、車両C1A,…のそれぞれは、運転者により実行された安全確認行動の実行頻度と閾値とを比較した比較結果に基づいて、運転特性改善支援の実行要否を判定してもよい。 Further, in the driving scene, a threshold may be set for the frequency with which the safety confirmation action is performed corresponding to the degree of danger (score). In such a case, each of the vehicles C1A, . good.

車両C1A,…のそれぞれは、ネットワークNWAを介して運転特性改善サーバS3と、無線端末装置P1Aとの間でそれぞれ無線通信可能に接続される。なお、ここでいう無線通信は、例えばWi-Fi(登録商標)に代表される無線LAN,セルラー通信システム(移動通信システム)等であって、その種類は特に限定されない。 Each of the vehicles C1A, . Note that the wireless communication here is, for example, a wireless LAN represented by Wi-Fi (registered trademark), a cellular communication system (mobile communication system), or the like, and the type thereof is not particularly limited.

車両C1A,…のそれぞれは、自車両に接近する運転者を検知したタイミングから運転者の運転特性と、運転者の行動特性(例えば、運転者の体,顔,あるいは目等の動き)とを示す運転特性データの取得、および運転場面の判定(特定)を開始する。車両C1A,…のそれぞれは、特定された運転場面の運転場面情報に対応する改善支援データに基づいて、運転者への運転特性改善支援(つまり、安全確認行動の支援)を実行するとともに、この運転特性改善支援に対する運転者の感情データを取得する。 Each of the vehicles C1A, . Acquisition of the driving characteristic data shown and determination (identification) of the driving scene are started. Each of the vehicles C1A, . Acquire driver emotion data for driving characteristic improvement assistance.

車両C1A,…のそれぞれは、取得された運転特性データ(具体的には、行動特性)に基づいて、運転者が現在の運転場面情報に対応する安全確認行動を行ったか否かを判定する。また、車両C1A,…のそれぞれは、運転者が安全確認行動を行ったか否かの安全確認行動結果、あるいは運転者の運転特性と行動特性とを含む運転特性データと、運転場面情報と、感情データと、運転者を識別可能な利用者IDと、を紐付けて、運転特性改善サーバS3に送信する。 Each of the vehicles C1A, . Each of the vehicles C1A, . The data and the user ID that can identify the driver are linked and transmitted to the driving characteristic improvement server S3.

車両C1A,…のそれぞれは、各種センサにより取得された自車両の周囲環境のデータに基づいて判定された自車両の運転場面と、各種センサにより取得された運転特性データを用いて、運転者の運転特性が改善したか否かを判定する運転特性学習モデルと、運転特性学習装置23に記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された運転特性学習モデル、あるいは運転場面データの更新データ等を取得し、運転特性学習装置23に記憶された運転特性学習モデル,運転場面データ等のデータを更新する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された改善効果データに基づいて、所定の運転場面において運転者の安全確認行動を支援する運転特性改善支援方法を設定する。車両C1A,…のそれぞれは、運転者による自車両の運転終了を検知したタイミングで運転特性データの取得を終了する。 Each of the vehicles C1A, . A driving characteristic learning model for determining whether or not the driving characteristic has improved is stored in the driving characteristic learning device 23 . Each of the vehicles C1A, . Update data such as data. Based on the improvement effect data transmitted from the driving characteristic improvement server S3, each of the vehicles C1A, . Each of the vehicles C1A, .

また、車両C1A,…のそれぞれは、無線端末装置P1Aから送信された運転者の運転特性データあるいは運転特性評価結果を要望する制御指令に基づいて、メモリ15A(図18参照)に記憶された運転者の運転特性データを抽出して無線端末装置P1Aに送信したり、抽出された運転特性データを用いて運転特性を評価した運転特性評価結果を生成して無線端末装置P1Aに送信したりする。 Each of the vehicles C1A, . The driving characteristic data of the person is extracted and transmitted to the wireless terminal device P1A, or the driving characteristic evaluation results are generated by evaluating the driving characteristics using the extracted driving characteristic data and transmitted to the wireless terminal device P1A.

運転特性改善サーバS3は、ネットワークNWAを介して、車両C1A,…のそれぞれと、無線端末装置P1Aとの間でそれぞれデータ通信可能に接続される。運転特性改善サーバS3は、車両C1A,…のそれぞれから送信された運転者の利用者IDと、運転特性データと、感情データと、運転場面情報とを取得する。 The driving characteristic improvement server S3 is connected to each of the vehicles C1A, . The driving characteristic improvement server S3 acquires the user ID of the driver, the driving characteristic data, the emotion data, and the driving scene information transmitted from each of the vehicles C1A, .

運転特性改善サーバS3は、取得された利用者IDと、利用者データベースDB1に登録(格納)された複数の運転者の利用者IDのそれぞれとを照合し、取得された利用者IDの運転者を特定する。運転特性改善サーバS3は、取得された運転特性データと、特定された運転者の利用者IDの運転特性データであって、かつ、取得された運転場面情報と同一の運転場面情報が紐付けられた運転特性データとを比較して、この運転者の運転特性が改善しているか否かを判定するとともに、取得された感情データに基づいて、現在車両C1A,…のそれぞれにより実行されている現在の運転特性改善支援方法(改善効果データ)がこの運転者に適した支援方法であるか否かを判定する。なお、ここでいう利用者IDは、実施の形態1において運転者の特定に使用された免許証ID,生体情報等であってよい。 The driving characteristic improvement server S3 collates the acquired user ID with each of the user IDs of a plurality of drivers registered (stored) in the user database DB1, and determines the driver of the acquired user ID. identify. The driving characteristic improvement server S3 associates the acquired driving characteristic data with the driving scene information that is the driving characteristic data of the user ID of the specified driver and that is the same as the acquired driving scene information. It is determined whether or not the driver's driving characteristics have improved by comparing the obtained driving characteristics data with the obtained driving characteristics data. is the driving characteristic improvement support method (improvement effect data) suitable for this driver. The user ID referred to here may be the driver's license ID, biometric information, etc. used to identify the driver in the first embodiment.

運転特性改善サーバS3は、運転者の運転特性が改善しているか否かの判定結果と、現在の改善効果データが示す運転特性改善支援方法に対する運転者の感情データとに基づいて、新たな改善効果データを生成して更新し、車両C1A,…のそれぞれに送信する。 The driving characteristic improvement server S3 provides new improvements based on the determination result as to whether the driver's driving characteristics have improved and the driver's emotion data regarding the driving characteristic improvement support method indicated by the current improvement effect data. Effect data is generated, updated, and transmitted to each of the vehicles C1A, . . .

また、運転特性改善サーバS3は、無線端末装置P1Aから送信された運転者の運転特性データあるいは運転特性評価結果を要望する制御指令に基づいて、データベース54(図20参照)に記憶された運転者の運転特性データを抽出して無線端末装置P1Aに送信したり、抽出された運転特性データを用いて運転特性を評価した運転特性評価結果を生成して無線端末装置P1Aに送信したりする。 In addition, the driving characteristic improvement server S3, based on the control command requesting the driver's driving characteristic data or driving characteristic evaluation result transmitted from the wireless terminal device P1A, determines whether the driver stored in the database 54 (see FIG. 20) is extracted and transmitted to the wireless terminal device P1A, or a driving characteristic evaluation result is generated by evaluating the driving characteristics using the extracted driving characteristic data and transmitted to the wireless terminal device P1A.

ネットワークNWAは、複数の車両C1A,…のそれぞれと、運転特性改善サーバS3と、無線端末装置P1Aとの間でそれぞれ無線通信あるいは有線通信可能に接続する。 The network NWA connects each of the plurality of vehicles C1A, .

次に、図18を参照して、実施の形態2における車両C1A,…の内部構成例について説明する。図18は、実施の形態2における車両C1A,…の内部構成例を示すブロック図である。なお、図18に示す車両C1A,…の内部構成は、生体情報として運転者の顔画像を用いる場合の内部構成例を図示し、他の生体情報を取得するためのセンサ、および免許証リーダ等の図示を省略している。また、車両C1A,…のそれぞれは、同様の内部構成であるため、以降の説明では車両C1Aの内部構成について説明する。 Next, with reference to FIG. 18, an internal configuration example of vehicles C1A, . . . according to the second embodiment will be described. FIG. 18 is a block diagram showing an internal configuration example of vehicles C1A, . . . according to the second embodiment. The internal configuration of vehicles C1A, . . . shown in FIG. is omitted. Since each of the vehicles C1A, . . . has the same internal configuration, the internal configuration of the vehicle C1A will be described below.

車両C1Aは、通信機器11Aと、端末装置22と、車内カメラ13Aと、ジャイロセンサ14と、メモリ15Aと、ECU16Aと、を少なくとも含んで構成される。車両C1A内部の各部は、CAN等によりデータ送受信可能に接続される。 The vehicle C1A includes at least a communication device 11A, a terminal device 22, an in-vehicle camera 13A, a gyro sensor 14, a memory 15A, and an ECU 16A. Each unit inside the vehicle C1A is connected by CAN or the like so as to be able to transmit and receive data.

なお、通信機器11A、端末装置22、車内カメラ13A、およびジャイロセンサ14は、1つの端末装置22として一体的に構成されてもよい。また、図2に示す車両C1Aに搭載されるセンサは一例であってこれに限定されない。 Note that the communication device 11A, the terminal device 22, the in-vehicle camera 13A, and the gyro sensor 14 may be configured integrally as one terminal device 22. Also, the sensors mounted on the vehicle C1A shown in FIG. 2 are an example, and the present invention is not limited to this.

通信機器11Aは、ネットワークNWを介して、車両C1Aと運転特性改善サーバS3との間で無線通信によるデータの送受信を実行する。 The communication device 11A transmits and receives data by wireless communication between the vehicle C1A and the driving characteristic improvement server S3 via the network NW.

端末装置22は、例えば、カーナビゲーション装置,運転者が所有するタブレット端末,スマートフォン等であって、運転者操作を受け付け可能な装置である。また、端末装置22は、例えばカーナビゲーション機能、位置情報提供サービス機能、インターネット接続機能、マルチメディア再生機能等を提供可能なIVI装置であってもよい。端末装置22は、プロセッサ22Aと、メモリ22Bと、表示部22Cと、入力部22Dとを含んで構成される。 The terminal device 22 is, for example, a car navigation device, a tablet terminal owned by the driver, a smart phone, or the like, and is a device capable of receiving operations by the driver. Also, the terminal device 22 may be an IVI device capable of providing, for example, a car navigation function, a location information providing service function, an Internet connection function, a multimedia reproduction function, and the like. The terminal device 22 includes a processor 22A, a memory 22B, a display section 22C, and an input section 22D.

プロセッサ22Aは、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ22Aは、メモリ22Bと協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ22Aは、メモリ22Bに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。 The processor 22A is configured using, for example, a CPU, DSP, or FPGA, and controls the operation of each section. The processor 22A cooperates with the memory 22B to collectively perform various processes and controls. Specifically, the processor 22A refers to the programs and data held in the memory 22B, and executes the programs to implement the functions of the units.

プロセッサ22Aは、車内センサ24あるいは通信機器11Aから運転者の接近を検知した旨の制御指令を取得したタイミングから、運転特性および行動特性(運転特性データ)の取得処理、運転場面の判定処理を開始する。プロセッサ22Aは、運転場面を特定した後、この運転特性の運転場面情報に対応する改善効果データに基づいて、運転特性改善支援を実行する。プロセッサ22Aは、実行された運転特性改善支援に対する運転者の運転特性、行動特性、および感情データの取得処理等の各種処理を開始する。 The processor 22A starts acquisition processing of driving characteristics and behavioral characteristics (driving characteristic data) and determination processing of driving situations at the timing of acquiring a control command from the in-vehicle sensor 24 or the communication device 11A indicating that the approach of the driver has been detected. do. After identifying the driving situation, the processor 22A executes driving characteristic improvement assistance based on the improvement effect data corresponding to the driving situation information of this driving characteristic. The processor 22A starts various processes such as acquisition of the driver's driving characteristics, behavioral characteristics, and emotion data for the driving characteristics improvement assistance that has been executed.

プロセッサ22Aは、ECU16Aを介して、各種センサ(例えば車内カメラ13A,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19A,車内センサ24等)により取得された各種運転特性データを取得する。 The processor 22A, via the ECU 16A, various sensors (for example, the vehicle interior camera 13A, the gyro sensor 14, the accelerator pedal 17A, the brake pedal 17B, the turn lamp 17C, the steering wheel 17D, the speed sensor 18, the vehicle exterior sensor/camera 19A, the vehicle interior sensor 24, etc.). ) to acquire various driving characteristic data acquired by

プロセッサ22Aは、入力部22Dから出力された利用者IDにより運転者を特定する。プロセッサ22Aは、車内カメラ13A,車外センサ/カメラ19A,GPSセンサ20あるいは車内センサ24等により取得された撮像画像あるいは情報に基づいて、運転場面を判定する。 The processor 22A identifies the driver based on the user ID output from the input section 22D. The processor 22A determines the driving scene based on the captured images or information acquired by the vehicle interior camera 13A, vehicle exterior sensor/camera 19A, GPS sensor 20, vehicle interior sensor 24, or the like.

プロセッサ22Aは、判定された運転場面の運転場面情報に基づいて、この運転場面情報に対応する改善効果データに基づいて、スピーカ25あるいは警告表示灯26を制御し、運転者への運転特性改善支援(安全確認行動支援)を実行する。 The processor 22A controls the speaker 25 or the warning indicator light 26 based on the driving scene information of the determined driving scene and the improvement effect data corresponding to this driving scene information to assist the driver in improving the driving characteristics. (safety confirmation action support).

プロセッサ22Aは、車内カメラ13Aにより撮像された撮像画像を取得し、取得された撮像画像に映る運転者の顔を検出し、検出された運転者の顔の表情に基づいて、運転特性改善支援前後の運転者の感情を解析して感情データを生成する。 The processor 22A acquires a captured image captured by the in-vehicle camera 13A, detects the face of the driver appearing in the acquired captured image, and performs driving characteristic improvement support before and after the driving characteristic improvement support based on the detected facial expression of the driver. Analyze the emotion of the driver and generate emotion data.

また、プロセッサ22Aは、車内カメラ13Aあるいは車外センサ/カメラ19Aにより撮像された撮像画像を取得し、取得された撮像画像に映る運転者の体,目の動きを解析し、解析結果に基づく運転者の行動特性と、各種センサにより取得された運転特性とを含む運転特性データを生成する。 Further, the processor 22A acquires an image captured by the in-vehicle camera 13A or the exterior sensor/camera 19A, analyzes the movement of the driver's body and eyes reflected in the acquired image, and detects the movement of the driver based on the analysis result. and driving characteristics data obtained by various sensors.

プロセッサ22Aは、運転特性改善支援が実行された運転場面情報と、運転特性改善支援に対する運転者の感情データと、各種センサにより取得された運転特性データと、運転者の利用者IDとを紐付けて、メモリ15Aに記憶するとともに、通信機器11Aに出力して運転特性改善サーバS3に送信させる。なお、プロセッサ22Aは、取得された行動データに基づいて、運転者が安全確認行動を実行したか否かの判定結果を、さらに紐付けて運転特性改善サーバS3に送信させてもよい。 The processor 22A associates the driving scene information in which the driving characteristic improvement assistance was executed, the driver's emotion data regarding the driving characteristic improvement assistance, the driving characteristic data acquired by various sensors, and the user ID of the driver. are stored in the memory 15A and output to the communication device 11A to be transmitted to the driving characteristic improvement server S3. Note that the processor 22A may further link the determination result as to whether or not the driver has performed the safety confirmation action based on the acquired action data and transmit it to the driving characteristic improvement server S3.

また、プロセッサ22Aは、運転特性改善サーバS3から送信された運転場面情報と、改善効果データとを取得する。プロセッサ22Aは、取得された運転場面情報に対応する改善効果データを、新たに取得された改善効果データに更新する。 The processor 22A also acquires the driving scene information and the improvement effect data transmitted from the driving characteristic improvement server S3. The processor 22A updates the improvement effect data corresponding to the acquired driving scene information to the newly acquired improvement effect data.

プロセッサ22Aは、運転者の降車、あるいは運転者が自車両から離れたと判定したタイミングで運転者の運転特性データの取得処理、運転場面の判定処理、運転特性改善支援処理、あるいは感情データの取得処理等の各種処理を終了する。 When the processor 22A determines that the driver has gotten off the vehicle or has left the vehicle, the processor 22A performs acquisition processing of the driving characteristic data of the driver, determination processing of the driving scene, processing of driving characteristic improvement support, or acquisition processing of emotion data. , etc., are terminated.

メモリ22Bは、例えばプロセッサ22Aの各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ22Aの動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ22Aにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ22Aの動作を規定するプログラムが書き込まれている。また、メモリ22Bは、車両C1Aを運転する1以上の利用者IDと、運転特性履歴テーブルTB3とを記憶する。 The memory 22B has, for example, a RAM as a work memory used when executing each process of the processor 22A, and a ROM for storing programs and data defining the operation of the processor 22A. The RAM temporarily stores data or information generated or acquired by the processor 22A. A program that defines the operation of the processor 22A is written in the ROM. The memory 22B also stores one or more user IDs who drive the vehicle C1A and a driving characteristic history table TB3.

表示部22Cは、例えばLCDもしくは有機ELを用いて構成される。表示部22Cは、プロセッサ22Aにより生成された運転特性評価結果画面(不図示)等を表示する。 The display unit 22C is configured using, for example, an LCD or an organic EL. The display unit 22C displays a driving characteristic evaluation result screen (not shown) and the like generated by the processor 22A.

入力部22Dは、表示部22Cと一体的に構成されたユーザインタフェースである。入力部22Dは、受け付けられた運転者操作を電気信号(制御指令)に変換して、プロセッサ22Aに出力する。入力部22Dは、運転者による利用者IDの入力操作、運転特性評価画面の生成を要求する入力操作、運転特性改善支援の有効化/無効化の設定等を受け付けたりする。 The input unit 22D is a user interface configured integrally with the display unit 22C. The input unit 22D converts the received driver's operation into an electric signal (control command) and outputs it to the processor 22A. The input unit 22D receives a user ID input operation by the driver, an input operation requesting generation of a driving characteristic evaluation screen, a setting for enabling/disabling driving characteristic improvement support, and the like.

車内カメラ13Aは、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCDあるいはCMOS等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。 The in-vehicle camera 13A includes at least a lens (not shown) and an image sensor (not shown). The image sensor is, for example, a solid-state imaging device such as CCD or CMOS, and converts an optical image formed on an imaging surface into an electrical signal.

車内カメラ13Aは、プロセッサ22Aにより制御され、運転席に座る運転者を撮像し、撮像された撮像画像をプロセッサ22Aに出力する。プロセッサ22Aは、車内カメラ13Aから出力された撮像画像を画像解析し、運転者の顔,目あるいは体の動きを示す行動特性データを生成する。プロセッサ22Aは、生成された行動特性データと、運転場面に対応する1以上の安全運転行動とを比較して、現在の運転場面で実行されるべき安全確認行動が運転者により実行されたか否かを判定する。なお、運転者の行動特性データを解析する処理、および現在の運転場面で実行されるべき安全確認行動が運転者により実行されたか否かを判定処理のそれぞれは、運転特性改善サーバS3のプロセッサ52により実行されてよい。 The in-vehicle camera 13A is controlled by the processor 22A, captures an image of the driver sitting in the driver's seat, and outputs the captured image to the processor 22A. The processor 22A analyzes the captured image output from the in-vehicle camera 13A, and generates action characteristic data indicating the movement of the driver's face, eyes or body. The processor 22A compares the generated behavioral characteristic data with one or more safe driving behaviors corresponding to the driving scene to determine whether the driver has performed a safety confirmation behavior that should be performed in the current driving scene. judge. It should be noted that the process of analyzing the driver's behavior characteristic data and the process of determining whether or not the driver has executed the safety confirmation behavior that should be executed in the current driving situation are performed by the processor 52 of the driving characteristic improvement server S3. may be performed by

また、車内カメラ13Aは、プロセッサ22Aにより制御され、運転席に座る運転者を撮像し、撮像された撮像画像をプロセッサ22Aに出力する。プロセッサ22Aは、車内カメラ13Aから出力された撮像画像を画像解析し、運転者の感情を解析して感情データを生成する。なお、感情データの生成処理は、運転特性改善サーバS3のプロセッサ52により実行されてよい。 In addition, the in-vehicle camera 13A is controlled by the processor 22A, captures an image of the driver sitting in the driver's seat, and outputs the captured image to the processor 22A. The processor 22A analyzes the captured image output from the in-vehicle camera 13A, analyzes the emotion of the driver, and generates emotion data. The emotion data generation process may be executed by the processor 52 of the driving characteristic improvement server S3.

メモリ15Aは、例えばECU16Aの各処理を実行する際に用いられるワークメモリとしてのRAMと、ECU16Aの動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、ECU16Aにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、ECU16Aの動作を規定するプログラムが書き込まれている。また、メモリ15Aは、車両C1Aを運転する1以上の利用者IDと、運転特性履歴テーブルTB3とを記憶してもよい。 The memory 15A has, for example, a RAM as a work memory that is used when executing each process of the ECU 16A, and a ROM that stores programs and data that define the operation of the ECU 16A. The RAM temporarily stores data or information generated or acquired by the ECU 16A. A program that defines the operation of the ECU 16A is written in the ROM. The memory 15A may also store one or more user IDs who drive the vehicle C1A and the driving characteristic history table TB3.

ECU16Aは、各部の処理および制御をそれぞれ統括的に実行する。ECU16Aは、所謂電子回路制御装置を用いて構成され、メモリ15Aに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ECU16Aは、各種センサから出力された情報を運転特性データとして取得する。ECU16Aは、運転特性データをプロセッサ22Aに出力する。 The ECU 16A comprehensively executes processing and control of each unit. The ECU 16A is configured using a so-called electronic circuit control device, refers to programs and data held in the memory 15A, and implements the functions of each unit by executing the programs. The ECU 16A acquires information output from various sensors as driving characteristic data. The ECU 16A outputs driving characteristic data to the processor 22A.

また、ECU16Aは、車内センサ24から出力された電気信号に基づいて、自車両への運転者の接近、あるいは自車両から運転者が離れたこと(つまり、運転終了)を検知し、検知された検知情報をプロセッサ22Aに出力する。なお、ここでは説明を省略するが、ECU16Aは、例えば運転特性改善支援に必要となる各種処理、運転者の運転特性評価等のプロセッサ22Aにより実行される各種機能を実現可能であってよい。 In addition, the ECU 16A detects the approach of the driver to the own vehicle or the departure of the driver from the own vehicle (that is, the end of driving) based on the electric signal output from the in-vehicle sensor 24, and the detected Detected information is output to processor 22A. Although not described here, the ECU 16A may be capable of implementing various functions executed by the processor 22A, such as various processes necessary for driving characteristic improvement assistance and evaluation of driving characteristics of the driver.

車外センサ/カメラ19Aは、車両C1Aに備えられたレーダ,ソナー等の1つ以上のセンサ、車両C1Aの周囲(車外)を撮像可能な1つ以上のカメラである。ここでいうカメラは、ドライブレコーダであってもよい。車外センサ/カメラ19Aは、車両C1Aの周辺に存在する物体(例えば、壁,障害物,他車両,人物等)または自車両に接近する接近物(例えば、他車両、二輪車、人物等)の位置および方向、標識、道路上の白線、自車両から降車して離れていく運転者または同乗者、自車両に接近して乗車する運転者または同乗者等を検知したり、撮像したりする。車外センサ/カメラ19Aは、検知された検知情報または撮像された撮像画像をプロセッサ22Aに出力する。 The vehicle exterior sensor/camera 19A is one or more sensors such as radar and sonar installed in the vehicle C1A, and one or more cameras capable of imaging the surroundings (outside the vehicle) of the vehicle C1A. The camera referred to here may be a drive recorder. The sensor/camera 19A outside the vehicle detects the position of an object (for example, a wall, an obstacle, another vehicle, a person, etc.) existing around the vehicle C1A or an approaching object (for example, another vehicle, a motorcycle, a person, etc.). Also, the direction, signs, white lines on the road, the driver or fellow passenger getting off and away from the own vehicle, the driver or fellow passenger approaching and getting into the own vehicle, etc. are detected or imaged. The vehicle exterior sensor/camera 19A outputs the detected detection information or the captured image to the processor 22A.

運転特性学習装置23は、運転特性改善サーバS3から送信された運転特性学習モデルと、運転場面データとを記録する。プロセッサ22Aは、運転特性学習装置23に記録された運転特性学習モデルと、各種センサにより取得された情報とを用いて、運転特性データを生成する。また、プロセッサ22Aは、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて運転場面を判定し、車両C1A,…の運転場面を示す運転場面データを生成する。 The driving characteristic learning device 23 records the driving characteristic learning model and the driving scene data transmitted from the driving characteristic improvement server S3. The processor 22A generates driving characteristic data using the driving characteristic learning model recorded in the driving characteristic learning device 23 and information acquired by various sensors. Further, the processor 22A determines the driving scene using the driving scene data recorded in the driving characteristic learning device 23 and the information acquired by various sensors, and generates the driving scene data indicating the driving scene of the vehicle C1A, . do.

車内センサ24は、例えば自車両のスマートキーから発信される電波を受信可能なセンサ,各席に対応するドアに設けられた開閉センサ,各座席に設けられた加重センサ、シートベルトの装着センサ等である。車内センサ24は、スマートキーから発信される電波を受信した場合、運転者の接近を通知する電気信号(制御指令)を生成して、ECU16Aに出力する。車内センサ24は、スマートキーから発信される電波を受信できなくなった場合、運転者が自車両から離れたことを通知する電気信号(制御指令)を生成して、ECU16Aに出力する。また、車内センサ24は、運転席に設けられた加重センサによる運転者の体(体重)の動き、シートベルトの着脱、運転席のドアの開閉等の検知情報をECU16Aに出力する。 The in-vehicle sensor 24 includes, for example, a sensor capable of receiving radio waves transmitted from a smart key of the vehicle, an open/close sensor provided at a door corresponding to each seat, a weight sensor provided at each seat, a seat belt wearing sensor, and the like. is. When the in-vehicle sensor 24 receives radio waves transmitted from the smart key, it generates an electric signal (control command) that notifies the driver of the approach and outputs it to the ECU 16A. When the in-vehicle sensor 24 cannot receive radio waves transmitted from the smart key, it generates an electric signal (control command) notifying that the driver has left the vehicle and outputs it to the ECU 16A. Further, the in-vehicle sensor 24 outputs to the ECU 16A detection information such as movement of the driver's body (weight), attachment/detachment of the seat belt, opening and closing of the driver's door, etc., by a weight sensor provided in the driver's seat.

安全運転支援機器の一例としてのスピーカ25は、車両C1A,…のそれぞれの車内に少なくとも1つ設けられ、プロセッサ22AあるいはECU16Aにより制御されて運転場面に対応する支援音声を出力し、運転者の運転特性改善支援を実行する。なお、実施の形態2に係る車両C1A,…におけるスピーカ25の設置位置および数は、図28に示すように車両の前方と後方とにそれぞれ2つずつ設置される例について説明するが、一例であってこれに限定されないことは言うまでもない。また、スピーカ25は、車両内だけでなく、車両外に設置されてもよい。 At least one speaker 25 as an example of a safe driving support device is provided in each of the vehicles C1A, . Execute characteristic improvement support. As for the installation position and the number of the speakers 25 in the vehicles C1A, ... according to the second embodiment, an example in which two each are installed in the front and the rear of the vehicle as shown in FIG. 28 will be described. Needless to say, it is not limited to this. Moreover, the speaker 25 may be installed outside the vehicle as well as inside the vehicle.

安全運転支援機器の一例としての警告表示灯26は、例えば車両内のピラー等に設けられたLED(Light Emitting Diode)であって、プロセッサ22AあるいはECU16Aにより制御されて運転場面に対応して点灯し、運転者の運転特性改善支援を実行する。なお、実施の形態2に係る車両C1A,…における警告表示灯26の設置位置および数は、図29に示す例に限定されないことは言うまでもない。また、警告表示灯26は、ピラー以外の位置(例えば、サイドミラー,ルームミラー等)に設置されてもよい。 The warning indicator light 26, which is an example of a safe driving support device, is an LED (Light Emitting Diode) provided on a pillar or the like in the vehicle, for example, and is controlled by the processor 22A or the ECU 16A to light up corresponding to the driving situation. , to perform driving characteristic improvement support for the driver. Needless to say, the installation positions and the number of warning indicator lamps 26 in vehicles C1A, . . . according to the second embodiment are not limited to the example shown in FIG. Also, the warning indicator light 26 may be installed at a position other than the pillar (for example, a side mirror, a room mirror, etc.).

次に、図19を参照して、車両C1A,…のそれぞれにより記録される運転特性履歴テーブルTB3について説明する。図19は、運転特性履歴テーブルTB3の一例を示す図である。なお、以降の説明では説明を分かり易くするために、運転特性履歴テーブルTB3を用いて車両C1A,…のそれぞれにより記録される各種データまたは情報について説明するが、運転特性履歴テーブルTB3は必須でなく、省略されてよい。 Next, the driving characteristic history table TB3 recorded by each of the vehicles C1A, . . . will be described with reference to FIG. FIG. 19 is a diagram showing an example of the driving characteristic history table TB3. In the following description, the driving characteristic history table TB3 is used to describe various data or information recorded by each of the vehicles C1A, . , may be omitted.

運転特性履歴テーブルTB3は、運転場面情報と、運転特性データと、運転場面情報に対応する改善効果データとを利用者IDに紐付けて記録し、管理する。なお、利用者IDは、免許証IDであってもよい。 The driving characteristic history table TB3 records and manages driving scene information, driving characteristic data, and improvement effect data corresponding to the driving scene information in association with the user ID. Note that the user ID may be a driver's license ID.

例えば、図19に示す運転特性履歴テーブルTB3は、利用者ID「AAA」に運転場面情報「〇〇〇」と、運転特性データと、改善効果データとを紐付け、利用者ID「AAA」に、運転場面情報「△△△」と、運転特性データと、改善効果データとを紐付け、利用者ID「BBB」に、運転場面情報「×××」と、運転特性データと、改善効果データとを紐付けて、それぞれ記録する。これにより、運転特性履歴テーブルTB3は、同一の車両を、異なる複数の運転者のそれぞれ(例えば、2人の利用者「AAA」,「BBB」のそれぞれ)が運転する場合であっても、利用者IDごとに運転特性データ、改善効果データのそれぞれをより効率的に記録(管理)できる。 For example, the driving characteristic history table TB3 shown in FIG. , driving situation information "△△△", driving characteristic data, and improvement effect data are linked, and driving situation information "XXX", driving characteristic data, and improvement effect data are linked to the user ID "BBB". are linked and recorded respectively. As a result, the driving characteristic history table TB3 can be used even when the same vehicle is driven by a plurality of different drivers (for example, each of two users "AAA" and "BBB"). Driving characteristic data and improvement effect data can be recorded (managed) more efficiently for each person ID.

次に、図20を参照して、運転特性改善サーバS3の内部構成例について説明する。図20は、実施の形態2における運転特性改善サーバS3の内部構成例を示すブロック図である。 Next, an internal configuration example of the driving characteristic improvement server S3 will be described with reference to FIG. FIG. 20 is a block diagram showing an example internal configuration of the driving characteristic improvement server S3 according to the second embodiment.

運転特性改善サーバS3は、通信部51と、プロセッサ52と、メモリ53と、データベース54と、を含んで構成される。なお、データベース54は、運転特性改善サーバS3との間でデータ通信可能に接続された別体により構成されてもよい。 The driving characteristic improvement server S3 includes a communication unit 51, a processor 52, a memory 53, and a database . Note that the database 54 may be configured as a separate entity that is connected to the driving characteristic improvement server S3 for data communication.

通信部51は、ネットワークNWを介して、車両C1A,…のそれぞれと、無線端末装置P1との間でデータ送受信可能に接続される。 The communication unit 51 is connected to each of the vehicles C1A, .

プロセッサ52は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ52は、メモリ53と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ52は、メモリ53に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、支援方法生成部52A等の各部の機能を実現する。プロセッサ52は、運転特性学習モデル、あるいは運転場面データが更新された場合、更新された運転特性学習モデル、あるいは運転場面データを車両C1A,…のそれぞれに送信する。 The processor 52 is configured using, for example, a CPU, DSP, or FPGA, and controls the operation of each section. The processor 52 cooperates with the memory 53 to collectively perform various processes and controls. Specifically, the processor 52 refers to the programs and data held in the memory 53 and executes the programs, thereby implementing the functions of the support method generator 52A and the like. When the driving characteristic learning model or the driving scene data is updated, the processor 52 transmits the updated driving characteristic learning model or the driving scene data to each of the vehicles C1A, .

また、プロセッサ52は、車両C1A,…のそれぞれから送信された各運転場面情報に対応する運転特性データを用いて機械学習に基づいて、運転特性学習モデルの生成に用いられる教師データ(学習データ)を生成してもよい。プロセッサ52は、車両C1A,…のそれぞれから送信された各改善効果データに基づく運転特性改善支援に対する運転者の感情データを用いた機械学習に基づいて、改善効果学習モデルの生成に用いられる教師データ(学習データ)を生成してもよい。 In addition, the processor 52 uses the driving characteristic data corresponding to each driving scene information transmitted from each of the vehicles C1A, . may be generated. The processor 52 generates teaching data used for generating an improvement effect learning model based on machine learning using driver emotion data for driving characteristic improvement assistance based on each improvement effect data transmitted from each of the vehicles C1A, . . . (learning data) may be generated.

教師データを生成するための学習は、1つ以上の統計的分類技術を用いて行っても良い。統計的分類技術としては、例えば、重回帰分析、線形分類器(Linear Classifiers)、サポートベクターマシン(Support Vector Machines)、二次分類器(Quadratic Classifiers)、カーネル密度推測(Kernel Estimation)、決定木(Decision Trees)、人工ニューラルネットワーク(Artificial Neural Networks)、ベイジアン技術および/またはネットワーク(Bayesian Techniques and/or Networks)、隠れマルコフモデル(Hidden Markov Models)、バイナリ分類子(Binary Classifiers)、マルチクラス分類器(Multi-Class Classifiers)、クラスタリング(Clustering Technique)、ランダムフォレスト(Random Forest Technique)、ロジスティック回帰(Logistic Regression Technique)、線形回帰(Linear Regression Technique)、勾配ブースティング(Gradient Boosting Technique)等が挙げられる。但し、使用される統計的分類技術はこれらに限定されない。 Training to generate training data may be performed using one or more statistical classification techniques. Statistical classification techniques include, for example, multiple regression analysis, linear classifiers, support vector machines, quadratic classifiers, kernel estimation, decision trees ( Decision Trees, Artificial Neural Networks, Bayesian Techniques and/or Networks, Hidden Markov Models, Binary Classifiers , a multiclass classifier ( Multi-Class Classifiers, Clustering Technique, Random Forest Technique, Logistic Regression Technique, Linear Regression Technique, Gradient boosting (Gradient Boosting Technique) and the like. However, the statistical classification techniques used are not limited to these.

支援方法生成部52Aは、車両C1A,…のそれぞれから送信された運転特性データ、運転場面情報、感情データ、および利用者IDのそれぞれを取得する。支援方法生成部52Aは、取得された利用者IDと、利用者データベースDB1に登録(格納)された複数の利用者IDのそれぞれとを照合して、運転者を特定する。なお、支援方法生成部52Aは、利用者データベースDB1に取得された利用者IDと同一の利用者IDが登録されていないと判定した場合、取得された利用者IDを新たな利用者として、利用者データベースDB1に登録(格納)してよい。 The support method generation unit 52A acquires the driving characteristic data, the driving scene information, the emotion data, and the user ID transmitted from each of the vehicles C1A, . The support method generation unit 52A collates the acquired user ID with each of the plurality of user IDs registered (stored) in the user database DB1 to identify the driver. If the support method generation unit 52A determines that the user ID identical to the acquired user ID is not registered in the user database DB1, the acquired user ID is used as a new user. It may be registered (stored) in the person database DB1.

支援方法生成部52Aは、取得された運転場面情報に基づいて、安全運転が必要な運転場面であって、かつ、運転場面に対応する危険度(スコア)が所定値以上であるか否かを判定する。また、支援方法生成部52Aは、取得された運転特性データに含まれる行動特性データに基づいて、運転者が運転場面に対応する安全確認行動を実行しているか否かを判定する。 Based on the acquired driving scene information, the support method generation unit 52A determines whether or not the driving scene requires safe driving and the degree of risk (score) corresponding to the driving scene is equal to or greater than a predetermined value. judge. Further, the support method generation unit 52A determines whether or not the driver is performing a safety confirmation action corresponding to the driving scene based on the action characteristic data included in the acquired driving characteristic data.

支援方法生成部52Aは、これらの判定結果と感情データに基づいて、運転特性改善方法の変更が必要であるか否かをさらに判定する。支援方法生成部52Aは、運転特性改善方法の変更が必要であると判定した場合、取得された運転場面情報を運転場面データベースDB2に、取得された運転特性データを運転特性データベースDB3に、取得された改善効果データを改善効果データベースDB4にそれぞれ利用者IDに紐付けて登録(格納)する。また、支援方法生成部52Aは、取得された運転特性と、運転特性データベースDB3に登録された運転者の運転特性とに基づいて、運転者の運転特性が改善しているか否かを判定する。支援方法生成部52Aは、運転特性が改善しているか否かの判定結果と、取得された感情データとに基づいて、変更後の運転特性改善方法を決定する。支援方法生成部52Aは、変更後の運転特性改善方法を示す改善効果データを生成し、車両C1A,…に送信する。 The support method generation unit 52A further determines whether or not it is necessary to change the driving characteristic improvement method based on these determination results and emotion data. When determining that the driving characteristic improvement method needs to be changed, the support method generation unit 52A stores the acquired driving scene information in the driving scene database DB2 and the acquired driving characteristic data in the driving characteristic database DB3. The obtained improvement effect data is registered (stored) in the improvement effect database DB4 in association with each user ID. Further, the support method generation unit 52A determines whether or not the driving characteristics of the driver have improved based on the acquired driving characteristics and the driving characteristics of the driver registered in the driving characteristics database DB3. The support method generation unit 52A determines the driving characteristic improvement method after the change based on the determination result as to whether the driving characteristic is improved and the acquired emotion data. The support method generation unit 52A generates improvement effect data indicating the driving characteristic improvement method after the change, and transmits the improvement effect data to the vehicles C1A, .

一方、支援方法生成部52Aは、運転特性改善方法の変更が必要でないと判定した場合、新たな改善効果データの生成および更新処理を省略し、取得された運転場面情報を運転場面データベースDB2に、取得された運転特性データを運転特性データベースDB3にそれぞれ利用者IDに紐付けて登録(格納)する。 On the other hand, when the support method generation unit 52A determines that the driving characteristic improvement method does not need to be changed, the generation and update processing of new improvement effect data are omitted, and the acquired driving scene information is stored in the driving scene database DB2. The acquired driving characteristic data is registered (stored) in the driving characteristic database DB3 in association with each user ID.

メモリ53は、例えばプロセッサ52の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ52の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ52により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ52の動作を規定するプログラムが書き込まれている。また、メモリ53は、運転特性学習モデル53Aと、改善効果学習モデル53Bとを記憶する。 The memory 53 has, for example, a RAM as a work memory that is used when executing each process of the processor 52, and a ROM that stores programs and data that define the operation of the processor 52. FIG. Data or information generated or obtained by the processor 52 is temporarily stored in the RAM. A program that defines the operation of the processor 52 is written in the ROM. The memory 53 also stores a driving characteristic learning model 53A and an improvement effect learning model 53B.

データベース54は、利用者データベースDB1と、運転場面データベースDB2と、運転特性データベースDB3と、改善効果データベースDB4とをそれぞれ記録する。利用者データベースDB1、運転場面データベースDB2、運転特性データベースDB3、および、改善効果データベースDB4のそれぞれは、車両C1A,…のそれぞれから送信された1セットのデータ(利用者ID、運転場面情報、運転場面に対応する運転特性データ、および運転場面情報に対応する改善効果データのそれぞれ)がそれぞれ互いに紐付けられた状態で記録される。なお、利用者データベースDB1、運転場面データベースDB2、運転特性データベースDB3、および、改善効果データベースDB4のそれぞれは、車両C1A,…のそれぞれから取得された取得日時情報を紐付けて記憶することで、車両C1A,…のそれぞれから送信された1セットのデータを紐付け可能にしてもよい。 The database 54 records a user database DB1, a driving situation database DB2, a driving characteristic database DB3, and an improvement effect database DB4. Each of the user database DB1, the driving scene database DB2, the driving characteristic database DB3, and the improvement effect database DB4 stores a set of data (user ID, driving scene information, driving scene information) transmitted from each of the vehicles C1A, . and the improvement effect data corresponding to the driving scene information) are recorded in a state of being associated with each other. The user database DB1, the driving scene database DB2, the driving characteristic database DB3, and the improvement effect database DB4 each store the acquired date and time information acquired from each of the vehicles C1A, . A set of data transmitted from each of C1A, . . . may be linked.

利用者データベースDB1は、複数の運転者のそれぞれの利用者IDを登録(格納)する。なお、利用者IDは、免許証IDであってもよい。 The user database DB1 registers (stores) user IDs of a plurality of drivers. Note that the user ID may be a driver's license ID.

運転場面データベースDB2は、複数の車両C1A,…のそれぞれから取得された運転場面情報を利用者IDごとに登録(格納)する。 The driving scene database DB2 registers (stores) driving scene information acquired from each of the plurality of vehicles C1A, . . . for each user ID.

運転特性データベースDB3は、複数の車両C1A,…のそれぞれから取得された運転特性データを利用者IDの運転場面ごとに登録(格納)する。 The driving characteristic database DB3 registers (stores) driving characteristic data obtained from each of the plurality of vehicles C1A, . . . for each driving scene of the user ID.

改善効果データベースDB4は、支援方法生成部52Aにより生成された改善効果データを利用者IDの運転場面情報ごとに登録(格納)する。なお、改善効果データベースDB4は、変更後の運転改善データが生成された場合には、変更後の運転改善データを登録(格納)してもよい。また、改善効果データベースDB4は、新たな改善効果データが車両C1A,…により生成される場合、運転場面情報に紐付けられた改善効果データを、複数の車両C1A,…のそれぞれから取得された新たな改善効果データに更新する。 The improvement effect database DB4 registers (stores) the improvement effect data generated by the support method generation unit 52A for each driving scene information of the user ID. The improvement effect database DB4 may register (store) the changed driving improvement data when the changed driving improvement data is generated. Further, when new improvement effect data is generated by the vehicles C1A, . Update to effective improvement data.

次に、図21を参照して、車両C1A,…のそれぞれにより記録される運転特性改善管理テーブルTB4について説明する。図19は、運転特性改善管理テーブルTB4の一例を示す図である。なお、以降の説明では説明を分かり易くするために、運転特性改善管理テーブルTB4を用いてデータベース54(つまり、利用者データベースDB1、運転場面データベースDB2、運転特性データベースDB3、および、改善効果データベースDB4のそれぞれ)により記録される各種データあるいは情報について説明するが、運転特性改善管理テーブルTB4は必須でなく、省略されてよい。 Next, the driving characteristic improvement management table TB4 recorded by each of the vehicles C1A, . . . will be described with reference to FIG. FIG. 19 is a diagram showing an example of the driving characteristic improvement management table TB4. In the following description, in order to facilitate understanding, the database 54 (that is, the user database DB1, the driving scene database DB2, the driving characteristic database DB3, and the improvement effect database DB4) is stored using the driving characteristic improvement management table TB4. respectively), the driving characteristic improvement management table TB4 is not essential and may be omitted.

運転特性改善管理テーブルTB4は、運転場面情報に、運転場面に対応する運転特性データと、運転場面情報に対応する改善効果データとを紐付けて利用者IDごとに記録し、管理する。なお、利用者IDは、免許証IDであってもよい。 The driving characteristic improvement management table TB4 associates driving characteristic data corresponding to the driving scene information with the driving scene information and improvement effect data corresponding to the driving scene information, and records and manages them for each user ID. Note that the user ID may be a driver's license ID.

例えば、図21に示す運転特性改善管理テーブルTB4は、利用者ID「AAA」の運転場面情報「〇〇〇」に運転特性データと改善効果データとを、運転場面情報「△△△」に運転特性データと改善効果データとを、運転場面情報「×××」に運転特性データと改善効果データとをそれぞれ紐付けて記録する。運転特性改善管理テーブルTB4は、利用者ID「BBB」の運転場面情報「×××」に運転特性データと改善効果データとを紐付けて記録し、利用者ID「CCC」の運転場面情報「△△△」に運転特性データと改善効果データとを紐付けて記録する。 For example, the driving characteristic improvement management table TB4 shown in FIG. The characteristic data and the improvement effect data are recorded by linking the driving characteristic data and the improvement effect data to the driving situation information "XXX". The driving characteristic improvement management table TB4 records the driving situation information "XXX" of the user ID "BBB" in association with the driving characteristic data and the improvement effect data, and records the driving situation information "XXX" of the user ID "CCC". The driving characteristic data and the improvement effect data are linked and recorded in △△△.

図22を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図22は、左折時の安全確認行動例を説明する図である。なお、図22に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図22では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 22, a specific example of the process of determining whether or not the vehicle C1A, . FIG. 22 is a diagram for explaining an example of safety confirmation behavior when turning left. Note that the example of confirming safe behavior shown in FIG. 22 is merely an example, and needless to say, the present invention is not limited to this. Further, in FIG. 22, an example in which the vehicle C1A determines whether or not the safety confirmation action is being performed will be described as an example. may be

図22は、運転場面「左折時」の車両C1Aを示す図であって、進行方向D1に左折する直前の車両C1Aと、その時の車両C1A内部の様子を示す図である。なお、以降で説明する端末装置22により実行される各処理は、ECU16Aにより実行されてもよい。 FIG. 22 is a diagram showing the vehicle C1A in the driving scene "when turning left", showing the vehicle C1A immediately before turning left in the traveling direction D1 and the state inside the vehicle C1A at that time. In addition, each process performed by the terminal device 22 demonstrated henceforth may be performed by ECU16A.

図22に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「左折時」であると判定する。例えば、端末装置22は、運転場面データと、車外センサ/カメラ19Aにより撮像された車両C1Aの周囲が撮像された撮像画像、アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,あるいはステアリング17Dにより取得された運転者の運転操作に関する各種情報、端末装置22に事前に設定された行先(目的地)情報、GPSセンサ20等により取得された現在の車両C1Aの位置情報等と、を用いて、車両C1Aの運転場面が「左折時」であると判定する。 The terminal device 22 shown in FIG. 22 uses the driving scene data recorded in the driving characteristic learning device 23 and the information acquired by various sensors to determine that the driving scene of the vehicle C1A is "when turning left". For example, the terminal device 22 receives driving scene data, an image of the surroundings of the vehicle C1A captured by an external sensor/camera 19A, an accelerator pedal 17A, a brake pedal 17B, a turn lamp 17C, or a steering wheel 17D. Various information related to the driver's driving operation, destination (destination) information preset in the terminal device 22, current position information of the vehicle C1A acquired by the GPS sensor 20, etc. are used to determine the vehicle C1A is determined to be "when turning left".

端末装置22は、判定された車両C1Aの運転場面情報「左折時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「左折時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。 The terminal device 22 associates the user ID corresponding to the driver stored in the driving characteristic history table TB3 based on the determined driving scene information "when turning left" of the vehicle C1A, and also generates the driving scene information. The improvement effect data (that is, the driving characteristic improvement support method) corresponding to "when turning left" is referred to. The terminal device 22 generates a control command for controlling the speaker 25 or the warning indicator light 26 based on the improvement effect data referred to, and outputs the command to the speaker 25 or the warning indicator light 26, respectively. When the terminal device 22 determines that the driving characteristic improvement support is unnecessary based on the improvement effect data referred to, the terminal device 22 omits the control of the speaker 25 or the warning indicator lamp 26 described above.

また、端末装置22は、判定された車両C1Aの運転場面情報「左折時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図22に示す例において、車両C1Aは、運転者が運転場面情報「左折時」に対応する3つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。 In addition, the terminal device 22 refers to information on one or more safety confirmation actions to be performed by the driver, corresponding to the determined driving situation information "when turning left" of the vehicle C1A. The terminal device 22 determines whether or not the driver has performed a safety confirmation action corresponding to the driving situation information, based on information on one or more safety confirmation actions and behavior characteristic data of the driver acquired by various sensors. determine whether In the example shown in FIG. 22, the vehicle C1A determines whether or not the driver has performed each of the three safety confirmation actions corresponding to the driving scene information "when turning left".

例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者にルームミラーRM越しに車両C1A後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC11を向いたか否か(つまり、運転者がルームミラーRM越しに車両C1Aの後方を目視確認したか否か)を判定する(1つ目の判定)。 For example, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to perform driving characteristic improvement support that prompts the driver to visually check the rear of the vehicle C1A through the rearview mirror RM, and also outputs from the in-vehicle camera 13A Based on the captured image, it is determined whether or not the movement of the driver's face or line of sight is directed in the direction AC11 (that is, whether or not the driver visually confirms the rear of the vehicle C1A through the rearview mirror RM) (1 second judgment).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に進行方向D1に対応する左側サイドミラーSM1越しに車両C1A左側方および左後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC12を向いたか否か(つまり、運転者が進行方向D1に対応する左側サイドミラーSM1越しに車両C1Aの左側側方および後方を目視確認したか否か)を判定する(2つ目の判定)。 In addition, the terminal device 22 controls the speaker 25 or the warning indicator lamp 26, and assists in driving characteristic improvement by prompting the driver to visually check the left side and the left rear of the vehicle C1A through the left side mirror SM1 corresponding to the traveling direction D1. Along with execution, based on the imaged image output from the in-vehicle camera 13A, it is determined whether or not the movement of the driver's face or line of sight is directed in the direction AC12 (that is, whether the driver is looking through the left side mirror SM1 corresponding to the traveling direction D1). (second determination).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC13を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する(3つ目の判定)。 In addition, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to perform driving characteristic improvement support that prompts the driver to visually check the rear of the vehicle C1A, and based on the captured image output from the in-vehicle camera 13A. Then, it is determined whether or not the movement of the driver's body, face, or line of sight is directed in the direction AC13 (that is, whether or not the driver visually confirms the rear of the vehicle C1A) (third determination).

なお、2つ以上の安全確認行動のそれぞれ実行判定を行う場合であって、これらの安全確認行動のそれぞれに事前に判定順番が設定されている場合、端末装置22は、各安全確認行動の実行判定を行うとともに、各安全確認行動が設定された順番通りに実行されたか否かを判定してもよい。 In the case where execution determination is made for each of two or more safety confirmation actions, and the order of determination is set in advance for each of these safety confirmation actions, the terminal device 22 executes each safety confirmation action. Along with the determination, it may be determined whether or not each safety confirmation action has been performed in the set order.

端末装置22は、運転特性改善支援を開始したタイミングから3つの安全確認行動のそれぞれの実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。なお、端末装置22は、各安全確認行動のそれぞれに対応する運転特性改善支援ごとに感情データを生成してもよいし、運転場面「左折時」に実行された運転特性改善支援に対して1つの感情データを生成してもよい。 The terminal device 22 detects the emotion of the driver based on the captured image captured by the in-vehicle camera 13A from the timing when the driving characteristic improvement support is started to the timing when the execution determination processing for each of the three safety confirmation actions is completed. to parse The terminal device 22 generates emotion data based on the analysis result. Note that the terminal device 22 may generate emotion data for each driving characteristic improvement assistance corresponding to each safety confirmation action, or may generate emotion data for each driving characteristic improvement assistance executed in the driving scene “when turning left”. may generate one emotion data.

端末装置22は、運転場面の判定を開始したタイミングから3つの安全確認行動のそれぞれの実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。 The terminal device 22 acquires driving characteristic data, driving scene information, and the three safety confirmation actions acquired from the timing when the judgment of the driving situation is started to the timing when the execution judgment of each of the three safety confirmation actions is completed. and the emotion data corresponding to the driving characteristic improvement support are respectively generated, linked to the user ID, recorded in the memory 15A, and transmitted to the driving characteristic improvement server S3. to record it in the database 54.

図23を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図23は、右折時の安全確認行動例を説明する図である。なお、図23に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図23では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 23, a specific example of the process of determining whether or not the vehicle C1A, . FIG. 23 is a diagram for explaining an example of safety confirmation behavior when turning right. Note that the example of confirming safe behavior shown in FIG. 23 is an example, and needless to say, the present invention is not limited to this. Further, in FIG. 23, an example in which the vehicle C1A determines whether or not the safety confirmation action is being performed will be described as an example. may be

図23は、運転場面「右折時」の車両C1Aを示す図であって、進行方向D2に右折する直前の車両C1Aと、その時の車両C1A内部の様子を示す図である。 FIG. 23 is a diagram showing the vehicle C1A in the driving scene "when turning right", showing the vehicle C1A immediately before turning right in the traveling direction D2 and the state inside the vehicle C1A at that time.

図23に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「右折時」であると判定する。 The terminal device 22 shown in FIG. 23 uses the driving scene data recorded in the driving characteristic learning device 23 and the information acquired by various sensors to determine that the driving scene of the vehicle C1A is "when turning right".

端末装置22は、判定された車両C1Aの運転場面情報「右折時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「右折時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。 The terminal device 22 associates the user ID corresponding to the driver stored in the driving characteristic history table TB3 based on the determined driving scene information "when turning right" of the vehicle C1A, and the driving scene information. The improvement effect data (that is, the driving characteristic improvement support method) corresponding to "when turning right" is referred to. The terminal device 22 generates a control command for controlling the speaker 25 or the warning indicator light 26 based on the improvement effect data referred to, and outputs the command to the speaker 25 or the warning indicator light 26, respectively. When the terminal device 22 determines that the driving characteristic improvement support is unnecessary based on the improvement effect data referred to, the terminal device 22 omits the control of the speaker 25 or the warning indicator lamp 26 described above.

また、端末装置22は、判定された車両C1Aの運転場面情報「右折時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図23に示す例において、車両C1Aは、運転者が運転場面情報「右折時」に対応する3つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。 In addition, the terminal device 22 refers to information on one or more safety confirmation actions to be performed by the driver, corresponding to the determined driving situation information "when turning right" of the vehicle C1A. The terminal device 22 determines whether or not the driver has performed a safety confirmation action corresponding to the driving situation information, based on information on one or more safety confirmation actions and behavior characteristic data of the driver acquired by various sensors. determine whether In the example shown in FIG. 23, an example will be described in which the vehicle C1A determines whether or not the driver has performed each of the three safety confirmation actions corresponding to the driving scene information "when turning right".

例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者にルームミラーRM越しに車両C1A後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC21を向いたか否か(つまり、運転者がルームミラーRM越しに車両C1Aの後方を目視確認したか否か)を判定する(1つ目の判定)。 For example, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to perform driving characteristic improvement support that prompts the driver to visually check the rear of the vehicle C1A through the rearview mirror RM, and also outputs from the in-vehicle camera 13A Based on the captured image, it is determined whether or not the movement of the driver's face or line of sight is directed in the direction AC21 (that is, whether or not the driver visually confirms the rear of the vehicle C1A through the rearview mirror RM) (1 second judgment).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に進行方向D2に対応する右側サイドミラーSM2越しに車両C1A右側方および右後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC22を向いたか否か(つまり、運転者が進行方向D2に対応する右側サイドミラーSM2越しに車両C1Aの右側側方および後方を目視確認したか否か)を判定する(2つ目の判定)。 In addition, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to assist the driver in improving driving characteristics by urging the driver to visually check the right side and the right rear of the vehicle C1A through the right side mirror SM2 corresponding to the direction of travel D2. Along with execution, based on the captured image output from the in-vehicle camera 13A, it is determined whether or not the movement of the driver's face or line of sight is directed in the direction AC22 (that is, whether or not the driver is looking through the right side mirror SM2 corresponding to the traveling direction D2). (second determination).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC23を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する(3つ目の判定)。なお、図23に示すように車両C1Aが右側に運転席がある車両(つまり、右ステアリング車両)である場合、運転者は、運転席のドアにより車両C1Aの右側方および右後方が遮られる。このような場合、端末装置22は、運転者の行動特性データに基づいて、運転者の頭が進行方向D2を向いた状態から車両C1Aの右側に向かう方向に90°以上向いたか否かに基づいて、運転者が車両C1Aの後方を目視確認したか否かを判定してもよい。 In addition, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to perform driving characteristic improvement support that prompts the driver to visually check the rear of the vehicle C1A, and based on the captured image output from the in-vehicle camera 13A. Then, it is determined whether or not the movement of the driver's body, face, or line of sight is directed in the direction AC23 (that is, whether or not the driver visually confirms the rear of the vehicle C1A) (third determination). As shown in FIG. 23, when vehicle C1A has a driver's seat on the right side (that is, a right-steering vehicle), the driver's right side and right rear of vehicle C1A are blocked by the driver's door. In such a case, the terminal device 22 determines whether or not the driver's head turns toward the right side of the vehicle C1A by 90° or more from the direction of travel D2 based on the driver's behavior characteristic data. may be used to determine whether or not the driver has visually confirmed the area behind the vehicle C1A.

端末装置22は、運転特性改善支援を開始したタイミングから3つの安全確認行動のそれぞれの実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。端末装置22は、運転場面の判定を開始したタイミングから3つの安全確認行動のそれぞれの実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。 The terminal device 22 detects the emotion of the driver based on the captured image captured by the in-vehicle camera 13A from the timing when the driving characteristic improvement support is started to the timing when the execution determination processing for each of the three safety confirmation actions is completed. to parse The terminal device 22 generates emotion data based on the analysis result. The terminal device 22 acquires driving characteristic data, driving scene information, and the three safety confirmation actions acquired from the timing when the judgment of the driving situation is started to the timing when the execution judgment of each of the three safety confirmation actions is completed. and the emotion data corresponding to the driving characteristic improvement support are respectively generated, linked to the user ID, recorded in the memory 15A, and transmitted to the driving characteristic improvement server S3. to record it in the database 54.

図24を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図24は、後退時の安全確認行動例を説明する図である。なお、図24に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図24では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 24, a specific example of the process of determining whether or not the vehicle C1A, . FIG. 24 is a diagram for explaining an example of safety confirmation behavior when backing up. Note that the example of confirming safe behavior shown in FIG. 24 is an example, and needless to say, the present invention is not limited to this. Further, in FIG. 24, an example in which the vehicle C1A determines whether or not the safety confirmation action is being performed will be described as an example. may be

図24は、運転場面「後退時」の車両C1Aを示す図であって、進行方向D3に後退する直前の車両C1Aと、その時の車両C1A内部の様子を示す図である。 FIG. 24 is a diagram showing the vehicle C1A in the "reversing" driving scene, showing the vehicle C1A immediately before it reverses in the traveling direction D3 and the state inside the vehicle C1A at that time.

図24に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「後退時」であると判定する。 The terminal device 22 shown in FIG. 24 uses the driving scene data recorded in the driving characteristic learning device 23 and the information acquired by various sensors to determine that the driving scene of the vehicle C1A is "reversing".

端末装置22は、判定された車両C1Aの運転場面情報「後退時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「後退時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。 The terminal device 22 associates the user ID corresponding to the driver stored in the driving characteristic history table TB3 based on the determined driving scene information "reversing" of the vehicle C1A, and sets the driving scene information. Refer to the improvement effect data (that is, driving characteristic improvement support method) corresponding to "reversing". The terminal device 22 generates a control command for controlling the speaker 25 or the warning indicator light 26 based on the improvement effect data referred to, and outputs the command to the speaker 25 or the warning indicator light 26, respectively. When the terminal device 22 determines that the driving characteristic improvement support is unnecessary based on the improvement effect data referred to, the terminal device 22 omits the control of the speaker 25 or the warning indicator lamp 26 described above.

また、端末装置22は、判定された車両C1Aの運転場面情報「後退時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図24に示す例において、車両C1Aは、運転者が運転場面情報「後退時」に対応する3つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。 In addition, the terminal device 22 refers to information on one or more safety confirmation actions to be performed by the driver, corresponding to the determined driving situation information "reversing" of the vehicle C1A. The terminal device 22 determines whether or not the driver has performed a safety confirmation action corresponding to the driving situation information, based on information on one or more safety confirmation actions and behavior characteristic data of the driver acquired by various sensors. determine whether In the example shown in FIG. 24, an example will be described in which the driver of vehicle C1A determines whether or not each of the three safety confirmation actions corresponding to the driving situation information "reversing" has been performed.

例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者にルームミラーRM越しに車両C1A後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC31を向いたか否か(つまり、運転者がルームミラーRM越しに車両C1Aの後方を目視確認したか否か)を判定する(1つ目の判定)。 For example, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to perform driving characteristic improvement support that prompts the driver to visually check the rear of the vehicle C1A through the rearview mirror RM, and also outputs from the in-vehicle camera 13A Based on the captured image, it is determined whether or not the movement of the driver's face or line of sight is directed in the direction AC31 (that is, whether or not the driver visually confirms the rear of the vehicle C1A through the rearview mirror RM) (1 second judgment).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に進行方向D3に対応する右側サイドミラーSM2越しに車両C1A右側方および右後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC32を向いたか否か(つまり、運転者が進行方向D3に対応する右側サイドミラーSM2越しに車両C1Aの右側側方および後方を目視確認したか否か)を判定する(2つ目の判定)。 In addition, the terminal device 22 controls the speaker 25 or the warning indicator light 26, and assists the driver in improving driving characteristics by urging the driver to visually check the right side and the right rear of the vehicle C1A through the right side mirror SM2 corresponding to the traveling direction D3. Along with executing this, based on the captured image output from the in-vehicle camera 13A, it is determined whether or not the movement of the driver's face or line of sight is directed in the direction AC32 (that is, whether or not the driver is looking through the right side mirror SM2 corresponding to the traveling direction D3). (second determination).

また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC33を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する(3つ目の判定)。なお、端末装置22は、車内センサ24の一例であるシートベルトの装着センサにより、後方確認時に運転者がシートベルトを外したことが検知された場合、後方確認後に再度シートベルトが装着されたか否かを判定したり、運転者にシートベルトの再装着を促す運転特性改善支援を実行したりしてもよい。なお、運転者による後方の目視確認が実行されたか否かの判定は、自車両の後方を撮像するバックモニタ(車外センサ/カメラ19Aの一例)により撮像された撮像画像に基づいて、実行されてもよいし、複数の車外センサ/カメラ19Aを用いて取得された複数の撮像画像に基づいて、自車両を上方から俯瞰した画像であるサラウンドビューモニタ(360°のカメラ映像,トップビュー画像等)を生成し、生成されたサラウンドビューモニタ等に基づいて、実行されてもよい。 In addition, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to perform driving characteristic improvement support that prompts the driver to visually check the rear of the vehicle C1A, and based on the captured image output from the in-vehicle camera 13A. Then, it is determined whether or not the movement of the driver's body, face or line of sight is directed in the direction AC33 (that is, whether or not the driver visually confirms the rear of the vehicle C1A) (third determination). When the seatbelt wearing sensor, which is an example of the in-vehicle sensor 24, detects that the driver has unfastened the seatbelt while checking the rear, the terminal device 22 determines whether the seatbelt has been put on again after the rear is checked. It may also be possible to determine whether or not the driver is in the seat belt, or to execute driving characteristic improvement support that prompts the driver to refasten the seatbelt. It should be noted that the determination as to whether or not the driver has visually confirmed the rear of the vehicle is made based on the captured image captured by the back monitor (an example of the sensor/camera 19A outside the vehicle) that captures the rear of the vehicle. Alternatively, a surround view monitor (360° camera video, top view image, etc.) that is an overhead view of the own vehicle based on a plurality of captured images acquired using a plurality of exterior sensors/cameras 19A. may be generated and executed based on the generated surround view monitor or the like.

端末装置22は、運転特性改善支援を開始したタイミングから3つの安全確認行動のそれぞれの実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。端末装置22は、運転場面の判定を開始したタイミングから3つの安全確認行動のそれぞれの実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。 The terminal device 22 detects the emotion of the driver based on the captured image captured by the in-vehicle camera 13A from the timing when the driving characteristic improvement support is started to the timing when the execution determination processing for each of the three safety confirmation actions is completed. to parse The terminal device 22 generates emotion data based on the analysis result. The terminal device 22 acquires driving characteristic data, driving scene information, and the three safety confirmation actions acquired from the timing when the judgment of the driving situation is started to the timing when the execution judgment of each of the three safety confirmation actions is completed. and the emotion data corresponding to the driving characteristic improvement support are respectively generated, linked to the user ID, recorded in the memory 15A, and transmitted to the driving characteristic improvement server S3. to record it in the database 54.

図25を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図25は、長距離直線道路を前進時の安全確認行動例を説明する図である。なお、図25に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図25では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 25, a specific example of the process of determining whether or not the vehicle C1A, . FIG. 25 is a diagram for explaining an example of safety confirmation behavior when driving forward on a long-distance straight road. Note that the example of confirming safe behavior shown in FIG. 25 is an example, and needless to say, the present invention is not limited to this. Further, in FIG. 25, an example in which the vehicle C1A determines whether or not the safety confirmation action is being performed will be described as an example. may be

図25は、運転場面「長距離直線道路の前進時」の車両C1Aを示す図であって、進行方向D4に前進する車両C1Aと、その時の車両C1A内部の様子を示す図である。 FIG. 25 is a diagram showing the vehicle C1A in the driving scene "driving forward on a long-distance straight road", showing the vehicle C1A moving forward in the traveling direction D4 and the state inside the vehicle C1A at that time.

図25に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「長距離直線道路の前進時」であると判定する。 The terminal device 22 shown in FIG. 25 uses the driving scene data recorded in the driving characteristic learning device 23 and the information acquired by various sensors to determine whether the driving scene of the vehicle C1A is "driving forward on a long-distance straight road". Determine that there is.

端末装置22は、判定された車両C1Aの運転場面情報「長距離直線道路の前進時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「長距離直線道路の前進時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。 The terminal device 22 associates the user ID corresponding to the driver stored in the driving characteristics history table TB3 based on the determined driving situation information of the vehicle C1A "driving forward on a long-distance straight road", In addition, the improvement effect data (that is, the driving characteristic improvement support method) corresponding to the driving situation information "driving forward on a long straight road" is referred to. The terminal device 22 generates a control command for controlling the speaker 25 or the warning indicator light 26 based on the improvement effect data referred to, and outputs the command to the speaker 25 or the warning indicator light 26, respectively. When the terminal device 22 determines that the driving characteristic improvement support is unnecessary based on the improvement effect data referred to, the terminal device 22 omits the control of the speaker 25 or the warning indicator lamp 26 described above.

また、端末装置22は、判定された車両C1Aの運転場面情報「長距離直線道路の前進時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図25に示す例において、車両C1Aは、運転者が運転場面情報「長距離直線道路の前進時」に対応する1つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。 Further, the terminal device 22 refers to the information of one or more safety confirmation actions to be executed by the driver, corresponding to the determined driving situation information of the vehicle C1A "driving forward on a long-distance straight road". The terminal device 22 determines whether or not the driver has performed a safety confirmation action corresponding to the driving situation information, based on information on one or more safety confirmation actions and behavior characteristic data of the driver acquired by various sensors. determine whether In the example shown in FIG. 25, the vehicle C1A determines whether or not the driver has performed one safety confirmation action corresponding to the driving situation information "driving forward on a long-distance straight road". do.

例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC41を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する。 For example, the terminal device 22 controls the speaker 25 or the warning indicator light 26 to perform driving characteristic improvement assistance that prompts the driver to visually check the rear of the vehicle C1A, and based on the captured image output from the in-vehicle camera 13A. Then, it is determined whether or not the movement of the driver's body, face, or line of sight is directed in the direction AC41 (that is, whether or not the driver visually confirms the rear of the vehicle C1A).

なお、図25に示す運転場面情報「長距離直線道路の前進時」のように、1つの運転場面が第1の所定時間あるいは第1の走行距離以上継続される場合、安全確認行動の判定処理は、周期的(例えば、所定時間ごと、所定距離ごと)に繰り返し実行されてもよい。 Note that when one driving scene continues for a first predetermined time or a first travel distance or more, as in the driving scene information "driving forward on a long-distance straight road" shown in FIG. may be repeatedly performed periodically (for example, every predetermined time, every predetermined distance).

端末装置22は、運転特性改善支援を開始したタイミングから安全確認行動の実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。端末装置22は、運転場面の判定を開始したタイミングから安全確認行動の実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。 The terminal device 22 analyzes the emotion of the driver based on the captured images captured by the in-vehicle camera 13A from the timing when the driving characteristic improvement support is started to the timing when the safety confirmation action execution determination process is finished. The terminal device 22 generates emotion data based on the analysis result. The terminal device 22 acquires the driving characteristic data, the driving scene information, and the determination of each of the three safety confirmation actions from the timing when the judgment of the driving situation is started to the timing when the execution judgment of the safety confirmation action is finished. Safety confirmation action data indicating the result and emotion data corresponding to the driving characteristic improvement support are generated respectively, linked to the user ID and recorded in the memory 15A, transmitted to the driving characteristic improvement server S3, and stored in the database 54. to record.

次に、図26を参照して、運転場面ごとの運転者の安全確認行動の一例について説明する。図26は、運転場面ごとの運転者の安全確認行動のセンシング例を説明する図である。なお、図26に示す運転場面、安全確認行動、あるいはセンサ例は、一例であってこれに限定されないことは言うまでもない。 Next, with reference to FIG. 26, an example of a driver's safety confirmation behavior for each driving scene will be described. FIG. 26 is a diagram for explaining an example of sensing the safety confirmation behavior of the driver for each driving situation. It goes without saying that the driving scene, safety confirmation behavior, and sensor example shown in FIG. 26 are only examples, and are not limited to these.

図26に示す安全確認行動テーブルTB5は、運転場面情報と、運転場面情報に対応し、運転者により実行されるべき安全確認行動と、安全確認行動をセンシングするセンサ例とを対応付けるテーブルである。なお、安全確認行動テーブルTB5は、運転場面ごとにセンシングされる運転者の安全確認行動例の説明を分かり易くするためのテーブルであって、必須でなく省略されてよい。 The safety confirmation behavior table TB5 shown in FIG. 26 is a table that associates driving scene information, safety confirmation behavior that should be executed by the driver, and examples of sensors that sense the safety confirmation behavior, corresponding to the driving scene information. Note that the safety confirmation behavior table TB5 is a table for making it easy to understand the explanation of examples of the driver's safety confirmation behavior sensed for each driving scene, and is not essential and may be omitted.

例えば、図26に示す安全確認行動テーブルTB5において、端末装置22は、Bluetooth(登録商標)等の無線通信により車内センサ24によって運転者が所持する自車両のスマートキーあるいはスマートフォンから発信されている電波を受信して、自車両に対する運転者の接近を検知(センシング)したと判定した場合、運転特性学習装置23に記録された運転場面データに基づいて、運転場面が「車両に乗り込む前」であると判定する。端末装置22は、運転場面が「車両に乗り込む前」であると判定した場合、車外センサ/カメラ19Aにより自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,車内センサ24(例えば、ドアがそれぞれ開状態であるか閉状態であるかを検知するドア開閉センサ)による自車両の少なくとも1つの席のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 For example, in the safety confirmation action table TB5 shown in FIG. 26, the terminal device 22 uses the in-vehicle sensor 24 through wireless communication such as Bluetooth (registered trademark) to detect radio waves transmitted from the smart key or smart phone of the vehicle possessed by the driver. is received, and it is determined that the approach of the driver to the own vehicle has been detected (sensed), the driving scene is "before getting into the vehicle" based on the driving scene data recorded in the driving characteristic learning device 23. I judge. When the terminal device 22 determines that the driving scene is "before getting into the vehicle", the sensor/camera 19A outside the vehicle detects the presence or absence of an obstacle in the forward or backward direction of the vehicle (that is, the front-rear direction of the vehicle), Safety confirmation by visually confirming the presence or absence of contact by opening and closing the door of at least one seat of the own vehicle by the in-vehicle sensor 24 (for example, a door open/close sensor that detects whether each door is open or closed) Determine whether the action is being executed.

また、車内カメラ13A,車内センサ24(ドア開閉センサ)等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「車両から降りる前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A,車内センサ24(ドア開閉センサ)等により自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,車内センサ24(例えば、ドアがそれぞれ開状態であるか閉状態であるかを検知するドア開閉センサ)による自車両の少なくとも1つの席のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Based on the information acquired by various sensors such as the in-vehicle camera 13A and the in-vehicle sensor 24 (door open/close sensor) and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is determined as "before getting out of the vehicle. , the terminal device 22 detects the forward or backward direction of the vehicle (i.e., the front-rear direction of the vehicle) using the vehicle interior camera 13A, vehicle exterior sensor/camera 19A, vehicle interior sensor 24 (door open/close sensor), etc. presence or absence of an obstacle in the vehicle, presence or absence of a contact due to the opening and closing of the door of at least one seat of the vehicle by the in-vehicle sensor 24 (for example, a door open/close sensor that detects whether each door is open or closed), etc. It is determined whether or not the safety confirmation action of visually confirming is being performed.

また、車内カメラ13A,車内センサ24(ドア開閉センサ)等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「同乗者が車両から降りる前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A,車内センサ24(ドア開閉センサ)等により自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,車内センサ24(例えば、ドアがそれぞれ開状態であるか閉状態であるかを検知するドア開閉センサ)による自車両の少なくとも1つの席(例えば、自車両から降車する同乗者の座席)のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 In addition, based on the information obtained by various sensors such as the in-vehicle camera 13A and the in-vehicle sensor 24 (door open/close sensor) and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is determined as follows: When the terminal device 22 judges that it is "before getting off the car", the terminal device 22 detects the forward direction or the backward direction of the own vehicle (that is, the the presence or absence of an obstacle in the front-rear direction), and at least one seat in the own vehicle (for example, a sensor that detects whether the door is open or closed) detected by an in-vehicle sensor 24 (for example, a door open/close sensor that detects whether each door is open or closed) It is determined whether or not the safety confirmation action of visually confirming the presence or absence of contact by opening and closing the door of the passenger's seat) is being performed.

また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「車両を発進する前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の前進方向または後進方向(つまり、自車両の前後方向)、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Based on the information acquired by various sensors such as the in-vehicle camera 13A, the accelerator pedal 17A, and the brake pedal 17B, and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is determined to be "before starting the vehicle." , the terminal device 22 uses the vehicle interior camera 13A, the vehicle exterior sensor/camera 19A, etc. to determine whether the vehicle is moving forward or backward (i.e., in the longitudinal direction of the vehicle), or whether the vehicle is approaching from the surroundings. It is determined whether or not a safety confirmation action of visually confirming the presence or absence of objects (for example, pedestrians, other vehicles, two-wheeled vehicles, etc.) is being executed.

また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「ブレーキをかける前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Based on the information acquired by various sensors such as the in-vehicle camera 13A, the accelerator pedal 17A, and the brake pedal 17B, and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is determined to be "before braking". If the terminal device 22 determines that the It is determined whether or not the safety confirmation action of visually confirming the presence or absence is being executed.

また、車内カメラ13A,ターンランプ17C,ステアリング17D等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「車線を変更する前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の左側後方,右側後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Based on the information acquired by various sensors such as the in-vehicle camera 13A, the turn lamp 17C, and the steering wheel 17D, and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is determined to be "before changing lanes." If the terminal device 22 determines that the A judgment is made as to whether or not the safety confirmation action of visually confirming the presence or absence of a two-wheeled vehicle, etc., is being performed.

また、車内カメラ13A等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「直進している時」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Further, when it is determined that the driving scene is "when going straight" based on the information acquired by various sensors such as the in-vehicle camera 13A and the driving scene data recorded in the driving characteristic learning device 23, The terminal device 22 visually confirms the presence or absence of objects (for example, pedestrians, other vehicles, two-wheeled vehicles, etc.) approaching from behind the own vehicle or from the surroundings of the own vehicle using the in-vehicle camera 13A, the outside sensor/camera 19A, and the like. Determine whether confirmation action is being performed.

また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「右左折をする前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Further, based on the information acquired by various sensors such as the in-vehicle camera 13A, the accelerator pedal 17A, the brake pedal 17B, the turn lamp 17C, and the steering wheel 17D, and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is "before making a left or right turn", the terminal device 22 detects objects (for example, pedestrians , other vehicles, motorcycles, etc.) is being executed.

また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「後退する前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A,車内センサ24(ドア開閉センサ)等により自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,自車両の少なくとも1つの席(例えば、自車両から降車する同乗者の座席)のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。 Based on the information acquired by various sensors such as the in-vehicle camera 13A, the accelerator pedal 17A, the brake pedal 17B, etc., and the driving scene data recorded in the driving characteristic learning device 23, the driving scene is "before reversing". If it is determined that there is an obstacle, the terminal device 22 detects the obstacle in the forward or backward direction of the vehicle (i.e., the front-rear direction of the vehicle) using the vehicle interior camera 13A, vehicle exterior sensor/camera 19A, vehicle interior sensor 24 (door open/close sensor), etc. Determining whether or not a safety confirmation action is being performed to visually confirm the presence of objects, the presence of contact objects by opening and closing the door of at least one seat of the vehicle (for example, the seat of a passenger getting off the vehicle). do.

次に、図27を参照して、車両C1A,…に搭載された警告表示灯26について説明する。図27は、警告表示灯26A,26Bの配置例を説明する図である。 Next, referring to FIG. 27, the warning indicator lights 26 mounted on the vehicles C1A, . . . will be described. FIG. 27 is a diagram illustrating an arrangement example of the warning indicator lamps 26A and 26B.

なお、図27に示す2つの警告表示灯26A,26Bのそれぞれの配置位置は、一例であってこれに限定されないことは言うまでもない。また、図27に示す例では、2つの警告表示灯26A,26Bのそれぞれが搭載されるが、車両C1A,…のそれぞれに搭載される警告表示灯の数は3以上であってよい。 It goes without saying that the arrangement position of each of the two warning indicator lamps 26A and 26B shown in FIG. 27 is an example and is not limited to this. Also, in the example shown in FIG. 27, two warning indicator lights 26A and 26B are mounted, respectively, but the number of warning indicator lights mounted on each of the vehicles C1A, . . . may be three or more.

例えば、警告表示灯26は、車両C1A,…のBピラー,Cピラー,あるいはDピラー等のいずれかに設けられてもよい。ここでいうBピラーは、運転席および助手席とセカンドシートとの間であって、車両C1Aの車体中央部に設けられた一対のピラーである。また、Cピラーは、セカンドシートとサードシートとの間であって、車両C1A,…の車体後部に設けられた車体中央部に設けられた一対のピラーである。また、Dピラーは、セカンドシートあるいはサードシートの後方であって、車両C1Aの車体後方に設けられた一対のピラーである。 For example, the warning indicator light 26 may be provided on any of the B-pillar, C-pillar, D-pillar, etc. of the vehicle C1A. The B pillars referred to here are a pair of pillars provided in the central portion of the vehicle body of the vehicle C1A between the driver's seat, the front passenger's seat, and the second seat. Further, the C-pillars are a pair of pillars provided in the central portion of the vehicle body provided in the rear portion of the vehicle body of the vehicle C1A, . . . between the second seat and the third seat. The D pillars are a pair of pillars provided behind the second seat or the third seat and behind the vehicle body of the vehicle C1A.

図27に示す警告表示灯26A,26Bのそれぞれは、車両C1A,…のそれぞれのフロントガラスの両側に設けられた一対の前方ピラー(Aピラー)のそれぞれに設けられたLEDである。警告表示灯26A,26Bのそれぞれは、端末装置22あるいはECU16Aによる制御指令に基づく所定の色(例えば、黄色,オレンジ,赤等)で点灯あるいは点滅したり、消灯したりする。 Each of the warning indicator lights 26A and 26B shown in FIG. 27 is an LED provided on each of a pair of front pillars (A pillars) provided on both sides of the windshields of the vehicles C1A, . Each of the warning indicator lamps 26A and 26B lights, blinks, or goes out in a predetermined color (eg, yellow, orange, red, etc.) based on a control command from the terminal device 22 or the ECU 16A.

端末装置22は、運転場面の危険度(スコア)、あるいは運転者の運転特性(運転技量、安全確認行動の頻度等)に基づいて、警告表示灯26を異なる色で点灯あるいは点滅させてもよい。例えば、端末装置22は、運転場面の危険度が高いと判定した場合には、警告表示灯26を赤色で点滅させてもよいし、運転場面の危険度が高くないと判定した場合には、警告表示灯26をオレンジでより長い間隔で点滅させてもよい。 The terminal device 22 may light or flash the warning indicator light 26 in different colors based on the degree of danger (score) of the driving scene or the driving characteristics of the driver (driving skill, frequency of safety confirmation actions, etc.). . For example, if the terminal device 22 determines that the risk of the driving scene is high, the warning indicator light 26 may blink in red, and if it determines that the risk of the driving scene is not high, The warning indicator light 26 may flash orange at longer intervals.

また、例えば、端末装置22は、運転者の左側サイドミラーSM1に映る車両C1A,…の後方の目視確認を支援する場合、左側に位置する警告表示灯26Bを点灯あるいは点滅させる運転特性改善支援を実行する。また、端末装置22は、運転者の右側サイドミラーSM2に映る車両C1A,…の後方の目視確認を支援する場合、右側に位置する警告表示灯26Bを点灯あるいは点滅させる運転特性改善支援を実行する。これにより、端末装置22は、警告表示灯26Bの点灯あるいは点滅により運転者の視線を、運転場面に対応する左側サイドミラーSM1(つまり、左側)あるいは右側サイドミラーSM2(つまり、右側)に誘導できる。 Further, for example, when the terminal device 22 supports the driver's visual confirmation of the rear of the vehicle C1A, . Execute. Further, when the terminal device 22 supports the driver's visual confirmation of the rear side of the vehicle C1A, . . As a result, the terminal device 22 can guide the driver's line of sight to the left side mirror SM1 (that is, the left side) or the right side mirror SM2 (that is, the right side) corresponding to the driving situation by turning on or blinking the warning indicator light 26B. .

また、例えば、端末装置22は、車両C1Aの左側方あるいは右側方で歩行者,他車両,二輪車等を検知した場合、運転者に車両C1A右側方の目視確認を促す運転特性改善支援を実行する。具体的に、端末装置22は、歩行者,他車両,二輪車等が検知された左側方あるいは右側方に配置された警告表示灯26A,26Bを、所定の色で点灯あるいは点滅させる運転特性改善支援を実行する。 Further, for example, when the terminal device 22 detects a pedestrian, another vehicle, a two-wheeled vehicle, or the like on the left side or right side of the vehicle C1A, the terminal device 22 executes driving characteristic improvement support that prompts the driver to visually confirm the right side of the vehicle C1A. . Specifically, the terminal device 22 lights or blinks warning indicator lights 26A and 26B arranged on the left side or right side of the detected pedestrian, other vehicle, motorcycle, etc. in a predetermined color to support driving characteristic improvement. to run.

また、例えば、端末装置22は、自車両と検知された歩行者,他車両,二輪車等との間の距離、自車両に接近する歩行者,他車両,二輪車等との間の接近速度等を算出する。端末装置22は、算出された距離,接近速度等に基づいて、運転場面の危険度を判定し、運転場面の危険度に対応して、警告表示灯26Aまたは警告表示灯26Bの色,点滅パターン,点滅速度等を決定する。 In addition, for example, the terminal device 22 can detect the distance between the vehicle and the detected pedestrian, other vehicle, two-wheeled vehicle, etc., the approach speed between the pedestrian, other vehicle, two-wheeled vehicle, etc. approaching the vehicle, and the like. calculate. The terminal device 22 determines the degree of danger of the driving scene based on the calculated distance, approach speed, etc., and changes the color and flashing pattern of the warning indicator light 26A or 26B in accordance with the degree of danger of the driving scene. , blink rate, etc.

具体的に、端末装置22は、算出された距離、あるいは距離と接近速度とに基づいて、自車両が減速,停車等の運転操作不要であると判定した場合、警告表示灯26Aまたは警告表示灯26Bをオレンジ色に点滅させたり、自車両が減速,停車等の運転操作不要でないと判定した場合、警告表示灯26Aまたは警告表示灯26Bを赤色でより短い間隔で点滅させたりする。これにより、運転者は、警告表示灯26Aまたは警告表示灯26Bの色,点滅パターン,点滅速度等に基づいて、安全確認行動の重要度を一目で直感的に把握できる。 Specifically, when the terminal device 22 determines that the vehicle does not need to be operated such as decelerating or stopping based on the calculated distance or the distance and the approaching speed, the terminal device 22 turns on the warning indicator light 26A or the warning indicator light. 26B is flashed in orange, or when it is determined that the vehicle does not require driving operations such as deceleration or stopping, the warning indicator lamp 26A or 26B is flashed in red at shorter intervals. As a result, the driver can intuitively grasp the importance of the safety confirmation action at a glance based on the color, blinking pattern, blinking speed, etc. of the warning indicator light 26A or 26B.

次に、図28を参照して、車両C1A,…に搭載されたスピーカ25について説明する。図28は、スピーカ25の配置例を説明する図である。 Next, the speaker 25 mounted on the vehicles C1A, . . . will be described with reference to FIG. FIG. 28 is a diagram illustrating an arrangement example of the speaker 25. As shown in FIG.

図28に示す例においてスピーカ25は、車両C1A,…の内部に4つのスピーカ25A,25B,25C,25Dのそれぞれが搭載される。スピーカ25Aは、車両C1A,…のそれぞれのダッシュボードDSB上であって、左側のAピラーあるいは左側サイドミラーSM1の近傍に搭載される。スピーカ25Bは、車両C1A,…のそれぞれのダッシュボードDSB上であって、右側のAピラーあるいは右側サイドミラーSM2の近傍に搭載される。スピーカ25Cは、車両C1A,…の左側後部座席あるいは左側Cピラー(不図示)の近傍に搭載される。スピーカ25Dは、車両C1A,…の左側後部座席あるいは左側Cピラー(不図示)の近傍に搭載される。なお、図28に示す4つのスピーカ25A,25B,25C,25Dのそれぞれの配置位置は、一例であって、これに限定されないことは言うまでもない。 In the example shown in FIG. 28, four speakers 25A, 25B, 25C, and 25D are mounted inside vehicles C1A, . The speaker 25A is mounted on the dashboard DSB of each of the vehicles C1A, . . . near the left A-pillar or the left side mirror SM1. The speaker 25B is mounted on the dashboard DSB of each of the vehicles C1A, . . . near the right A-pillar or the right side mirror SM2. The speaker 25C is mounted near the left rear seat or the left C-pillar (not shown) of the vehicle C1A. The speaker 25D is mounted near the left rear seat or the left C-pillar (not shown) of the vehicle C1A. It goes without saying that the arrangement position of each of the four speakers 25A, 25B, 25C, and 25D shown in FIG. 28 is an example, and the present invention is not limited to this.

端末装置22は、各種センサにより自車両へ接近する接近物(例えば、歩行者,他車両,二輪車等),自車両周囲の障害物等が検知された場合、4つのスピーカ25A~25Dのそれぞれのうち検知された接近物あるいは障害物に対応する位置のスピーカに、接近物あるいは障害物を検知した旨の音声を出力させる。 When an object approaching the vehicle (for example, a pedestrian, another vehicle, a two-wheeled vehicle, etc.) or an obstacle around the vehicle is detected by various sensors, the terminal device 22 activates each of the four speakers 25A to 25D. A speaker at a position corresponding to the detected approaching object or obstacle is caused to output a sound indicating that the approaching object or obstacle has been detected.

例えば、端末装置22は、運転場面「車線変更時」であって、現在自車両が走行している車線から進行方向右側の車線へ車線変更する運転場面において、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより自車両の右側後方から接近する他車両を検知する。このような場合、端末装置22は、他車両が検知された方向(ここでは、右側後方)に配置されたスピーカ25Dから音声を出力させることで運転特性改善支援を実行し、右側後方の安全確認を運転者に促す。 For example, the terminal device 22 operates in the driving scene "at the time of changing lanes" in which the vehicle is currently traveling in a lane changing to a lane on the right side in the direction of travel. Other vehicles approaching from the rear right side of the own vehicle are detected by various sensors such as. In such a case, the terminal device 22 outputs a sound from the speaker 25D arranged in the direction in which the other vehicle is detected (here, right rear), thereby executing driving characteristic improvement assistance and confirming the safety of the right rear. to the driver.

また、例えば、端末装置22は、運転場面「左折時」において、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより自車両の進行方向前方から歩行者の接近を検知する。このような場合、端末装置22は、歩行者が検知された方向(ここでは、左側前方)に配置されたスピーカ25Bから音声を出力させることで運転特性改善支援を実行し、左側前方の安全確認を運転者に促す。 Further, for example, the terminal device 22 detects the approach of a pedestrian from the front of the vehicle in the traveling direction using various sensors such as the vehicle interior camera 13A and the vehicle exterior sensor/camera 19A in the driving scene "when turning left". In such a case, the terminal device 22 executes driving characteristic improvement assistance by outputting a sound from the speaker 25B arranged in the direction in which the pedestrian is detected (here, left front), and confirms the safety of the left front. to the driver.

また、例えば、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより自車両後方を目視確認する必要があると判定した場合、自車両後方に配置された2つのスピーカ25C,25Dのそれぞれから音声を出力させることで運転特性改善支援を実行し、後方の安全確認を運転者に促す。 Further, for example, when the terminal device 22 determines that it is necessary to visually confirm the area behind the vehicle using various sensors such as the vehicle interior camera 13A and the vehicle exterior sensor/camera 19A, the terminal device 22 uses the two speakers 25C, Driving characteristic improvement support is executed by outputting a sound from each of 25D, and the driver is urged to confirm the safety behind.

また、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより検知された接近物あるいは障害物を解析し、検知された接近物あるいは障害物の種別(例えば、歩行者,他車両,二輪車等)に対応する音声をスピーカ25A~25Dのそれぞれに出力させてよい。例えば、端末装置22は、歩道からの歩行者の接近を検知した場合には「歩道から歩行者が接近しています」、後方から自転車(二輪車)の接近を検知した場合には「後方から自転車が接近しています」等の音声をスピーカ25A~25Dのそれぞれに出力させて、運転特性改善支援を実行する。 In addition, the terminal device 22 analyzes approaching objects or obstacles detected by various sensors such as the in-vehicle camera 13A and the exterior sensor/camera 19A, and determines the types of detected approaching objects or obstacles (for example, pedestrians, etc.). vehicle, two-wheeled vehicle, etc.) may be output from each of the speakers 25A to 25D. For example, when the terminal device 22 detects that a pedestrian is approaching from the sidewalk, the terminal device 22 may say, "A pedestrian is approaching from the sidewalk." is approaching." is output from each of the speakers 25A to 25D to execute driving characteristic improvement support.

次に、図29を参照して、改善効果データが示す運転特性改善支援方法の変更例について説明する。図29は、運転特性改善支援の変更例を説明する図である。なお、図29に示す運転特性改善支援方法例、および運転特性改善支援の変更例は、一例であってこれに限定されない。 Next, with reference to FIG. 29, a modification of the driving characteristic improvement support method indicated by the improvement effect data will be described. FIG. 29 is a diagram illustrating a modification example of driving characteristic improvement assistance. It should be noted that the example of the driving characteristic improvement support method and the modified example of the driving characteristic improvement support shown in FIG. 29 are only examples, and the present invention is not limited to this.

運転特性改善サーバS3は、運転者の利用者IDが紐付けられた運転場面における運転特性データ(具体的には、行動特性データ)に基づく前回の運転者の安全確認行動の頻度と、車両C1A,…から取得された運転場面における運転特性データ(具体的には、行動特性データ)に基づく最新の運転者の安全確認行動の頻度とをそれぞれ算出して、運転場面情報に対応する改善効果データに基づいて実行された運転特性改善支援前後の運転者の安全確認行動の頻度の変化を判定する。 The driving characteristic improvement server S3 calculates the frequency of the driver's previous safety confirmation behavior based on the driving characteristic data (specifically, the behavioral characteristic data) in the driving scene associated with the user ID of the driver, and the vehicle C1A. , … based on the driving characteristic data (specifically, behavioral characteristic data) in the driving scene acquired from … and the frequency of the latest safety confirmation behavior of the driver, respectively, and improvement effect data corresponding to the driving scene information A change in the frequency of the driver's safety confirmation behavior before and after the driving characteristic improvement assistance executed based on is determined.

具体的に、運転特性改善サーバS3は、前回の安全確認行動の頻度と、最新の安全確認行動の頻度とに基づいて、この運転場面における運転者の安全確認行動が増加しているか否か(つまり、運転特性が改善しているか否か)を判定する。運転特性改善サーバS3は、取得された感情データと安全確認行動の頻度が増加しているか否か(つまり、運転特性が改善しているか否か)の判定結果とに基づいて、この運転場面情報に対応する新たな改善効果データを生成し、更新する。運転特性改善サーバS3は、生成された改善効果データを車両C1A,…に送信する。なお、運転特性改善サーバS3は、改善効果データの生成処理を定期的(例えば、1日,1週間,1か月等)に実行してもよい。 Specifically, the driving characteristic improvement server S3 determines whether the driver's safety confirmation behavior is increasing in this driving scene based on the frequency of the previous safety confirmation behavior and the frequency of the latest safety confirmation behavior ( That is, it is determined whether or not the driving characteristics are improved. The driving characteristic improvement server S3 generates this driving scene information based on the acquired emotion data and the determination result as to whether or not the frequency of safety confirmation behavior is increasing (that is, whether or not the driving characteristic is improving). Generate and update new improvement effect data corresponding to The driving characteristic improvement server S3 transmits the generated improvement effect data to the vehicles C1A, . The driving characteristic improvement server S3 may periodically (for example, one day, one week, one month, etc.) perform the improvement effect data generation process.

運転特性改善サーバS3は、取得された運転者の感情データが肯定的な感情である「快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加している(つまり、運転特性が改善している)と判定した場合、運転者の運転特性が改善しており、この運転特性情報に対応する改善効果データが示す運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)がより効果的であると判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データを、他の運転場面情報の新たな改善効果データとして生成し、他の運転場面情報に紐付けて改善効果データベースDB4に登録(更新)する。 The driving characteristic improvement server S3 indicates that the acquired emotion data of the driver indicates a positive emotion of "comfort" and that the frequency of safety confirmation behavior after driving characteristic improvement assistance has increased (that is, , the driving characteristics are improving), the driving characteristics of the driver are improving, and the driving characteristics improvement support method indicated by the improvement effect data corresponding to the driving characteristics information (that is, the speaker 25 or the warning display control method of the lamp 26) is more effective. In such a case, the driving characteristic improvement server S3 generates improvement effect data corresponding to this driving scene information as new improvement effect data of other driving scene information, and associates the improvement effect data with the other driving scene information. Register (update) in the database DB4.

一方、運転特性改善サーバS3は、取得された運転者の感情データが肯定的な感情である「快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加していない(つまり、運転特性が改善していない)と判定した場合、運転者の運転特性が改善していないが、この運転特性情報に対応する改善効果データが示す運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)が有効であると判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データが示す運転特性改善支援の頻度を増加させた新たな改善効果データを生成して、改善効果データベースDB4に登録(更新)する。 On the other hand, the driving characteristic improvement server S3 indicates that the acquired emotion data of the driver indicates "comfort", which is a positive emotion, and the frequency of safety confirmation behavior after driving characteristic improvement assistance has not increased. (that is, the driving characteristics have not improved), the driving characteristics of the driver have not improved, but the driving characteristics improvement support method indicated by the improvement effect data corresponding to the driving characteristics information (that is, the speaker 25 Alternatively, it is determined that the control method of the warning indicator lamp 26 is effective. In such a case, the driving characteristic improvement server S3 generates new improvement effect data by increasing the frequency of driving characteristic improvement support indicated by the improvement effect data corresponding to the driving scene information, and registers the new improvement effect data in the improvement effect database DB4. (Update.

また、運転特性改善サーバS3は、取得された運転者の感情データが否定的な感情である「不快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加している(つまり、運転特性が改善している)と判定した場合、この運転者の運転特性が改善しているが、現在設定されている運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)の変更が必要であると判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データと異なる効果改善データを生成し、この運転場面情報の新たな改善効果データとして改善効果データベースDB4に登録(更新)するとともに、他の運転場面情報の新たな改善効果データとして改善効果データベースDB4に登録(更新)する。 Further, the driving characteristic improvement server S3 indicates that the acquired emotion data of the driver indicates "uncomfortable", which is a negative emotion, and the frequency of safety confirmation behavior after the driving characteristic improvement assistance has increased. (that is, the driving characteristics have improved), the driving characteristics of this driver have improved, but the currently set driving characteristics improvement support method (that is, the speaker 25 or the warning indicator light 26) control method) is necessary. In such a case, the driving characteristic improvement server S3 generates effect improvement data different from the improvement effect data corresponding to this driving scene information, and registers (updates) in the improvement effect database DB4 as new improvement effect data of this driving scene information. ) and registers (updates) in the improvement effect database DB4 as new improvement effect data of other driving scene information.

一方、運転特性改善サーバS3は、取得された運転者の感情データが肯定的な感情である「快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加していない(つまり、運転特性が改善していない)と判定した場合、この運転者の運転特性が改善しておらず、現在設定されている運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)が有効でないと判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データと異なる効果改善データを生成し、この運転場面情報の新たな改善効果データとして改善効果データベースDB4に登録(更新)する。 On the other hand, the driving characteristic improvement server S3 indicates that the acquired emotion data of the driver indicates "comfort", which is a positive emotion, and the frequency of safety confirmation behavior after driving characteristic improvement assistance has not increased. (That is, the driving characteristics have not improved), the driving characteristics of this driver have not improved, and the currently set driving characteristics improvement support method (that is, the speaker 25 or the warning indicator light 26 control method) is not effective. In such a case, the driving characteristic improvement server S3 generates effect improvement data different from the improvement effect data corresponding to this driving scene information, and registers (updates) in the improvement effect database DB4 as new improvement effect data of this driving scene information. )do.

例えば、運転特性改善サーバS3は、現在の改善効果データがスピーカ25と警告表示灯26とを用いて安全確認行動を実行する支援方法である場合、スピーカ25または警告表示灯26のいずれか一方を用いて安全確認行動を実行する新たな改善効果データを生成したり、現在の改善効果データが警告表示灯26を用いて安全確認行動を実行する支援方法である場合、スピーカ25を用いて安全確認行動を実行する新たな改善効果データを生成したりする。 For example, when the current improvement effect data is a support method for executing a safety confirmation action using the speaker 25 and the warning indicator light 26, the driving characteristic improvement server S3 uses either the speaker 25 or the warning indicator light 26. When generating new improvement effect data for executing safety confirmation action using the warning indicator light 26, or when the current improvement effect data is a support method for executing safety confirmation action using the warning indicator light 26, safety confirmation using the speaker 25 Generate new improvement effect data for executing actions.

以上により、実施の形態2における運転特性改善サーバS3は、運転者の安全確認行動の頻度に対応する運転特性の改善状況と、運転特性改善支援による運転者の反応(感情データ)とに基づいて、運転者により適した運転特性改善支援方法を設定できる。 As described above, the driving characteristic improvement server S3 according to the second embodiment is configured based on the driving characteristic improvement state corresponding to the frequency of the driver's safety confirmation behavior and the driver's reaction (emotional data) due to the driving characteristic improvement support. , a driving characteristic improvement support method more suitable for the driver can be set.

次に、図30および図31のそれぞれを参照して、実施の形態2に係る運転特性改善支援システム200の動作手順について説明する。図30は、実施の形態2に係る運転特性改善支援システム200の動作手順例を示すフローチャートである。図31は、実施の形態2に係る運転特性改善支援システム200の動作手順例を説明するフローチャートである。 Next, operation procedures of driving characteristic improvement support system 200 according to the second embodiment will be described with reference to FIGS. 30 and 31, respectively. FIG. 30 is a flow chart showing an operation procedure example of the driving characteristic improvement support system 200 according to the second embodiment. FIG. 31 is a flow chart for explaining an example of the operating procedure of the driving characteristic improvement support system 200 according to the second embodiment.

運転特性改善支援システム200における車両C1A,…のそれぞれは、スリープ状態で待機する(St51)。車両C1A,…のそれぞれは、車内センサ24により自車両に接近する運転者を検知したか否かを判定する(St52)。例えば、車両C1A,…のそれぞれは、運転者が所持するスマートキー,スマートフォン等が発信する電波を検知したと判定した場合、自車両に接近する運転者を検知したと判定する。 Each of the vehicles C1A, . . . in the driving characteristic improvement support system 200 waits in a sleep state (St51). Each of the vehicles C1A, . For example, each of the vehicles C1A, .

車両C1A,…のそれぞれは、ステップSt52の処理において、車内センサ24により自車両に接近する運転者を検知したと判定した場合(St52,YES)、運転者の運転行動のセンシングシステム(例えば、各種センサ)を起動させて、運転者の運転特性および行動特性(つまり、運転特性データ)のセンシングを開始する(St53)。 If each of the vehicles C1A, . sensor) to start sensing the driver's driving characteristics and behavioral characteristics (that is, driving characteristic data) (St53).

一方、車両C1A,…のそれぞれは、ステップSt52の処理において、車内センサ24により自車両に接近する運転者を検知していないと判定した場合(St52,NO)、ステップSt51の処理に移行し、スリープ状態で待機する(St51)。 On the other hand, when each of the vehicles C1A, . It waits in a sleep state (St51).

車両C1A,…のそれぞれは、各種センサにより運転者の運転特性データを取得し、現在の運転場面における運転行動の監視を開始する(St54)。車両C1A,…のそれぞれは、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上であるか否かを判定する(St55)。 Each of the vehicles C1A, . Each of the vehicles C1A, . (St55).

車両C1A,…のそれぞれは、ステップSt55の処理において、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上であると判定した場合(St55,YES)、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したか否かを判定する(St56)。なお、ここで、運転場面に対応する安全確認行動は、複数であってよい。また、運転場面に対応する安全確認行動が複数であって、かつ、実行される順番が決まっている場合、車両C1A,…のそれぞれは、決められた順番通りに安全確認行動が実行されたか否かを判定してよい。 In the processing of step St55, each of the vehicles C1A, . (St55, YES), based on the acquired driving characteristic data (specifically, behavioral characteristic data), it is determined whether or not execution of safety confirmation behavior by the driver has been detected (St56). . Note that there may be a plurality of safety confirmation actions corresponding to the driving scene. Further, when there are a plurality of safety confirmation actions corresponding to the driving scene and the execution order is determined, each of the vehicles C1A, . You can judge whether

車両C1A,…のそれぞれは、ステップSt56の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したと判定した場合(St56,YES)、取得された運転特性データと、運転場面情報と、運転場面情報に対応する運転特性改善支援に対する感情データと、利用者IDとを紐付けて運転特性改善サーバS3に送信するとともに、メモリ15Aに記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St57)。 If each of the vehicles C1A, . St56, YES), the acquired driving characteristic data, the driving scene information, the emotion data for the driving characteristic improvement support corresponding to the driving scene information, and the user ID are linked and transmitted to the driving characteristic improvement server S3. , is stored in the memory 15A. Each of the vehicles C1A, . (St57).

一方、車両C1A,…のそれぞれは、ステップSt56の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知していないと判定した場合(St56,NO)、現在の運転者の運転特性データ(つまり、運転技量)と、運転場面情報に対応する改善効果データとに基づいて、運転特性改善支援を実行する(St58)。 On the other hand, in the process of step St56, each of the vehicles C1A, . If so (St56, NO), driving characteristic improvement assistance is executed based on the current driver's driving characteristic data (that is, driving skill) and improvement effect data corresponding to the driving scene information (St58).

車両C1A,…のそれぞれは、車内カメラ13Aにより撮像された撮像画像を画像解析し、実行された運転特性改善支援に対する運転者の反応(感情データ)と、運転者の行動特性データを解析する。車両C1A,…のそれぞれは、取得された行動特性データを含む運転特性データをメモリ15Aに蓄積して記憶する。また、車両C1A,…のそれぞれは、運転場面情報と、運転特性改善支援に対する運転者の感情データと、運転特性データと、利用者IDとを紐付けて運転特性改善サーバS3に送信する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St59)。 Each of the vehicles C1A, . Each of the vehicles C1A, . . . accumulates and stores driving characteristic data including the acquired behavioral characteristic data in the memory 15A. Further, each of the vehicles C1A, . Each of the vehicles C1A, . (St59).

一方、車両C1A,…のそれぞれは、ステップSt55の処理において、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上でないと判定した場合(St55,NO)、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したか否かを判定する(St60)。 On the other hand, in the processing of step St55, each of the vehicles C1A, . If it is determined that it is not (St55, NO), based on the acquired driving characteristic data (specifically, behavioral characteristic data), it is determined whether or not execution of the safety confirmation action by the driver has been detected (St60 ).

車両C1A,…のそれぞれは、ステップSt60の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したと判定した場合(St60,YES)、取得された運転特性データと、運転場面情報と、運転特性改善支援に対する運転者の感情データと、利用者IDとを紐付けて運転特性改善サーバS3に送信するとともに、メモリ15Aに記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St57)。 If each of the vehicles C1A, . St60, YES), the acquired driving characteristic data, the driving scene information, the driver's emotion data for driving characteristic improvement assistance, and the user ID are linked and transmitted to the driving characteristic improvement server S3, and the memory 15A. memorize to Each of the vehicles C1A, . (St57).

一方、車両C1A,…のそれぞれは、ステップSt60の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知していないと判定した場合(St60,NO)、運転者の現在の運転特性(つまり、現在の運転場面における最新の安全確認行動の頻度)に基づいて、運転特性改善支援を実行して運転場面に対応する安全確認行動を促すか否かを判定する(St61)。 On the other hand, in the process of step St60, each of the vehicles C1A, . If it is determined (St60, NO), based on the driver's current driving characteristics (that is, the frequency of the latest safety confirmation behavior in the current driving scene), driving characteristic improvement support is executed to provide safety corresponding to the driving scene. It is determined whether or not to prompt a confirmation action (St61).

具体的に、車両C1A,…のそれぞれは、ステップSt61の処理において、現在の運転特性が示す現在の運転場面における最新の安全確認行動の頻度を算出する。車両C1A,…のそれぞれは、算出された最新の安全確認行動の頻度が、現在の運転場面の危険度(スコア)に対応して設定された安全確認行動の頻度に関する閾値以上であるか否かを判定する。 Specifically, in the process of step St61, each of the vehicles C1A, . Each of the vehicles C1A, . judge.

例えば、運転場面が「直線道路走行時」であって、この運転場面に対応する危険度(スコア)が「低」である場合、安全確認行動の頻度に関する閾値は、1/4が設定される。このような場合、車両C1A,…のそれぞれは、運転場面「直線道路走行時」における運転者の最新の安全確認行動の頻度が1/4以上であるか否かを判定する。 For example, if the driving scene is "driving on a straight road" and the risk (score) corresponding to this driving scene is "low", the threshold for the frequency of safety confirmation behavior is set to 1/4. . In such a case, each of the vehicles C1A, .

また、例えば、運転場面が「車線変更時」であって、この運転場面に対応する危険度(スコア)が「高」である場合、安全確認行動の頻度に関する閾値は、1/2が設定される。このような場合、車両C1A,…のそれぞれは、運転場面「車線変更時」における運転者の最新の安全確認行動の頻度が1/2以上であるか否かを判定する。 Further, for example, when the driving scene is "when changing lanes" and the degree of risk (score) corresponding to this driving scene is "high", the threshold for the frequency of safety confirmation actions is set to 1/2. be. In such a case, each of the vehicles C1A, .

車両C1A,…のそれぞれは、ステップSt61の処理において、運転者の現在の運転特性に基づいて、運転特性改善支援を実行して運転場面に対応する安全確認行動を促すと判定した場合(St61,YES)、現在の運転者の運転特性データ(つまり、運転技量)と、運転場面情報に対応する改善効果データとに基づいて、運転特性改善支援を実行する(St58)。具体的に、車両C1A,…のそれぞれは、算出された最新の安全確認行動の頻度が、現在の運転場面の危険度(スコア)に対応して設定された安全確認行動の頻度に関する閾値以上でないと判定した場合に、運転特性改善支援を実行して運転場面に対応する安全確認行動を促すと判定する(St61,YES)。 If each of the vehicles C1A, . YES), driving characteristic improvement assistance is executed based on the current driver's driving characteristic data (that is, driving skill) and improvement effect data corresponding to the driving scene information (St58). Specifically, for each of the vehicles C1A, . If so, it is determined that driving characteristic improvement support is to be executed to encourage safety confirmation behavior corresponding to the driving situation (St61, YES).

一方、車両C1A,…のそれぞれは、ステップSt61の処理において、運転者の現在の運転特性に基づいて、運転特性改善支援を実行して運転場面に対応する安全確認行動を促さないと判定した場合(St61,NO)、取得された運転特性データと、運転場面情報と、運転特性改善支援に対する運転者の感情データと、利用者IDとを紐付けて運転特性改善サーバS3に送信するとともに、メモリ15Aに記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St57)。具体的に、車両C1A,…のそれぞれは、算出された最新の安全確認行動の頻度が、現在の運転場面の危険度(スコア)に対応して設定された安全確認行動の頻度に関する閾値以上であると判定した場合に、運転特性改善支援を実行して運転場面に対応する安全確認行動を促さないと判定する(St61,NO)。 On the other hand, when each of the vehicles C1A, . (St61, NO), the acquired driving characteristic data, the driving scene information, the driver's emotion data regarding the driving characteristic improvement support, and the user ID are linked and transmitted to the driving characteristic improvement server S3, and the memory 15A. Each of the vehicles C1A, . (St57). Specifically, each of the vehicles C1A, . If it is determined that there is, it is determined that the driving characteristic improvement support is not to be executed and the safety confirmation action corresponding to the driving scene is not prompted (St61, NO).

車両C1A,…のそれぞれは、運転者による運転終了を検知したか否かを判定する(St)。なお、ここでいう運転終了は、運転者が降車し、自車両から所定距離以上離れることであってもよい。 Each of the vehicles C1A, . . . determines whether it has detected that the driver has finished driving (St). It should be noted that the end of driving referred to here may be when the driver gets off the vehicle and moves away from the own vehicle by a predetermined distance or more.

車両C1A,…のそれぞれは、ステップSt62の処理において、運転者による運転終了を検知したと判定した場合(St62,YES)、運転行動のセンシングシステムを終了させて(St63)、再度、スリープ状態となり待機する(St51)。 When each of the vehicles C1A, . Wait (St51).

一方、車両C1A,…のそれぞれは、ステップSt62の処理において、運転者による運転終了を検知していないと判定した場合(St62,NO)、ステップSt55の処理に移行し、車両C1A,…のそれぞれは、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上であるか否かを、再度判定する(St55)。 On the other hand, each of the vehicles C1A, . determines again whether or not the current driving scene requires a safety confirmation action and the degree of risk (score) of the current driving scene is equal to or higher than a predetermined value (St55).

以上により、実施の形態2における車両C1A,…のそれぞれは、運転場面と、運転者の運転特性(運転技量)とに基づいて、運転者の安全確認行動を支援することで、運転者の運転特性(運転技量)の改善を支援できる。また、実施の形態2における運転特性改善サーバS3は、運転場面と、運転者の運転特性(運転技量)と、運転特性改善支援に対する運転者の反応(感情データ)とに基づいて、運転者により適した運転特性改善支援方法(改善効果データ)を決定することができる。したがって、車両C1A,…のそれぞれは、運転特性改善サーバS3により生成された改善効果データに基づく運転特性改善支援方法により、運転者により適した安全確認行動を支援することで、運転者の運転特性(運転技量)の改善を支援できる。 As described above, each of the vehicles C1A, . It can help improve characteristics (driving skills). In addition, the driving characteristic improvement server S3 in the second embodiment provides the driver with a A suitable driving characteristic improvement support method (improvement effect data) can be determined. Therefore, each of the vehicles C1A, . (driving skills) can be supported.

以上により、実施の形態2に係る運転特性改善サーバS3は、少なくとも1台の車両C1A,…との間で通信可能である1以上のコンピュータである。運転特性改善サーバS3が実行する運転特性改善支援データの管理方法は、少なくとも1台の車両C1A,…との間で通信可能である1以上のコンピュータが実行する運転特性改善効果データの管理方法であって、車両C1A,…の運転場面を示す複数の運転場面情報と、運転場面情報に対応し、車両C1A,…を運転する運転者の安全確認行動の改善を支援する改善効果データ(支援データの一例)と、運転場面情報における運転者の運転特性データとを複数の運転者の利用者ID(運転者IDの一例)ごとに紐付けて登録し、運転場面情報と改善効果データとをそれぞれ紐付けて、車両C1A,…に送信し、車両C1A,…を運転する運転者の利用者IDと、運転場面情報に対応する運転者の運転特性データと、改善効果データに基づく支援に対する運転者の感情データとを取得し、複数の運転者のそれぞれの利用者IDと取得された利用者IDとを照合し、照合された利用者IDに紐付けられた運転特性データと、取得された運転特性データおよび感情データとに基づいて、取得された運転場面情報に対応する新たな改善効果データを生成し、照合された利用者IDに紐付けられた複数の運転場面情報のうち取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。なお、ここでいうコンピュータは、運転特性改善サーバS3を、少なくとも含んで構成される。 As described above, the driving characteristic improvement server S3 according to the second embodiment is one or more computers that can communicate with at least one vehicle C1A. The management method of the driving characteristic improvement support data executed by the driving characteristic improvement server S3 is the management method of the driving characteristic improvement effect data executed by one or more computers capable of communicating with at least one vehicle C1A. There are a plurality of driving scene information indicating driving scenes of the vehicles C1A, . example) and the driving characteristic data of the driver in the driving scene information are linked to each of the user IDs of a plurality of drivers (an example of the driver ID), and the driving scene information and the improvement effect data are respectively registered. are linked and transmitted to the vehicles C1A, . . . , the user ID of the driver who drives the vehicle C1A, . and matching the user IDs of the plurality of drivers with the acquired user IDs, and the driving characteristic data linked to the matched user IDs and the acquired driving Based on the characteristic data and the emotion data, new improvement effect data corresponding to the acquired driving scene information is generated, and the acquired driving scene information among the plurality of driving scene information linked to the collated user ID is generated. The improvement effect data linked to the same driving scene information as the scene information is updated to the generated new improvement effect data. The computer referred to here includes at least the driving characteristic improvement server S3.

これにより、実施の形態2に係る運転特性改善サーバS3は、車両C1A,…のそれぞれに事前に送信された改善効果データを用いた運転特性改善支援結果として、運転場面情報と、運転者の運転特性と、改善効果データが示す運転特性改善支援(安全確認行動の支援の一例)に対する運転者の感情データとを取得できる。運転特性改善サーバS3は、取得された運転者の現在の状態(つまり、運転者の運転特性(運転技量)および感情)に基づく新たな改善効果データを生成するとともに、生成された新たな改善効果データと、この新たな改善効果データの生成に用いられた運転場面情報と、運転特性データと、感情データとを利用者IDに紐付けることで、利用者IDごとの改善効果データをより効率的に管理できる。 As a result, the driving characteristic improvement server S3 according to the second embodiment uses the improvement effect data transmitted in advance to each of the vehicles C1A, . It is possible to acquire the characteristics and the driver's emotion data for driving characteristic improvement assistance (an example of safety confirmation behavior assistance) indicated by the improvement effect data. The driving characteristic improvement server S3 generates new improvement effect data based on the obtained current state of the driver (that is, the driver's driving characteristic (driving skill) and emotion), and also generates new improvement effect data. data, driving scene information, driving characteristic data, and emotion data used to generate the new improvement effect data are linked to the user ID, so that the improvement effect data for each user ID can be processed more efficiently. can be managed to

また、以上により、実施の形態2に係る運転特性改善サーバS3は、取得された運転特性データと、登録された運転特性データとを用いて、運転場面における運転者の運転特性が改善したか否かを判定し、感情データと、運転特性が改善したか否かの判定結果とに基づいて、新たな改善効果データを生成する。これにより、実施の形態2に係る運転特性改善サーバS3は、現在の運転者の状態(つまり、運転者の運転特性(運転技量)および感情)により適した改善効果データの生成できる。 As described above, the driving characteristic improvement server S3 according to the second embodiment uses the acquired driving characteristic data and the registered driving characteristic data to determine whether or not the driving characteristic of the driver in the driving situation has improved. Then, new improvement effect data is generated based on the emotion data and the determination result as to whether or not the driving characteristics have improved. As a result, the driving characteristic improvement server S3 according to the second embodiment can generate improvement effect data more suitable for the current state of the driver (that is, the driver's driving characteristic (driving skill) and emotion).

また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが肯定的であって、かつ、運転特性が改善したと判定した場合、照合された利用者IDに紐付けられた複数の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者の運転特性が改善したと判定され、かつ、運転者が快適(つまり、肯定的)に感じた改善効果データ(つまり、運転特性改善支援方法)を、現在の運転場面で継続するとともに、他の運転場面における新たな改善効果データとして生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotion data is positive and the driving characteristic is improved, the The improvement effect data linked to a plurality of pieces of driving scene information are updated to the generated new improvement effect data. As a result, the driving characteristic improvement server S3 according to the second embodiment determines that the driving characteristic of the driver has improved, and furthermore, the improvement effect data (that is, driving Improvement effect data indicating a driving characteristic improvement support method that is more suitable for the driver by continuing the driving characteristic improvement support method) in the current driving situation and generating and updating new improvement effect data in other driving situations. more efficient management of

また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが肯定的であって、かつ、運転特性が改善していないと判定した場合、取得された運転場面情報に対応する改善効果データよりも支援の頻度を増加させた新たな改善効果データを生成し、取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者が快適(つまり、肯定的)に感じた改善効果データ(つまり、運転特性改善支援方法)における支援頻度を上げた新たな改善効果データを生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotion data is positive and the driving characteristic is not improved, the driving situation information corresponding to the acquired driving situation information New improvement effect data is generated in which the frequency of support is increased more than the improvement effect data, and the improvement effect data linked to the same driving scene information as the acquired driving scene information is added to the generated new improvement effect data. Update to data. As a result, the driving characteristic improvement server S3 according to the second embodiment provides a new improvement that increases the frequency of assistance in the improvement effect data (that is, the driving characteristic improvement support method) that the driver feels comfortable (that is, positively). By generating and updating the effect data, more efficient management of the improvement effect data indicating driving characteristic improvement assistance methods more suitable for the driver can be performed.

また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが否定的であって、かつ、運転特性が改善したと判定した場合、取得された運転場面情報に対応する改善効果データと異なる新たな改善効果データを生成し、取得された運転場面情報と異なる他の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新し、取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データの変更を省略する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者の運転特性が改善したと判定され、かつ、運転者が不快(つまり、否定的)に感じた改善効果データ(つまり、運転特性改善支援方法)を同一運転場面の新たな改善効果データとして生成して更新するとともに、他の運転場面においては運転者が不快(つまり、否定的)に感じた改善効果データと異なる改善効果データを新たな改善効果データとして生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to Embodiment 2 determines that the emotion data is negative and the driving characteristic is improved, the improvement effect corresponding to the acquired driving scene information Generate new improvement effect data different from the data, update the improvement effect data linked to other driving scene information different from the acquired driving scene information to the generated new improvement effect data, and acquire The modification of the improvement effect data linked to the same driving scene information as the driving scene information is omitted. As a result, the driving characteristic improvement server S3 according to the second embodiment determines that the driving characteristic of the driver has improved, and furthermore, the improvement effect data (that is, driving characteristic improvement support method) is generated and updated as new improvement effect data for the same driving situation, and the improvement effect data different from the improvement effect data that the driver feels uncomfortable (that is, negative) in other driving situations. is generated as new improvement effect data and updated, more efficient management of the improvement effect data indicating the driving characteristic improvement support method more suitable for the driver can be executed.

また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが否定的であって、かつ、運転特性が改善していないと判定した場合、取得された運転場面情報に対応する改善効果データと異なる新たな改善効果データを生成し、取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者の運転特性が改善していないと判定され、かつ、運転者が不快(つまり、否定的)に感じた改善効果データ(つまり、運転特性改善支援方法)と異なる改善効果データを、現在の運転場面の新たな改善効果データとして生成して更新するとともに、他の運転場面においても同様に運転者が不快(つまり、否定的)に感じた改善効果データと異なる改善効果データを新たな改善効果データとして生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotion data is negative and the driving characteristic is not improved, the driving situation information corresponding to the acquired driving situation information New improvement effect data different from the improvement effect data is generated, and the improvement effect data linked to the same driving scene information as the acquired driving scene information is updated to the generated new improvement effect data. As a result, the driving characteristic improvement server S3 according to the second embodiment determines that the driving characteristic of the driver has not improved, and furthermore, the improvement effect data (that is, , driving characteristic improvement support method) is generated and updated as new improvement effect data for the current driving situation, and the driver is similarly uncomfortable (i.e., negative) in other driving situations. By generating and updating improvement effect data that differs from the improvement effect data felt by the driver as new improvement effect data, it is possible to more efficiently manage the improvement effect data that indicates a driving characteristic improvement support method that is more suitable for the driver. .

また、以上により、実施の形態2に係る運転特性改善サーバS3により生成される改善効果データは、車両C1A,…に搭載され、音声あるいは光により運転特性改善支援を実行するスピーカ25あるいは警告表示灯26(安全運転支援機器の一例)を制御する制御指令である。これにより、実施の形態2に係る運転特性改善サーバS3は、各車両C1A,…のそれぞれで実行される運転特性改善支援におけるスピーカ25あるいは警告表示灯26の制御指令をより効率的に管理できる。 As described above, the improvement effect data generated by the driving characteristics improvement server S3 according to the second embodiment is installed in the vehicles C1A, . 26 (an example of safe driving support equipment). Thereby, the driving characteristic improvement server S3 according to the second embodiment can more efficiently manage the control commands for the speaker 25 or the warning indicator lamp 26 in the driving characteristic improvement assistance executed in each of the vehicles C1A, .

また、以上により、実施の形態2に係る運転特性改善サーバS3により生成される改善効果データは、車両C1A,…に搭載され、音声あるいは光により支援を実行する安全運転支援機器を制御する制御指令であって、感情データが否定的である場合、音声または光のいずれか一方により支援を実行させる新たな改善効果データを生成する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者が現在の改善効果データに基づく支援方法を不快(つまり、否定的)に感じていると判定した場合、運転者により適した支援方法に変更した新たな改善効果データを生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。例えば、運転特性改善サーバS3は、現在の改善効果データがスピーカ25と警告表示灯26とを用いて安全確認行動を実行する支援方法である場合、スピーカ25または警告表示灯26のいずれか一方を用いて安全確認行動を実行する新たな改善効果データを生成したり、現在の改善効果データが警告表示灯26を用いて安全確認行動を実行する支援方法である場合、スピーカ25を用いて安全確認行動を実行する新たな改善効果データを生成したりする。 Further, as described above, the improvement effect data generated by the driving characteristic improvement server S3 according to the second embodiment is provided in the vehicles C1A, . and if the emotion data is negative, generate new improvement effect data for performing support by either voice or light. As a result, when the driving characteristic improvement server S3 according to the second embodiment determines that the driver feels uncomfortable (that is, negatively) with the support method based on the current improvement effect data, By generating and updating new improvement effect data for the changed support method, more efficient management of the improvement effect data indicating the driving characteristic improvement support method more suitable for the driver can be executed. For example, when the current improvement effect data is a support method for executing a safety confirmation action using the speaker 25 and the warning indicator light 26, the driving characteristic improvement server S3 uses either the speaker 25 or the warning indicator light 26. When generating new improvement effect data for executing safety confirmation action using the warning indicator light 26, or when the current improvement effect data is a support method for executing safety confirmation action using the warning indicator light 26, safety confirmation using the speaker 25 Generate new improvement effect data for executing actions.

また、以上により、実施の形態2に係る運転特性改善サーバS3により生成される改善効果データは、車両C1A,…に搭載され、音声あるいは光により支援を実行する安全運転支援機器を制御する制御指令であって、感情データが否定的である場合、取得された運転場面情報に対応する改善効果データよりも音声あるいは光による支援の頻度を減少させた新たな改善効果データを生成する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者が現在の改善効果データに基づく支援方法を運転者が不快(つまり、否定的)に感じていると判定した場合、運転特性改善支援の頻度を減少させた新たな改善効果データを生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, the improvement effect data generated by the driving characteristic improvement server S3 according to the second embodiment is provided in the vehicles C1A, . When the emotion data is negative, new improvement effect data is generated in which the frequency of support by voice or light is reduced from that of the improvement effect data corresponding to the acquired driving scene information. As a result, when the driving characteristic improvement server S3 according to the second embodiment determines that the driver feels uncomfortable (that is, negatively) with the assistance method based on the current improvement effect data, the driving characteristic improvement server S3 By generating and updating new improvement effect data with reduced frequency of improvement support, more efficient management of the improvement effect data indicating the driving characteristic improvement support method more suitable for the driver can be executed.

以上により、実施の形態2に係る車両C1A,…は、車両C1A,…の運転場面を示す複数の運転場面情報と、運転場面情報に対応し、車両C1A,…を運転する運転者の安全確認行動の改善を支援する改善効果データと、運転者の利用者IDとを紐付けて記憶し、運転場面情報における運転者の運転特性データと、運転場面情報に対応する改善効果データに基づく支援に対する運転者の感情データとを各種センサ(センサの一例)により取得し、取得された運転特性データおよび感情データと、運転特性データおよび感情データが取得された運転場面情報と、利用者IDとを紐付けて、外部装置に送信し、外部装置から送信された運転場面情報に対応する新たな改善効果データを取得し、運転場面情報に紐付けられた改善効果データを、取得された新たな改善効果データに更新する。また、ここでいう車両C1A,…に搭載された1以上のコンピュータは、端末装置22あるいはECU16A等により構成されてよい。 As described above, the vehicles C1A, . The improvement effect data for supporting behavior improvement and the driver's user ID are linked and stored, and the driver's driving characteristic data in the driving scene information and the improvement effect data corresponding to the driving scene information are used for support. Emotional data of the driver is acquired by various sensors (an example of a sensor), and the acquired driving characteristic data and emotional data, the driving scene information from which the driving characteristic data and emotional data are acquired, and the user ID are linked. and transmit it to an external device, acquire new improvement effect data corresponding to the driving scene information transmitted from the external device, and convert the improvement effect data linked to the driving scene information to the acquired new improvement effect Update to data. Also, the one or more computers mounted on the vehicles C1A, .

これにより、実施の形態2に係る車両C1A,…は、運転特性改善サーバS3から送信され、取得された改善効果データに基づく運転特性改善支援結果として、運転場面情報と、運転者の運転特性と、運転特性改善支援(安全確認行動支援の一例)に対する運転者の感情データとを運転特性改善サーバS3に送信することで、運転者の現在の状態(つまり、運転者の現在の運転特性データ,感情データ)に基づく新たな改善効果データを取得できる。また、車両C1A,…のそれぞれは、取得された新たな改善効果データと、この新たな改善効果データの生成に用いられた運転場面情報と、運転特性データと、感情データとを利用者IDに紐付けることで、改善効果データをより効率的に管理できる。 As a result, the vehicles C1A, . , and the driver's emotion data for driving characteristic improvement support (an example of safety confirmation action support) are transmitted to the driving characteristic improvement server S3, so that the current state of the driver (that is, the driver's current driving characteristic data, You can acquire new improvement effect data based on emotion data). Each of the vehicles C1A, . By linking, the improvement effect data can be managed more efficiently.

以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. It is understood that it belongs to the technical scope of the present disclosure. In addition, the constituent elements of the various embodiments described above may be combined arbitrarily without departing from the gist of the invention.

本開示は、運転特性データおよび感情データに基づく運転特性改善支援データをより効率的に管理できる運転特性改善データの管理方法として有用である。 INDUSTRIAL APPLICABILITY The present disclosure is useful as a management method of driving characteristic improvement data that can more efficiently manage driving characteristic improvement support data based on driving characteristic data and emotion data.

10,12 カーナビゲーション装置
11,11A 通信機器
12A,32,42,52 プロセッサ
12B,15,33,43,53 メモリ
12C,22C 表示部
12D,22D 入力部
13,13A 車内カメラ
14 ジャイロセンサ
16,16A ECU
17 操作部
17A アクセルペダル
17B ブレーキペダル
17C ターンランプ
17D ステアリング
18 速度センサ
19,19A 車外センサ/カメラ
20 GPSセンサ
24 車内センサ
25,25A,25B,25C,25D スピーカ
26,26A,26B 警告表示灯
31,41,51 通信部
52A 支援方法生成部
54 データベース
100 運転特性管理システム
C1,C1A 車両
NW,NWA ネットワーク
S3 運転特性改善サーバ
TB3 運転特性履歴テーブル
TB4 運転特性改善管理テーブル
10, 12 car navigation device 11, 11A communication device 12A, 32, 42, 52 processor 12B, 15, 33, 43, 53 memory 12C, 22C display unit 12D, 22D input unit 13, 13A in-vehicle camera 14 gyro sensor 16, 16A ECU
17 Operation unit 17A Accelerator pedal 17B Brake pedal 17C Turn lamp 17D Steering wheel 18 Speed sensor 19, 19A Outside sensor/camera 20 GPS sensor 24 Inside sensor 25, 25A, 25B, 25C, 25D Speakers 26, 26A, 26B Warning indicator light 31, 41, 51 communication unit 52A support method generation unit 54 database 100 driving characteristic management system C1, C1A vehicle NW, NWA network S3 driving characteristic improvement server TB3 driving characteristic history table TB4 driving characteristic improvement management table

Claims (11)

少なくとも1台の車両との間で通信可能である1以上のコンピュータが実行する運転特性改善支援データの管理方法であって、
前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転場面情報における前記運転者の運転特性データとを複数の前記運転者の運転者IDごとに紐付けて登録し、
前記運転場面情報と前記支援データとをそれぞれ紐付けて、前記車両に送信し、
前記車両を運転する運転者の運転者IDと、前記運転場面情報に対応する前記運転者の運転特性データと、前記支援データに基づく支援に対する前記運転者の感情データとを取得し、
前記複数の運転者のそれぞれの運転者IDと取得された前記運転者IDとを照合し、
前記照合された運転者IDに紐付けられた運転特性データと、取得された前記運転特性データおよび前記感情データとに基づいて、取得された前記運転場面情報に対応する新たな支援データを生成し、
前記照合された前記運転者IDに紐付けられた複数の運転場面情報のうち取得された前記運転場面情報と同一の運転場面情報に紐付けられた前記支援データを、生成された前記新たな支援データに更新する、
運転特性改善支援データの管理方法。
A method for managing driving characteristic improvement support data executed by one or more computers capable of communicating with at least one vehicle,
a plurality of pieces of driving scene information indicating driving scenes of the vehicle; support data corresponding to the driving scene information and supporting improvement of safety confirmation behavior of a driver who drives the vehicle; and the driver in the driving scene information. and registering the driving characteristic data in association with each driver ID of the plurality of drivers,
linking the driving scene information and the support data, respectively, and transmitting the information to the vehicle;
acquiring a driver ID of a driver who drives the vehicle, driving characteristic data of the driver corresponding to the driving scene information, and emotion data of the driver with respect to assistance based on the assistance data;
matching the driver ID of each of the plurality of drivers with the acquired driver ID;
New support data corresponding to the acquired driving scene information is generated based on the driving characteristic data linked to the verified driver ID, and the acquired driving characteristic data and emotion data. ,
The support data linked to the same driving scene information as the acquired driving scene information among a plurality of pieces of driving scene information linked to the collated driver ID is added to the generated new assistance. update the data,
A method of managing driving characteristic improvement support data.
取得された前記運転特性データと、登録された前記運転特性データとを用いて、前記運転場面における前記運転者の運転特性が改善したか否かを判定し、
前記感情データと、前記運転特性が改善したか否かの判定結果とに基づいて、前記新たな支援データを生成する、
請求項1に記載の運転特性改善支援データの管理方法。
determining whether the driving characteristics of the driver in the driving scene have improved using the acquired driving characteristics data and the registered driving characteristics data;
generating the new assistance data based on the emotion data and a determination result as to whether the driving characteristics have improved;
The method for managing driving characteristic improvement support data according to claim 1 .
前記感情データが肯定的であって、かつ、前記運転特性が改善したと判定した場合、前記照合された前記運転者IDに紐付けられた前記複数の運転場面情報に紐付けられた支援データを、生成された前記新たな支援データに更新する、
請求項2に記載の運転特性改善支援データの管理方法。
When it is determined that the emotion data is positive and the driving characteristics have improved, the support data linked to the plurality of pieces of driving scene information linked to the verified driver ID is transferred. , updating to the new assistance data generated;
The method for managing driving characteristic improvement support data according to claim 2.
前記感情データが肯定的であって、かつ、前記運転特性が改善していないと判定した場合、取得された前記運転場面情報に対応する前記支援データよりも前記支援の頻度を増加させた前記新たな支援データを生成し、
取得された前記運転場面情報と同一の前記運転場面情報に紐付けられた前記支援データを、生成された前記新たな支援データに更新する、
請求項2に記載の運転特性改善支援データの管理方法。
When it is determined that the emotion data is positive and that the driving characteristics have not improved, the new driver increases the frequency of the assistance from that of the assistance data corresponding to the acquired driving scene information. generate support data,
updating the support data linked to the same driving scene information as the acquired driving scene information to the generated new support data;
The method for managing driving characteristic improvement support data according to claim 2.
前記感情データが否定的であって、かつ、前記運転特性が改善したと判定した場合、取得された前記運転場面情報に対応する前記支援データと異なる前記新たな改善効果データを生成し、
取得された前記運転場面情報と異なる他の運転場面情報に紐付けられた支援データを、生成された前記新たな支援データに更新し、
取得された前記運転場面情報と同一の前記運転場面情報に紐付けられた前記支援データの変更を省略する、
請求項2に記載の運転特性改善支援データの管理方法。
generating the new improvement effect data different from the support data corresponding to the acquired driving scene information when it is determined that the emotion data is negative and the driving characteristics have improved;
updating support data linked to other driving scene information different from the acquired driving scene information to the generated new support data;
omitting the change of the support data linked to the same driving scene information as the acquired driving scene information;
The method for managing driving characteristic improvement support data according to claim 2.
前記感情データが否定的であって、かつ、前記運転特性が改善していないと判定した場合、取得された前記運転場面情報に対応する前記支援データと異なる前記新たな改善効果データを生成し、
取得された前記運転場面情報と同一の前記運転場面情報に紐付けられた前記支援データを、生成された前記新たな支援データに更新する、
請求項2に記載の運転特性改善支援データの管理方法。
generating the new improvement effect data different from the support data corresponding to the acquired driving scene information when it is determined that the emotion data is negative and the driving characteristics have not improved;
updating the support data linked to the same driving scene information as the acquired driving scene information to the generated new support data;
The method for managing driving characteristic improvement support data according to claim 2.
前記支援データは、前記車両に搭載され、音声あるいは光により前記支援を実行する安全運転支援機器を制御する制御指令である、
請求項1に記載の運転特性改善支援データの管理方法。
The assistance data is a control command for controlling driving safety assistance equipment that is mounted on the vehicle and performs the assistance by voice or light.
The method for managing driving characteristic improvement support data according to claim 1 .
前記支援データは、前記車両に搭載され、音声あるいは光により前記支援を実行する安全運転支援機器を制御する制御指令であって、
前記感情データが否定的である場合、前記音声または前記光のいずれか一方により前記支援を実行させる前記新たな支援データを生成する、
請求項5または6に記載の運転特性改善支援データの管理方法。
The assistance data is a control command for controlling driving safety assistance equipment that is mounted on the vehicle and executes the assistance by voice or light,
if the emotion data is negative, generating the new assistance data that causes the assistance to be performed by either the voice or the light;
7. The method for managing driving characteristic improvement support data according to claim 5 or 6.
前記支援データは、前記車両に搭載され、音声あるいは光により前記支援を実行する安全運転支援機器を制御する制御指令であって、
前記感情データが否定的である場合、取得された前記運転場面情報に対応する前記支援データよりも前記音声あるいは前記光による前記支援の頻度を減少させた前記新たな支援データを生成する、
請求項5または6に記載の運転特性改善支援データの管理方法。
The assistance data is a control command for controlling driving safety assistance equipment that is mounted on the vehicle and executes the assistance by voice or light,
when the emotion data is negative, generating the new support data in which the frequency of the support by the voice or the light is reduced compared to the support data corresponding to the acquired driving scene information;
7. The method for managing driving characteristic improvement support data according to claim 5 or 6.
車両が実行する運転特性改善支援データの管理方法であって、
前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転者の運転者IDとを紐付けて記憶し、
前記運転場面情報における前記運転者の運転特性データと、前記運転場面情報に対応する前記支援データに基づく支援に対する前記運転者の感情データとをセンサにより取得し、
取得された前記運転特性データおよび前記感情データと、前記運転特性データおよび前記感情データが取得された前記運転場面情報と、前記運転者IDとを紐付けて、外部装置に送信し、
前記外部装置から送信された前記運転場面情報に対応する新たな支援データを取得し、
前記運転場面情報に紐付けられた前記支援データを、取得された前記新たな支援データに更新する、
運転特性改善支援データの管理方法。
A method for managing driving characteristic improvement support data executed by a vehicle, comprising:
a plurality of pieces of driving scene information indicating driving scenes of the vehicle; support data corresponding to the driving scene information and supporting improvement of safety confirmation behavior of the driver who drives the vehicle; and a driver ID of the driver. is linked and stored,
obtaining, by a sensor, the driving characteristic data of the driver in the driving scene information and the emotion data of the driver with respect to assistance based on the assistance data corresponding to the driving scene information;
linking the acquired driving characteristic data and the emotion data, the driving scene information from which the driving characteristic data and the emotion data were acquired, and the driver ID, and transmitting the result to an external device;
Acquiring new support data corresponding to the driving scene information transmitted from the external device;
updating the support data linked to the driving scene information to the new support data obtained;
A method of managing driving characteristic improvement support data.
車両に搭載された1以上のコンピュータが実行する運転特性改善支援データの管理方法であって、
前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転者の運転者IDとを紐付けて記憶し、
前記運転場面情報における前記運転者の運転特性データと、前記運転場面情報に対応する前記支援データに基づく支援に対する前記運転者の感情データとをセンサにより取得し、
取得された前記運転特性データおよび前記感情データと、前記運転特性データおよび前記感情データが取得された前記運転場面情報と、前記運転者IDとを紐付けて、外部装置に送信し、
前記外部装置から送信された前記運転場面情報に対応する新たな支援データを取得し、
前記運転場面情報に紐付けられた前記支援データを、取得された前記新たな支援データに更新する、
運転特性改善支援データの管理方法。
A method for managing driving characteristic improvement support data executed by one or more computers mounted on a vehicle,
a plurality of pieces of driving scene information indicating driving scenes of the vehicle; support data corresponding to the driving scene information and supporting improvement of safety confirmation behavior of the driver who drives the vehicle; and a driver ID of the driver. is linked and stored,
obtaining, by a sensor, the driving characteristic data of the driver in the driving scene information and the emotion data of the driver with respect to assistance based on the assistance data corresponding to the driving scene information;
linking the acquired driving characteristic data and the emotion data, the driving scene information from which the driving characteristic data and the emotion data were acquired, and the driver ID, and transmitting the result to an external device;
Acquiring new support data corresponding to the driving scene information transmitted from the external device;
updating the support data linked to the driving scene information to the new support data obtained;
A method of managing driving characteristic improvement support data.
JP2021193603A 2021-10-25 2021-11-29 Management method of driving characteristic improvement support data Pending JP2023079904A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021193603A JP2023079904A (en) 2021-11-29 2021-11-29 Management method of driving characteristic improvement support data
PCT/JP2022/032660 WO2023074116A1 (en) 2021-10-25 2022-08-30 Management method for driving-characteristics improving assistance data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021193603A JP2023079904A (en) 2021-11-29 2021-11-29 Management method of driving characteristic improvement support data

Publications (1)

Publication Number Publication Date
JP2023079904A true JP2023079904A (en) 2023-06-08

Family

ID=86647108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021193603A Pending JP2023079904A (en) 2021-10-25 2021-11-29 Management method of driving characteristic improvement support data

Country Status (1)

Country Link
JP (1) JP2023079904A (en)

Similar Documents

Publication Publication Date Title
US10192171B2 (en) Method and system using machine learning to determine an automotive driver&#39;s emotional state
US11375338B2 (en) Method for smartphone-based accident detection
US11042619B2 (en) Vehicle occupant tracking and trust
US10467488B2 (en) Method to analyze attention margin and to prevent inattentive and unsafe driving
US20200310528A1 (en) Vehicle system for providing driver feedback in response to an occupant&#39;s emotion
US20200312062A1 (en) Safety for vehicle users
US10852720B2 (en) Systems and methods for vehicle assistance
CN110103878B (en) Method and device for controlling unmanned vehicle
US20200001892A1 (en) Passenger assisting apparatus, method, and program
CN107608388A (en) Autonomous police car
KR20200113202A (en) Information processing device, mobile device, and method, and program
JP6613623B2 (en) On-vehicle device, operation mode control system, and operation mode control method
WO2007105792A1 (en) Monitor and monitoring method, controller and control method, and program
US20200247422A1 (en) Inattentive driving suppression system
US11113775B1 (en) System and method for standardized evaluation of driver&#39;s license eligibility
US10666901B1 (en) System for soothing an occupant in a vehicle
CN114340970A (en) Information processing device, mobile device, information processing system, method, and program
JP2020154996A (en) Information processing system, agent system, information processing method, and program
US11302304B2 (en) Method for operating a sound output device of a motor vehicle using a voice-analysis and control device
JP2023079904A (en) Management method of driving characteristic improvement support data
WO2023074116A1 (en) Management method for driving-characteristics improving assistance data
JP7390329B2 (en) Recognition index setting device
JP2024018437A (en) How to manage driving characteristic improvement support data
RU2703341C1 (en) Method for determining hazardous conditions on public roads based on monitoring the situation in the cabin of a vehicle
CN111907468B (en) Method and device for controlling unmanned vehicle

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20240308