JP2023079904A - Management method of driving characteristic improvement support data - Google Patents
Management method of driving characteristic improvement support data Download PDFInfo
- Publication number
- JP2023079904A JP2023079904A JP2021193603A JP2021193603A JP2023079904A JP 2023079904 A JP2023079904 A JP 2023079904A JP 2021193603 A JP2021193603 A JP 2021193603A JP 2021193603 A JP2021193603 A JP 2021193603A JP 2023079904 A JP2023079904 A JP 2023079904A
- Authority
- JP
- Japan
- Prior art keywords
- driving
- driver
- data
- vehicle
- driving characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006872 improvement Effects 0.000 title claims abstract description 391
- 238000007726 management method Methods 0.000 title abstract description 46
- 238000012790 confirmation Methods 0.000 claims abstract description 124
- 238000000034 method Methods 0.000 claims description 237
- 230000000694 effects Effects 0.000 claims description 153
- 230000008451 emotion Effects 0.000 claims description 85
- 230000008859 change Effects 0.000 claims description 7
- 230000006399 behavior Effects 0.000 abstract description 57
- 230000008569 process Effects 0.000 description 94
- 230000009471 action Effects 0.000 description 75
- 238000004891 communication Methods 0.000 description 63
- 230000001815 facial effect Effects 0.000 description 46
- 238000011156 evaluation Methods 0.000 description 44
- 238000010586 diagram Methods 0.000 description 41
- 238000012545 processing Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 16
- 230000033001 locomotion Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 14
- 230000003542 behavioural effect Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 7
- 238000010191 image analysis Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000007689 inspection Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000002996 emotional effect Effects 0.000 description 5
- 210000000554 iris Anatomy 0.000 description 4
- 210000003462 vein Anatomy 0.000 description 4
- 101150073618 ST13 gene Proteins 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100000419 Autographa californica nuclear polyhedrosis virus AC41 gene Proteins 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、運転特性改善支援データの管理方法に関する。 The present disclosure relates to a method of managing driving characteristic improvement assistance data.
従来、運転者による運転中の安全確認、運転操作等を支援する車両用警報装置および運転支援装置が知られている。 2. Description of the Related Art Conventionally, a vehicle alarm device and a driving assistance device are known that assist a driver in confirming safety while driving, driving operation, and the like.
例えば、特許文献1には、車輌の運転者の生体情報を取得し、取得した生体情報に基づいて、運転者を特定する運転者特定システムが開示されている。運転者特定システムは、車輌に搭載された電子機器からの情報が、定期的に且つ所定条件を満たすと判定した場合に、生体情報の取得を行う。
For example,
例えば、特許文献2には、車両が走行する道路の所定道路パラメータとステアリング操舵角との関係に基づいて、運転者の安全確認を必要とする状況にあるか否かを判別し、安全確認が行われていないと判別された場合に、運転者に対して警告を与える車両用警報装置が開示されている。また、特許文献3には、運転者の運転操作の履歴に基づいて、運転者の運転習熟度を学習し、運転習熟度に基づく運転支援度に応じて運転の支援を行う運転支援装置が開示されている。また、特許文献4には、車両の外部環境により運転者の運転操作に要求される環境難易度と、運転者の運転操作に基づく運転技量とから外部環境に対する運転者の運転者状態を推定し、運転技量と運転者状態とに応じて運転支援を行ったり禁止したりする運転支援装置が開示されている。 For example, in Patent Document 2, based on the relationship between a predetermined road parameter of the road on which the vehicle travels and the steering angle, it is determined whether or not the driver's safety confirmation is required. A vehicle warning device is disclosed that warns a driver when it is determined that it has not been done. Further, Patent Document 3 discloses a driving assistance device that learns the driving proficiency level of the driver based on the history of driving operations of the driver and assists driving according to the driving assistance level based on the driving proficiency level. It is In addition, in Patent Document 4, the driver's state relative to the external environment is estimated from the environmental difficulty level required for the driver's driving operation due to the external environment of the vehicle and the driving skill based on the driver's driving operation. , a driving assistance device that performs or prohibits driving assistance according to the driving skill and the driver's condition.
しかしながら、上述した車両用警報装置および運転支援装置では、運転者の運転技量(操作)に基づいて決定された運転支援を実行するため、運転者により適した運転支援を行う点において、更なる改善の余地があった。 However, in the above-described vehicle alarm device and driving assistance device, since driving assistance is determined based on the driving skill (operation) of the driver, further improvement can be made in terms of performing driving assistance more suitable for the driver. There was room for
本開示は、上述した従来の事情に鑑みて案出され、運転特性データおよび感情データに基づく運転特性改善支援データをより効率的に管理できる運転特性改善支援データの管理方法および運転特性改善支援方法を提供することを目的とする。 The present disclosure has been devised in view of the conventional circumstances described above, and is a method for managing driving characteristic improvement support data and a driving characteristic improvement support method capable of more efficiently managing driving characteristic improvement support data based on driving characteristic data and emotion data. intended to provide
本開示は、少なくとも1台の車両との間で通信可能である1以上のコンピュータが実行する運転特性改善支援データの管理方法であって、前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転場面情報における前記運転者の運転特性データとを複数の前記運転者の運転者IDごとに紐付けて登録し、前記運転場面情報と前記支援データとをそれぞれ紐付けて、前記車両に送信し、前記車両を運転する運転者の運転者IDと、前記運転場面情報に対応する前記運転者の運転特性データと、前記支援データに基づく支援に対する前記運転者の感情データとを取得し、前記複数の運転者のそれぞれの運転者IDと取得された前記運転者IDとを照合し、前記照合された運転者IDに紐付けられた運転特性データと、取得された前記運転特性データおよび前記感情データとに基づいて、取得された前記運転場面情報に対応する新たな支援データを生成し、前記照合された前記運転者IDに紐付けられた複数の運転場面情報のうち取得された前記運転場面情報と同一の運転場面情報に紐付けられた前記支援データを、生成された前記新たな支援データに更新する、運転特性改善支援データの管理方法を提供する。 The present disclosure provides a method for managing driving characteristic improvement assistance data executed by one or more computers communicable with at least one vehicle, comprising a plurality of pieces of driving scene information indicating a driving scene of the vehicle; Support data corresponding to the driving scene information and supporting improvement of safety confirmation behavior of the driver who drives the vehicle and driving characteristic data of the driver in the driving scene information are provided to a plurality of the drivers. Each ID is linked and registered, the driving scene information and the support data are linked, respectively, transmitted to the vehicle, and the driver ID of the driver who drives the vehicle and the driving scene information are associated with each other. obtaining the driving characteristic data of the driver and the emotion data of the driver with respect to assistance based on the assistance data, and comparing the driver IDs of the plurality of drivers with the acquired driver IDs; and generating new support data corresponding to the acquired driving scene information based on the driving characteristic data linked to the verified driver ID and the acquired driving characteristic data and emotion data. Then, the support data linked to the same driving scene information as the acquired driving scene information among the plurality of driving scene information linked to the collated driver ID is added to the generated new To provide a management method of driving characteristic improvement support data, which updates the data to a more suitable support data.
また、本開示は、車両が実行する運転特性改善支援データの管理方法であって、前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転者の運転者IDとを紐付けて記憶し、前記運転場面情報における前記運転者の運転特性データと、前記運転場面情報に対応する前記支援データに基づく支援に対する前記運転者の感情データとをセンサにより取得し、取得された前記運転特性データおよび前記感情データと、前記運転特性データおよび前記感情データが取得された前記運転場面情報と、前記運転者IDとを紐付けて、外部装置に送信し、前記外部装置から送信された前記運転場面情報に対応する新たな支援データを取得し、前記運転場面情報に紐付けられた前記支援データを、取得された前記新たな支援データに更新する、運転特性改善支援データの管理方法を提供する。 Further, the present disclosure is a method for managing driving characteristic improvement support data executed by a vehicle, comprising a plurality of pieces of driving scene information indicating a driving scene of the vehicle, and driving the vehicle corresponding to the driving scene information. support data for assisting the improvement of the safety confirmation behavior of the driver and the driver ID of the driver are linked and stored, and the driving characteristic data of the driver in the driving scene information and the driving scene information are associated with each other; A sensor acquires the emotion data of the driver with respect to the assistance based on the assistance data, and the acquired driving characteristic data and the emotion data, and the driving scene information from which the driving characteristic data and the emotion data are acquired. , the driving scene information is linked with the driver ID and transmitted to an external device, new assistance data corresponding to the driving scene information transmitted from the external device is acquired, and the assistance linked to the driving scene information is acquired. A method for managing driving characteristic improvement assistance data is provided, which updates the data to the acquired new assistance data.
また、本開示は、車両に搭載された1以上のコンピュータが実行する運転特性改善支援データの管理方法であって、前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転者の運転者IDとを紐付けて記憶し、前記運転場面情報における前記運転者の運転特性データと、前記運転場面情報に対応する前記支援データに基づく支援に対する前記運転者の感情データとをセンサにより取得し、取得された前記運転特性データおよび前記感情データと、前記運転特性データおよび前記感情データが取得された前記運転場面情報と、前記運転者IDとを紐付けて、外部装置に送信し、前記外部装置から送信された前記運転場面情報に対応する新たな支援データを取得し、前記運転場面情報に紐付けられた前記支援データを、取得された前記新たな支援データに更新する、運転特性改善支援データの管理方法を提供する。 The present disclosure also provides a method for managing driving characteristic improvement support data executed by one or more computers mounted on a vehicle, comprising a plurality of pieces of driving scene information indicating a driving scene of the vehicle and corresponding to the driving scene information. support data for assisting improvement of the safety confirmation behavior of the driver who drives the vehicle and the driver ID of the driver are linked and stored, and the driving characteristic data of the driver in the driving situation information and and the driver's emotion data for assistance based on the assistance data corresponding to the driving scene information is acquired by a sensor, and the acquired driving characteristic data and the emotion data and the driving characteristic data and the emotion data are combined. Linking the acquired driving scene information with the driver ID, transmitting to an external device, acquiring new support data corresponding to the driving scene information transmitted from the external device, and acquiring the driving scene A method for managing driving characteristic improvement support data is provided, which updates the support data linked to the information to the new support data obtained.
本開示によれば、運転特性データおよび感情データに基づく運転特性改善支援データをより効率的に管理できる。 According to the present disclosure, driving characteristic improvement support data based on driving characteristic data and emotion data can be managed more efficiently.
(実施の形態1に至る経緯)
近年、ユーザに対する本人確認をオンライン上で実現可能なシステムの一種として、例えばeKYC(electronic Know Your Customer)がある。eKYCは、ユーザ端末(例えば、PC(Personal Computer),スマートフォン,タブレット端末等)から送信されたユーザの顔が撮像された顔画像または動画と、ユーザの氏名,住所,生年月日等の個人情報とユーザの顔画像とが共に記載された本人確認書類(例えば、運転免許証,在留カード,パスポート,マイナンバーカード等)の動画像とを取得する。eKYCは、事前に登録されたこのユーザに関する登録情報(例えば、動画像,本人確認書類に記載された各種個人情報等)と、取得されたユーザの顔画像または動画および本人確認書類の動画像とを照合することで、ユーザの本人確認を行う。
(Background leading up to Embodiment 1)
In recent years, eKYC (electronic Know Your Customer), for example, is one type of system that can realize identity verification for users online. eKYC is a facial image or video of the user's face transmitted from a user terminal (e.g., PC (Personal Computer), smartphone, tablet terminal, etc.), and personal information such as the user's name, address, and date of birth. and a moving image of a personal identification document (for example, a driver's license, a residence card, a passport, a My Number card, etc.) in which the user's face image and the user's face image are described. eKYC collects pre-registered registration information related to this user (e.g., moving images, various personal information described in identity verification documents, etc.), acquired user's face image or video, and moving images of identity verification documents. The identity of the user is verified by matching the
従来、車両から運転者の生体情報と、運転者の運転操作に関する情報とを取得して、運転者を特定するとともに、特定された運転者の運転特徴情報と、運転者が運転する車輌IDとを対応付けて記録する運転者特定システムがある(例えば、特許文献1:特開2015-71319号公報)。しかし、車輌がレンタカー,シェアカー等の異なる複数の運転者により運転される車輌である場合、運転者特定システムは、運転者の運転特徴情報と、運転者が運転する車輌IDとを対応付けて記録するため、運転者ごとに運転特徴情報を記録し、管理することは困難だった。 Conventionally, the biological information of the driver and the information on the driving operation of the driver are acquired from the vehicle, the driver is specified, and the driving feature information of the specified driver and the ID of the vehicle driven by the driver are obtained. (For example, Patent Document 1: JP-A-2015-71319). However, when the vehicle is a rental car, a shared car, or the like, which is driven by a plurality of different drivers, the driver identification system associates the driver's driving feature information with the ID of the vehicle driven by the driver. Therefore, it was difficult to record and manage driving characteristic information for each driver.
また、近年、高齢運転者(高齢ドライバー)の加齢に伴う運転操作ミスに起因する事故が増加している。このような事故を防ぐための取り組みとして、例えば、運転免許証の更新時の高齢運転者の認知機能検査、所定の年齢以上の高齢運転者への運転免許証の返納推奨等がある。しかし、運転免許証を返納した場合、高齢運転者は、自律した日常生活に欠かせない移動手段を失う可能性があった。そこで、運転免許証の返納要否の判断にあたって、収集された運転特性データを用いて高齢運転者の運転操作を客観的に評価することで、高齢運転者の運転操作の変化を可視化することが望まれるが、運転者特定システムは、上述した運転者ごとの運転評価を得る目的で運転特性データを収集,管理することは想定していない。 Also, in recent years, there has been an increase in the number of accidents caused by driving errors caused by aging of elderly drivers (elderly drivers). Efforts to prevent such accidents include, for example, cognitive function tests for elderly drivers when renewing their driver's licenses, and recommendations for elderly drivers over a predetermined age to return their driver's licenses. However, if they surrendered their driver's license, the elderly driver could lose the means of transportation that are essential for independent daily living. Therefore, in determining whether or not to return the driver's license, it is possible to visualize changes in the driving behavior of elderly drivers by objectively evaluating the driving behavior of elderly drivers using collected driving characteristic data. Although desired, the driver identification system does not contemplate collecting and managing driving characteristic data for the purpose of obtaining the above-described driver-specific driving ratings.
そこで、以下の実施の形態1では、運転者ごとの運転特性データをより効率的に収集し、収集された運転特性データの管理を支援する運転特性データの管理方法および車載器の例を説明する。 Therefore, in the following first embodiment, an example of a method of managing driving characteristic data and an on-vehicle device for more efficiently collecting driving characteristic data for each driver and supporting management of the collected driving characteristic data will be described. .
以下、適宜図面を参照しながら、本開示に係る運転特性データの管理方法、車載器、および運転特性改善支援データの管理方法を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長化することを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, each embodiment specifically disclosing the management method of driving characteristic data, the vehicle-mounted device, and the management method of driving characteristic improvement support data according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. It should be noted that the accompanying drawings and the following description are provided to allow those skilled in the art to fully understand the present disclosure and are not intended to limit the claimed subject matter.
(実施の形態1)
図1を参照して、実施の形態1に係る運転特性管理システム100のユースケース例について説明する。図1は、実施の形態1に係る運転特性管理システム100のユースケース例を示す図である。図1における運転特性管理システム100は、生体情報の一例として運転者の顔画像を送信する例を図示している。
(Embodiment 1)
A use case example of the driving
運転特性管理システム100は、1台以上の車両C1,…のそれぞれと、運転特性サーバS1と、免許証サーバS2と、ネットワークNWと、を含んで構成される。なお、運転特性管理システム100は、無線端末装置P1を含む構成であってよい。
The driving
運転特性管理システム100は、1台以上の車両C1,…のそれぞれに搭載された通信機器11(図2参照)から送信された車両を運転する運転者の運転特性データを取得する。運転特性管理システム100は、取得された運転特性データと、運転者の免許証ID(Identification)とを紐付けて、運転特性サーバS1に蓄積して、管理する。また、運転特性管理システム100は、免許証サーバS2で事前に登録された複数の運転者のそれぞれの免許証IDを管理する。運転特性管理システム100は、運転特性サーバS1あるいは免許証サーバS2により運転者ごとの運転評価を実行し、運転評価結果を無線端末装置P1あるいはカーナビゲーション装置12に送信して、出力させる。
The driving
なお、ここでいう運転特性データは、運転者の運転特性を示すデータであって、車両C1,…のそれぞれに搭載された、各種センサ(例えば車内カメラ13,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,速度センサ18,車外センサ/カメラ19,GPSセンサ20,あるいはステアリング17D等(図2参照))により取得される。
The driving characteristic data referred to here is data indicating the driving characteristics of the driver, and includes various sensors (for example, the in-
例えば、運転特性データは、運転特性パラメータあるいは運転特性ベクトルの少なくとも一方により示されるデータであって、走行時の加速度,躍度,横G(つまり、進行方向と直角に発生する加速度),操舵角度,走行中の道路の種類、走行中の道路の制限速度に対する超過速度,運転者の視線方向等の1以上のデータである。なお、運転特性データは、上述の例に限定されず、これらのデータを2以上組み合わせることで得られる運転者の運転特性を示すデータであってもよい。 For example, the driving characteristic data is data indicated by at least one of a driving characteristic parameter and a driving characteristic vector, and includes acceleration, jerk, lateral G (that is, acceleration generated perpendicular to the direction of travel), steering angle, etc. , the type of road on which the vehicle is traveling, the speed exceeding the speed limit of the road on which the vehicle is traveling, the line of sight of the driver, and the like. The driving characteristic data is not limited to the above example, and may be data indicating the driving characteristic of the driver obtained by combining two or more of these data.
運転特性パラメータは、運転特性データに含まれるデータごとの値(パラメータ)である。運転特性ベクトルは、運転特性データに含まれるデータ数と、データごとの値とに基づいて算出される加算平均値である。例えば、運転特性ベクトルは、運転特性データのデータ数がN(N:1以上の整数)である場合、N次ベクトルにより表される。 The driving characteristic parameter is a value (parameter) for each data included in the driving characteristic data. The driving characteristic vector is an addition average value calculated based on the number of data included in the driving characteristic data and the value for each data. For example, the driving characteristic vector is represented by an Nth-order vector when the number of data in the driving characteristic data is N (N: an integer equal to or greater than 1).
車両C1,…のそれぞれは、ネットワークNWを介して運転特性サーバS1との間で無線通信可能に接続される。なお、ここでいう無線通信は、例えばWi-Fi(登録商標)に代表される無線LAN等であって、その種類は特に限定されない。車両C1,…のそれぞれは、運転者が自車両を初めて運転する場合に、この運転者の初期登録を要求する制御指令を生成して、初期登録対象である運転者の免許証IDと生体情報と車両IDとを紐付けて、運転特性サーバS1に送信する。また、車両C1,…のそれぞれは、運転者により運転されている間、運転者の運転特性データと車両IDとを紐付けて運転特性サーバS1に送信し、運転者の運転特性データと車両IDとを、初期登録済みの運転者の免許証IDに紐付けて記録させる。 Each of the vehicles C1, . Note that the wireless communication referred to here is, for example, a wireless LAN represented by Wi-Fi (registered trademark), and the type thereof is not particularly limited. When the driver drives the own vehicle for the first time, each of the vehicles C1, . and the vehicle ID are linked and transmitted to the driving characteristic server S1. Further, each of the vehicles C1, . are recorded in association with the driver's license ID that has already been initially registered.
初期登録において、車両C1,…のそれぞれは、カーナビゲーション装置12の入力部12D(図2参照)を介して、運転者による運転特性サーバS1への免許証IDの初期登録を要求する操作を受け付ける。車両C1,…のそれぞれは、運転者の免許証IDと、運転者の生体情報とを取得し、取得された運転者の免許証IDと生体情報と、自車両を識別可能な車両ID(例えば、ナンバープレート情報)とを紐付けて、運転特性サーバS1に送信する。 In the initial registration, each of the vehicles C1, . . Each of the vehicles C1, . , license plate information) and transmitted to the driving characteristic server S1.
運転特性データ収集時において、車両C1,…のそれぞれは、運転者の乗車を検知したタイミングから各種センサによる運転特性データの取得を開始し、取得された運転特性データと、車両IDとを紐付けて、運転特性サーバS1に送信する。また、車両C1,…のそれぞれは、運転者の乗車を検知したタイミングから運転者の生体情報の取得を開始し、取得された運転者の生体情報と、車両IDとを紐付けて、運転特性サーバS1に送信し、運転特性サーバS1に運転者認証(つまり、運転者の特定)を要求する。なお、車両C1,…のそれぞれは、運転特性データと、運転者の生体情報と、車両IDとを紐付けて、運転特性サーバS1に送信してもよい。さらに、車両C1,…のそれぞれは、運転特性サーバS1から送信された運転者認証が完了した(つまり、送信された運転者の生体情報と、運転特性サーバS1に登録済みの生体情報とが照合した)旨の電気信号を取得した場合、運転者の生体情報の取得および送信を終了する。 At the time of collecting the driving characteristic data, each of the vehicles C1, . and transmits it to the driving characteristic server S1. Further, each of the vehicles C1, . It is sent to the server S1 to request the driving characteristics server S1 to authenticate the driver (that is, identify the driver). Each of the vehicles C1, . Further, each of the vehicles C1, . When the electric signal indicating that the vehicle has been completed is obtained, the acquisition and transmission of the driver's biometric information are terminated.
車両C1,…のそれぞれは、運転者による運転終了を検知したタイミングで各種センサによる運転特性データおよび生体情報のそれぞれの取得を終了する。 Each of the vehicles C1, .
ここでいう免許証IDは、車内カメラ13により撮像された車両を運転する運転者の運転免許証の撮像画像、あるいは、運転免許証に記載された免許証IDを読み取り可能な免許証リーダ(不図示)により取得された運転免許証に関する情報(例えば、運転者の顔画像,運転者に関する情報,運転者を特定可能に割り当てられた各種番号等)である。免許証リーダは、NFC(Near Field Communication),Bluetooth(登録商標)等の近距離無線通信により読み取られた免許証IDをプロセッサ12Aに送信可能であってもよいし、USB(Universal Serial Bus)等によりカーナビゲーション装置12との間で有線通信により読み取られた免許証IDをプロセッサ12Aに送信可能であってもよい。
The driver's license ID here refers to the captured image of the driver's license of the driver who drives the vehicle captured by the in-
また、免許証IDは、車内カメラ13により撮像された撮像画像を画像解析することで取得される運転免許証に関する情報、あるいは運転者によるカーナビゲーション装置12の入力部12D(図2参照)への入力操作により入力された運転免許証に関する情報であってもよい。
The driver's license ID is information about the driver's license obtained by image analysis of the captured image captured by the in-
また、ここでいう運転者の生体情報は、1枚以上の運転者の顔画像,虹彩,指紋,静脈,音声等である。運転者の生体情報が運転者の虹彩,指紋,静脈,音声等である場合、車両C1,…のそれぞれは、運転者の虹彩,指紋,静脈,音声を取得可能な装置(不図示)あるいはセンサ(不図示)を備えてよい。 Also, the biometric information of the driver here is one or more face images, irises, fingerprints, veins, voice, etc. of the driver. If the biological information of the driver is the driver's iris, fingerprint, vein, voice, etc., each of the vehicles C1, . . . (not shown).
運転者の顔画像は、車内カメラ13により撮像される。また、初期登録時に撮像される運転者の顔画像は、複数枚であることが望ましく、運転者が正面を向いている時に撮像された顔画像(以降、「正面顔画像」と表記)を少なくとも1枚含む。初期登録時に撮像される顔画像の枚数が2枚以上である場合、車内カメラ13は、運転者の顔の向きを画像解析により解析し、正面顔画像と、運転者が正面以外の他の方向(例えば、左方向,右方向等)を向いている時に撮像された1枚以上の顔画像とを撮像する。なお、以降の説明では、左方向を向いている時に撮像された顔画像を「左向き顔画像」と表記し、右方向を向いている時に撮像された顔画像を「右向き顔画像」と表記する。
A face image of the driver is captured by the in-
虹彩は、車内カメラ13により撮像された運転者の顔画像を用いて、車両C1,…に搭載されたICM(Intelligent Control Module,不図示)、カーナビゲーション装置12あるいは運転特性サーバS1による画像解析により取得されてよい。
The iris is obtained by image analysis by the ICM (Intelligent Control Module, not shown) mounted on the vehicle C1, the
指紋は、車内カメラ13により撮像された運転者の1本以上の指先画像を用いて、車両C1,…に搭載されたICM、カーナビゲーション装置12あるいは運転特性サーバS1による画像解析により取得されてもよいし、車両C1,…が備える指紋センサ(不図示)、あるいは指紋センサ機能を有するステアリング17D等により取得されてもよい。
Fingerprints may be acquired by image analysis by the ICM, the
静脈は、車内カメラ13により撮像された運転者の手画像を用いて、車両C1,…に搭載されたICM、カーナビゲーション装置12あるいは運転特性サーバS1による画像解析により取得されてもよいし、車両C1,…が備える静脈センサ(不図示)により取得されてもよい。
The veins may be obtained by image analysis by the ICM, the
音声は、カーナビゲーション装置12が備えるマイク、あるいは他のマイク(不図示)により収音される運転者の音声である。ここで収音される音声は、所定のキーワード等であってよい。
The voice is the driver's voice picked up by a microphone provided in the
運転特性サーバS1は、ネットワークNWを介して、車両C1,…のそれぞれと、無線端末装置P1と、免許証サーバS2との間でそれぞれデータ通信可能に接続される。運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の初期登録を要求する制御指令に基づいて、初期登録を実行する。また、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の運転特性データを収集し、収集された運転者の運転特性データを、初期登録済みの運転者の免許証IDに紐付けて記録する。 The driving characteristic server S1 is connected to each of the vehicles C1, . The driving characteristic server S1 executes initial registration based on the control command requesting the initial registration of the driver transmitted from each of the vehicles C1, . . . Further, the driving characteristic server S1 collects the driving characteristic data of the driver transmitted from each of the vehicles C1, . Link and record.
初期登録において、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の初期登録を要求する制御指令と、初期登録対象である運転者の生体情報と、免許証IDと、車両IDとを取得する。運転特性サーバS1は、取得された運転者の生体情報と免許証IDとを照合して、生体情報が示す運転者と免許証IDが示す運転者とが同一人物であるか否か(つまり、本人確認)を実行する。運転特性サーバS1は、取得された生体情報と免許証IDが示す運転者とが同一人物であると判定した場合、この運転者の免許証IDと、運転者の顔画像と、車両IDとを紐付けて登録(初期登録)する。なお、ここで登録される運転者の顔画像は、1枚の正面顔画像であってもよいし、1枚の正面顔画像と1枚以上の右向き顔画像または左向き顔画像であってもよい。 In the initial registration, the driving characteristic server S1 receives a control command requesting initial registration of the driver transmitted from each of the vehicles C1, . Get the ID. The driving characteristic server S1 collates the acquired biometric information of the driver with the license ID to determine whether the driver indicated by the biometric information and the driver indicated by the license ID are the same person (that is, identity verification). When the driving characteristic server S1 determines that the driver indicated by the acquired biometric information and the license ID is the same person, the driving characteristic server S1 stores the driver's license ID, the driver's face image, and the vehicle ID. Link and register (initial registration). The face image of the driver registered here may be one front face image, or may be one front face image and one or more right-facing face images or left-facing face images. .
運転特性データ収集時において、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の生体情報と運転特性データと車両IDとを取得し、取得された運転者の生体情報と、初期登録済みの複数の運転者の生体情報のそれぞれとを照合する。運転特性サーバS1は、複数の運転者の生体情報のそれぞれのうち照合する運転者がいると判定した場合、運転者の免許証IDに、取得された運転特性データと車両IDとを紐付けて記録する。 At the time of collecting the driving characteristic data, the driving characteristic server S1 acquires the driver's biological information, the driving characteristic data, and the vehicle ID transmitted from each of the vehicles C1, . Each of biometric information of a plurality of initially registered drivers is compared. If the driving characteristic server S1 determines that there is a driver to be compared among the biometric information of a plurality of drivers, the driving characteristic server S1 associates the driver's license ID with the acquired driving characteristic data and the vehicle ID. Record.
運転特性サーバS1は、免許証サーバS2から送信された所定の運転者の運転評価結果を要求する制御指令に基づいて、この所定の運転者の運転特性データを用いて、運転評価を実行する。運転特性サーバS1は、運転評価結果を生成して、無線端末装置P1に送信する。このような場合、無線端末装置P1は、例えば、運転者の免許更新を判断する警察庁の職員、自動車に関する保険(商品)を取り扱う保険会社の社員等により所持される。これにより、警察庁の職員は、無線端末装置P1に表示された所定の運転者の運転評価結果に基づいて、運転者の免許更新に関する判断を行うことができる。同様に、保険会社の社員は、無線端末装置P1に表示された所定の運転者の運転評価結果(つまり、安全運転の度合いを示す指標)に基づいて、所定の運転者の自動車保険料を算出できる。 The driving characteristic server S1 executes the driving evaluation using the driving characteristic data of the predetermined driver based on the control command requesting the result of the driving evaluation of the predetermined driver transmitted from the license server S2. The driving characteristic server S1 generates a driving evaluation result and transmits it to the wireless terminal device P1. In such a case, the wireless terminal device P1 is possessed by, for example, an employee of the National Police Agency who decides whether or not to renew a driver's license, or an employee of an insurance company who handles automobile insurance (products). Accordingly, the staff of the National Police Agency can make a decision regarding renewal of the driver's license based on the predetermined driving evaluation result of the driver displayed on the wireless terminal device P1. Similarly, the employee of the insurance company calculates the automobile insurance premium for the predetermined driver based on the driving evaluation result (that is, the index indicating the degree of safe driving) of the predetermined driver displayed on the wireless terminal device P1. can.
また、運転特性サーバS1は、運転者が所有する無線端末装置P1から送信された所定の運転者の運転特性データを要求する制御指令を取得する。運転特性サーバS1は、無線端末装置P1から送信された制御指令に含まれる免許証IDあるいは生体情報と、登録済みの複数の運転者の免許証IDあるいは生体情報とを照合する。運転特性サーバS1は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データと、運転特性データが取得された車両の車両IDとを抽出して、無線端末装置P1あるいはカーナビゲーション装置12に送信する。
The driving characteristic server S1 also acquires a control command requesting driving characteristic data of a predetermined driver transmitted from the wireless terminal device P1 owned by the driver. The driving characteristic server S1 collates the license ID or biometric information included in the control command transmitted from the wireless terminal device P1 with the license IDs or biometric information of a plurality of registered drivers. The driving characteristic server S1 extracts the driving characteristic data of the driver corresponding to the driver's license ID or biometric information included in the control command and the vehicle ID of the vehicle from which the driving characteristic data was acquired, based on the result of the matching. , to the wireless terminal device P1 or the
なお、ここで、運転特性サーバS1が蓄積された運転特性データに基づいて、この運転者の運転評価を実行する場合、運転特性サーバS1は、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転評価結果を生成して、無線端末装置P1あるいはカーナビゲーション装置12に送信してもよい。
Here, when the driving characteristic server S1 executes the driving evaluation of the driver based on the accumulated driving characteristic data, the driving characteristic server S1 corresponds to the driver's license ID or biometric information included in the control command. A driving evaluation result of the driver may be generated and transmitted to the wireless terminal device P1 or the
免許証サーバS2は、ネットワークNWを介して、運転特性サーバS1と、無線端末装置P1との間でそれぞれデータ通信可能に接続される。免許証サーバS2は、複数の運転者の免許証IDを記録、管理する。なお、免許証サーバS2により記録、管理される情報は、免許証IDに限定されず、例えば運転免許証の更新に関する情報、運転特性データを用いた運転評価結果等であってよい。 The driver's license server S2 is connected to the driving characteristic server S1 and the wireless terminal device P1 via the network NW so as to enable data communication. The license server S2 records and manages the license IDs of multiple drivers. The information recorded and managed by the license server S2 is not limited to the license ID, and may be, for example, information on renewal of the driver's license, driving evaluation results using driving characteristic data, and the like.
免許証サーバS2は、無線端末装置P1から送信された所定の運転者の運転特性データを要求する制御指令を取得する。免許証サーバS2は、無線端末装置P1から送信された制御指令に含まれる免許証IDあるいは生体情報と、登録済みの複数の運転者の免許証IDあるいは生体情報とを照合し、照合結果を運転特性サーバS1に送信する。運転特性サーバS1は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データと、運転特性データが取得された車両の車両IDとを抽出して、免許証サーバS2に送信する。 The license server S2 acquires a control command requesting driving characteristic data of a predetermined driver transmitted from the wireless terminal device P1. The license server S2 compares the license ID or biometric information included in the control command transmitted from the wireless terminal device P1 with the license IDs or biometric information of a plurality of registered drivers, and uses the matching result as a driving device. Send to property server S1. The driving characteristic server S1 extracts the driving characteristic data of the driver corresponding to the driver's license ID or biometric information included in the control command and the vehicle ID of the vehicle from which the driving characteristic data was acquired, based on the result of the matching. , to the license server S2.
なお、ここで、運転特性サーバS1が蓄積された運転特性データに基づいて、この運転者の運転評価を実行する場合、運転特性サーバS1は、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転評価結果を生成して、免許証サーバS2に送信してもよい。 Here, when the driving characteristic server S1 executes the driving evaluation of the driver based on the accumulated driving characteristic data, the driving characteristic server S1 corresponds to the driver's license ID or biometric information included in the control command. A driving evaluation result of the driver may be generated and transmitted to the license server S2.
無線端末装置P1は、ネットワークNWを介して、運転特性サーバS1との間で通信可能に接続される。無線端末装置P1は、例えば運転者、運転者の親族、警察官、保険会社の社員等が所有するPC(Personal Computer),ノートPC,タブレット端末,あるいはスマートフォン等である。なお、無線端末装置P1は、上述した例に限定されず、車両C1,…に搭載されたカーナビゲーション装置12であってもよい。
The wireless terminal device P1 is communicably connected to the driving characteristic server S1 via the network NW. The wireless terminal device P1 is, for example, a PC (Personal Computer) owned by a driver, a relative of the driver, a police officer, an employee of an insurance company, a notebook PC, a tablet terminal, a smart phone, or the like. Note that the wireless terminal device P1 is not limited to the example described above, and may be the
無線端末装置P1は、運転者,運転者の親族等による入力操作を受け付け可能であって、入力操作に基づいて、運転者の運転評価結果を要求する制御指令を生成する。無線端末装置P1は、運転者の免許証IDあるいは生体情報を取得し、取得された運転者の免許証IDあるいは生体情報と、制御指令とを紐付けて運転特性サーバS1に送信する。また、無線端末装置P1は、運転特性サーバS1から送信された運転者の運転評価結果を取得した場合、取得された運転者の運転評価結果を無線端末装置P1のモニタ(不図示)に出力する。なお、無線端末装置P1がカーナビゲーション装置12により実現される場合、無線端末装置P1(つまり、カーナビゲーション装置12)は、取得された運転者の運転評価結果をカーナビゲーション装置12の表示部12Cに出力する。
The wireless terminal device P1 can receive an input operation by the driver, a relative of the driver, or the like, and generates a control command requesting the driver's driving evaluation result based on the input operation. The wireless terminal device P1 acquires the driver's license ID or biometric information, associates the acquired driver's license ID or biometric information with the control command, and transmits them to the driving characteristic server S1. Further, when the wireless terminal device P1 acquires the driving evaluation result of the driver transmitted from the driving characteristic server S1, the wireless terminal device P1 outputs the acquired driving evaluation result of the driver to the monitor (not shown) of the wireless terminal device P1. . When the wireless terminal device P1 is realized by the
ネットワークNWは、複数の車両C1,…のそれぞれと、運転特性サーバS1と、免許証サーバS2との間、および、運転特性サーバS1と無線端末装置P1との間を、無線通信可能に接続する。 The network NW connects each of the plurality of vehicles C1, . .
次に、図2を参照して、実施の形態1における車両C1,…の内部構成例について説明する。図2は、実施の形態1における車両C1,…の内部構成例を示すブロック図である。なお、図2に示す車両C1,…の内部構成は、生体情報として運転者の顔画像を用いる場合の内部構成例を図示し、他の生体情報を取得するためのセンサ、および免許証リーダ等の図示を省略している。また、車両C1,…のそれぞれは、同様の内部構成であるため、以降の説明では車両C1の内部構成について説明する。 Next, an internal configuration example of the vehicle C1, . . . according to the first embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing an internal configuration example of vehicles C1, . . . according to the first embodiment. The internal configuration of the vehicle C1, . is omitted. Since each of the vehicles C1, . . . has the same internal configuration, the internal configuration of the vehicle C1 will be described below.
車両C1は、通信機器11と、カーナビゲーション装置12と、車内カメラ13と、ジャイロセンサ14と、メモリ15と、ECU(Electronic Control Unit)16と、を少なくとも含んで構成される。車両C1内部の各部は、CAN(Controller Area Network)等によりデータ送受信可能に接続される。
The vehicle C1 includes at least a
なお、通信機器11、カーナビゲーション装置12、車内カメラ13、およびジャイロセンサ14は、1つのカーナビゲーション装置10として一体的に構成されてもよい。また、図2に示す車両C1に搭載されるセンサは一例であってこれに限定されない。
通信機器11は、ネットワークNWを介して、車両C1と運転特性サーバS1との間で無線通信によるデータの送受信を実行する。通信機器11は、運転者の免許証ID、生体情報(ここでは、1枚以上の顔画像)、車両ID、運転特性データ等を運転特性サーバS1に送信する。通信機器11は、運転特性サーバS1から送信された初期登録完了を通知する電気信号、運転者の特定完了を通知する電気信号等を受信して、プロセッサ12Aに出力する。
The
カーナビゲーション装置12は、運転者操作を受け付け可能な装置である。また、カーナビゲーション装置12は、例えばカーナビゲーション機能、位置情報提供サービス機能、インターネット接続機能、マルチメディア再生機能等を提供可能なIVI(In-Vehicle Infotainment)装置であってもよい。カーナビゲーション装置12は、プロセッサ12Aと、メモリ12Bと、表示部12Cと、入力部12Dとを含んで構成される。
The
プロセッサ12Aは、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、各部の動作を制御する。プロセッサ12Aは、メモリ12Bと協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ12Aは、メモリ12Bに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。
The
プロセッサ12Aは、入力部12Dから出力された運転特性サーバS1への運転者の初期登録を開始するための制御指令に基づいて、初期登録処理を開始する。プロセッサ12Aは、車内カメラ13により撮像された1枚以上の運転者の顔画像と、運転免許証が撮像された撮像画像(免許証ID)と、車両IDと、運転者の初期登録を要求する制御指令とを紐付けて、運転特性サーバS1に送信する。なお、免許証IDは、運転者操作により入力部12Dに入力された免許証情報であってもよい。同様に、運転者操作により入力部12Dに入力されたナンバープレート情報であってもよい。
The
プロセッサ12Aは、ECU16あるいは通信機器11から運転者の乗車を検知した旨の制御指令を取得したタイミングから、運転者の運転特性データの取得を開始する。プロセッサ12Aは、ジャイロセンサ14から出力された電気信号に基づいて、運転特性データとして車両C1の角速度を取得したり、ECU16を介して、各種センサ(例えば車内カメラ13,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,速度センサ18,車外センサ/カメラ19,GPSセンサ20,あるいはステアリング17D等)により取得された各種運転特性データを取得したりする。なお、各種センサにより取得される運転特性データは、それぞれ後述する。プロセッサ12Aは、取得された運転特性データと、車両IDとを紐付けて、運転特性サーバS1に送信する。また、プロセッサ12Aは、運転特性サーバS1により実行される運転者の登録あるいは特定に用いられる運転者の生体情報として、車内カメラ13に運転者の顔画像を撮像させる。プロセッサ12Aは、車内カメラ13から出力された運転者の顔画像と車両IDとを紐付けて、運転特性サーバS1に送信する。
The
プロセッサ12Aは、ECU16あるいは通信機器11から運転者の降車を検知した旨の制御指令を取得したタイミングで、運転者の運転特性データの取得処理、および運転特性サーバS1への運転特性データの送信処理を終了する。なお、プロセッサ12Aは、運転特性サーバS1から送信された初期登録あるいは運転者の顔照合が完了した旨の制御指令に基づいて、車内カメラ13による撮像処理を終了させてよい。
The
また、プロセッサ12Aは、車内カメラ13から出力された運転者の顔画像を画像解析し、運転者の視線検知,眠気検知,感情検知等を実行してもよい。プロセッサ12Aは、検知された検知結果を運転特性データとして、車両IDと紐付けて運転特性サーバS1に送信する。
In addition, the
メモリ12Bは、例えばプロセッサ12Aの各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ12Aの動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ12Aにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ12Aの動作を規定するプログラムが書き込まれている。また、メモリ12Bは、車両C1の車両IDを記憶する。
The memory 12B includes, for example, a RAM (Random Access Memory) as a work memory used when executing each process of the
表示部12Cは、例えばLCD(Liquid Crystal Display)もしくは有機EL(Electroluminescence)を用いて構成される。
The
入力部12Dは、表示部12Cと一体的に構成されたユーザインタフェースである。入力部12Dは、受け付けられた運転者操作を電気信号(制御指令)に変換して、プロセッサ12Aに出力する。入力部12Dは、運転者による初期登録を開始するための入力操作を受け付けたり、免許証IDあるいは車両IDの入力操作を受け付けたりする。
The
車内カメラ13は、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCD(Charged-Coupled Device)あるいはCMOS(Complementary Metal-Oxide-Semiconductor)等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。
The in-
車内カメラ13は、入力部12Dを介した運転者による入力操作あるいは運転者の乗車検知に基づいて、運転席に座る運転者の顔を撮像して、プロセッサ12Aに出力する。プロセッサ12Aは、撮像された運転者の顔画像を画像解析し、運転者の顔の向きを検出する。プロセッサ12Aは、検出された運転者の顔の向きが事前に設定された顔の向きであると判定した場合、この顔画像と車両IDとを紐付けて、通信機器11から運転特性サーバS1に送信させる。なお、顔画像から運転者の顔の向きを検出する処理は、運転特性サーバS1により実行されてもよい。
The in-
例えば、初期登録時の運転者認証、あるいは運転特性データの記録時の運転者の特定において、正面顔画像が必要である場合、プロセッサ12Aは、検出された運転者の顔の向きが正面であると判定した正面顔画像と、車両IDとを紐付けて、運転特性サーバS1に送信する。
For example, if a frontal face image is required for driver authentication during initial registration or identification of a driver during recording of driving characteristic data,
また、例えば、初期登録の運転者認証、あるいは運転特性データの記録時の運転者の特定において、運転者が異なる複数の方向を向いている顔画像が必要である場合、プロセッサ12Aは、検出された運転者の顔の向きが正面であると判定した正面顔画像と、右向きであると判定した右向き顔画像、あるいは左向きであると判定した左向き顔画像のそれぞれのうち1枚以上の顔画像とを選定する。プロセッサ12Aは、選定された2枚以上の顔画像と車両IDとを紐付けて、運転特性サーバS1に送信する。これにより、車両C1は、事前に撮像された運転者の正面顔画像を用いた運転者へのなりすまし行為をより効果的に抑制することができる。
Further, for example, in driver authentication at initial registration or identification of a driver at the time of recording driving characteristic data, when face images in which the driver faces a plurality of different directions are required, the
また、車内カメラ13は、入力部12Dを介した運転者による入力操作に基づいて、運転者の運転免許証を撮像してもよい。このような場合、プロセッサ12Aは、車内カメラ13により撮像された撮像画像をプロセッサ12Aに出力して表示部12Cに表示させ、表示部12Cに表示された撮像画像に、運転免許証の撮像領域を示す枠線を重畳してもよい。これにより、カーナビゲーション装置10は、運転者の特定に使用される運転免許証の顔画像の撮像、あるいは運転免許証に記載された各種情報を読み取り可能な運転免許証の撮像を支援できる。
Further, the in-
ジャイロセンサ14は、所謂角速度センサであって、機械式,光学式あるいは振動式等のいずれであってもよい。ジャイロセンサ14は、車両C1の回転,向きの変化を角速度として検知し、電気信号に変換してプロセッサ12Aに出力する。
The
メモリ15は、例えばECU16の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、ECU16の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、ECU16により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、ECU16の動作を規定するプログラムが書き込まれている。また、メモリ15は、車両C1の車両IDを記憶していてよい。
The
ECU16は、各部の処理および制御をそれぞれ統括的に実行する。ECU16は、所謂電子回路制御装置を用いて構成され、メモリ15に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ECU16は、操作部17から出力された電気信号に基づいて、運転者によるアクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D等の各種操作情報(例えば、急加速,急減速,点灯情報、操舵(トルク)情報等)を、運転特性データとして取得する。ECU16は、取得された操作部17の操作情報に基づく運転特性データをプロセッサ12Aに出力する。
The
また、ECU16は、運転者の乗車検知条件として、例えば運転席のドアの閉扉、運転席のシートベルトの着用、イグニッションON後のサイドブレーキの解除、運転席に設けられた荷重センサ(不図示)による運転者の着座検知、あるいはステアリング17Dのトルク検知等を実行する。ECU16は、1以上あるいは2以上の運転者の乗車検知条件を満たすか否かに基づいて、運転者の乗車を検知する。ECU16は、運転者の乗車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aあるいは通信機器11に出力する。
In addition, the
また、ECU16は、運転者の降車検知条件として、例えば運転席のドアの開扉、運転席のシートベルトの解除、イグニッションOFFの検知、あるいは運転席に設けられた荷重センサ(不図示)による運転者の離席検知等を実行する。ECU16は、1以上あるいは2以上の運転者の降車検知条件を満たすか否かに基づいて、運転者の降車を検知する。ECU16は、運転者の降車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aあるいは通信機器11に出力する。
In addition, the
速度センサ18は、車両C1内部の駆動軸の回転数により発生する車速パルスに基づいて、車両C1の速度を計測する。速度センサ18は、計測された車両C1の速度をプロセッサ12Aに出力する。
The
車外センサ/カメラ19は、車両C1に備えられたレーダ,ソナー等の1つ以上のセンサ、車両C1の周囲(車外)を撮像可能な1つ以上のカメラである。ここでいうカメラは、ドライブレコーダであってもよい。車外センサ/カメラ19は、車両C1の周辺に存在する物体(例えば、壁,障害物,他車両,人物等)の位置および方向を検知したり、標識を検知したり、道路上の白線等を検知したりする。車外センサ/カメラ19は、検知された検知情報をプロセッサ12Aに出力する。プロセッサ12Aは、車外センサ/カメラ19から出力された検知情報と運転特性データとして運転特性サーバS1に送信する。
The vehicle exterior sensor/
GPSセンサ20は、米国のGPS(Global Positioning System)の信号に限らず、例えばロシアのGLONASS(Global Navigation Satellite System)または欧州のGalileo等の衛星測位サービスを提供可能な人工衛星(不図示)、あるいは準天頂衛星(不図示)から送信された衛星測位信号を受信する。GPSセンサ20は、受信された衛星測位信号に基づいて、車両C1の走行速度および走行位置の情報を演算によって算出し、プロセッサ12Aに出力する。なお、衛星測位信号あるいは準天頂衛星に基づく車両C1の走行速度および走行位置の情報の演算は、GPSセンサ20によって実行されてもよい。
The
次に、図3を参照して、実施の形態1における運転特性サーバS1の内部構成について説明する。図3は、実施の形態1における運転特性サーバS1の内部構成例を示すブロック図である。なお、以降の説明では、説明を分かり易くするために、一例として運転特性テーブルTB1を用いて運転特性サーバS1により収集(記録),管理される各種データまたは情報について説明するが、運転特性テーブルTB1は必須でなく、省略されてよい。
Next, referring to FIG. 3, the internal configuration of the driving characteristic server S1 according to
運転特性サーバS1は、通信部31と、プロセッサ32と、メモリ33と、を含んで構成される。
The driving characteristic server S<b>1 includes a
通信部31は、ネットワークNWを介して、車両C1,…のそれぞれ、無線端末装置P1、および免許証サーバS2との間でそれぞれデータ送受信可能に接続される。
The
プロセッサ32は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ32は、メモリ33と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ32は、メモリ33に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。プロセッサ32は、運転特性テーブルTB1を生成して、メモリ33に記憶する。
The
運転特性テーブルTB1は、車両IDと、運転特性データと、生体情報(図3に示す例では運転者の顔画像)と、を免許証IDに紐付けて記録し、管理する。なお、図3に示す運転特性テーブルTB1は、一例として、運転者ごとに割り当てられ、運転者を識別可能な利用者IDを免許証IDにさらに紐付けて記録する。また、運転特性テーブルTB1に記録される生体情報は、初期登録時に登録(格納)された生体情報である。 The driving characteristic table TB1 records and manages a vehicle ID, driving characteristic data, and biometric information (a driver's face image in the example shown in FIG. 3) in association with a driver's license ID. As an example, the driving characteristic table TB1 shown in FIG. 3 records a user ID that is assigned to each driver and that can identify the driver, in association with the driver's license ID. Also, the biometric information recorded in the driving characteristic table TB1 is the biometric information registered (stored) at the time of initial registration.
例えば、図3に示す運転特性テーブルTB1は、免許証ID「XXX」に、車両ID「KKK」と、利用者ID「AAA」と、顔画像のデータと、運転特性データとを紐付け、免許証ID「YYY」に、車両ID「KKK」と、利用者ID「BBB」と、顔画像のデータと、運転特性データとを紐付け、免許証ID「ZZZ」に、車両ID「MMM」と、利用者ID「CCC」と、顔画像のデータと、運転特性データとを紐付けて、それぞれ記録する。これにより、運転特性テーブルTB1は、同一の車両ID「KKK」を有する車両を、異なる複数の運転者のそれぞれ(例えば、2人の利用者「AAA」,「BBB」のそれぞれ)が運転する場合であっても、免許証IDごとに運転特性データを記録できるため、運転者ごとに運転特性データを管理できる。 For example, the driving characteristic table TB1 shown in FIG. The certificate ID "YYY" is linked with the vehicle ID "KKK", the user ID "BBB", the facial image data, and the driving characteristic data, and the license ID "ZZZ" is linked with the vehicle ID "MMM". , the user ID “CCC”, face image data, and driving characteristic data are associated with each other and recorded. As a result, the driving characteristic table TB1 shows that when a vehicle having the same vehicle ID "KKK" is driven by a plurality of different drivers (for example, two users "AAA" and "BBB"), However, since the driving characteristic data can be recorded for each license ID, the driving characteristic data can be managed for each driver.
プロセッサ32は、車両C1,…のそれぞれから送信された初期登録を要求する制御指令に基づいて、初期登録処理を開始する。プロセッサ32は、車両C1,…のそれぞれから送信された免許証IDと、運転者の生体情報と、車両IDとを紐付けて、運転特性テーブルTB1に登録(格納)する。なお、プロセッサ32は、取得された免許証IDが、運転特性テーブルTB1に登録済みであると判定した場合、登録済みの免許証IDに紐付けられた運転者の生体情報と、取得された生体情報とを照合する。プロセッサ32は、登録済みの免許証IDに紐付けられた運転者の生体情報と、取得された生体情報とが照合すると判定した場合、運転特性テーブルTB1において登録済みの免許証IDに、取得された車両IDをさらに紐付けて記録する。
プロセッサ32は、車両C1,…のそれぞれから送信された車両IDと、運転特性データとを取得した場合、取得された車両IDごとの運転特性データを、メモリ33に一時保存する。また、プロセッサ32は、車両C1,…のそれぞれから送信された車両IDと、運転者の生体情報とを取得した場合、取得された運転者の生体情報と、運転特性テーブルTB1に登録(格納)された生体情報とを照合し、取得された生体情報に対応する運転者が登録済みであるか否かを判定する。
When the
プロセッサ32は、取得された生体情報に対応する運転者が登録済みである(つまり、取得された運転者の生体情報と、運転特性テーブルTB1に登録(格納)された生体情報とが照合する)と判定した場合、この生体情報に紐付けられた免許証IDを特定する。プロセッサ32は、特定された免許証IDに、取得された車両IDと、運転特性データと、を紐付けて、運転特性テーブルTB1に記録する。これにより、プロセッサ32は、免許証ID(つまり、運転者)ごとに運転特性データを記録し、管理できる。
The
また、プロセッサ32は、無線端末装置P1から送信された所定の運転者に対する運転評価を要求する制御指令と、所定の運転者に対応する免許証IDあるいは生体情報とを取得する。プロセッサ32は、取得された免許証IDあるいは生体情報と、運転特性テーブルTB1に登録済みの複数の運転者の免許証IDあるいは生体情報とを照合する。プロセッサ32は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データを用いて、運転者の運転評価を実行する。プロセッサ32は、運転評価結果を生成し、無線端末装置P1に送信する。
Also, the
同様に、プロセッサ32は、免許証サーバS2から送信された所定の運転者に対する運転評価を要求する制御指令と、所定の運転者に対応する免許証IDあるいは生体情報とを取得する。プロセッサ32は、取得された免許証IDあるいは生体情報と、メモリ33に登録済みの複数の運転者の免許証IDあるいは生体情報とを照合する。プロセッサ32は、照合結果に基づいて、制御指令に含まれる免許証IDあるいは生体情報に対応する運転者の運転特性データを用いて、運転者の運転評価を実行する。プロセッサ32は、運転評価結果を生成し、免許証サーバS2に送信する。
Similarly, the
メモリ33は、例えばプロセッサ32の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ32の動作を規定したプログラムおよびデータを格納するROMとを有する。なお、メモリ33は、SSDあるいはHDD等によるストレージデバイスのうちいずれかを含む記憶デバイスを有してもよい。RAMには、プロセッサ32により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ32の動作を規定するプログラムが書き込まれている。メモリ33は、プロセッサ32により生成された運転特性テーブルTB1を記憶する。
The
なお、メモリ33は、運転者ごとに所定期間、あるいは所定回数分の運転の運転特性データを蓄積してよい。なお、ここでいう所定期間は、例えば直近6ヶ月分,直近50回分等である。また、1回の運転は、車両C1,…により運転者の乗車が検知されたタイミングから運転者の降車が検知されたタイミングまでの間に行われた運転である。
Note that the
このような場合、プロセッサ32は、同一の免許証IDに紐付けて蓄積された複数の運転特性データのうち所定期間以上蓄積されている運転特性データがあると判定した場合、所定期間以上蓄積されている運転特性データを削除する。また、プロセッサ32は、同一の免許証IDに紐付けて蓄積された運転特性データのうち直近の所定回数以上の運転の運転特性データがあると判定した場合、直近の所定回数以上の運転の運転特性データを削除する。これにより、運転特性サーバS1は、直近の運転者の運転技能の変化を評価可能な運転特性データを優先して蓄積できる。
In such a case, if the
次に、図4を参照して、実施の形態1における免許証サーバS2の内部構成について説明する。図4は、実施の形態1における免許証サーバS2の内部構成例を示すブロック図である。なお、以降の説明では、説明を分かり易くするために、一例として免許証テーブルTB2を用いて免許証サーバS2により収集(記録),管理される各種データまたは情報について説明するが、免許証テーブルTB2は必須でなく、省略されてよい。 Next, referring to FIG. 4, the internal configuration of the license server S2 according to the first embodiment will be described. FIG. 4 is a block diagram showing an example internal configuration of the license server S2 according to the first embodiment. In the following description, the license table TB2 is used as an example to explain various data or information collected (recorded) and managed by the license server S2 for ease of understanding. is not required and may be omitted.
免許証サーバS2は、通信部41と、プロセッサ42と、メモリ43と、を含んで構成される。
The license server S2 includes a
通信部41は、ネットワークNWを介して、運転特性サーバS1、および無線端末装置P1との間でそれぞれデータ送受信可能に接続される。なお、無線端末装置P1がカーナビゲーション装置12により実現される場合、通信部41は、ネットワークNWを介して、車両C1,…のそれぞれに搭載されたカーナビゲーション装置12との間でデータ送受信可能に接続されてよい。
The
プロセッサ42は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ42は、メモリ43と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ42は、メモリ43に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。
The
プロセッサ42は、例えば、運転者,警察官,保険会社の社員等が所有する無線端末装置P1のそれぞれから送信された複数の運転者のそれぞれの免許証IDと、運転者に関する情報(例えば、運転者の氏名,住所,生体情報の一例としての顔画像データ等)とを取得する。プロセッサ42は、取得された免許証IDに、この免許証IDに対応する運転者に関する情報を紐付けて、免許証テーブルTB2を生成する。プロセッサ42は、生成された免許証テーブルTB2をメモリ43に記憶する。
The
免許証テーブルTB2は、運転者に関する情報(図4では、運転者の氏名,住所)と、運転者の生体情報(図4に示す例では運転者の顔画像)と、を免許証IDに紐付けて記録し、管理する。なお、免許証テーブルTB2で免許証IDに紐づけられる情報は、図4に示す例に限定されず、例えば運転免許証の有効期限日,更新日等の情報等がさらに紐づけられていてもよい。 The driver's license table TB2 links the driver's information (the driver's name and address in FIG. 4) and the driver's biological information (the driver's face image in the example shown in FIG. 4) to the driver's license ID. be recorded and managed. The information linked to the license ID in the license table TB2 is not limited to the example shown in FIG. good.
例えば、図4に示す免許証テーブルTB2は、免許証ID「AAA」に、運転者の氏名「○○×」と、住所「***」と、顔画像のデータとを紐付け、免許証ID「BBB」に、運転者の氏名「△△□」と、住所「***」と、顔画像のデータとを紐付け、免許証ID「CCC」に、運転者の氏名「○△×」と、住所「***」と、顔画像のデータとを紐付けて、それぞれ記録する。 For example, the driver's license table TB2 shown in FIG. The driver's name "△△□", the address "***", and the face image data are linked to the ID "BBB", and the driver's name "○△× ”, the address “***”, and the data of the face image are associated with each other and recorded.
また、プロセッサ42は、無線端末装置P1から送信された所定の運転者の運転評価を要求する制御指令と、所定の運転者に対応する免許証IDを取得する。プロセッサ42は、所定の運転者に対する運転評価を要求する制御指令を生成し、生成された制御指令と取得された免許証IDとを紐付けて、運転特性サーバS1に送信する。プロセッサ42は、通信部41を介して、運転特性サーバS1から送信された所定の運転者の運転評価結果を取得した場合、取得された運転評価結果を無線端末装置P1に送信する。
Also, the
メモリ43は、例えばプロセッサ42の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ42の動作を規定したプログラムおよびデータを格納するROMとを有する。なお、メモリ43は、SSDあるいはHDD等によるストレージデバイスのうちいずれかを含む記憶デバイスを有してもよい。RAMには、プロセッサ42により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ42の動作を規定するプログラムが書き込まれている。メモリ43は、プロセッサ42により生成された免許証テーブルTB2を記憶する。
The
次に、図5を参照して、運転特性管理システム100により実行される運転者の初期登録手順について説明する。図5は、実施の形態1に係る運転特性管理システム100の運転者の初期登録手順例を示すシーケンス図である。なお、以降の説明では、運転者の生体情報として運転者の正面顔画像、左向き顔画像および右向き顔画像のそれぞれを用いる例について説明するが、これに限定されないことは言うまでもない。
Next, referring to FIG. 5, an initial driver registration procedure executed by the driving
運転特性管理システム100を利用する利用者の一例としての運転者は、カーナビゲーション装置12を操作し、表示部12Cに表示された初期登録ボタン(不図示)を選択(押下)することで、入力部12Dを介して、初期登録を要求する操作を行う(St101)。
A driver, who is an example of a user who uses the driving
カーナビゲーション装置12は、入力部12Dにより受け付けられた運転者操作に基づいて、車内カメラ13により運転者の顔画像(生体情報の一例)を撮像させる。車内カメラ13は、カーナビゲーション装置12により制御され、運転者の顔を撮像する(St102)。また、車内カメラ13は、運転者により車内カメラ13の画角内にかざされた運転者の運転免許証(免許証IDの一例)を撮像する(St103)。車内カメラ13は、撮像された運転者の顔画像と、免許証IDとを紐付けて、カーナビゲーション装置12に送信する(St104)。
The
カーナビゲーション装置12は、運転者の顔画像と、免許証IDと、自車両の車両IDとを紐付ける(St105)。なお、ここで紐付けられる車両IDは、運転者により入力部12Dに入力された、あるいはカーナビゲーション装置12に記憶された車両のナンバープレート情報、自車両を識別可能な情報等であってよい。カーナビゲーション装置12は、紐付けられた運転者の顔画像、免許証ID、および自車両の車両ID(初期登録データ)と、初期登録を要求する制御指令(初期登録要求)とを、通信機器11を介して、運転特性サーバS1に送信する(St106)。
The
運転特性サーバS1は、カーナビゲーション装置12から送信された初期登録データと、初期登録を要求する制御指令とを受信する(St107)。
The driving characteristic server S1 receives the initial registration data transmitted from the
運転特性サーバS1は、初期登録を要求する制御指令に基づいて、取得された免許証IDに映る運転者の正面顔画像と、登録済みの顔画像とを照合する(St108)。運転特性サーバS1は、免許証IDに映る運転者の正面顔画像と、登録済みの顔画像とが照合する(つまり、同一の運転者である)と判定した場合、運転者の顔画像と、免許証IDと、車両IDとを紐付けてメモリ33に登録(格納)して、運転者の初期登録を完了する(St109)。運転特性サーバS1は、初期登録完了後、初期登録が完了した旨の初期登録完了通知を生成して、ネットワークNWを介して、通信機器11に送信する(St110)。
Based on the control command requesting initial registration, the driving characteristic server S1 collates the front face image of the driver appearing in the acquired driver's license ID with the registered face image (St108). When the driving characteristic server S1 determines that the front face image of the driver reflected in the driver's license ID matches the registered face image (that is, the driver is the same driver), the driver's face image and The license ID and the vehicle ID are linked and registered (stored) in the
カーナビゲーション装置12は、通信機器11を介して、運転特性サーバS1から送信された初期登録完了通知を表示部12Cに出力して、運転者に初期登録完了を通知する(St111)。
The
なお、運転特性サーバS1は、登録済みの複数の運転者の免許証IDと、取得された免許証IDまたは顔画像とを照合し、照合の結果、登録済みの複数の運転者の免許証IDと、取得された免許証IDまたは顔画像とが照合しない(つまり、同一の運転者が登録済みでない)と判定した場合にのみ、ステップSt108の処理を実行し、初期登録を実行してもよい。運転特性サーバS1は、登録済みの複数の運転者の免許証IDと、取得された免許証IDまたは顔画像とが照合する(つまり、同一の運転者が登録済みである)と判定した場合には、登録済みの免許証IDに取得された車両IDを紐付けて記録することで、初期登録を完了してもよい。 The driving characteristic server S1 compares the license IDs of a plurality of registered drivers with the obtained license IDs or face images, and as a result of the matching, the license IDs of the plurality of registered drivers are checked. and the obtained driver's license ID or face image do not match (that is, the same driver is not registered), the process of step St108 may be executed to execute initial registration. . When the driving characteristic server S1 determines that the license IDs of a plurality of registered drivers match the obtained license ID or face image (that is, the same driver is registered), may complete the initial registration by linking the acquired vehicle ID to the registered driver's license ID.
以上により、実施の形態1に係る運転特性管理システム100は、運転者の免許証IDを登録(格納)と、車両IDとを紐付けて管理できる。
As described above, the driving
次に、図6を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図6は、車両C1,…における運転者の初期登録手順例を示すフローチャートである。 Next, referring to FIG. 6, an initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 6 is a flow chart showing an example of an initial driver registration procedure for vehicles C1, . . .
車両C1,…のそれぞれは、カーナビゲーション装置12の入力部12Dに、運転者の初期登録を要求する操作があるか否かを判定する(St11)。 Each of the vehicles C1, .
車両C1,…のそれぞれは、ステップSt11の処理において、運転者の初期登録を要求する操作があると判定した場合(St11,YES)、初期登録手順を示す画面を生成して、カーナビゲーション装置12の表示部12Cに出力して表示する(St12)。ここでいう初期登録手順を示す画面は、初期登録データの一例である運転者が運転する車両IDと、運転者の免許証IDと、運転者の生体情報とをそれぞれ取得するための手順を示す1以上の画面である。
Each of the vehicles C1, . is output to and displayed on the
一方、車両C1,…のそれぞれは、ステップSt11の処理において、運転者の初期登録を要求する操作がないと判定した場合(St11,NO)、図6に示す初期登録手順を終了する。 On the other hand, each of the vehicles C1, . . . ends the initial registration procedure shown in FIG.
車両C1,…のそれぞれは、車両IDの登録を実行し(St13)、免許証IDの登録を実行し(St14)、顔画像の登録を実行する(St15)。車両C1,…のそれぞれは、ステップSt13~ステップSt15のそれぞれの処理(つまり、初期登録)がすべて完了したか否かを判定する(St16)。 Each of the vehicles C1, . . . performs vehicle ID registration (St13), license ID registration (St14), and facial image registration (St15). Each of the vehicles C1, .
車両C1,…のそれぞれは、ステップSt16の処理において、ステップSt13~ステップSt15のそれぞれの処理(つまり、初期登録)がすべて完了したと判定した場合(St16,YES)、図6に示す初期登録手順を終了する。 Each of the vehicles C1, . exit.
一方、車両C1,…のそれぞれは、ステップSt16の処理において、ステップSt13~ステップSt15のそれぞれの処理(つまり、初期登録)がすべて完了していないと判定した場合(St16,NO)、ステップSt12の処理に移行し、未完了であるステップSt13~ステップSt15の処理に対応する初期登録手順を表示し、未完了であるステップSt13~ステップSt15に対応する処理のみを再度実行する。例えば、車両C1,…のそれぞれは、ステップSt13の処理が未完了である場合には、ステップSt13の処理(車両IDの登録処理)に対応する初期登録手順を表示し、ステップSt13の処理(車両IDの登録処理)を再度実行する。 On the other hand, in the process of step St16, each of the vehicles C1, . Then, the initial registration procedure corresponding to the incomplete processing of steps St13 to St15 is displayed, and only the incomplete processing of steps St13 to St15 is executed again. For example, each of the vehicles C1, . ID registration process) is executed again.
次に、図7を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図7は、車両C1,…における車両ID登録手順例を示すフローチャートである。具体的に、図7は、図6に示すステップSt13の処理を示すフローチャートである。 Next, referring to FIG. 7, an initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 7 is a flow chart showing an example of a vehicle ID registration procedure in vehicles C1, . . . Specifically, FIG. 7 is a flowchart showing the process of step St13 shown in FIG.
カーナビゲーション装置12は、メモリ12Bに記録された車両IDの登録手順に対応する画像、映像あるいは音声等を表示部12Cに出力する(St131)。
The
車両C1,…のそれぞれは、以下に示すステップSt132A,ステップSt132BあるいはステップSt132Cのいずれかの処理により、自車両の車両IDを取得する(St132)。 Each of the vehicles C1, .
カーナビゲーション装置12は、運転者操作により、入力部12Dへの車両ID(例えば、車両のナンバープレート情報等)の入力を受け付ける(St132A)。
The
ECU16は、メモリ15に記録された自車両の車両IDを取得する(St132B)。
The
車内カメラ13は、運転者により画角内にかざされた自車両の車検証を撮像し、撮像された車検証の撮像画像をカーナビゲーション装置12のプロセッサ12Aに出力する。カーナビゲーション装置12は、出力された車検証の撮像画像を画像解析し、撮像画像に映る車両IDを取得する(St132C)。
The in-
取得された車両IDは、通信機器11に出力される。通信機器11は、出力された車両IDを、ネットワークNWを介して、運転特性サーバS1に送信する(St133)。
The acquired vehicle ID is output to the
次に、図8を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図8は、車両C1,…における運転者の免許証ID登録手順例を示すフローチャートである。具体的に、図8は、図6に示すステップSt14の処理を示すフローチャートである。 Next, referring to FIG. 8, an initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 8 is a flow chart showing an example of driver's license ID registration procedures for vehicles C1, . . . Specifically, FIG. 8 is a flowchart showing the process of step St14 shown in FIG.
カーナビゲーション装置12は、メモリ12Bに記録された免許証IDの登録手順に対応する画像、映像あるいは音声等を表示部12Cに出力する(St141)。
The
カーナビゲーション装置12は、運転者操作により、入力部12Dへの免許証ID(例えば、車両のナンバープレート情報等)の入力を受け付ける(St142)。なお、ステップSt142の処理は必須でなく、省略されてもよい。このような場合、カーナビゲーション装置12のプロセッサ12Aまたは運転特性サーバS1は、ステップSt143の処理で撮像された運転免許証の撮像画像を画像解析することで免許証IDを取得する。
The
車内カメラ13は、運転者により画角内にかざされた運転者の運転免許証を撮像する(St143)。車内カメラ13は、撮像された運転免許証の撮像画像をカーナビゲーション装置12のプロセッサ12Aに出力する。カーナビゲーション装置12は、出力された運転免許証の撮像画像と、入力された免許証IDとを紐付けて、通信機器11に出力する。通信機器11は、カーナビゲーション装置12から出力された運転免許証の撮像画像と、免許証IDとを運転特性サーバS1に送信する(St144)。なお、ステップSt142の処理が省略される場合、通信機器11は、カーナビゲーション装置12から出力された運転免許証の撮像画像を運転特性サーバS1に送信する。
The in-
次に、図9を参照して、車両C1,…のそれぞれで実行される運転者の初期登録手順について説明する。図9は、車両C1,…における運転者の顔画像登録手順例を示すフローチャートである。具体的に、図9は、図6に示すステップSt15の処理を示すフローチャートである。 Next, referring to FIG. 9, an initial driver registration procedure executed in each of the vehicles C1, . . . will be described. FIG. 9 is a flow chart showing an example of procedures for registering the driver's face image in the vehicles C1, . . . Specifically, FIG. 9 is a flowchart showing the process of step St15 shown in FIG.
カーナビゲーション装置12は、メモリ12Bに記録された顔画像の登録手順に対応する画像、映像あるいは音声等を表示部12Cに出力する(St151)。カーナビゲーション装置12は、車内カメラ13を制御して、撮像を開始させる。
The
車内カメラ13は、運転者により車内カメラ13の画角内に提示された運転者の運転免許証を撮像する。ここで、車内カメラ13は、運転免許証の全域であって、例えば、運転免許証に記載された運転者の顔画像と、運転免許証に記載された各種情報(例えば、運転者の氏名情報,住所情報,国籍情報,有効年月日情報,番号情報,種別情報等)とが画角内に映りこむように撮像する(St152)。車内カメラ13は、撮像された運転免許証の撮像画像をプロセッサ12Aに出力する。
The in-
なお、ステップSt142において免許証IDが運転者により入力される場合には、運転免許証に映る運転者の顔画像のみを撮像してもよいし、ステップSt143の処理において運転者の顔画像と、運転免許証に記載された各種情報とを撮像する場合には、ステップSt152の処理は省略されてもよい。また、撮像された運転免許証の撮像画像に運転者の顔画像と、運転免許証に記載された各種情報とが映っているか否かの判定は、運転特性サーバS1により実行されてもよいし、カーナビゲーション装置12のプロセッサ12Aにより実行されてもよい。
When the license ID is input by the driver in step St142, only the face image of the driver shown in the driver's license may be captured, or in the process of step St143, the face image of the driver, In the case of capturing an image of various information written on the driver's license, the processing of step St152 may be omitted. Further, the driving characteristics server S1 may determine whether or not the face image of the driver and various information described in the driver's license are included in the captured image of the driver's license. , may be executed by the
車内カメラ13は、運転者の顔が正面を向いている状態で撮像し(St153)、撮像された正面顔画像F11をプロセッサ12Aに出力する。車内カメラ13は、運転者の顔が、運転者の正面に位置する車内カメラ13に対して右側を向いている状態で撮像し(St154)、撮像された右向き顔画像F12をプロセッサ12Aに出力する。車内カメラ13は、運転者の顔が、運転者の正面に位置する車内カメラ13に対して左側を向いている状態で撮像し(St154)、撮像された左向き顔画像F13をプロセッサ12Aに出力する。
The in-
カーナビゲーション装置12は、車内カメラ13から出力された運転免許証の撮像画像、正面顔画像F11、右向き顔画像F12、および左向き顔画像F13のそれぞれを通信機器11に出力し、運転特性サーバS1に送信させる(St155)。
The
次に、図10を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図10は、運転特性サーバS1における運転者の初期登録手順例を示すフローチャートである。 Next, referring to FIG. 10, an initial driver registration procedure executed by the driving characteristic server S1 will be described. FIG. 10 is a flow chart showing an example of an initial driver registration procedure in the driving characteristic server S1.
運転特性管理システム100における運転特性サーバS1は、車両C1,…のそれぞれから初期登録を要求する制御指令を取得したか否かを判定する(St21)。
The driving characteristic server S1 in the driving
運転特性サーバS1は、ステップSt21の処理において、車両C1,…のそれぞれから初期登録を要求する制御指令を取得したと判定した場合(St21,YES)、制御指令に紐付けられた初期登録データの登録処理を実行する。なお、ここでいう初期登録データは、一例として、車両の車両IDと、運転者の免許証IDと、運転者の生体情報(ここでは、運転者の複数の顔画像であって、異なる3方向のそれぞれから撮像された3枚の顔画像)とを含むデータであるが、これに限定されないことは言うまでもない。 When the driving characteristic server S1 determines in the process of step St21 that the control command requesting initial registration has been acquired from each of the vehicles C1, . . . Execute the registration process. Note that the initial registration data referred to here is, for example, the vehicle ID of the vehicle, the driver's license ID, the driver's biometric information (here, a plurality of face images of the driver, which are displayed in three different directions). (three face images captured from each of the above), but needless to say, the present invention is not limited to this.
一方、運転特性サーバS1は、ステップSt21の処理において、車両C1,…のそれぞれから初期登録を要求する制御指令を取得していないと判定した場合(St21,NO)、図10に示す初期登録手順を終了する。 On the other hand, when the driving characteristics server S1 determines in the process of step St21 that the control command requesting initial registration has not been acquired from each of the vehicles C1, . exit.
運転特性サーバS1は、車両IDの登録を実行し(St22)、免許証IDの登録を実行し(St23)、顔画像の登録を実行する(St24)。運転特性サーバS1は、ステップSt22~ステップSt24のそれぞれの処理(つまり、初期登録)がすべて完了したか否かを判定する(St25)。 The driving characteristics server S1 executes registration of the vehicle ID (St22), registration of the driver's license ID (St23), and registration of the face image (St24). The driving characteristic server S1 determines whether or not all the processes (that is, initial registration) of steps St22 to St24 have been completed (St25).
運転特性サーバS1は、ステップSt25の処理において、ステップSt22~ステップSt24のそれぞれの処理(つまり、初期登録)がすべて完了したと判定した場合(St25,YES)、図10に示す初期登録手順を終了する。 When the driving characteristic server S1 determines in the process of step St25 that the processes of steps St22 to St24 (that is, the initial registration) are all completed (St25, YES), the initial registration procedure shown in FIG. 10 is terminated. do.
一方、運転特性サーバS1は、ステップSt25の処理において、ステップSt22~ステップSt24のそれぞれの処理(つまり、初期登録)がすべて完了していないと判定した場合(St25,NO)、ステップSt21の処理に移行し、未完了であるステップSt22~ステップSt24の処理に対応する初期登録手順を表示し、未完了であるステップSt22~ステップSt24に対応する処理のみを再度実行する。例えば、車両C1,…のそれぞれは、ステップSt22の処理が未完了である場合には、ステップSt22の処理に対応する初期登録手順を表示し、ステップSt22の処理である車両IDの登録処理を再度実行する。 On the other hand, when the driving characteristic server S1 determines in the process of step St25 that the processes of steps St22 to St24 (that is, the initial registration) are not all completed (St25, NO), the process of step St21 Then, the initial registration procedure corresponding to the incomplete processes of steps St22 to St24 is displayed, and only the incomplete processes of steps St22 to St24 are executed again. For example, each of the vehicles C1, . Execute.
次に、図11を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図11は、運転特性サーバS1における車両ID登録手順例を示すフローチャートである。具体的に、図11は、図10に示すステップSt22の処理を示すフローチャートである。 Next, referring to FIG. 11, an initial driver registration procedure executed by the driving characteristic server S1 will be described. FIG. 11 is a flow chart showing an example of a vehicle ID registration procedure in the driving characteristic server S1. Specifically, FIG. 11 is a flow chart showing the process of step St22 shown in FIG.
運転特性サーバS1は、車両C1,…のそれぞれから送信された車両IDを受信し、取得する(St221)。 The driving characteristic server S1 receives and acquires the vehicle ID transmitted from each of the vehicles C1, . . . (St221).
運転特性サーバS1は、取得された車両IDを解析し(St222)、初期登録される車両IDとして、解析された車両IDが有効であるか否かを判定する(St223)。例えば、運転特性サーバS1は、取得された車両IDが撮像画像である場合には、画像解析を実行し、車検証またはナンバープレートのいずれに基づく車両IDであるかを解析したり、取得された車両IDが運転者操作により入力された文字情報である場合には、文字情報が車検証またはナンバープレートに含まれるいずれの情報であるかを解析したりする。運転特性サーバS1は解析結果が、車両IDとして利用可能な情報であると判定した場合、車両IDが有効であると判定する。 The driving characteristic server S1 analyzes the acquired vehicle ID (St222), and determines whether or not the analyzed vehicle ID is valid as the vehicle ID to be initially registered (St223). For example, when the acquired vehicle ID is a captured image, the driving characteristic server S1 performs image analysis to analyze whether the vehicle ID is based on a vehicle inspection certificate or a license plate, or If the vehicle ID is character information input by the driver's operation, it is analyzed whether the character information is information contained in the vehicle inspection certificate or the license plate. When the driving characteristic server S1 determines that the analysis result is information that can be used as the vehicle ID, the driving characteristic server S1 determines that the vehicle ID is valid.
運転特性サーバS1は、ステップSt223の処理において、初期登録される車両IDとして、解析された車両IDが有効であると判定した場合(St223,YES)、新たな利用者IDを生成し、生成された利用者IDと車両IDとを紐付けて登録あるいは一時保存する(St224)。なお、ステップSt224の処理において、利用者IDの生成は必須でなく、省略されてよい。 When the driving characteristic server S1 determines in the process of step St223 that the analyzed vehicle ID is valid as the vehicle ID to be initially registered (St223, YES), it generates a new user ID. The obtained user ID and vehicle ID are linked and registered or temporarily stored (St224). In addition, in the processing of step St224, generation of the user ID is not essential and may be omitted.
一方、運転特性サーバS1は、ステップSt223の処理において、初期登録される車両IDとして、解析された車両IDが有効でないと判定した場合(St223,NO)、車両IDの再送を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St225)。 On the other hand, when the driving characteristic server S1 determines in the processing of step St223 that the analyzed vehicle ID is not valid as the vehicle ID to be initially registered (St223, NO), it issues a control command requesting retransmission of the vehicle ID. It is generated and transmitted (notified) to the vehicle via the network NW (St225).
運転特性サーバS1は、車両IDを登録した後、車両IDの登録完了を通知する制御指令を生成し、ネットワークNWを介して、車両に送信する(St226)。なお、ステップSt226の処理は、ステップSt234(図12参照)およびステップSt249(図13参照)のそれぞれの処理と同時に実行されてよい。 After registering the vehicle ID, the driving characteristics server S1 generates a control command notifying completion of registration of the vehicle ID, and transmits it to the vehicle via the network NW (St226). Note that the process of step St226 may be executed simultaneously with the processes of steps St234 (see FIG. 12) and step St249 (see FIG. 13).
次に、図12を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図12は、運転特性サーバS1における免許証ID登録手順例を示すフローチャートである。具体的に、図12は、図10に示すステップSt23の処理を示すフローチャートである。 Next, referring to FIG. 12, an initial driver registration procedure executed by the driving characteristic server S1 will be described. FIG. 12 is a flow chart showing an example of a license ID registration procedure in the driving characteristic server S1. Specifically, FIG. 12 is a flow chart showing the process of step St23 shown in FIG.
運転特性サーバS1は、車両C1,…のそれぞれから送信された運転者の免許証IDを受信し、取得する(St231)。 The driving characteristic server S1 receives and acquires the driver's license ID transmitted from each of the vehicles C1, . . . (St231).
運転特性サーバS1は、取得された免許証IDに対応する運転免許証の各種情報(例えば、運転免許証に記載された運転者の顔画像,氏名情報,住所情報,国籍情報,有効年月日情報,番号情報,種別情報等)を要求する制御指令を生成して、免許証サーバS2に送信する。運転特性サーバS1は、免許証サーバS2から送信された免許証IDに対応する運転免許証の各種情報を取得する(St232A)。なお、ステップSt232Aの処理は、車両C1,…のそれぞれから運転免許証に記載の顔画像を取得可能でない場合、あるいは取得された顔画像と運転特性テーブルTB1に登録済みの運転者の顔画像とが照合されない場合等に実行されてよい。 The driving characteristic server S1 stores various information of the driver's license corresponding to the acquired license ID (for example, the driver's face image, name information, address information, nationality information, valid date written on the driver's license, etc.) information, number information, type information, etc.) and transmits it to the license server S2. The driving characteristic server S1 acquires various information of the driver's license corresponding to the license ID transmitted from the license server S2 (St232A). Note that the process of step St232A is executed when the face image described in the driver's license cannot be acquired from each of the vehicles C1, . is not matched.
運転特性サーバS1は、取得された免許証IDが有効であるか否かを判定する(St232B)。具体的に、運転特性サーバS1は、取得された免許証IDが運転免許証の撮像画像である場合には、撮像画像から各種情報を読み取り可能であるか否か、あるいは文字認識により運転免許証が有効期限であるか否かを判定したり、取得された免許証IDに含まれる運転者の顔画像と運転特性テーブルTB1に登録済みの運転者の顔画像とを照合し、運転者を特定可能であるか否かを判定したりする。 The driving characteristic server S1 determines whether the obtained license ID is valid (St232B). Specifically, when the acquired license ID is a captured image of a driver's license, the driving characteristics server S1 determines whether or not various information can be read from the captured image, or determines whether the driver's license is the expiration date, and the driver's facial image included in the acquired license ID is compared with the facial image of the driver registered in the driving characteristic table TB1 to identify the driver. determine whether it is possible.
運転特性サーバS1は、ステップSt232Aの処理の後、またはステップSt232Bの処理において、取得された免許証IDが有効であると判定した場合(St232B,YES)、取得された免許証IDを登録する(St233)。なお、運転特性サーバS1は、運転特性テーブルTB1において既に登録済みの免許証IDであると判定した場合には、ステップSt233における免許証IDの登録処理を省略してよい。 After the processing of step St232A, or when determining that the acquired license ID is valid in the processing of step St232B (St232B, YES), the driving characteristic server S1 registers the acquired license ID ( St 233). If the driving characteristic server S1 determines that the driver's license ID has already been registered in the driving characteristic table TB1, the process of registering the license ID in step St233 may be omitted.
一方、運転特性サーバS1は、ステップSt232Bの処理において、取得された免許証IDが有効でないと判定した場合(St232B,NO)、免許証IDの再送を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St232C)。なお、運転特性サーバS1は、ステップSt232Aの処理において、免許証サーバS2から運転免許証の各種情報が取得不可である場合も同様に、ステップSt232Cの処理を実行してもよい。 On the other hand, when the driving characteristic server S1 determines in the processing of step St232B that the acquired license ID is not valid (St232B, NO), it generates a control command requesting retransmission of the license ID, and (St232C). Note that the driving characteristic server S1 may similarly execute the process of step St232C when various information on the driver's license cannot be obtained from the license server S2 in the process of step St232A.
運転特性サーバS1は、免許証IDを登録した後、免許証IDの登録完了を通知する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St234)。なお、ステップSt234の処理は、ステップSt226(図11参照)およびステップSt249(図13参照)のそれぞれの処理と同時に実行されてよい。 After registering the driver's license ID, the driving characteristics server S1 generates a control command for notifying the registration completion of the driver's license ID, and transmits (notifies) it to the vehicle via the network NW (St234). Note that the process of step St234 may be executed simultaneously with the processes of steps St226 (see FIG. 11) and step St249 (see FIG. 13).
次に、図13を参照して、運転特性サーバS1で実行される運転者の初期登録手順について説明する。図13は、運転特性サーバS1における顔画像登録手順例を示すフローチャートである。具体的に、図13は、図10に示すステップSt24の処理を示すフローチャートである。 Next, referring to FIG. 13, an initial driver registration procedure executed by the driving characteristic server S1 will be described. FIG. 13 is a flow chart showing an example of a facial image registration procedure in the driving characteristic server S1. Specifically, FIG. 13 is a flow chart showing the process of step St24 shown in FIG.
運転特性サーバS1は、車両C1,…のそれぞれから送信された運転免許証の撮像画像を受信し、取得する(St241)。また、運転特性サーバS1は、車両C1,…のそれぞれから送信された正面顔画像、左向き顔画像、および右向き顔画像のそれぞれ(生体情報の一例)を受信し、取得する(St242)。 The driving characteristic server S1 receives and acquires the captured images of the driver's license transmitted from each of the vehicles C1, . . . (St241). Further, the driving characteristic server S1 receives and acquires each of the front face image, the left-facing face image, and the right-facing face image (an example of biometric information) transmitted from each of the vehicles C1, . . . (St242).
運転特性サーバS1は、取得された運転免許証の撮像画像に映る運転者の顔画像と、正面顔画像との顔照合を実行して、運転免許証の撮像画像に映る運転者の顔画像と、取得された正面顔画像とが同一あるいは類似するか否か(つまり、同一人物であるか否か)を判定する(St243)。 The driving characteristic server S1 performs face matching between the driver's face image in the captured image of the acquired driver's license and the front face image, and compares the face image of the driver in the captured image of the driver's license with the front face image. , and the obtained front face image are the same or similar (that is, whether or not they are the same person) (St243).
運転特性サーバS1は、ステップSt243の処理において、運転免許証の撮像画像に映る運転者の顔画像と、取得された正面顔画像とが同一あるいは類似する(つまり、同一人物である)と判定した場合(St243,YES)、この正面顔画像と、左向き顔画像および右向き顔画像のそれぞれとを用いて、顔照合を実行する(St244)。 In the processing of step St243, the driving characteristic server S1 determines that the face image of the driver appearing in the captured image of the driver's license and the acquired front face image are the same or similar (that is, they are the same person). If so (St243, YES), this front face image and each of the left-facing face image and the right-facing face image are used to perform face matching (St244).
一方、運転特性サーバS1は、ステップSt243の処理において、運転免許証の撮像画像に映る運転者の顔画像と正面顔画像とが同一あるいは類似する(つまり、同一人物でない)と判定した場合(St243,NO)、運転免許証の撮像画像あるいは正面顔画像の撮像やり直し(つまり、再撮像)を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St245)。 On the other hand, in the process of step St243, the driving characteristic server S1 determines that the face image and the front face image of the driver appearing in the captured image of the driver's license are the same or similar (that is, they are not the same person) (St243 , NO), generates a control command requesting re-imaging (that is, re-imaging) of the captured image of the driver's license or the front face image, and transmits (notifies) the vehicle via the network NW (St245).
運転特性サーバS1は、正面顔画像に映る顔と、左向き顔画像および右向き顔画像のそれぞれに映る顔とが同一あるいは類似する(つまり、同一人物である)か否かを判定する(St246)。 The driving characteristic server S1 determines whether or not the face shown in the front face image and the faces shown in the left-facing face image and the right-facing face image are the same or similar (that is, they are the same person) (St246).
運転特性サーバS1は、ステップSt246の処理において、正面顔画像に映る顔と、左向き顔画像および右向き顔画像のそれぞれに映る顔とが同一あるいは類似する(つまり、同一人物である)と判定した場合(St246,YES)、ステップSt232Bの処理において、有効であると判定された免許証IDに、運転免許証の撮像画像と、正面顔画像、左向き顔画像、および右向き顔画像のそれぞれとを紐付けて記録する(St247)。 When the driving characteristic server S1 determines in the processing of step St246 that the face reflected in the front face image and the faces reflected in the left-facing face image and the right-facing face image are the same or similar (that is, they are the same person). (St246, YES), the captured image of the driver's license and each of the front face image, the left face image, and the right face image are linked to the license ID determined to be valid in the process of step St232B. is recorded (St247).
一方、運転特性サーバS1は、ステップSt246の処理において、正面顔画像に映る顔と、左向き顔画像および右向き顔画像のそれぞれに映る顔とが同一あるいは類似しない(つまり、同一人物でない)と判定した場合(St246,NO)、運転免許証の撮像画像、正面顔画像、左向き顔画像、および右向き顔画像のそれぞれの撮像やり直し(つまり、再撮像)を要求する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St248)。 On the other hand, in the processing of step St246, the driving characteristic server S1 determines that the face reflected in the front face image and the faces reflected in the left-facing face image and the right-facing face image are the same or not similar (that is, they are not the same person). If (St246, NO), a control command is generated to request re-imaging (i.e., re-imaging) of the captured image of the driver's license, the front face image, the left-facing face image, and the right-facing face image, and via the network NW. is transmitted (notified) to the vehicle (St248).
運転特性サーバS1は、生体情報の一例としての複数の顔画像のそれぞれを免許証IDに紐付けて登録した後、顔画像の登録完了を通知する制御指令を生成し、ネットワークNWを介して、車両に送信(通知)する(St249)。なお、ステップSt249の処理は、ステップSt226(図11参照)およびステップSt234(図12参照)のそれぞれの処理と同時に実行されてよい。 The driving characteristic server S1 registers each of a plurality of facial images as an example of biometric information in association with a driver's license ID, generates a control command for notifying completion of registration of the facial image, and, via the network NW, It transmits (notifies) to the vehicle (St249). Note that the process of step St249 may be executed simultaneously with the processes of steps St226 (see FIG. 11) and step St234 (see FIG. 12).
次に、図14を参照して、運転特性管理システム100により実行される運転者の運転特性データの収集手順について説明する。図14は、実施の形態1に係る運転特性管理システム100の運転者の運転特性データ収集手順例を示すシーケンス図である。なお、以降の説明では、運転者の生体情報として運転者の正面顔画像、左向き顔画像および右向き顔画像のそれぞれを用いる例について説明するが、これに限定されないことは言うまでもない。
Next, referring to FIG. 14, a procedure for collecting driving characteristic data of the driver executed by the driving
また、図14~図16のそれぞれを参照して説明する運転特性データの収集手順は、初期登録完了後、あるいは事前に初期登録済みの車両C1を運転者が運転する場合に実行される処理である。なお、運転特性データの収集手順は、他の車両でも同様である。 The procedure for collecting the driving characteristic data, which will be described with reference to FIGS. 14 to 16, is a process that is executed after the initial registration is completed or when the driver drives the vehicle C1 that has been initially registered in advance. be. The procedure for collecting driving characteristic data is the same for other vehicles.
運転者は、車両C1に乗車する(St301)。車両C1のECU16は、1以上あるいは2以上の運転者の乗車検知条件を満たすか否かに基づいて、運転者の乗車を検知する(St302)。ECU16は、運転者の乗車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aに出力するとともに、運転者の運転特性データのセンシング(取得)を開始する。カーナビゲーション装置12は、ECU16から出力された制御指令に基づいて、運転者の運転特性データのセンシング(取得)を開始する。
The driver gets on the vehicle C1 (St301). The
なお、運転特性データは、各種センサ(例えば車内カメラ13,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19あるいはGPSセンサ20等(図2参照))により取得され、カーナビゲーション装置12あるいはECU16に出力される。
The driving characteristic data is obtained from various sensors (for example, the in-
ECU16は、取得された運転者の運転特性データをカーナビゲーション装置12に出力する。カーナビゲーション装置12は、取得された1以上の運転特性データと車両IDとを紐付けて通信機器11に出力する(St304)。通信機器11は、紐付けられた1以上の運転特性データと車両IDとを、ネットワークNWを介して、運転特性サーバS1に送信させる(St305)。
The
運転特性サーバS1は、通信機器11から送信された運転特性データと車両IDとを受信して、一時保存する(St306)。 The driving characteristic server S1 receives and temporarily stores the driving characteristic data and the vehicle ID transmitted from the communication device 11 (St306).
また、車両C1は、車内カメラ13によって運転者の顔を撮像する(St307)。車内カメラ13は、撮像された顔画像をカーナビゲーション装置12に出力する。カーナビゲーション装置12は、車内カメラ13により撮像された1以上の顔画像と、車両IDとを紐付けて、通信機器11に出力する(St308)。通信機器11は、紐付けられた1以上の運転者の顔画像と車両IDとを、ネットワークNWを介して、運転特性サーバS1に送信させる(St309)。
In addition, the vehicle C1 captures an image of the driver's face with the in-vehicle camera 13 (St307). The in-
なお、ステップSt307の処理で撮像される顔画像は、異なる2以上の方向を向いている運転者の顔が撮像された複数の顔画像(例えば、運転者の正面顔画像、左向き顔画像および右向き顔画像のうちいずれか2枚以上の顔画像)であることが望ましいが、少なくとも1枚の正面顔画像であればよい。また、顔画像に映る運転者の顔の向きの判定は、運転特性サーバS1により実行されてよい。 Note that the face images captured in the process of step St307 include a plurality of face images (for example, the driver's front face image, left-facing face image, and right-facing It is preferable that the face image is two or more of the face images, but at least one front face image is sufficient. Further, determination of the direction of the driver's face reflected in the face image may be performed by the driving characteristic server S1.
運転特性サーバS1は、通信機器11から送信された車両IDと運転者の顔画像とを受信して、取得する(St310)。運転特性サーバS1は、取得された運転者の顔画像の顔照合を実行し、運転特性テーブルTB1に登録済みの複数の運転者の顔画像(例えば、運転免許証の撮像画像に映る顔画像)のうち、取得された運転者の顔画像に同一あるいは類似する顔画像があるか否かを判定する(St311)。 The driving characteristic server S1 receives and acquires the vehicle ID and the face image of the driver transmitted from the communication device 11 (St310). The driving characteristic server S1 performs face matching on the obtained facial images of the drivers, and compares the facial images of a plurality of drivers registered in the driving characteristic table TB1 (for example, the facial images appearing in the captured image of the driver's license). Among them, it is determined whether or not there is a face image identical or similar to the obtained face image of the driver (St311).
運転特性サーバS1は、運転特性テーブルTB1に登録済みの複数の運転者の顔画像のうち、取得された運転者の顔画像に同一あるいは類似する顔画像に対応する運転者を、取得された顔画像に対応する運転者であると特定する。また、運転特性サーバS1は、一時保存された運転特性データのうち、運転者の顔画像に紐付けられた車両IDと同一の車両IDに紐付けられた運転特性データを抽出する。運転特性サーバS1は、抽出された運転特性データを、特定された運転者の免許証IDに紐付けて記録(保存)する(St312)。 The driving characteristic server S1 selects the driver corresponding to the facial image identical or similar to the obtained facial image of the driver among the facial images of the plurality of drivers registered in the driving characteristic table TB1. Identify the driver corresponding to the image. Further, the driving characteristic server S1 extracts the driving characteristic data associated with the same vehicle ID as the vehicle ID associated with the facial image of the driver from among the temporarily stored driving characteristic data. The driving characteristic server S1 records (stores) the extracted driving characteristic data in association with the identified driver's license ID (St312).
運転者は、運転終了後、降車する(St313)。車両C1のECU16は、1以上あるいは2以上の運転者の降車検知条件を満たすか否かに基づいて、運転者の降車を検知する(St314)。ECU16は、運転者の降車を検知した旨の制御指令を生成して、カーナビゲーション装置12のプロセッサ12Aに出力するとともに、運転者の運転特性データのセンシング(取得)を終了する。カーナビゲーション装置12は、ECU16から出力された制御指令に基づいて、運転者の運転特性データのセンシング(取得)を終了する。
After finishing driving, the driver gets off the vehicle (St313). The
通信機器11は、ステップSt302からステップSt314までの期間T1に亘って、カーナビゲーション装置12またはECU16により取得された運転特性データを運転特性サーバS1に送信し続ける。運転特性サーバS1は、通信機器11から期間T1の間に取得された運転特性データを、運転者の免許証IDに紐付けて、運転特性テーブルTB1に記録し続ける。
The
免許証サーバS2は、無線端末装置P1から送信された所定の運転者の運転評価を要求する制御指令を取得した場合(St315)、所定の運転者の運転評価を要求する制御指令と免許証IDとを紐付けて、運転特性サーバS1に送信する(St316)。 When the license server S2 acquires the control command requesting the driving evaluation of the predetermined driver transmitted from the wireless terminal device P1 (St315), the license server S2 receives the control command requesting the driving evaluation of the predetermined driver and the license ID. are linked and transmitted to the driving characteristic server S1 (St316).
運転特性サーバS1は、免許証サーバS2から送信された制御指令と免許証IDとを取得する。運転特性サーバS1は、取得された制御指令に基づいて、運転特性テーブルTB1に登録済みの複数の運転者の免許証IDと、取得された所定の運転者の免許証IDとを照合する。運転特性サーバS1は、照合された免許証IDに紐付けられた運転特性データを用いて、所定の運転者の運転評価を実行する(St317)。運転特性サーバS1は、運転評価結果を免許証サーバS2に送信する(St318)。 The driving characteristic server S1 acquires the control command and license ID transmitted from the license server S2. The driving characteristic server S1 collates the license IDs of the plurality of drivers registered in the driving characteristic table TB1 with the acquired predetermined driver's license ID based on the acquired control command. The driving characteristic server S1 uses the driving characteristic data linked to the collated license ID to perform the driving evaluation of the predetermined driver (St317). The driving characteristic server S1 transmits the driving evaluation result to the license server S2 (St318).
免許証サーバS2は、運転特性サーバS1から送信された運転評価結果を取得する(St319)。免許証サーバS2は、免許証テーブルTB2に登録された免許証IDに紐付けて記録するとともに、無線端末装置P1に送信する。なお、無線端末装置P1は、カーナビゲーション装置12により実現されてもよい。なお、所定の運転者の運転評価処理は、免許証サーバS2により実行されてよい。このような場合、免許証サーバS2は、運転特性サーバS1から運転評価に用いられる運転特性データを取得する。
The license server S2 acquires the driving evaluation result transmitted from the driving characteristic server S1 (St319). The license server S2 stores the information in association with the license ID registered in the license table TB2, and transmits it to the wireless terminal device P1. Note that the wireless terminal device P1 may be implemented by the
次に、図15を参照して、車両C1,…のそれぞれで実行される運転者の運転特性データ取得手順について説明する。図15は、車両C1,…における運転者の運転特性データ取得手順例を示すフローチャートである。 Next, with reference to FIG. 15, a driver's driving characteristic data acquisition procedure executed in each of the vehicles C1, . . . will be described. FIG. 15 is a flow chart showing an example of a procedure for acquiring the driving characteristic data of the drivers of the vehicles C1, . . .
車両C1,…のそれぞれは、運転席への運転者の乗車を検知したか否かを判定する(St31)。車両C1,…のそれぞれは、ステップSt31の処理において、運転者の乗車を検知したと判定した場合(St31,YES)、各種センサによる運転者の運転特性データの取得を開始する(St32)。 Each of the vehicles C1, . In the process of step St31, each of the vehicles C1, .
一方、車両C1,…のそれぞれは、ステップSt31の処理において、運転者の乗車を検知していないと判定した場合(St31,NO)、ステップSt31の処理に戻り、運転席への運転者の乗車検知を継続する。 On the other hand, each of the vehicles C1, . Continue detection.
車両C1,…のそれぞれは、車内カメラ13により運転者の顔を撮像する(St33)。なお、ここで撮像される顔画像は、正面顔画像F21,右向き顔画像F22および左向き顔画像F23のそれぞれであることが望ましいが、これに限定されなくてもよい。 Each of the vehicles C1, . It is desirable that the face images captured here are the front face image F21, the right-facing face image F22, and the left-facing face image F23, but are not limited thereto.
車両C1,…のそれぞれは、自車両の車両IDと、各種センサにより取得された1以上の運転特性データと、正面顔画像F21,右向き顔画像F22および左向き顔画像F23のそれぞれとを紐付けて、運転特性サーバS1に送信する(St34)。 Each of the vehicles C1, . , to the driving characteristic server S1 (St34).
車両C1,…のそれぞれは、運転席からの運転者の降車を検知したか否かを判定する(St35)。車両C1,…のそれぞれは、ステップSt35の処理において、運転者の降車を検知したと判定した場合(St35,YES)、各種センサによる運転者の運転特性データの取得を終了して、図15に示す運転者の運転特性データ取得手順を終了する。なお、車両C1,…のそれぞれは、運転者の降車を検知した場合、運転者による運転が終了した旨を通知する制御指令を生成し、生成された制御指令と車両IDとを紐付けて、運転特性サーバS1に送信してもよい。 Each of the vehicles C1, . When each of the vehicles C1, . The procedure for acquiring the driver's driving characteristic data shown is terminated. Each of the vehicles C1, . It may be transmitted to the driving characteristic server S1.
一方、車両C1,…のそれぞれは、ステップSt35の処理において、運転者の降車を検知していないと判定した場合(St35,NO)、ステップSt21の処理に戻り、各種センサによる運転者の運転特性データの取得を継続する。なお、ステップSt33の処理は、運転特性サーバS1による運転者の特定処理(ステップSt44)の完了後、省略されてもよい。 On the other hand, when each of the vehicles C1, . Continue to acquire data. Note that the process of step St33 may be omitted after the driver identification process (step St44) by the driving characteristic server S1 is completed.
次に、図16を参照して、運転特性サーバS1で実行される運転者の運転特性データ収集手順について説明する。図16は、運転特性サーバS1における運転者の運転特性データ収集手順例を示すフローチャートである。 Next, referring to FIG. 16, a procedure for collecting driving characteristic data of the driver executed by the driving characteristic server S1 will be described. FIG. 16 is a flowchart showing an example of a procedure for collecting driving characteristic data of a driver in the driving characteristic server S1.
運転特性サーバS1は、車両C1,…のそれぞれから送信された車両IDと、1以上の運転特性データと、1枚以上の顔画像とを受信したか否かを判定する(St41)。 The driving characteristic server S1 determines whether or not it has received the vehicle ID, one or more driving characteristic data, and one or more face images transmitted from each of the vehicles C1, . . . (St41).
運転特性サーバS1は、ステップSt41の処理において、車両C1,…のそれぞれから送信された車両IDと、1以上の運転特性データと、1枚以上の顔画像とを受信したと判定した場合(St41,YES)、運転特性データを車両IDごとに、メモリ43に一時保存する(St42)。
If the driving characteristic server S1 determines in the process of step St41 that it has received the vehicle ID, the one or more driving characteristic data, and the one or more facial images transmitted from each of the vehicles C1, . . . , YES), the driving characteristic data is temporarily stored in the
一方、運転特性サーバS1は、ステップSt41の処理において、車両C1,…のそれぞれから送信された車両IDと、1以上の運転特性データと、1枚以上の顔画像とを受信していないと判定した場合(St41,NO)、ステップSt41の処理に戻る。 On the other hand, in the process of step St41, the driving characteristic server S1 determines that it has not received the vehicle ID, the one or more driving characteristic data, and the one or more facial images transmitted from each of the vehicles C1, . . . If so (St41, NO), the process returns to step St41.
運転特性サーバS1は、取得された運転者の顔画像の顔照合を実行する(St43)。運転特性サーバS1は、運転特性テーブルTB1に登録済みの複数の運転者の顔画像(例えば、運転免許証の撮像画像に映る顔画像)のうち、取得された運転者の顔画像に同一あるいは類似する顔画像があるか否かに基づいて、取得された運転者の顔画像に同一あるいは類似する顔画像に紐付けられた運転者の免許証IDを特定する(St44)。 The driving characteristic server S1 performs face matching on the acquired face image of the driver (St43). The driving characteristic server S1 selects a face image that is the same as or similar to the acquired driver's face image among the plurality of driver's face images (for example, the face image shown in the captured image of the driver's license) registered in the driving characteristic table TB1. The driver's license ID linked to the facial image identical or similar to the acquired facial image of the driver is specified based on whether or not there is a facial image to be acquired (St44).
なお、ここで運転特性サーバS1は、ステップSt43の処理の前に、車両C1,…のそれぞれから送信された車両IDと、運転特性テーブルTB1に登録済みの複数の車両IDのそれぞれとを照合し、照合された車両IDに紐付けられた1以上の運転者の免許証IDを抽出してもよい。これにより、運転特性サーバS1は、ステップSt44の処理において、運転特性テーブルTB1に登録済みであって、取得された運転者の顔画像と照合される運転者の顔画像の枚数を減少させ、顔照合の照合精度を向上させることができる。 Here, before the process of step St43, the driving characteristic server S1 collates the vehicle IDs transmitted from each of the vehicles C1, . , one or more driver's license IDs associated with the matched vehicle ID may be extracted. As a result, in the process of step St44, the driving characteristic server S1 reduces the number of facial images of the driver that have been registered in the driving characteristic table TB1 and are compared with the acquired facial image of the driver. The accuracy of matching can be improved.
運転特性サーバS1は、ステップSt44の処理において、取得された運転者の顔画像に同一あるいは類似する顔画像があると判定した場合、この顔画像に紐付けられた運転者の免許証IDに基づいて、取得された顔画像に対応する運転者を特定したと判定する(St44,YES)。運転特性サーバS1は、特定された免許証IDに、取得された運転特性データを紐付けて運転特性テーブルTB1に記録(蓄積)する(St45)。 When the driving characteristic server S1 determines in the process of step St44 that there is a facial image identical or similar to the obtained facial image of the driver, the driving characteristic server S1 determines the driver's license ID linked to the facial image. Then, it is determined that the driver corresponding to the obtained face image has been identified (St44, YES). The driving characteristic server S1 associates the acquired driving characteristic data with the specified license ID and records (accumulates) it in the driving characteristic table TB1 (St45).
一方、運転特性サーバS1は、ステップSt44の処理において、取得された運転者の顔画像に同一あるいは類似する顔画像がないと判定した場合、この顔画像に紐付けられた運転者の免許証IDに基づいて、取得された顔画像に対応する運転者を特定できないと判定する(St44,NO)。運転特性サーバS1は、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したか否かを判定する(St46)。 On the other hand, when the driving characteristics server S1 determines in the process of step St44 that there is no face image identical or similar to the acquired face image of the driver, the driver's license ID linked to this face image (St44, NO). The driving characteristic server S1 determines whether or not it has received a control command for notifying the end of driving from each of the vehicles C1, . . . (St46).
運転特性サーバS1は、ステップSt46の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したと判定した場合(St46,YES)、取得された顔画像と、1以上の運転特性データとを紐付けて、車両IDごとに一時保存する(St47A)。運転特性サーバS1は、同日あるいは後日、再度、新たに取得された顔画像を用いて、ステップSt44の処理を実行する。運転特性サーバS1は、運転者の免許証IDが特定されたと判定した場合、同一の車両IDが紐付けられ、一時保存された運転特性データを、特定された免許証IDに紐付けて記録(蓄積)する(St47A)。これにより、運転特性サーバS1は、免許証IDの初期登録が完了していない場合であっても、一時保存された運転特性データを蓄積できる。 When the driving characteristic server S1 determines in the process of step St46 that it has received a control command to notify the end of driving from each of the vehicles C1, . , and temporarily stored for each vehicle ID (St47A). The driving characteristic server S1 executes the process of step St44 again on the same day or at a later date using the newly acquired face image. When the driving characteristic server S1 determines that the driver's license ID is identified, the driving characteristic data that is associated with the same vehicle ID and is temporarily stored is linked to the identified license ID and recorded ( accumulation) (St47A). As a result, the driving characteristic server S1 can accumulate the temporarily stored driving characteristic data even if the initial registration of the driver's license ID has not been completed.
また、運転特性サーバS1は、ステップSt46の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したと判定した場合(St46,YES)、同一の車両IDに紐付けられた運転特性データを破棄(削除)する(St47B)。 Further, when the driving characteristic server S1 determines in the process of step St46 that it has received a control command to notify the end of driving from each of the vehicles C1, . . . The acquired driving characteristic data is discarded (deleted) (St47B).
運転特性サーバS1は、車両C1,…のそれぞれから免許証IDが特定済みの車両IDに紐付けられた1以上の運転特性データと、1枚以上の顔画像とを受信したか否かを判定する(St48)。 The driving characteristic server S1 determines whether or not it has received one or more driving characteristic data linked to the vehicle ID whose license ID has been identified and one or more face images from each of the vehicles C1, . . . (St48).
運転特性サーバS1は、ステップSt48の処理において、免許証IDが特定済みの車両IDに紐付けられた1以上の運転特性データと、1枚以上の顔画像とを受信したと判定した場合(St48,YES)、特定されている免許証IDに取得された運転特性データを紐付けて運転特性テーブルTB1に記録(蓄積)する(St45)。 When the driving characteristic server S1 determines in the process of step St48 that it has received one or more driving characteristic data linked to the vehicle ID whose license ID has been specified and one or more face images (St48 , YES), the acquired driving characteristic data is associated with the identified license ID and recorded (accumulated) in the driving characteristic table TB1 (St45).
一方、運転特性サーバS1は、ステップSt48の処理において、免許証IDが特定済みの車両IDに紐付けられた1以上の運転特性データと、1枚以上の顔画像とを受信しないと判定した場合(St48,NO)、運転特性サーバS1は、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したか否かを判定する(St49)。 On the other hand, when the driving characteristic server S1 determines in the process of step St48 that it has not received one or more driving characteristic data linked to the vehicle ID whose license ID has been identified and one or more face images. (St48, NO), the driving characteristics server S1 determines whether or not it has received a control command to notify the end of driving from each of the vehicles C1, . . . (St49).
運転特性サーバS1は、ステップSt49の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信したと判定した場合(St49,YES)、図16に示す運転者の運転特性データ収集手順を終了する。 If the driving characteristic server S1 determines in the process of step St49 that it has received a control command to notify the end of driving from each of the vehicles C1, . . . End the data collection procedure.
一方、運転特性サーバS1は、ステップSt49の処理において、車両C1,…のそれぞれから運転終了を通知する旨の制御指令を受信していないと判定した場合(St49,NO)、ステップSt48の処理に戻る。 On the other hand, when the driving characteristic server S1 determines in the process of step St49 that it has not received a control command to notify the end of driving from each of the vehicles C1, . . . return.
以上により、実施の形態1に係る1以上のコンピュータの一例である運転特性サーバS1により実行される運転特性データの管理方法は、複数の運転者の生体情報(生体情報の一例であって、運転特性テーブルTB1に登録された生体情報)と、運転者の免許証IDとを紐付けて登録し、車両C1,…を運転する運転者の生体情報と、運転者の運転特性を示す運転特性データとを取得し、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報があると判定した場合、同一あるいは類似する生体情報に紐付けられた免許証IDと運転特性データとを紐付けて記録する。 As described above, the method of managing driving characteristic data executed by the driving characteristic server S1, which is an example of one or more computers according to the first embodiment, includes the biological information of a plurality of drivers (an example of The biological information registered in the characteristic table TB1) and the driver's license ID are linked and registered, and the biological information of the driver who drives the vehicle C1, . and when it is determined that there is biometric information identical or similar to the biometric information (biological information transmitted from each of the vehicles C1, . . . ) among the registered biometric information of the drivers The driver's license ID and the driving characteristic data linked to the biometric information are linked and recorded.
これにより、実施の形態1に係る運転特性サーバS1は、特定された免許証IDに、車両C1,…のそれぞれから送信された運転者の運転特性データを紐付けて記録できるため、運転者が異なる複数の車両を運転する場合であっても、運転者の運転特性データをより効率的に管理できる。したがって、運転者が高齢であって、運転免許証の返納要否の判断を行うための運転評価に用いられる運転特性データの収集および管理(記録)において、運転特性サーバS1は、免許証IDに対応する高齢運転者の運転操作を客観的に評価するための運転特性データをより効果的に収集および管理(記録)できる。
As a result, the driving characteristic server S1 according to
また、以上により、実施の形態1に係る運転特性サーバS1は、生体情報と、運転特性データと、車両C1,…のそれぞれを識別可能な車両ID(車両識別情報の一例)とをさらに取得し、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報があると判定した場合、同一あるいは類似する生体情報に紐付けられた免許証IDと、運転特性データと、車両IDとを紐付けて記録する。これにより、実施の形態1に係る運転特性サーバS1は、運転特性データが取得された車両を識別可能にし、免許証IDに対応する高齢運転者の車両ごとの運転操作を客観的に評価するための運転特性データをより効果的に収集および管理(記録)できる。 Further, as described above, the driving characteristic server S1 according to the first embodiment further acquires the biological information, the driving characteristic data, and the vehicle ID (an example of the vehicle identification information) that can identify each of the vehicles C1, . . . , when it is determined that there is the same or similar biometric information among the registered biometric information of the plurality of drivers (the biometric information transmitted from each of the vehicles C1, . . . ), the same or similar biometric information The linked license ID, driving characteristic data, and vehicle ID are linked and recorded. As a result, the driving characteristic server S1 according to the first embodiment makes it possible to identify the vehicle for which the driving characteristic data is acquired, and objectively evaluates the driving operation of each vehicle of the elderly driver corresponding to the driver's license ID. driving characteristic data can be collected and managed (recorded) more effectively.
また、以上により、実施の形態1に係る運転特性サーバS1は、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データと車両IDとを紐付けて一時保存する。これにより、実施の形態1に係る運転特性サーバS1は、生体情報を用いた運転者の特定できない場合であっても、車両C1,…のそれぞれから送信された運転特性データと車両IDとを紐付けることにより、運転者が特定されるまでの間、運転特性データを一時保存できる。
In addition, as described above, the driving characteristic server S1 according to the first embodiment has the same or similar biological information among the plurality of registered drivers' biological information (biological information transmitted from each of the vehicles C1, . . . ). If it is determined that there is no biometric information, the driving characteristic data and the vehicle ID are associated and temporarily stored. As a result, the driving characteristic server S1 according to
また、以上により、実施の形態1に係る運転特性サーバS1は、車両C1,…の運転終了情報をさらに取得し、運転終了情報を取得したタイミングで、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データと車両IDとを紐付けて一時保存する。これにより、実施の形態1に係る運転特性サーバS1は、運転者による運転が終了したタイミングで、生体情報を用いた運転者の特定が完了しない場合であっても、車両C1,…のそれぞれから送信された運転特性データと車両IDとを紐付けることにより、運転者が特定されるまでの間、運転特性データを一時保存できる。
Further, as described above, the driving characteristic server S1 according to the first embodiment further acquires the driving end information of the vehicles C1, . . . If it is determined that there is no identical or similar biological information among the biological information (biological information transmitted from each of the vehicles C1, . . . ), the driving characteristic data and the vehicle ID are associated and temporarily stored. As a result, the driving characteristic server S1 according to
また、以上により、実施の形態1に係る運転特性サーバS1は、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、車両を運転する運転者の新たな生体情報(車両C1,…のそれぞれから送信された新たな生体情報)を取得し、登録された複数の運転者の生体情報のうち新たな生体情報に同一あるいは類似する生体情報があると判定した場合、同一あるいは類似する生体情報に紐付けられた免許証IDと、一時保存された運転特性データと車両IDとを紐付けて記録する。これにより、実施の形態1に係る運転特性サーバS1は、運転者を特定するまでの間、車両C1,…のそれぞれから運転者の新たな生体情報を取得し、取得された新たな生体情報に基づいて、運転者の特定処理を繰り返し実行できる。したがって、運転特性サーバS1は、車両C1,…のそれぞれから送信された運転特性データに対応する運転者を特定したタイミングで、特定された運転者の免許証IDと、一時保存された運転特性サーバおよび車両IDとを紐付けて記録できる。
In addition, as described above, the driving characteristic server S1 according to the first embodiment has the same or similar biological information among the plurality of registered drivers' biological information (biological information transmitted from each of the vehicles C1, . . . ). If it is determined that there is no biometric information, new biometric information of the driver driving the vehicle (new biometric information transmitted from each of the vehicles C1, . If it is determined that the new biometric information has the same or similar biometric information, the license ID linked to the same or similar biometric information, the temporarily stored driving characteristic data and the vehicle ID are linked. to record. As a result, the driving characteristic server S1 according to
また、以上により、実施の形態1に係る運転特性サーバS1は、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データを削除する。これにより、実施の形態1に係る運転特性サーバS1は、運転者が特定不可であると判定した運転特性データをメモリ33に記録しないため、メモリ33のメモリ不足の発生をより効果的に抑制できる。
In addition, as described above, the driving characteristic server S1 according to the first embodiment has the same or similar biological information among the plurality of registered drivers' biological information (biological information transmitted from each of the vehicles C1, . . . ). If it is determined that there is no biological information, the driving characteristic data is deleted. As a result, the driving characteristic server S1 according to the first embodiment does not record in the
また、以上により、実施の形態1に係る運転特性サーバS1は、車両C1,…の運転終了情報をさらに取得し、運転終了情報を取得したタイミングで、登録された複数の運転者の生体情報のうち生体情報(車両C1,…のそれぞれから送信された生体情報)に同一あるいは類似する生体情報がないと判定した場合、運転特性データを削除する。これにより、実施の形態1に係る運転特性サーバS1は、運転者による運転が終了したタイミングで運転者が特定不可であると判定した運転特性データをメモリ33に記録しないため、メモリ33のメモリ不足の発生をより効果的に抑制できる。
Further, as described above, the driving characteristic server S1 according to the first embodiment further acquires the driving end information of the vehicles C1, . . . If it is determined that there is no identical or similar biological information among the biological information (biological information transmitted from each of the vehicles C1, . . . ), the driving characteristic data is deleted. As a result, the driving characteristic server S1 according to
また、以上により、実施の形態1に係る運転特性サーバS1は、運転者の生体情報と、生体情報に対応する運転者の免許証IDとを取得し、生体情報と免許証IDに含まれる運転者の顔画像とが照合すると判定した場合、生体情報と免許証IDとを紐付けて登録する。これにより、実施の形態1に係る運転特性サーバS1は、車両C1…のそれぞれから送信された運転者の生体情報(例えば、顔画像,虹彩等)と、免許証IDに含まれる運転者の顔画像との照合結果に基づいて、新たな運転者の免許証IDを登録することで、他者によるなりすまし行為をより効果的に抑制できる。
As described above, the driving characteristic server S1 according to
また、以上により、実施の形態1に係る運転特性サーバS1に登録された生体情報(登録生体情報)は、複数の運転者の顔画像である。また、生体情報(車両C1,…のそれぞれから送信された生体情報)は、車両を運転する運転者の顔画像である。これにより、実施の形態1に係る運転特性サーバS1は、車両C1,…のそれぞれにより撮像され、送信された運転者の顔画像と、事前に運転特性テーブルTB1に登録済みの複数の運転者の顔画像とを顔照合することで、運転者を特定できる。また、生体情報として顔画像を用いることで、車両C1,…のそれぞれは、運転者操作なしに車内カメラ13を用いて運転中の運転者を撮像し、撮像された運転者の顔画像を運転特性サーバS1に送信できる。したがって、運転特性サーバS1は、車両C1,…のそれぞれに繰り返し運転者の顔画像の送信の要求処理と、送信された顔画像を用いた顔照合処理とを、運転者が特定されるまでの間、繰り返し実行できる。
Further, as described above, the biometric information (registered biometric information) registered in the driving characteristic server S1 according to
また、以上により、実施の形態1に係る運転特性サーバS1は、運転者の顔が正面(第1の方向の一例)を向いている正面顔画像(第1登録顔画像の一例)と、運転者の顔が正面と異なる右向きまたは左向き(第2の方向の一例)を向いている右向き顔画像または左向き顔画像(第2登録顔画像の一例)と、免許証IDとを紐付けて登録し、車両C1,…を運転する運転者の顔が正面を向いている正面顔画像(第1顔画像の一例)と右向きまたは左向きを向いている右向き顔画像(第2顔画像の一例)または左向き顔画像(第2顔画像の一例)と、運転特性データとを取得し、登録された複数の運転者の正面顔画像(第1登録顔画像の一例)のうち車両C1,…から送信された正面顔画像に同一あるいは類似する正面顔画像と、登録された複数の運転者の右向き顔画像または左向き顔画像(第2登録顔画像の一例)のうち車両C1,…から送信された右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像とをそれぞれ照合し、車両C1,…から送信された正面顔画像に同一あるいは類似する正面顔画像があり、かつ、車両C1,…から送信された右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像があると判定した場合、登録された同一あるいは類似する正面顔画像、および右向き顔画像または左向き顔画像に紐付けられた免許証IDと、運転特性データとを紐付けて記録する。これにより、実施の形態1に係る運転特性サーバS1は、車両C1,…のそれぞれにより撮像され、送信された運転者の正面顔画像と、事前に運転特性テーブルTB1に登録済みの複数の運転者の正面顔画像とを顔照合することで、運転者を特定できる。また、運転特性サーバS1は、車両C1,…のそれぞれに繰り返し運転者の正面顔画像の送信の要求処理と、送信された正面顔画像を用いた顔照合処理とを、運転者が特定されるまでの間、繰り返し実行できる。
In addition, as described above, the driving characteristic server S1 according to
また、以上により、実施の形態1に係る運転特性サーバS1は、車両C1,…から送信された正面顔画像に同一あるいは類似する正面顔画像がないと判定した場合には、車両C1,…から新たな正面顔画像を取得し、登録された複数の運転者の正面顔画像のうち、新たな正面顔画像に同一あるいは類似する正面顔画像があるか否かを再度判定する。運転特性サーバS1は、車両C1,…から送信された右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像がないと判定した場合には、車両C1,…から送信された新たな右向き顔画像または左向き顔画像を取得し、登録された複数の運転者の右向き顔画像または左向き顔画像のうち、新たな右向き顔画像または左向き顔画像に同一あるいは類似する右向き顔画像または左向き顔画像があるか否かを再度判定する。これにより、実施の形態1に係る運転特性サーバS1は、車両C1,…のそれぞれにより撮像され、送信された運転者の右向き顔画像または左向き顔画像と、事前に運転特性テーブルTB1に登録済みの複数の運転者の右向き顔画像または左向き顔画像とを顔照合することで、運転者を特定できる。また、運転特性サーバS1は、車両C1,…のそれぞれに繰り返し運転者の右向き顔画像または左向き顔画像の送信の要求処理と、送信された右向き顔画像または左向き顔画像を用いた顔照合処理とを、運転者が特定されるまでの間、繰り返し実行できる。さらに、実施の形態1に係る運転特性サーバS1は、正面顔画像を用いた顔照合だけでなく、右向き顔画像あるいは左向き顔画像を用いた顔照合をさらに実行することで、他者による運転者のなりすまし行為をより効果的に抑制できる。
Further, as described above, when the driving characteristic server S1 according to
以上により、実施の形態1に係るカーナビゲーション装置10は、車両C1,…に搭載された車載器であって、運転特性サーバS1(外部装置の一例)との間でデータ通信を行う通信機器11(通信部の一例)と、車両C1,…を運転する運転者の生体情報を取得する車内カメラ13(第1取得部の一例)と、運転者の運転特性を示す運転特性データを取得するジャイロセンサ14あるいは各種センサ(第2取得部の一例)と、生体情報と運転特性データとを紐付けて出力するプロセッサ12A(制御部の一例)と、を備える。プロセッサ12Aは、紐付けられた生体情報と運転特性データとを通信機器11に出力して、運転特性サーバS1に送信させる。なお、ここでいう各種センサは、例えば車内カメラ13,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19あるいはGPSセンサ20等(図2参照)である。
As described above, the
これにより、実施の形態1に係るカーナビゲーション装置10は、運転者を特定するための生体情報と、運転評価に用いられる運転特性データとを取得し、取得された生体情報と運転特性データとを紐付けて、運転特性サーバS1に送信するため、運転特性サーバS1による運転者ごとの運転特性データの管理をより効果的に収集および管理(記録)可能に支援できる。
As a result, the
また、以上により、実施の形態1に係るカーナビゲーション装置10は、車両C1,…を識別可能な車両ID(車両識別情報の一例)を記録するメモリ12B(記録部の一例)、をさらに備える。プロセッサ12Aは、取得された生体情報と運転特性データと車両IDとを紐付けて通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者を特定するための生体情報と、運転評価に用いられる運転特性データと、車両IDとを取得し、取得された生体情報と運転特性データと、車両IDとを紐付けて、運転特性サーバS1に送信するため、1台の車両C1,…が複数の運転者により運転される場合であっても、運転特性サーバS1による運転者ごとの運転特性データの管理をより効果的に収集および管理(記録)可能に支援できる。
As described above, the
また、以上により、実施の形態1に係るカーナビゲーション装置10は、車両C1,…への運転者の乗車情報または降車情報を取得するプロセッサ12A(第3取得部の一例)、をさらに備える。プロセッサ12Aは、運転者の乗車情報が取得されたタイミングから車内カメラ13に生体情報の取得と、ジャイロセンサ14または各種センサによる運転特性データの取得とを開始させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者の乗車情報が取得されたタイミング(つまり、運転者の乗車が検知されたタイミング)から自動で生体情報の取得処理と、運転特性データの取得処理とを開始できる。したがって、カーナビゲーション装置10は、運転者操作なしに運転特性データの取得を開始できるため、運転者による運転特性データの取得開始のための操作忘れ等に起因する運転特性データの取得漏れを抑制できる。
As described above, the
また、以上により、実施の形態1に係るカーナビゲーション装置10におけるプロセッサ12Aは、運転者の降車情報が取得されたタイミングで車内カメラ13による生体情報の取得と、ジャイロセンサ14または各種センサによる運転特性データの取得とを終了させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者の降車情報が取得されたタイミング(つまり、運転者の降車が検知されたタイミング)で、自動で生体情報の取得処理と、運転特性データの取得処理とを終了できる。
As described above, the
また、以上により、実施の形態1に係るカーナビゲーション装置10における車内カメラ13は、運転者の顔を撮像するカメラである。生体情報は、車内カメラ13により撮像された運転者の顔画像である。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者が運転中であっても車内カメラ13により運転者の顔を撮像でき、撮像された撮像画像を生体情報として取得できる。
As described above, the in-
また、以上により、実施の形態1に係るカーナビゲーション装置10におけるプロセッサ12Aは、車内カメラ13により撮像された顔画像に映る運転者の顔の向きが所定の向き(例えば、正面、右向きあるいは左向き等)であると判定した場合、顔画像と運転特性データとを紐付けて、通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、顔画像を選定でき、運転特性サーバS1への顔画像の送信に要するデータ通信量の増加をより効果的に抑制できる。
As described above, the
また、以上により、実施の形態1に係るカーナビゲーション装置10における通信機器11は、運転特性サーバS1から顔画像に映る運転者の顔の向きの指定を受け付ける。プロセッサ12Aは、顔画像に映る運転者の顔の向きが指定された運転者の顔の向きであると判定した場合、顔画像と運転特性データとを紐付けて、通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、顔照合に用いられる顔画像を選定でき、運転特性サーバS1への顔画像の送信に要するデータ通信量の増加をより効果的に抑制できる。
Further, as described above, the
また、以上により、実施の形態1に係るカーナビゲーション装置10は、運転者の免許証IDを取得する入力部12Dまたは車内カメラ13(第4取得部の一例)、をさらに備える。プロセッサ12Aは、取得された生体情報と車両IDと免許証IDとを紐付けて通信機器11に出力して、運転特性サーバS1に送信させる。これにより、実施の形態1に係るカーナビゲーション装置10は、運転者の初期登録処理に必要な初期登録データである運転者の生体情報と、車両IDと、免許証IDとを紐付けて運転特性サーバS1に送信できる。したがって、運転特性サーバS1は、車両C1,…におけるカーナビゲーション装置10から送信された運転者の生体情報と、免許証IDとに基づいて、運転者の顔照合を実行でき、顔照合したと判定した場合には、運転者の生体情報と、車両IDと、免許証IDとを紐付けて運転特性テーブルTB1に登録(格納)することで初期登録を完了できる。また、この初期登録処理の後、運転特性サーバS1は、同一あるいは他車両から送信された生体情報が、初期登録済みの生体情報に同一あるいは類似すると判定した場合、同一あるいは他車両から送信された生体情報に対応する運転者が、同一あるいは類似すると判定された生体情報に紐付けられた免許証IDに対応する運転者であると特定できるとともに、同一あるいは他車両から送信された運転特性データを、この運転者の免許証IDに紐付けて記録することにより、運転者ごとの運転特性データの取集および管理(記録)を実行できる。
As described above, the
(実施の形態2に至る経緯)
近年、車両を運転することは、高齢者の認知症リスクの低下、健康寿命の延伸等に効果があり、行動範囲,行動頻度の低下を抑制し、心身の機能の低下を抑制することで高齢者の健康的な社会参加を継続の一助となることが分かっている。そこで、高齢運転者(高齢ドライバー)の加齢に伴う運転操作ミス,安全確認忘れ等に起因する事故の増加を抑制し、高齢運転者の運転寿命を延ばす技術が求められている。
(Background leading up to Embodiment 2)
In recent years, driving a vehicle is effective in reducing the risk of dementia and extending healthy life expectancy among the elderly. It has been shown to help people maintain healthy social participation. Therefore, there is a demand for a technology that extends the driving life of elderly drivers by suppressing the increase in accidents caused by driving operation mistakes and forgetting to confirm safety as they age.
従来、特許文献2には、運転支援を行う技術として、車両が走行する道路の所定道路パラメータとステアリング操舵角との関係に基づいて、運転者の安全確認を必要とする状況にあるか否かを判別し、安全確認が行われていないと判別された場合に、運転者に対して警告を与える車両用警報装置が開示されている。また、特許文献3には、運転者の運転支援を行う運転支援装置は、運転者の運転操作の履歴に基づいて、運転者の運転習熟度を学習し、運転習熟度に基づく運転支援度に応じて運転の支援を行う。しかし、このような運転支援装置は、運転場面に対応し、かつ、運転者の状態に対応した動的な運転支援を行うことが望ましい。 Japanese Unexamined Patent Application Publication No. 2002-200002 discloses a technique for assisting driving, based on the relationship between a predetermined road parameter of the road on which the vehicle travels and the steering angle. and warns the driver when it is determined that safety confirmation has not been performed. Further, in Patent Document 3, a driving assistance device that assists a driver in driving learns the driving proficiency level of the driver based on the history of the driving operation of the driver, and adjusts the driving assistance level based on the driving proficiency level. Provide driving assistance as necessary. However, it is desirable for such a driving assistance device to perform dynamic driving assistance corresponding to the driving situation and the state of the driver.
また、特許文献4に開示された自動運転により運転者の運転支援を行う運転支援装置は、車両の外部環境により運転者の運転操作に要求される環境難易度と、運転者の運転操作に基づく運転技量とから外部環境に対する運転者の運転者状態を推定し、運転技量と運転者状態(例えば、感情,心理等)とに基づいて、運転支援内容(例えば、自動操舵、自動ブレーキ等)を選択して実行する。しかし、自動運転による運転支援は、運転者自身の運転特性(運転技量,安全確認等)の改善支援を行うことができなかった。 In addition, the driving support device that assists the driver in driving by automatic driving disclosed in Patent Document 4 is based on the environmental difficulty level required for the driver's driving operation due to the external environment of the vehicle and the driver's driving operation. Based on the driving skill and the driver's state of the driver in relation to the external environment, based on the driving skill and the driver's state (e.g., emotion, psychology, etc.), driving assistance content (e.g., automatic steering, automatic braking, etc.) Select and execute. However, driving assistance by automatic driving cannot assist the improvement of the driver's own driving characteristics (driving skill, safety confirmation, etc.).
そこで、以下の実施の形態2では、運転者ごとの運転特性データをより効率的に収集し、収集された運転特性データの管理を支援できる運転特性改善支援データの管理方法の例を説明する。なお、以下の説明において、実施の形態1と同一の構成要素については同一の符号を用いることで、その説明を省略する。 Therefore, in the second embodiment below, an example of a method for managing driving characteristic improvement support data that can more efficiently collect driving characteristic data for each driver and support management of the collected driving characteristic data will be described. In addition, in the following description, the same reference numerals are used for the same components as those in the first embodiment, and the description thereof will be omitted.
なお、実施の形態2における運転特性データは、運転者の運転特性を示すデータと行動特性(例えば、運転者の体,顔,目線等の動作情報等)を示すデータとを含む例について説明する。また、実施の形態2における運転特性評価結果は、運転者により実行される安全確認行動を含む運転者の運転技量を示す。 It should be noted that the driving characteristic data in the second embodiment will be described as an example including data indicating the driving characteristics of the driver and data indicating behavioral characteristics (for example, motion information such as the driver's body, face, line of sight, etc.). . Further, the driving characteristic evaluation result in the second embodiment indicates the driving skill of the driver including the safety confirmation action performed by the driver.
(実施の形態2)
図17を参照して、実施の形態2に係る運転特性改善支援システム200のユースケース例について説明する。図17は、実施の形態2に係る運転特性改善支援システム200のユースケース例を示す図である。
(Embodiment 2)
A use case example of the driving characteristic
運転特性改善支援システム200は、1台以上の車両C1A,…のそれぞれと、運転特性改善サーバS3と、ネットワークNWAと、を含んで構成される。なお、運転特性改善支援システム200は、無線端末装置P1Aを含む構成であってよい。
The driving characteristic
運転特性改善支援システム200は、1台以上の車両C1A,…のそれぞれに搭載された通信機器11A(図18参照)から送信された車両を運転する運転者の運転特性データと、安全確認行動データとを取得する。運転特性改善支援システム200は、取得された運転特性データと安全確認行動データとを運転特性改善サーバS3に送信する。運転特性改善支援システム200は、運転特性データが示す運転者の運転技量と、安全確認行動データが示す運転者の運転中の安全確認行動とに基づく運転者の運転特性が改善したか否かを判定し、運転特性改善評価結果を車両C1A,…に送信する。運転特性改善支援システム200は、運転特性改善評価結果に基づいて、車両C1A,…のそれぞれに運転者への運転支援内容を示す改善効果データ(新たな改善効果データの一例)を更新し、更新された改善効果データに基づく運転特性改善支援を実行する。
The driving characteristic
実施の形態2における運転特性データは、運転者の運転特性を示すデータであって、車両C1A,…のそれぞれに搭載された、各種センサ(例えば車内カメラ13A,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19A,車内センサ24等(図18参照))により取得されてもよい。
The driving characteristic data in Embodiment 2 is data indicating the driving characteristic of the driver, and is obtained from various sensors (for example, the in-
なお、ここでいう改善効果データは、運転特性改善サーバS3により生成されるデータであって、車両C1A,…のそれぞれの運転者の運転特性データと、運転特性改善支援改善前後の時間帯における運転者の反応(例えば、運転者の感情,表情,心拍等)を示すデータ(以降、「感情データ」と表記)と、運転特性が取得された運転場面を示す運転場面情報とに基づいて、運転特性改善のための支援方法を決定するデータである。 The improvement effect data referred to here is data generated by the driving characteristic improvement server S3, and includes the driving characteristic data of the drivers of the vehicles C1A, . . . Based on data (hereinafter referred to as "emotional data") indicating a person's reaction (for example, driver's emotion, facial expression, heartbeat, etc.) and driving scene information indicating the driving scene in which the driving characteristics are acquired, the driving is performed. This is data for determining a support method for improving characteristics.
また、ここでいう運転場面は、運転中の任意の場面(例えば、車線変更,右左折,前進あるいは後退等)だけでなく、運転前であって運転者が車両に乗車する場面、運転後あるいは一時停止中に車両から運転者または同乗者が降車する場面等の運転前後の場面であって、安全確認が必要な場面を含む。また、運転場面は、走行中の道路環境(例えば、T字路,十字路,下り坂等)あるいは道路状況(例えば、渋滞中等),走行中の道路の環境情報(例えば、時間帯,天候等),走行中の道路で発生した事故の回数,頻度等に基づいて、事前に事故の発生しやすさ、あるいは安全確認の重要性等に基づく危険度(スコア)がそれぞれ設定されてよい。 In addition, the driving scene here means not only any scene during driving (for example, lane change, right/left turn, forward or backward, etc.), but also the scene before driving and the driver getting into the vehicle, after driving, or Scenes before and after driving, such as scenes in which the driver or a fellow passenger exits the vehicle during a temporary stop, including scenes that require safety confirmation. In addition, the driving scene includes the road environment (eg, T-junction, crossroads, downhill, etc.), road conditions (eg, traffic congestion, etc.), and environmental information of the road during driving (eg, time of day, weather, etc.). , based on the number and frequency of accidents that have occurred on the road on which the vehicle is traveling, the degree of risk (score) based on the likelihood of an accident occurring, or the importance of safety confirmation, etc., may be set in advance.
また、運転場面は、危険度(スコア)に対応して安全確認行動が実行された頻度に関する閾値が設定されていてもよい。このような場合、車両C1A,…のそれぞれは、運転者により実行された安全確認行動の実行頻度と閾値とを比較した比較結果に基づいて、運転特性改善支援の実行要否を判定してもよい。 Further, in the driving scene, a threshold may be set for the frequency with which the safety confirmation action is performed corresponding to the degree of danger (score). In such a case, each of the vehicles C1A, . good.
車両C1A,…のそれぞれは、ネットワークNWAを介して運転特性改善サーバS3と、無線端末装置P1Aとの間でそれぞれ無線通信可能に接続される。なお、ここでいう無線通信は、例えばWi-Fi(登録商標)に代表される無線LAN,セルラー通信システム(移動通信システム)等であって、その種類は特に限定されない。 Each of the vehicles C1A, . Note that the wireless communication here is, for example, a wireless LAN represented by Wi-Fi (registered trademark), a cellular communication system (mobile communication system), or the like, and the type thereof is not particularly limited.
車両C1A,…のそれぞれは、自車両に接近する運転者を検知したタイミングから運転者の運転特性と、運転者の行動特性(例えば、運転者の体,顔,あるいは目等の動き)とを示す運転特性データの取得、および運転場面の判定(特定)を開始する。車両C1A,…のそれぞれは、特定された運転場面の運転場面情報に対応する改善支援データに基づいて、運転者への運転特性改善支援(つまり、安全確認行動の支援)を実行するとともに、この運転特性改善支援に対する運転者の感情データを取得する。 Each of the vehicles C1A, . Acquisition of the driving characteristic data shown and determination (identification) of the driving scene are started. Each of the vehicles C1A, . Acquire driver emotion data for driving characteristic improvement assistance.
車両C1A,…のそれぞれは、取得された運転特性データ(具体的には、行動特性)に基づいて、運転者が現在の運転場面情報に対応する安全確認行動を行ったか否かを判定する。また、車両C1A,…のそれぞれは、運転者が安全確認行動を行ったか否かの安全確認行動結果、あるいは運転者の運転特性と行動特性とを含む運転特性データと、運転場面情報と、感情データと、運転者を識別可能な利用者IDと、を紐付けて、運転特性改善サーバS3に送信する。 Each of the vehicles C1A, . Each of the vehicles C1A, . The data and the user ID that can identify the driver are linked and transmitted to the driving characteristic improvement server S3.
車両C1A,…のそれぞれは、各種センサにより取得された自車両の周囲環境のデータに基づいて判定された自車両の運転場面と、各種センサにより取得された運転特性データを用いて、運転者の運転特性が改善したか否かを判定する運転特性学習モデルと、運転特性学習装置23に記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された運転特性学習モデル、あるいは運転場面データの更新データ等を取得し、運転特性学習装置23に記憶された運転特性学習モデル,運転場面データ等のデータを更新する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された改善効果データに基づいて、所定の運転場面において運転者の安全確認行動を支援する運転特性改善支援方法を設定する。車両C1A,…のそれぞれは、運転者による自車両の運転終了を検知したタイミングで運転特性データの取得を終了する。
Each of the vehicles C1A, . A driving characteristic learning model for determining whether or not the driving characteristic has improved is stored in the driving
また、車両C1A,…のそれぞれは、無線端末装置P1Aから送信された運転者の運転特性データあるいは運転特性評価結果を要望する制御指令に基づいて、メモリ15A(図18参照)に記憶された運転者の運転特性データを抽出して無線端末装置P1Aに送信したり、抽出された運転特性データを用いて運転特性を評価した運転特性評価結果を生成して無線端末装置P1Aに送信したりする。 Each of the vehicles C1A, . The driving characteristic data of the person is extracted and transmitted to the wireless terminal device P1A, or the driving characteristic evaluation results are generated by evaluating the driving characteristics using the extracted driving characteristic data and transmitted to the wireless terminal device P1A.
運転特性改善サーバS3は、ネットワークNWAを介して、車両C1A,…のそれぞれと、無線端末装置P1Aとの間でそれぞれデータ通信可能に接続される。運転特性改善サーバS3は、車両C1A,…のそれぞれから送信された運転者の利用者IDと、運転特性データと、感情データと、運転場面情報とを取得する。 The driving characteristic improvement server S3 is connected to each of the vehicles C1A, . The driving characteristic improvement server S3 acquires the user ID of the driver, the driving characteristic data, the emotion data, and the driving scene information transmitted from each of the vehicles C1A, .
運転特性改善サーバS3は、取得された利用者IDと、利用者データベースDB1に登録(格納)された複数の運転者の利用者IDのそれぞれとを照合し、取得された利用者IDの運転者を特定する。運転特性改善サーバS3は、取得された運転特性データと、特定された運転者の利用者IDの運転特性データであって、かつ、取得された運転場面情報と同一の運転場面情報が紐付けられた運転特性データとを比較して、この運転者の運転特性が改善しているか否かを判定するとともに、取得された感情データに基づいて、現在車両C1A,…のそれぞれにより実行されている現在の運転特性改善支援方法(改善効果データ)がこの運転者に適した支援方法であるか否かを判定する。なお、ここでいう利用者IDは、実施の形態1において運転者の特定に使用された免許証ID,生体情報等であってよい。 The driving characteristic improvement server S3 collates the acquired user ID with each of the user IDs of a plurality of drivers registered (stored) in the user database DB1, and determines the driver of the acquired user ID. identify. The driving characteristic improvement server S3 associates the acquired driving characteristic data with the driving scene information that is the driving characteristic data of the user ID of the specified driver and that is the same as the acquired driving scene information. It is determined whether or not the driver's driving characteristics have improved by comparing the obtained driving characteristics data with the obtained driving characteristics data. is the driving characteristic improvement support method (improvement effect data) suitable for this driver. The user ID referred to here may be the driver's license ID, biometric information, etc. used to identify the driver in the first embodiment.
運転特性改善サーバS3は、運転者の運転特性が改善しているか否かの判定結果と、現在の改善効果データが示す運転特性改善支援方法に対する運転者の感情データとに基づいて、新たな改善効果データを生成して更新し、車両C1A,…のそれぞれに送信する。 The driving characteristic improvement server S3 provides new improvements based on the determination result as to whether the driver's driving characteristics have improved and the driver's emotion data regarding the driving characteristic improvement support method indicated by the current improvement effect data. Effect data is generated, updated, and transmitted to each of the vehicles C1A, . . .
また、運転特性改善サーバS3は、無線端末装置P1Aから送信された運転者の運転特性データあるいは運転特性評価結果を要望する制御指令に基づいて、データベース54(図20参照)に記憶された運転者の運転特性データを抽出して無線端末装置P1Aに送信したり、抽出された運転特性データを用いて運転特性を評価した運転特性評価結果を生成して無線端末装置P1Aに送信したりする。 In addition, the driving characteristic improvement server S3, based on the control command requesting the driver's driving characteristic data or driving characteristic evaluation result transmitted from the wireless terminal device P1A, determines whether the driver stored in the database 54 (see FIG. 20) is extracted and transmitted to the wireless terminal device P1A, or a driving characteristic evaluation result is generated by evaluating the driving characteristics using the extracted driving characteristic data and transmitted to the wireless terminal device P1A.
ネットワークNWAは、複数の車両C1A,…のそれぞれと、運転特性改善サーバS3と、無線端末装置P1Aとの間でそれぞれ無線通信あるいは有線通信可能に接続する。 The network NWA connects each of the plurality of vehicles C1A, .
次に、図18を参照して、実施の形態2における車両C1A,…の内部構成例について説明する。図18は、実施の形態2における車両C1A,…の内部構成例を示すブロック図である。なお、図18に示す車両C1A,…の内部構成は、生体情報として運転者の顔画像を用いる場合の内部構成例を図示し、他の生体情報を取得するためのセンサ、および免許証リーダ等の図示を省略している。また、車両C1A,…のそれぞれは、同様の内部構成であるため、以降の説明では車両C1Aの内部構成について説明する。 Next, with reference to FIG. 18, an internal configuration example of vehicles C1A, . . . according to the second embodiment will be described. FIG. 18 is a block diagram showing an internal configuration example of vehicles C1A, . . . according to the second embodiment. The internal configuration of vehicles C1A, . . . shown in FIG. is omitted. Since each of the vehicles C1A, . . . has the same internal configuration, the internal configuration of the vehicle C1A will be described below.
車両C1Aは、通信機器11Aと、端末装置22と、車内カメラ13Aと、ジャイロセンサ14と、メモリ15Aと、ECU16Aと、を少なくとも含んで構成される。車両C1A内部の各部は、CAN等によりデータ送受信可能に接続される。
The vehicle C1A includes at least a
なお、通信機器11A、端末装置22、車内カメラ13A、およびジャイロセンサ14は、1つの端末装置22として一体的に構成されてもよい。また、図2に示す車両C1Aに搭載されるセンサは一例であってこれに限定されない。
Note that the
通信機器11Aは、ネットワークNWを介して、車両C1Aと運転特性改善サーバS3との間で無線通信によるデータの送受信を実行する。
The
端末装置22は、例えば、カーナビゲーション装置,運転者が所有するタブレット端末,スマートフォン等であって、運転者操作を受け付け可能な装置である。また、端末装置22は、例えばカーナビゲーション機能、位置情報提供サービス機能、インターネット接続機能、マルチメディア再生機能等を提供可能なIVI装置であってもよい。端末装置22は、プロセッサ22Aと、メモリ22Bと、表示部22Cと、入力部22Dとを含んで構成される。
The
プロセッサ22Aは、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ22Aは、メモリ22Bと協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ22Aは、メモリ22Bに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。
The
プロセッサ22Aは、車内センサ24あるいは通信機器11Aから運転者の接近を検知した旨の制御指令を取得したタイミングから、運転特性および行動特性(運転特性データ)の取得処理、運転場面の判定処理を開始する。プロセッサ22Aは、運転場面を特定した後、この運転特性の運転場面情報に対応する改善効果データに基づいて、運転特性改善支援を実行する。プロセッサ22Aは、実行された運転特性改善支援に対する運転者の運転特性、行動特性、および感情データの取得処理等の各種処理を開始する。
The
プロセッサ22Aは、ECU16Aを介して、各種センサ(例えば車内カメラ13A,ジャイロセンサ14,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D,速度センサ18,車外センサ/カメラ19A,車内センサ24等)により取得された各種運転特性データを取得する。
The
プロセッサ22Aは、入力部22Dから出力された利用者IDにより運転者を特定する。プロセッサ22Aは、車内カメラ13A,車外センサ/カメラ19A,GPSセンサ20あるいは車内センサ24等により取得された撮像画像あるいは情報に基づいて、運転場面を判定する。
The
プロセッサ22Aは、判定された運転場面の運転場面情報に基づいて、この運転場面情報に対応する改善効果データに基づいて、スピーカ25あるいは警告表示灯26を制御し、運転者への運転特性改善支援(安全確認行動支援)を実行する。
The
プロセッサ22Aは、車内カメラ13Aにより撮像された撮像画像を取得し、取得された撮像画像に映る運転者の顔を検出し、検出された運転者の顔の表情に基づいて、運転特性改善支援前後の運転者の感情を解析して感情データを生成する。
The
また、プロセッサ22Aは、車内カメラ13Aあるいは車外センサ/カメラ19Aにより撮像された撮像画像を取得し、取得された撮像画像に映る運転者の体,目の動きを解析し、解析結果に基づく運転者の行動特性と、各種センサにより取得された運転特性とを含む運転特性データを生成する。
Further, the
プロセッサ22Aは、運転特性改善支援が実行された運転場面情報と、運転特性改善支援に対する運転者の感情データと、各種センサにより取得された運転特性データと、運転者の利用者IDとを紐付けて、メモリ15Aに記憶するとともに、通信機器11Aに出力して運転特性改善サーバS3に送信させる。なお、プロセッサ22Aは、取得された行動データに基づいて、運転者が安全確認行動を実行したか否かの判定結果を、さらに紐付けて運転特性改善サーバS3に送信させてもよい。
The
また、プロセッサ22Aは、運転特性改善サーバS3から送信された運転場面情報と、改善効果データとを取得する。プロセッサ22Aは、取得された運転場面情報に対応する改善効果データを、新たに取得された改善効果データに更新する。
The
プロセッサ22Aは、運転者の降車、あるいは運転者が自車両から離れたと判定したタイミングで運転者の運転特性データの取得処理、運転場面の判定処理、運転特性改善支援処理、あるいは感情データの取得処理等の各種処理を終了する。
When the
メモリ22Bは、例えばプロセッサ22Aの各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ22Aの動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ22Aにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ22Aの動作を規定するプログラムが書き込まれている。また、メモリ22Bは、車両C1Aを運転する1以上の利用者IDと、運転特性履歴テーブルTB3とを記憶する。
The
表示部22Cは、例えばLCDもしくは有機ELを用いて構成される。表示部22Cは、プロセッサ22Aにより生成された運転特性評価結果画面(不図示)等を表示する。
The
入力部22Dは、表示部22Cと一体的に構成されたユーザインタフェースである。入力部22Dは、受け付けられた運転者操作を電気信号(制御指令)に変換して、プロセッサ22Aに出力する。入力部22Dは、運転者による利用者IDの入力操作、運転特性評価画面の生成を要求する入力操作、運転特性改善支援の有効化/無効化の設定等を受け付けたりする。
The
車内カメラ13Aは、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCDあるいはCMOS等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。
The in-
車内カメラ13Aは、プロセッサ22Aにより制御され、運転席に座る運転者を撮像し、撮像された撮像画像をプロセッサ22Aに出力する。プロセッサ22Aは、車内カメラ13Aから出力された撮像画像を画像解析し、運転者の顔,目あるいは体の動きを示す行動特性データを生成する。プロセッサ22Aは、生成された行動特性データと、運転場面に対応する1以上の安全運転行動とを比較して、現在の運転場面で実行されるべき安全確認行動が運転者により実行されたか否かを判定する。なお、運転者の行動特性データを解析する処理、および現在の運転場面で実行されるべき安全確認行動が運転者により実行されたか否かを判定処理のそれぞれは、運転特性改善サーバS3のプロセッサ52により実行されてよい。
The in-
また、車内カメラ13Aは、プロセッサ22Aにより制御され、運転席に座る運転者を撮像し、撮像された撮像画像をプロセッサ22Aに出力する。プロセッサ22Aは、車内カメラ13Aから出力された撮像画像を画像解析し、運転者の感情を解析して感情データを生成する。なお、感情データの生成処理は、運転特性改善サーバS3のプロセッサ52により実行されてよい。
In addition, the in-
メモリ15Aは、例えばECU16Aの各処理を実行する際に用いられるワークメモリとしてのRAMと、ECU16Aの動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、ECU16Aにより生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、ECU16Aの動作を規定するプログラムが書き込まれている。また、メモリ15Aは、車両C1Aを運転する1以上の利用者IDと、運転特性履歴テーブルTB3とを記憶してもよい。
The
ECU16Aは、各部の処理および制御をそれぞれ統括的に実行する。ECU16Aは、所謂電子回路制御装置を用いて構成され、メモリ15Aに保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ECU16Aは、各種センサから出力された情報を運転特性データとして取得する。ECU16Aは、運転特性データをプロセッサ22Aに出力する。
The
また、ECU16Aは、車内センサ24から出力された電気信号に基づいて、自車両への運転者の接近、あるいは自車両から運転者が離れたこと(つまり、運転終了)を検知し、検知された検知情報をプロセッサ22Aに出力する。なお、ここでは説明を省略するが、ECU16Aは、例えば運転特性改善支援に必要となる各種処理、運転者の運転特性評価等のプロセッサ22Aにより実行される各種機能を実現可能であってよい。
In addition, the
車外センサ/カメラ19Aは、車両C1Aに備えられたレーダ,ソナー等の1つ以上のセンサ、車両C1Aの周囲(車外)を撮像可能な1つ以上のカメラである。ここでいうカメラは、ドライブレコーダであってもよい。車外センサ/カメラ19Aは、車両C1Aの周辺に存在する物体(例えば、壁,障害物,他車両,人物等)または自車両に接近する接近物(例えば、他車両、二輪車、人物等)の位置および方向、標識、道路上の白線、自車両から降車して離れていく運転者または同乗者、自車両に接近して乗車する運転者または同乗者等を検知したり、撮像したりする。車外センサ/カメラ19Aは、検知された検知情報または撮像された撮像画像をプロセッサ22Aに出力する。
The vehicle exterior sensor/
運転特性学習装置23は、運転特性改善サーバS3から送信された運転特性学習モデルと、運転場面データとを記録する。プロセッサ22Aは、運転特性学習装置23に記録された運転特性学習モデルと、各種センサにより取得された情報とを用いて、運転特性データを生成する。また、プロセッサ22Aは、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて運転場面を判定し、車両C1A,…の運転場面を示す運転場面データを生成する。
The driving
車内センサ24は、例えば自車両のスマートキーから発信される電波を受信可能なセンサ,各席に対応するドアに設けられた開閉センサ,各座席に設けられた加重センサ、シートベルトの装着センサ等である。車内センサ24は、スマートキーから発信される電波を受信した場合、運転者の接近を通知する電気信号(制御指令)を生成して、ECU16Aに出力する。車内センサ24は、スマートキーから発信される電波を受信できなくなった場合、運転者が自車両から離れたことを通知する電気信号(制御指令)を生成して、ECU16Aに出力する。また、車内センサ24は、運転席に設けられた加重センサによる運転者の体(体重)の動き、シートベルトの着脱、運転席のドアの開閉等の検知情報をECU16Aに出力する。
The in-
安全運転支援機器の一例としてのスピーカ25は、車両C1A,…のそれぞれの車内に少なくとも1つ設けられ、プロセッサ22AあるいはECU16Aにより制御されて運転場面に対応する支援音声を出力し、運転者の運転特性改善支援を実行する。なお、実施の形態2に係る車両C1A,…におけるスピーカ25の設置位置および数は、図28に示すように車両の前方と後方とにそれぞれ2つずつ設置される例について説明するが、一例であってこれに限定されないことは言うまでもない。また、スピーカ25は、車両内だけでなく、車両外に設置されてもよい。
At least one
安全運転支援機器の一例としての警告表示灯26は、例えば車両内のピラー等に設けられたLED(Light Emitting Diode)であって、プロセッサ22AあるいはECU16Aにより制御されて運転場面に対応して点灯し、運転者の運転特性改善支援を実行する。なお、実施の形態2に係る車両C1A,…における警告表示灯26の設置位置および数は、図29に示す例に限定されないことは言うまでもない。また、警告表示灯26は、ピラー以外の位置(例えば、サイドミラー,ルームミラー等)に設置されてもよい。
The
次に、図19を参照して、車両C1A,…のそれぞれにより記録される運転特性履歴テーブルTB3について説明する。図19は、運転特性履歴テーブルTB3の一例を示す図である。なお、以降の説明では説明を分かり易くするために、運転特性履歴テーブルTB3を用いて車両C1A,…のそれぞれにより記録される各種データまたは情報について説明するが、運転特性履歴テーブルTB3は必須でなく、省略されてよい。 Next, the driving characteristic history table TB3 recorded by each of the vehicles C1A, . . . will be described with reference to FIG. FIG. 19 is a diagram showing an example of the driving characteristic history table TB3. In the following description, the driving characteristic history table TB3 is used to describe various data or information recorded by each of the vehicles C1A, . , may be omitted.
運転特性履歴テーブルTB3は、運転場面情報と、運転特性データと、運転場面情報に対応する改善効果データとを利用者IDに紐付けて記録し、管理する。なお、利用者IDは、免許証IDであってもよい。 The driving characteristic history table TB3 records and manages driving scene information, driving characteristic data, and improvement effect data corresponding to the driving scene information in association with the user ID. Note that the user ID may be a driver's license ID.
例えば、図19に示す運転特性履歴テーブルTB3は、利用者ID「AAA」に運転場面情報「〇〇〇」と、運転特性データと、改善効果データとを紐付け、利用者ID「AAA」に、運転場面情報「△△△」と、運転特性データと、改善効果データとを紐付け、利用者ID「BBB」に、運転場面情報「×××」と、運転特性データと、改善効果データとを紐付けて、それぞれ記録する。これにより、運転特性履歴テーブルTB3は、同一の車両を、異なる複数の運転者のそれぞれ(例えば、2人の利用者「AAA」,「BBB」のそれぞれ)が運転する場合であっても、利用者IDごとに運転特性データ、改善効果データのそれぞれをより効率的に記録(管理)できる。 For example, the driving characteristic history table TB3 shown in FIG. , driving situation information "△△△", driving characteristic data, and improvement effect data are linked, and driving situation information "XXX", driving characteristic data, and improvement effect data are linked to the user ID "BBB". are linked and recorded respectively. As a result, the driving characteristic history table TB3 can be used even when the same vehicle is driven by a plurality of different drivers (for example, each of two users "AAA" and "BBB"). Driving characteristic data and improvement effect data can be recorded (managed) more efficiently for each person ID.
次に、図20を参照して、運転特性改善サーバS3の内部構成例について説明する。図20は、実施の形態2における運転特性改善サーバS3の内部構成例を示すブロック図である。 Next, an internal configuration example of the driving characteristic improvement server S3 will be described with reference to FIG. FIG. 20 is a block diagram showing an example internal configuration of the driving characteristic improvement server S3 according to the second embodiment.
運転特性改善サーバS3は、通信部51と、プロセッサ52と、メモリ53と、データベース54と、を含んで構成される。なお、データベース54は、運転特性改善サーバS3との間でデータ通信可能に接続された別体により構成されてもよい。
The driving characteristic improvement server S3 includes a
通信部51は、ネットワークNWを介して、車両C1A,…のそれぞれと、無線端末装置P1との間でデータ送受信可能に接続される。
The
プロセッサ52は、例えばCPU、DSPまたはFPGAを用いて構成され、各部の動作を制御する。プロセッサ52は、メモリ53と協働して、各種の処理および制御を統括的に行う。具体的には、プロセッサ52は、メモリ53に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、支援方法生成部52A等の各部の機能を実現する。プロセッサ52は、運転特性学習モデル、あるいは運転場面データが更新された場合、更新された運転特性学習モデル、あるいは運転場面データを車両C1A,…のそれぞれに送信する。
The
また、プロセッサ52は、車両C1A,…のそれぞれから送信された各運転場面情報に対応する運転特性データを用いて機械学習に基づいて、運転特性学習モデルの生成に用いられる教師データ(学習データ)を生成してもよい。プロセッサ52は、車両C1A,…のそれぞれから送信された各改善効果データに基づく運転特性改善支援に対する運転者の感情データを用いた機械学習に基づいて、改善効果学習モデルの生成に用いられる教師データ(学習データ)を生成してもよい。
In addition, the
教師データを生成するための学習は、1つ以上の統計的分類技術を用いて行っても良い。統計的分類技術としては、例えば、重回帰分析、線形分類器(Linear Classifiers)、サポートベクターマシン(Support Vector Machines)、二次分類器(Quadratic Classifiers)、カーネル密度推測(Kernel Estimation)、決定木(Decision Trees)、人工ニューラルネットワーク(Artificial Neural Networks)、ベイジアン技術および/またはネットワーク(Bayesian Techniques and/or Networks)、隠れマルコフモデル(Hidden Markov Models)、バイナリ分類子(Binary Classifiers)、マルチクラス分類器(Multi-Class Classifiers)、クラスタリング(Clustering Technique)、ランダムフォレスト(Random Forest Technique)、ロジスティック回帰(Logistic Regression Technique)、線形回帰(Linear Regression Technique)、勾配ブースティング(Gradient Boosting Technique)等が挙げられる。但し、使用される統計的分類技術はこれらに限定されない。 Training to generate training data may be performed using one or more statistical classification techniques. Statistical classification techniques include, for example, multiple regression analysis, linear classifiers, support vector machines, quadratic classifiers, kernel estimation, decision trees ( Decision Trees, Artificial Neural Networks, Bayesian Techniques and/or Networks, Hidden Markov Models, Binary Classifiers , a multiclass classifier ( Multi-Class Classifiers, Clustering Technique, Random Forest Technique, Logistic Regression Technique, Linear Regression Technique, Gradient boosting (Gradient Boosting Technique) and the like. However, the statistical classification techniques used are not limited to these.
支援方法生成部52Aは、車両C1A,…のそれぞれから送信された運転特性データ、運転場面情報、感情データ、および利用者IDのそれぞれを取得する。支援方法生成部52Aは、取得された利用者IDと、利用者データベースDB1に登録(格納)された複数の利用者IDのそれぞれとを照合して、運転者を特定する。なお、支援方法生成部52Aは、利用者データベースDB1に取得された利用者IDと同一の利用者IDが登録されていないと判定した場合、取得された利用者IDを新たな利用者として、利用者データベースDB1に登録(格納)してよい。
The support
支援方法生成部52Aは、取得された運転場面情報に基づいて、安全運転が必要な運転場面であって、かつ、運転場面に対応する危険度(スコア)が所定値以上であるか否かを判定する。また、支援方法生成部52Aは、取得された運転特性データに含まれる行動特性データに基づいて、運転者が運転場面に対応する安全確認行動を実行しているか否かを判定する。
Based on the acquired driving scene information, the support
支援方法生成部52Aは、これらの判定結果と感情データに基づいて、運転特性改善方法の変更が必要であるか否かをさらに判定する。支援方法生成部52Aは、運転特性改善方法の変更が必要であると判定した場合、取得された運転場面情報を運転場面データベースDB2に、取得された運転特性データを運転特性データベースDB3に、取得された改善効果データを改善効果データベースDB4にそれぞれ利用者IDに紐付けて登録(格納)する。また、支援方法生成部52Aは、取得された運転特性と、運転特性データベースDB3に登録された運転者の運転特性とに基づいて、運転者の運転特性が改善しているか否かを判定する。支援方法生成部52Aは、運転特性が改善しているか否かの判定結果と、取得された感情データとに基づいて、変更後の運転特性改善方法を決定する。支援方法生成部52Aは、変更後の運転特性改善方法を示す改善効果データを生成し、車両C1A,…に送信する。
The support
一方、支援方法生成部52Aは、運転特性改善方法の変更が必要でないと判定した場合、新たな改善効果データの生成および更新処理を省略し、取得された運転場面情報を運転場面データベースDB2に、取得された運転特性データを運転特性データベースDB3にそれぞれ利用者IDに紐付けて登録(格納)する。
On the other hand, when the support
メモリ53は、例えばプロセッサ52の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ52の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ52により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ52の動作を規定するプログラムが書き込まれている。また、メモリ53は、運転特性学習モデル53Aと、改善効果学習モデル53Bとを記憶する。
The
データベース54は、利用者データベースDB1と、運転場面データベースDB2と、運転特性データベースDB3と、改善効果データベースDB4とをそれぞれ記録する。利用者データベースDB1、運転場面データベースDB2、運転特性データベースDB3、および、改善効果データベースDB4のそれぞれは、車両C1A,…のそれぞれから送信された1セットのデータ(利用者ID、運転場面情報、運転場面に対応する運転特性データ、および運転場面情報に対応する改善効果データのそれぞれ)がそれぞれ互いに紐付けられた状態で記録される。なお、利用者データベースDB1、運転場面データベースDB2、運転特性データベースDB3、および、改善効果データベースDB4のそれぞれは、車両C1A,…のそれぞれから取得された取得日時情報を紐付けて記憶することで、車両C1A,…のそれぞれから送信された1セットのデータを紐付け可能にしてもよい。
The
利用者データベースDB1は、複数の運転者のそれぞれの利用者IDを登録(格納)する。なお、利用者IDは、免許証IDであってもよい。 The user database DB1 registers (stores) user IDs of a plurality of drivers. Note that the user ID may be a driver's license ID.
運転場面データベースDB2は、複数の車両C1A,…のそれぞれから取得された運転場面情報を利用者IDごとに登録(格納)する。 The driving scene database DB2 registers (stores) driving scene information acquired from each of the plurality of vehicles C1A, . . . for each user ID.
運転特性データベースDB3は、複数の車両C1A,…のそれぞれから取得された運転特性データを利用者IDの運転場面ごとに登録(格納)する。 The driving characteristic database DB3 registers (stores) driving characteristic data obtained from each of the plurality of vehicles C1A, . . . for each driving scene of the user ID.
改善効果データベースDB4は、支援方法生成部52Aにより生成された改善効果データを利用者IDの運転場面情報ごとに登録(格納)する。なお、改善効果データベースDB4は、変更後の運転改善データが生成された場合には、変更後の運転改善データを登録(格納)してもよい。また、改善効果データベースDB4は、新たな改善効果データが車両C1A,…により生成される場合、運転場面情報に紐付けられた改善効果データを、複数の車両C1A,…のそれぞれから取得された新たな改善効果データに更新する。
The improvement effect database DB4 registers (stores) the improvement effect data generated by the support
次に、図21を参照して、車両C1A,…のそれぞれにより記録される運転特性改善管理テーブルTB4について説明する。図19は、運転特性改善管理テーブルTB4の一例を示す図である。なお、以降の説明では説明を分かり易くするために、運転特性改善管理テーブルTB4を用いてデータベース54(つまり、利用者データベースDB1、運転場面データベースDB2、運転特性データベースDB3、および、改善効果データベースDB4のそれぞれ)により記録される各種データあるいは情報について説明するが、運転特性改善管理テーブルTB4は必須でなく、省略されてよい。 Next, the driving characteristic improvement management table TB4 recorded by each of the vehicles C1A, . . . will be described with reference to FIG. FIG. 19 is a diagram showing an example of the driving characteristic improvement management table TB4. In the following description, in order to facilitate understanding, the database 54 (that is, the user database DB1, the driving scene database DB2, the driving characteristic database DB3, and the improvement effect database DB4) is stored using the driving characteristic improvement management table TB4. respectively), the driving characteristic improvement management table TB4 is not essential and may be omitted.
運転特性改善管理テーブルTB4は、運転場面情報に、運転場面に対応する運転特性データと、運転場面情報に対応する改善効果データとを紐付けて利用者IDごとに記録し、管理する。なお、利用者IDは、免許証IDであってもよい。 The driving characteristic improvement management table TB4 associates driving characteristic data corresponding to the driving scene information with the driving scene information and improvement effect data corresponding to the driving scene information, and records and manages them for each user ID. Note that the user ID may be a driver's license ID.
例えば、図21に示す運転特性改善管理テーブルTB4は、利用者ID「AAA」の運転場面情報「〇〇〇」に運転特性データと改善効果データとを、運転場面情報「△△△」に運転特性データと改善効果データとを、運転場面情報「×××」に運転特性データと改善効果データとをそれぞれ紐付けて記録する。運転特性改善管理テーブルTB4は、利用者ID「BBB」の運転場面情報「×××」に運転特性データと改善効果データとを紐付けて記録し、利用者ID「CCC」の運転場面情報「△△△」に運転特性データと改善効果データとを紐付けて記録する。 For example, the driving characteristic improvement management table TB4 shown in FIG. The characteristic data and the improvement effect data are recorded by linking the driving characteristic data and the improvement effect data to the driving situation information "XXX". The driving characteristic improvement management table TB4 records the driving situation information "XXX" of the user ID "BBB" in association with the driving characteristic data and the improvement effect data, and records the driving situation information "XXX" of the user ID "CCC". The driving characteristic data and the improvement effect data are linked and recorded in △△△.
図22を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図22は、左折時の安全確認行動例を説明する図である。なお、図22に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図22では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 22, a specific example of the process of determining whether or not the vehicle C1A, . FIG. 22 is a diagram for explaining an example of safety confirmation behavior when turning left. Note that the example of confirming safe behavior shown in FIG. 22 is merely an example, and needless to say, the present invention is not limited to this. Further, in FIG. 22, an example in which the vehicle C1A determines whether or not the safety confirmation action is being performed will be described as an example. may be
図22は、運転場面「左折時」の車両C1Aを示す図であって、進行方向D1に左折する直前の車両C1Aと、その時の車両C1A内部の様子を示す図である。なお、以降で説明する端末装置22により実行される各処理は、ECU16Aにより実行されてもよい。
FIG. 22 is a diagram showing the vehicle C1A in the driving scene "when turning left", showing the vehicle C1A immediately before turning left in the traveling direction D1 and the state inside the vehicle C1A at that time. In addition, each process performed by the
図22に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「左折時」であると判定する。例えば、端末装置22は、運転場面データと、車外センサ/カメラ19Aにより撮像された車両C1Aの周囲が撮像された撮像画像、アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,あるいはステアリング17Dにより取得された運転者の運転操作に関する各種情報、端末装置22に事前に設定された行先(目的地)情報、GPSセンサ20等により取得された現在の車両C1Aの位置情報等と、を用いて、車両C1Aの運転場面が「左折時」であると判定する。
The
端末装置22は、判定された車両C1Aの運転場面情報「左折時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「左折時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。
The
また、端末装置22は、判定された車両C1Aの運転場面情報「左折時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図22に示す例において、車両C1Aは、運転者が運転場面情報「左折時」に対応する3つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。
In addition, the
例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者にルームミラーRM越しに車両C1A後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC11を向いたか否か(つまり、運転者がルームミラーRM越しに車両C1Aの後方を目視確認したか否か)を判定する(1つ目の判定)。
For example, the
また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に進行方向D1に対応する左側サイドミラーSM1越しに車両C1A左側方および左後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC12を向いたか否か(つまり、運転者が進行方向D1に対応する左側サイドミラーSM1越しに車両C1Aの左側側方および後方を目視確認したか否か)を判定する(2つ目の判定)。
In addition, the
また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC13を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する(3つ目の判定)。
In addition, the
なお、2つ以上の安全確認行動のそれぞれ実行判定を行う場合であって、これらの安全確認行動のそれぞれに事前に判定順番が設定されている場合、端末装置22は、各安全確認行動の実行判定を行うとともに、各安全確認行動が設定された順番通りに実行されたか否かを判定してもよい。
In the case where execution determination is made for each of two or more safety confirmation actions, and the order of determination is set in advance for each of these safety confirmation actions, the
端末装置22は、運転特性改善支援を開始したタイミングから3つの安全確認行動のそれぞれの実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。なお、端末装置22は、各安全確認行動のそれぞれに対応する運転特性改善支援ごとに感情データを生成してもよいし、運転場面「左折時」に実行された運転特性改善支援に対して1つの感情データを生成してもよい。
The
端末装置22は、運転場面の判定を開始したタイミングから3つの安全確認行動のそれぞれの実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。
The
図23を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図23は、右折時の安全確認行動例を説明する図である。なお、図23に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図23では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 23, a specific example of the process of determining whether or not the vehicle C1A, . FIG. 23 is a diagram for explaining an example of safety confirmation behavior when turning right. Note that the example of confirming safe behavior shown in FIG. 23 is an example, and needless to say, the present invention is not limited to this. Further, in FIG. 23, an example in which the vehicle C1A determines whether or not the safety confirmation action is being performed will be described as an example. may be
図23は、運転場面「右折時」の車両C1Aを示す図であって、進行方向D2に右折する直前の車両C1Aと、その時の車両C1A内部の様子を示す図である。 FIG. 23 is a diagram showing the vehicle C1A in the driving scene "when turning right", showing the vehicle C1A immediately before turning right in the traveling direction D2 and the state inside the vehicle C1A at that time.
図23に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「右折時」であると判定する。
The
端末装置22は、判定された車両C1Aの運転場面情報「右折時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「右折時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。
The
また、端末装置22は、判定された車両C1Aの運転場面情報「右折時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図23に示す例において、車両C1Aは、運転者が運転場面情報「右折時」に対応する3つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。
In addition, the
例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者にルームミラーRM越しに車両C1A後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC21を向いたか否か(つまり、運転者がルームミラーRM越しに車両C1Aの後方を目視確認したか否か)を判定する(1つ目の判定)。
For example, the
また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に進行方向D2に対応する右側サイドミラーSM2越しに車両C1A右側方および右後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC22を向いたか否か(つまり、運転者が進行方向D2に対応する右側サイドミラーSM2越しに車両C1Aの右側側方および後方を目視確認したか否か)を判定する(2つ目の判定)。
In addition, the
また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC23を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する(3つ目の判定)。なお、図23に示すように車両C1Aが右側に運転席がある車両(つまり、右ステアリング車両)である場合、運転者は、運転席のドアにより車両C1Aの右側方および右後方が遮られる。このような場合、端末装置22は、運転者の行動特性データに基づいて、運転者の頭が進行方向D2を向いた状態から車両C1Aの右側に向かう方向に90°以上向いたか否かに基づいて、運転者が車両C1Aの後方を目視確認したか否かを判定してもよい。
In addition, the
端末装置22は、運転特性改善支援を開始したタイミングから3つの安全確認行動のそれぞれの実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。端末装置22は、運転場面の判定を開始したタイミングから3つの安全確認行動のそれぞれの実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。
The
図24を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図24は、後退時の安全確認行動例を説明する図である。なお、図24に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図24では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 24, a specific example of the process of determining whether or not the vehicle C1A, . FIG. 24 is a diagram for explaining an example of safety confirmation behavior when backing up. Note that the example of confirming safe behavior shown in FIG. 24 is an example, and needless to say, the present invention is not limited to this. Further, in FIG. 24, an example in which the vehicle C1A determines whether or not the safety confirmation action is being performed will be described as an example. may be
図24は、運転場面「後退時」の車両C1Aを示す図であって、進行方向D3に後退する直前の車両C1Aと、その時の車両C1A内部の様子を示す図である。 FIG. 24 is a diagram showing the vehicle C1A in the "reversing" driving scene, showing the vehicle C1A immediately before it reverses in the traveling direction D3 and the state inside the vehicle C1A at that time.
図24に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「後退時」であると判定する。
The
端末装置22は、判定された車両C1Aの運転場面情報「後退時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「後退時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。
The
また、端末装置22は、判定された車両C1Aの運転場面情報「後退時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図24に示す例において、車両C1Aは、運転者が運転場面情報「後退時」に対応する3つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。
In addition, the
例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者にルームミラーRM越しに車両C1A後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC31を向いたか否か(つまり、運転者がルームミラーRM越しに車両C1Aの後方を目視確認したか否か)を判定する(1つ目の判定)。
For example, the
また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に進行方向D3に対応する右側サイドミラーSM2越しに車両C1A右側方および右後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の顔あるいは目線の動きが方向AC32を向いたか否か(つまり、運転者が進行方向D3に対応する右側サイドミラーSM2越しに車両C1Aの右側側方および後方を目視確認したか否か)を判定する(2つ目の判定)。
In addition, the
また、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC33を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する(3つ目の判定)。なお、端末装置22は、車内センサ24の一例であるシートベルトの装着センサにより、後方確認時に運転者がシートベルトを外したことが検知された場合、後方確認後に再度シートベルトが装着されたか否かを判定したり、運転者にシートベルトの再装着を促す運転特性改善支援を実行したりしてもよい。なお、運転者による後方の目視確認が実行されたか否かの判定は、自車両の後方を撮像するバックモニタ(車外センサ/カメラ19Aの一例)により撮像された撮像画像に基づいて、実行されてもよいし、複数の車外センサ/カメラ19Aを用いて取得された複数の撮像画像に基づいて、自車両を上方から俯瞰した画像であるサラウンドビューモニタ(360°のカメラ映像,トップビュー画像等)を生成し、生成されたサラウンドビューモニタ等に基づいて、実行されてもよい。
In addition, the
端末装置22は、運転特性改善支援を開始したタイミングから3つの安全確認行動のそれぞれの実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。端末装置22は、運転場面の判定を開始したタイミングから3つの安全確認行動のそれぞれの実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。
The
図25を参照して、車両C1A,…または運転特性改善サーバS3により実行される安全確認行動を実行しているか否かの判定処理の具体例について説明する。図25は、長距離直線道路を前進時の安全確認行動例を説明する図である。なお、図25に示す安全行動確認例は一例であって、これに限定されないことは言うまでもない。また、図25では、一例として安全確認行動を実行しているか否かの判定処理が車両C1Aにより実行される例について説明するが、これに限定されず、運転特性改善サーバS3のプロセッサ52により実行されてよい。 With reference to FIG. 25, a specific example of the process of determining whether or not the vehicle C1A, . FIG. 25 is a diagram for explaining an example of safety confirmation behavior when driving forward on a long-distance straight road. Note that the example of confirming safe behavior shown in FIG. 25 is an example, and needless to say, the present invention is not limited to this. Further, in FIG. 25, an example in which the vehicle C1A determines whether or not the safety confirmation action is being performed will be described as an example. may be
図25は、運転場面「長距離直線道路の前進時」の車両C1Aを示す図であって、進行方向D4に前進する車両C1Aと、その時の車両C1A内部の様子を示す図である。 FIG. 25 is a diagram showing the vehicle C1A in the driving scene "driving forward on a long-distance straight road", showing the vehicle C1A moving forward in the traveling direction D4 and the state inside the vehicle C1A at that time.
図25に示す端末装置22は、運転特性学習装置23に記録された運転場面データと、各種センサにより取得された情報と用いて、車両C1Aの運転場面が「長距離直線道路の前進時」であると判定する。
The
端末装置22は、判定された車両C1Aの運転場面情報「長距離直線道路の前進時」に基づいて、運転特性履歴テーブルTB3に記憶されたこの運転者に対応する利用者IDが紐付けられ、かつ、運転場面情報「長距離直線道路の前進時」に対応する改善効果データ(つまり、運転特性改善支援方法)を参照する。端末装置22は、参照された改善効果データに基づいて、スピーカ25あるいは警告表示灯26のそれぞれを制御する制御指令を生成して、スピーカ25あるいは警告表示灯26のそれぞれに出力する。なお、端末装置22は、参照された改善効果データに基づいて、運転特性改善支援が不要であると判定した場合には、上述したスピーカ25あるいは警告表示灯26のそれぞれの制御を省略する。
The
また、端末装置22は、判定された車両C1Aの運転場面情報「長距離直線道路の前進時」に対応し、運転者により実行されるべき1以上の安全確認行動の情報を参照する。端末装置22は、1以上の安全確認行動の情報と、各種センサにより取得された運転者の行動特性データとに基づいて、運転者がこの運転場面情報に対応する安全確認行動を実行したか否かを判定する。なお、図25に示す例において、車両C1Aは、運転者が運転場面情報「長距離直線道路の前進時」に対応する1つの安全確認行動のそれぞれが実行されたか否かを判定する例について説明する。
Further, the
例えば、端末装置22は、スピーカ25あるいは警告表示灯26を制御し、運転者に車両C1Aの後方の目視確認を促す運転特性改善支援を実行するとともに、車内カメラ13Aから出力された撮像画像に基づいて、運転者の体、顔あるいは目線の動きが方向AC41を向いたか否か(つまり、運転者が車両C1Aの後方を目視確認したか否か)を判定する。
For example, the
なお、図25に示す運転場面情報「長距離直線道路の前進時」のように、1つの運転場面が第1の所定時間あるいは第1の走行距離以上継続される場合、安全確認行動の判定処理は、周期的(例えば、所定時間ごと、所定距離ごと)に繰り返し実行されてもよい。 Note that when one driving scene continues for a first predetermined time or a first travel distance or more, as in the driving scene information "driving forward on a long-distance straight road" shown in FIG. may be repeatedly performed periodically (for example, every predetermined time, every predetermined distance).
端末装置22は、運転特性改善支援を開始したタイミングから安全確認行動の実行判定処理が終了したタイミングまでの間、車内カメラ13Aにより撮像された撮像画像に基づいて、運転者の感情を解析する。端末装置22は、解析結果に基づいて、感情データを生成する。端末装置22は、運転場面の判定を開始したタイミングから安全確認行動の実行判定が終了したタイミングまでの間に取得された運転特性データと、運転場面情報と、3つの安全確認行動のそれぞれの判定結果を示す安全確認行動データと、運転特性改善支援に対応する感情データとをそれぞれ生成して、利用者IDに紐付けてメモリ15Aに記録とともに、運転特性改善サーバS3に送信して、データベース54に記録させる。
The
次に、図26を参照して、運転場面ごとの運転者の安全確認行動の一例について説明する。図26は、運転場面ごとの運転者の安全確認行動のセンシング例を説明する図である。なお、図26に示す運転場面、安全確認行動、あるいはセンサ例は、一例であってこれに限定されないことは言うまでもない。 Next, with reference to FIG. 26, an example of a driver's safety confirmation behavior for each driving scene will be described. FIG. 26 is a diagram for explaining an example of sensing the safety confirmation behavior of the driver for each driving situation. It goes without saying that the driving scene, safety confirmation behavior, and sensor example shown in FIG. 26 are only examples, and are not limited to these.
図26に示す安全確認行動テーブルTB5は、運転場面情報と、運転場面情報に対応し、運転者により実行されるべき安全確認行動と、安全確認行動をセンシングするセンサ例とを対応付けるテーブルである。なお、安全確認行動テーブルTB5は、運転場面ごとにセンシングされる運転者の安全確認行動例の説明を分かり易くするためのテーブルであって、必須でなく省略されてよい。 The safety confirmation behavior table TB5 shown in FIG. 26 is a table that associates driving scene information, safety confirmation behavior that should be executed by the driver, and examples of sensors that sense the safety confirmation behavior, corresponding to the driving scene information. Note that the safety confirmation behavior table TB5 is a table for making it easy to understand the explanation of examples of the driver's safety confirmation behavior sensed for each driving scene, and is not essential and may be omitted.
例えば、図26に示す安全確認行動テーブルTB5において、端末装置22は、Bluetooth(登録商標)等の無線通信により車内センサ24によって運転者が所持する自車両のスマートキーあるいはスマートフォンから発信されている電波を受信して、自車両に対する運転者の接近を検知(センシング)したと判定した場合、運転特性学習装置23に記録された運転場面データに基づいて、運転場面が「車両に乗り込む前」であると判定する。端末装置22は、運転場面が「車両に乗り込む前」であると判定した場合、車外センサ/カメラ19Aにより自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,車内センサ24(例えば、ドアがそれぞれ開状態であるか閉状態であるかを検知するドア開閉センサ)による自車両の少なくとも1つの席のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。
For example, in the safety confirmation action table TB5 shown in FIG. 26, the
また、車内カメラ13A,車内センサ24(ドア開閉センサ)等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「車両から降りる前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A,車内センサ24(ドア開閉センサ)等により自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,車内センサ24(例えば、ドアがそれぞれ開状態であるか閉状態であるかを検知するドア開閉センサ)による自車両の少なくとも1つの席のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。
Based on the information acquired by various sensors such as the in-
また、車内カメラ13A,車内センサ24(ドア開閉センサ)等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「同乗者が車両から降りる前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A,車内センサ24(ドア開閉センサ)等により自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,車内センサ24(例えば、ドアがそれぞれ開状態であるか閉状態であるかを検知するドア開閉センサ)による自車両の少なくとも1つの席(例えば、自車両から降車する同乗者の座席)のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。
In addition, based on the information obtained by various sensors such as the in-
また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「車両を発進する前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の前進方向または後進方向(つまり、自車両の前後方向)、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。
Based on the information acquired by various sensors such as the in-
また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「ブレーキをかける前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。
Based on the information acquired by various sensors such as the in-
また、車内カメラ13A,ターンランプ17C,ステアリング17D等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「車線を変更する前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の左側後方,右側後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。
Based on the information acquired by various sensors such as the in-
また、車内カメラ13A等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「直進している時」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。
Further, when it is determined that the driving scene is "when going straight" based on the information acquired by various sensors such as the in-
また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B,ターンランプ17C,ステアリング17D等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「右左折をする前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等により自車両の後方、あるいは自車両の周囲からの接近物(例えば、歩行者,他車両,二輪車等)の有無等を目視確認する安全確認行動を実行しているか否かを判定する。
Further, based on the information acquired by various sensors such as the in-
また、車内カメラ13A,アクセルペダル17A,ブレーキペダル17B等の各種センサにより取得された情報と、運転特性学習装置23に記録された運転場面データとに基づいて、運転場面が「後退する前」であると判定した場合、端末装置22は、車内カメラ13A,車外センサ/カメラ19A,車内センサ24(ドア開閉センサ)等により自車両の前進方向または後進方向(つまり、自車両の前後方向)における障害物の有無,自車両の少なくとも1つの席(例えば、自車両から降車する同乗者の座席)のドアの開閉による接触物の有無等を目視確認する安全確認行動を実行しているか否かを判定する。
Based on the information acquired by various sensors such as the in-
次に、図27を参照して、車両C1A,…に搭載された警告表示灯26について説明する。図27は、警告表示灯26A,26Bの配置例を説明する図である。
Next, referring to FIG. 27, the warning indicator lights 26 mounted on the vehicles C1A, . . . will be described. FIG. 27 is a diagram illustrating an arrangement example of the
なお、図27に示す2つの警告表示灯26A,26Bのそれぞれの配置位置は、一例であってこれに限定されないことは言うまでもない。また、図27に示す例では、2つの警告表示灯26A,26Bのそれぞれが搭載されるが、車両C1A,…のそれぞれに搭載される警告表示灯の数は3以上であってよい。
It goes without saying that the arrangement position of each of the two
例えば、警告表示灯26は、車両C1A,…のBピラー,Cピラー,あるいはDピラー等のいずれかに設けられてもよい。ここでいうBピラーは、運転席および助手席とセカンドシートとの間であって、車両C1Aの車体中央部に設けられた一対のピラーである。また、Cピラーは、セカンドシートとサードシートとの間であって、車両C1A,…の車体後部に設けられた車体中央部に設けられた一対のピラーである。また、Dピラーは、セカンドシートあるいはサードシートの後方であって、車両C1Aの車体後方に設けられた一対のピラーである。
For example, the
図27に示す警告表示灯26A,26Bのそれぞれは、車両C1A,…のそれぞれのフロントガラスの両側に設けられた一対の前方ピラー(Aピラー)のそれぞれに設けられたLEDである。警告表示灯26A,26Bのそれぞれは、端末装置22あるいはECU16Aによる制御指令に基づく所定の色(例えば、黄色,オレンジ,赤等)で点灯あるいは点滅したり、消灯したりする。
Each of the
端末装置22は、運転場面の危険度(スコア)、あるいは運転者の運転特性(運転技量、安全確認行動の頻度等)に基づいて、警告表示灯26を異なる色で点灯あるいは点滅させてもよい。例えば、端末装置22は、運転場面の危険度が高いと判定した場合には、警告表示灯26を赤色で点滅させてもよいし、運転場面の危険度が高くないと判定した場合には、警告表示灯26をオレンジでより長い間隔で点滅させてもよい。
The
また、例えば、端末装置22は、運転者の左側サイドミラーSM1に映る車両C1A,…の後方の目視確認を支援する場合、左側に位置する警告表示灯26Bを点灯あるいは点滅させる運転特性改善支援を実行する。また、端末装置22は、運転者の右側サイドミラーSM2に映る車両C1A,…の後方の目視確認を支援する場合、右側に位置する警告表示灯26Bを点灯あるいは点滅させる運転特性改善支援を実行する。これにより、端末装置22は、警告表示灯26Bの点灯あるいは点滅により運転者の視線を、運転場面に対応する左側サイドミラーSM1(つまり、左側)あるいは右側サイドミラーSM2(つまり、右側)に誘導できる。
Further, for example, when the
また、例えば、端末装置22は、車両C1Aの左側方あるいは右側方で歩行者,他車両,二輪車等を検知した場合、運転者に車両C1A右側方の目視確認を促す運転特性改善支援を実行する。具体的に、端末装置22は、歩行者,他車両,二輪車等が検知された左側方あるいは右側方に配置された警告表示灯26A,26Bを、所定の色で点灯あるいは点滅させる運転特性改善支援を実行する。
Further, for example, when the
また、例えば、端末装置22は、自車両と検知された歩行者,他車両,二輪車等との間の距離、自車両に接近する歩行者,他車両,二輪車等との間の接近速度等を算出する。端末装置22は、算出された距離,接近速度等に基づいて、運転場面の危険度を判定し、運転場面の危険度に対応して、警告表示灯26Aまたは警告表示灯26Bの色,点滅パターン,点滅速度等を決定する。
In addition, for example, the
具体的に、端末装置22は、算出された距離、あるいは距離と接近速度とに基づいて、自車両が減速,停車等の運転操作不要であると判定した場合、警告表示灯26Aまたは警告表示灯26Bをオレンジ色に点滅させたり、自車両が減速,停車等の運転操作不要でないと判定した場合、警告表示灯26Aまたは警告表示灯26Bを赤色でより短い間隔で点滅させたりする。これにより、運転者は、警告表示灯26Aまたは警告表示灯26Bの色,点滅パターン,点滅速度等に基づいて、安全確認行動の重要度を一目で直感的に把握できる。
Specifically, when the
次に、図28を参照して、車両C1A,…に搭載されたスピーカ25について説明する。図28は、スピーカ25の配置例を説明する図である。
Next, the
図28に示す例においてスピーカ25は、車両C1A,…の内部に4つのスピーカ25A,25B,25C,25Dのそれぞれが搭載される。スピーカ25Aは、車両C1A,…のそれぞれのダッシュボードDSB上であって、左側のAピラーあるいは左側サイドミラーSM1の近傍に搭載される。スピーカ25Bは、車両C1A,…のそれぞれのダッシュボードDSB上であって、右側のAピラーあるいは右側サイドミラーSM2の近傍に搭載される。スピーカ25Cは、車両C1A,…の左側後部座席あるいは左側Cピラー(不図示)の近傍に搭載される。スピーカ25Dは、車両C1A,…の左側後部座席あるいは左側Cピラー(不図示)の近傍に搭載される。なお、図28に示す4つのスピーカ25A,25B,25C,25Dのそれぞれの配置位置は、一例であって、これに限定されないことは言うまでもない。
In the example shown in FIG. 28, four
端末装置22は、各種センサにより自車両へ接近する接近物(例えば、歩行者,他車両,二輪車等),自車両周囲の障害物等が検知された場合、4つのスピーカ25A~25Dのそれぞれのうち検知された接近物あるいは障害物に対応する位置のスピーカに、接近物あるいは障害物を検知した旨の音声を出力させる。
When an object approaching the vehicle (for example, a pedestrian, another vehicle, a two-wheeled vehicle, etc.) or an obstacle around the vehicle is detected by various sensors, the
例えば、端末装置22は、運転場面「車線変更時」であって、現在自車両が走行している車線から進行方向右側の車線へ車線変更する運転場面において、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより自車両の右側後方から接近する他車両を検知する。このような場合、端末装置22は、他車両が検知された方向(ここでは、右側後方)に配置されたスピーカ25Dから音声を出力させることで運転特性改善支援を実行し、右側後方の安全確認を運転者に促す。
For example, the
また、例えば、端末装置22は、運転場面「左折時」において、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより自車両の進行方向前方から歩行者の接近を検知する。このような場合、端末装置22は、歩行者が検知された方向(ここでは、左側前方)に配置されたスピーカ25Bから音声を出力させることで運転特性改善支援を実行し、左側前方の安全確認を運転者に促す。
Further, for example, the
また、例えば、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより自車両後方を目視確認する必要があると判定した場合、自車両後方に配置された2つのスピーカ25C,25Dのそれぞれから音声を出力させることで運転特性改善支援を実行し、後方の安全確認を運転者に促す。
Further, for example, when the
また、端末装置22は、車内カメラ13A,車外センサ/カメラ19A等の各種センサにより検知された接近物あるいは障害物を解析し、検知された接近物あるいは障害物の種別(例えば、歩行者,他車両,二輪車等)に対応する音声をスピーカ25A~25Dのそれぞれに出力させてよい。例えば、端末装置22は、歩道からの歩行者の接近を検知した場合には「歩道から歩行者が接近しています」、後方から自転車(二輪車)の接近を検知した場合には「後方から自転車が接近しています」等の音声をスピーカ25A~25Dのそれぞれに出力させて、運転特性改善支援を実行する。
In addition, the
次に、図29を参照して、改善効果データが示す運転特性改善支援方法の変更例について説明する。図29は、運転特性改善支援の変更例を説明する図である。なお、図29に示す運転特性改善支援方法例、および運転特性改善支援の変更例は、一例であってこれに限定されない。 Next, with reference to FIG. 29, a modification of the driving characteristic improvement support method indicated by the improvement effect data will be described. FIG. 29 is a diagram illustrating a modification example of driving characteristic improvement assistance. It should be noted that the example of the driving characteristic improvement support method and the modified example of the driving characteristic improvement support shown in FIG. 29 are only examples, and the present invention is not limited to this.
運転特性改善サーバS3は、運転者の利用者IDが紐付けられた運転場面における運転特性データ(具体的には、行動特性データ)に基づく前回の運転者の安全確認行動の頻度と、車両C1A,…から取得された運転場面における運転特性データ(具体的には、行動特性データ)に基づく最新の運転者の安全確認行動の頻度とをそれぞれ算出して、運転場面情報に対応する改善効果データに基づいて実行された運転特性改善支援前後の運転者の安全確認行動の頻度の変化を判定する。 The driving characteristic improvement server S3 calculates the frequency of the driver's previous safety confirmation behavior based on the driving characteristic data (specifically, the behavioral characteristic data) in the driving scene associated with the user ID of the driver, and the vehicle C1A. , … based on the driving characteristic data (specifically, behavioral characteristic data) in the driving scene acquired from … and the frequency of the latest safety confirmation behavior of the driver, respectively, and improvement effect data corresponding to the driving scene information A change in the frequency of the driver's safety confirmation behavior before and after the driving characteristic improvement assistance executed based on is determined.
具体的に、運転特性改善サーバS3は、前回の安全確認行動の頻度と、最新の安全確認行動の頻度とに基づいて、この運転場面における運転者の安全確認行動が増加しているか否か(つまり、運転特性が改善しているか否か)を判定する。運転特性改善サーバS3は、取得された感情データと安全確認行動の頻度が増加しているか否か(つまり、運転特性が改善しているか否か)の判定結果とに基づいて、この運転場面情報に対応する新たな改善効果データを生成し、更新する。運転特性改善サーバS3は、生成された改善効果データを車両C1A,…に送信する。なお、運転特性改善サーバS3は、改善効果データの生成処理を定期的(例えば、1日,1週間,1か月等)に実行してもよい。 Specifically, the driving characteristic improvement server S3 determines whether the driver's safety confirmation behavior is increasing in this driving scene based on the frequency of the previous safety confirmation behavior and the frequency of the latest safety confirmation behavior ( That is, it is determined whether or not the driving characteristics are improved. The driving characteristic improvement server S3 generates this driving scene information based on the acquired emotion data and the determination result as to whether or not the frequency of safety confirmation behavior is increasing (that is, whether or not the driving characteristic is improving). Generate and update new improvement effect data corresponding to The driving characteristic improvement server S3 transmits the generated improvement effect data to the vehicles C1A, . The driving characteristic improvement server S3 may periodically (for example, one day, one week, one month, etc.) perform the improvement effect data generation process.
運転特性改善サーバS3は、取得された運転者の感情データが肯定的な感情である「快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加している(つまり、運転特性が改善している)と判定した場合、運転者の運転特性が改善しており、この運転特性情報に対応する改善効果データが示す運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)がより効果的であると判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データを、他の運転場面情報の新たな改善効果データとして生成し、他の運転場面情報に紐付けて改善効果データベースDB4に登録(更新)する。
The driving characteristic improvement server S3 indicates that the acquired emotion data of the driver indicates a positive emotion of "comfort" and that the frequency of safety confirmation behavior after driving characteristic improvement assistance has increased (that is, , the driving characteristics are improving), the driving characteristics of the driver are improving, and the driving characteristics improvement support method indicated by the improvement effect data corresponding to the driving characteristics information (that is, the
一方、運転特性改善サーバS3は、取得された運転者の感情データが肯定的な感情である「快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加していない(つまり、運転特性が改善していない)と判定した場合、運転者の運転特性が改善していないが、この運転特性情報に対応する改善効果データが示す運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)が有効であると判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データが示す運転特性改善支援の頻度を増加させた新たな改善効果データを生成して、改善効果データベースDB4に登録(更新)する。
On the other hand, the driving characteristic improvement server S3 indicates that the acquired emotion data of the driver indicates "comfort", which is a positive emotion, and the frequency of safety confirmation behavior after driving characteristic improvement assistance has not increased. (that is, the driving characteristics have not improved), the driving characteristics of the driver have not improved, but the driving characteristics improvement support method indicated by the improvement effect data corresponding to the driving characteristics information (that is, the
また、運転特性改善サーバS3は、取得された運転者の感情データが否定的な感情である「不快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加している(つまり、運転特性が改善している)と判定した場合、この運転者の運転特性が改善しているが、現在設定されている運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)の変更が必要であると判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データと異なる効果改善データを生成し、この運転場面情報の新たな改善効果データとして改善効果データベースDB4に登録(更新)するとともに、他の運転場面情報の新たな改善効果データとして改善効果データベースDB4に登録(更新)する。
Further, the driving characteristic improvement server S3 indicates that the acquired emotion data of the driver indicates "uncomfortable", which is a negative emotion, and the frequency of safety confirmation behavior after the driving characteristic improvement assistance has increased. (that is, the driving characteristics have improved), the driving characteristics of this driver have improved, but the currently set driving characteristics improvement support method (that is, the
一方、運転特性改善サーバS3は、取得された運転者の感情データが肯定的な感情である「快」を示しており、かつ、運転特性改善支援後の安全確認行動の頻度が増加していない(つまり、運転特性が改善していない)と判定した場合、この運転者の運転特性が改善しておらず、現在設定されている運転特性改善支援方法(つまり、スピーカ25あるいは警告表示灯26の制御方法)が有効でないと判定する。このような場合、運転特性改善サーバS3は、この運転場面情報に対応する改善効果データと異なる効果改善データを生成し、この運転場面情報の新たな改善効果データとして改善効果データベースDB4に登録(更新)する。
On the other hand, the driving characteristic improvement server S3 indicates that the acquired emotion data of the driver indicates "comfort", which is a positive emotion, and the frequency of safety confirmation behavior after driving characteristic improvement assistance has not increased. (That is, the driving characteristics have not improved), the driving characteristics of this driver have not improved, and the currently set driving characteristics improvement support method (that is, the
例えば、運転特性改善サーバS3は、現在の改善効果データがスピーカ25と警告表示灯26とを用いて安全確認行動を実行する支援方法である場合、スピーカ25または警告表示灯26のいずれか一方を用いて安全確認行動を実行する新たな改善効果データを生成したり、現在の改善効果データが警告表示灯26を用いて安全確認行動を実行する支援方法である場合、スピーカ25を用いて安全確認行動を実行する新たな改善効果データを生成したりする。
For example, when the current improvement effect data is a support method for executing a safety confirmation action using the
以上により、実施の形態2における運転特性改善サーバS3は、運転者の安全確認行動の頻度に対応する運転特性の改善状況と、運転特性改善支援による運転者の反応(感情データ)とに基づいて、運転者により適した運転特性改善支援方法を設定できる。 As described above, the driving characteristic improvement server S3 according to the second embodiment is configured based on the driving characteristic improvement state corresponding to the frequency of the driver's safety confirmation behavior and the driver's reaction (emotional data) due to the driving characteristic improvement support. , a driving characteristic improvement support method more suitable for the driver can be set.
次に、図30および図31のそれぞれを参照して、実施の形態2に係る運転特性改善支援システム200の動作手順について説明する。図30は、実施の形態2に係る運転特性改善支援システム200の動作手順例を示すフローチャートである。図31は、実施の形態2に係る運転特性改善支援システム200の動作手順例を説明するフローチャートである。
Next, operation procedures of driving characteristic
運転特性改善支援システム200における車両C1A,…のそれぞれは、スリープ状態で待機する(St51)。車両C1A,…のそれぞれは、車内センサ24により自車両に接近する運転者を検知したか否かを判定する(St52)。例えば、車両C1A,…のそれぞれは、運転者が所持するスマートキー,スマートフォン等が発信する電波を検知したと判定した場合、自車両に接近する運転者を検知したと判定する。
Each of the vehicles C1A, . . . in the driving characteristic
車両C1A,…のそれぞれは、ステップSt52の処理において、車内センサ24により自車両に接近する運転者を検知したと判定した場合(St52,YES)、運転者の運転行動のセンシングシステム(例えば、各種センサ)を起動させて、運転者の運転特性および行動特性(つまり、運転特性データ)のセンシングを開始する(St53)。 If each of the vehicles C1A, . sensor) to start sensing the driver's driving characteristics and behavioral characteristics (that is, driving characteristic data) (St53).
一方、車両C1A,…のそれぞれは、ステップSt52の処理において、車内センサ24により自車両に接近する運転者を検知していないと判定した場合(St52,NO)、ステップSt51の処理に移行し、スリープ状態で待機する(St51)。 On the other hand, when each of the vehicles C1A, . It waits in a sleep state (St51).
車両C1A,…のそれぞれは、各種センサにより運転者の運転特性データを取得し、現在の運転場面における運転行動の監視を開始する(St54)。車両C1A,…のそれぞれは、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上であるか否かを判定する(St55)。 Each of the vehicles C1A, . Each of the vehicles C1A, . (St55).
車両C1A,…のそれぞれは、ステップSt55の処理において、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上であると判定した場合(St55,YES)、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したか否かを判定する(St56)。なお、ここで、運転場面に対応する安全確認行動は、複数であってよい。また、運転場面に対応する安全確認行動が複数であって、かつ、実行される順番が決まっている場合、車両C1A,…のそれぞれは、決められた順番通りに安全確認行動が実行されたか否かを判定してよい。 In the processing of step St55, each of the vehicles C1A, . (St55, YES), based on the acquired driving characteristic data (specifically, behavioral characteristic data), it is determined whether or not execution of safety confirmation behavior by the driver has been detected (St56). . Note that there may be a plurality of safety confirmation actions corresponding to the driving scene. Further, when there are a plurality of safety confirmation actions corresponding to the driving scene and the execution order is determined, each of the vehicles C1A, . You can judge whether
車両C1A,…のそれぞれは、ステップSt56の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したと判定した場合(St56,YES)、取得された運転特性データと、運転場面情報と、運転場面情報に対応する運転特性改善支援に対する感情データと、利用者IDとを紐付けて運転特性改善サーバS3に送信するとともに、メモリ15Aに記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St57)。
If each of the vehicles C1A, . St56, YES), the acquired driving characteristic data, the driving scene information, the emotion data for the driving characteristic improvement support corresponding to the driving scene information, and the user ID are linked and transmitted to the driving characteristic improvement server S3. , is stored in the
一方、車両C1A,…のそれぞれは、ステップSt56の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知していないと判定した場合(St56,NO)、現在の運転者の運転特性データ(つまり、運転技量)と、運転場面情報に対応する改善効果データとに基づいて、運転特性改善支援を実行する(St58)。 On the other hand, in the process of step St56, each of the vehicles C1A, . If so (St56, NO), driving characteristic improvement assistance is executed based on the current driver's driving characteristic data (that is, driving skill) and improvement effect data corresponding to the driving scene information (St58).
車両C1A,…のそれぞれは、車内カメラ13Aにより撮像された撮像画像を画像解析し、実行された運転特性改善支援に対する運転者の反応(感情データ)と、運転者の行動特性データを解析する。車両C1A,…のそれぞれは、取得された行動特性データを含む運転特性データをメモリ15Aに蓄積して記憶する。また、車両C1A,…のそれぞれは、運転場面情報と、運転特性改善支援に対する運転者の感情データと、運転特性データと、利用者IDとを紐付けて運転特性改善サーバS3に送信する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St59)。
Each of the vehicles C1A, . Each of the vehicles C1A, . . . accumulates and stores driving characteristic data including the acquired behavioral characteristic data in the
一方、車両C1A,…のそれぞれは、ステップSt55の処理において、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上でないと判定した場合(St55,NO)、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したか否かを判定する(St60)。 On the other hand, in the processing of step St55, each of the vehicles C1A, . If it is determined that it is not (St55, NO), based on the acquired driving characteristic data (specifically, behavioral characteristic data), it is determined whether or not execution of the safety confirmation action by the driver has been detected (St60 ).
車両C1A,…のそれぞれは、ステップSt60の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知したと判定した場合(St60,YES)、取得された運転特性データと、運転場面情報と、運転特性改善支援に対する運転者の感情データと、利用者IDとを紐付けて運転特性改善サーバS3に送信するとともに、メモリ15Aに記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St57)。
If each of the vehicles C1A, . St60, YES), the acquired driving characteristic data, the driving scene information, the driver's emotion data for driving characteristic improvement assistance, and the user ID are linked and transmitted to the driving characteristic improvement server S3, and the
一方、車両C1A,…のそれぞれは、ステップSt60の処理において、取得された運転特性データ(具体的には、行動特性データ)に基づいて、運転者による安全確認行動の実行を検知していないと判定した場合(St60,NO)、運転者の現在の運転特性(つまり、現在の運転場面における最新の安全確認行動の頻度)に基づいて、運転特性改善支援を実行して運転場面に対応する安全確認行動を促すか否かを判定する(St61)。 On the other hand, in the process of step St60, each of the vehicles C1A, . If it is determined (St60, NO), based on the driver's current driving characteristics (that is, the frequency of the latest safety confirmation behavior in the current driving scene), driving characteristic improvement support is executed to provide safety corresponding to the driving scene. It is determined whether or not to prompt a confirmation action (St61).
具体的に、車両C1A,…のそれぞれは、ステップSt61の処理において、現在の運転特性が示す現在の運転場面における最新の安全確認行動の頻度を算出する。車両C1A,…のそれぞれは、算出された最新の安全確認行動の頻度が、現在の運転場面の危険度(スコア)に対応して設定された安全確認行動の頻度に関する閾値以上であるか否かを判定する。 Specifically, in the process of step St61, each of the vehicles C1A, . Each of the vehicles C1A, . judge.
例えば、運転場面が「直線道路走行時」であって、この運転場面に対応する危険度(スコア)が「低」である場合、安全確認行動の頻度に関する閾値は、1/4が設定される。このような場合、車両C1A,…のそれぞれは、運転場面「直線道路走行時」における運転者の最新の安全確認行動の頻度が1/4以上であるか否かを判定する。 For example, if the driving scene is "driving on a straight road" and the risk (score) corresponding to this driving scene is "low", the threshold for the frequency of safety confirmation behavior is set to 1/4. . In such a case, each of the vehicles C1A, .
また、例えば、運転場面が「車線変更時」であって、この運転場面に対応する危険度(スコア)が「高」である場合、安全確認行動の頻度に関する閾値は、1/2が設定される。このような場合、車両C1A,…のそれぞれは、運転場面「車線変更時」における運転者の最新の安全確認行動の頻度が1/2以上であるか否かを判定する。 Further, for example, when the driving scene is "when changing lanes" and the degree of risk (score) corresponding to this driving scene is "high", the threshold for the frequency of safety confirmation actions is set to 1/2. be. In such a case, each of the vehicles C1A, .
車両C1A,…のそれぞれは、ステップSt61の処理において、運転者の現在の運転特性に基づいて、運転特性改善支援を実行して運転場面に対応する安全確認行動を促すと判定した場合(St61,YES)、現在の運転者の運転特性データ(つまり、運転技量)と、運転場面情報に対応する改善効果データとに基づいて、運転特性改善支援を実行する(St58)。具体的に、車両C1A,…のそれぞれは、算出された最新の安全確認行動の頻度が、現在の運転場面の危険度(スコア)に対応して設定された安全確認行動の頻度に関する閾値以上でないと判定した場合に、運転特性改善支援を実行して運転場面に対応する安全確認行動を促すと判定する(St61,YES)。 If each of the vehicles C1A, . YES), driving characteristic improvement assistance is executed based on the current driver's driving characteristic data (that is, driving skill) and improvement effect data corresponding to the driving scene information (St58). Specifically, for each of the vehicles C1A, . If so, it is determined that driving characteristic improvement support is to be executed to encourage safety confirmation behavior corresponding to the driving situation (St61, YES).
一方、車両C1A,…のそれぞれは、ステップSt61の処理において、運転者の現在の運転特性に基づいて、運転特性改善支援を実行して運転場面に対応する安全確認行動を促さないと判定した場合(St61,NO)、取得された運転特性データと、運転場面情報と、運転特性改善支援に対する運転者の感情データと、利用者IDとを紐付けて運転特性改善サーバS3に送信するとともに、メモリ15Aに記憶する。車両C1A,…のそれぞれは、運転特性改善サーバS3から送信された新たな改善効果データを取得し、運転場面情報の現在の改善効果データを、取得された新たな改善効果データに更新(変更)する(St57)。具体的に、車両C1A,…のそれぞれは、算出された最新の安全確認行動の頻度が、現在の運転場面の危険度(スコア)に対応して設定された安全確認行動の頻度に関する閾値以上であると判定した場合に、運転特性改善支援を実行して運転場面に対応する安全確認行動を促さないと判定する(St61,NO)。
On the other hand, when each of the vehicles C1A, . (St61, NO), the acquired driving characteristic data, the driving scene information, the driver's emotion data regarding the driving characteristic improvement support, and the user ID are linked and transmitted to the driving characteristic improvement server S3, and the
車両C1A,…のそれぞれは、運転者による運転終了を検知したか否かを判定する(St)。なお、ここでいう運転終了は、運転者が降車し、自車両から所定距離以上離れることであってもよい。 Each of the vehicles C1A, . . . determines whether it has detected that the driver has finished driving (St). It should be noted that the end of driving referred to here may be when the driver gets off the vehicle and moves away from the own vehicle by a predetermined distance or more.
車両C1A,…のそれぞれは、ステップSt62の処理において、運転者による運転終了を検知したと判定した場合(St62,YES)、運転行動のセンシングシステムを終了させて(St63)、再度、スリープ状態となり待機する(St51)。 When each of the vehicles C1A, . Wait (St51).
一方、車両C1A,…のそれぞれは、ステップSt62の処理において、運転者による運転終了を検知していないと判定した場合(St62,NO)、ステップSt55の処理に移行し、車両C1A,…のそれぞれは、現在の運転場面が、安全確認行動が必要な運転場面であって、かつ、現在の運転場面の危険度(スコア)が所定値以上であるか否かを、再度判定する(St55)。 On the other hand, each of the vehicles C1A, . determines again whether or not the current driving scene requires a safety confirmation action and the degree of risk (score) of the current driving scene is equal to or higher than a predetermined value (St55).
以上により、実施の形態2における車両C1A,…のそれぞれは、運転場面と、運転者の運転特性(運転技量)とに基づいて、運転者の安全確認行動を支援することで、運転者の運転特性(運転技量)の改善を支援できる。また、実施の形態2における運転特性改善サーバS3は、運転場面と、運転者の運転特性(運転技量)と、運転特性改善支援に対する運転者の反応(感情データ)とに基づいて、運転者により適した運転特性改善支援方法(改善効果データ)を決定することができる。したがって、車両C1A,…のそれぞれは、運転特性改善サーバS3により生成された改善効果データに基づく運転特性改善支援方法により、運転者により適した安全確認行動を支援することで、運転者の運転特性(運転技量)の改善を支援できる。 As described above, each of the vehicles C1A, . It can help improve characteristics (driving skills). In addition, the driving characteristic improvement server S3 in the second embodiment provides the driver with a A suitable driving characteristic improvement support method (improvement effect data) can be determined. Therefore, each of the vehicles C1A, . (driving skills) can be supported.
以上により、実施の形態2に係る運転特性改善サーバS3は、少なくとも1台の車両C1A,…との間で通信可能である1以上のコンピュータである。運転特性改善サーバS3が実行する運転特性改善支援データの管理方法は、少なくとも1台の車両C1A,…との間で通信可能である1以上のコンピュータが実行する運転特性改善効果データの管理方法であって、車両C1A,…の運転場面を示す複数の運転場面情報と、運転場面情報に対応し、車両C1A,…を運転する運転者の安全確認行動の改善を支援する改善効果データ(支援データの一例)と、運転場面情報における運転者の運転特性データとを複数の運転者の利用者ID(運転者IDの一例)ごとに紐付けて登録し、運転場面情報と改善効果データとをそれぞれ紐付けて、車両C1A,…に送信し、車両C1A,…を運転する運転者の利用者IDと、運転場面情報に対応する運転者の運転特性データと、改善効果データに基づく支援に対する運転者の感情データとを取得し、複数の運転者のそれぞれの利用者IDと取得された利用者IDとを照合し、照合された利用者IDに紐付けられた運転特性データと、取得された運転特性データおよび感情データとに基づいて、取得された運転場面情報に対応する新たな改善効果データを生成し、照合された利用者IDに紐付けられた複数の運転場面情報のうち取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。なお、ここでいうコンピュータは、運転特性改善サーバS3を、少なくとも含んで構成される。 As described above, the driving characteristic improvement server S3 according to the second embodiment is one or more computers that can communicate with at least one vehicle C1A. The management method of the driving characteristic improvement support data executed by the driving characteristic improvement server S3 is the management method of the driving characteristic improvement effect data executed by one or more computers capable of communicating with at least one vehicle C1A. There are a plurality of driving scene information indicating driving scenes of the vehicles C1A, . example) and the driving characteristic data of the driver in the driving scene information are linked to each of the user IDs of a plurality of drivers (an example of the driver ID), and the driving scene information and the improvement effect data are respectively registered. are linked and transmitted to the vehicles C1A, . . . , the user ID of the driver who drives the vehicle C1A, . and matching the user IDs of the plurality of drivers with the acquired user IDs, and the driving characteristic data linked to the matched user IDs and the acquired driving Based on the characteristic data and the emotion data, new improvement effect data corresponding to the acquired driving scene information is generated, and the acquired driving scene information among the plurality of driving scene information linked to the collated user ID is generated. The improvement effect data linked to the same driving scene information as the scene information is updated to the generated new improvement effect data. The computer referred to here includes at least the driving characteristic improvement server S3.
これにより、実施の形態2に係る運転特性改善サーバS3は、車両C1A,…のそれぞれに事前に送信された改善効果データを用いた運転特性改善支援結果として、運転場面情報と、運転者の運転特性と、改善効果データが示す運転特性改善支援(安全確認行動の支援の一例)に対する運転者の感情データとを取得できる。運転特性改善サーバS3は、取得された運転者の現在の状態(つまり、運転者の運転特性(運転技量)および感情)に基づく新たな改善効果データを生成するとともに、生成された新たな改善効果データと、この新たな改善効果データの生成に用いられた運転場面情報と、運転特性データと、感情データとを利用者IDに紐付けることで、利用者IDごとの改善効果データをより効率的に管理できる。 As a result, the driving characteristic improvement server S3 according to the second embodiment uses the improvement effect data transmitted in advance to each of the vehicles C1A, . It is possible to acquire the characteristics and the driver's emotion data for driving characteristic improvement assistance (an example of safety confirmation behavior assistance) indicated by the improvement effect data. The driving characteristic improvement server S3 generates new improvement effect data based on the obtained current state of the driver (that is, the driver's driving characteristic (driving skill) and emotion), and also generates new improvement effect data. data, driving scene information, driving characteristic data, and emotion data used to generate the new improvement effect data are linked to the user ID, so that the improvement effect data for each user ID can be processed more efficiently. can be managed to
また、以上により、実施の形態2に係る運転特性改善サーバS3は、取得された運転特性データと、登録された運転特性データとを用いて、運転場面における運転者の運転特性が改善したか否かを判定し、感情データと、運転特性が改善したか否かの判定結果とに基づいて、新たな改善効果データを生成する。これにより、実施の形態2に係る運転特性改善サーバS3は、現在の運転者の状態(つまり、運転者の運転特性(運転技量)および感情)により適した改善効果データの生成できる。 As described above, the driving characteristic improvement server S3 according to the second embodiment uses the acquired driving characteristic data and the registered driving characteristic data to determine whether or not the driving characteristic of the driver in the driving situation has improved. Then, new improvement effect data is generated based on the emotion data and the determination result as to whether or not the driving characteristics have improved. As a result, the driving characteristic improvement server S3 according to the second embodiment can generate improvement effect data more suitable for the current state of the driver (that is, the driver's driving characteristic (driving skill) and emotion).
また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが肯定的であって、かつ、運転特性が改善したと判定した場合、照合された利用者IDに紐付けられた複数の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者の運転特性が改善したと判定され、かつ、運転者が快適(つまり、肯定的)に感じた改善効果データ(つまり、運転特性改善支援方法)を、現在の運転場面で継続するとともに、他の運転場面における新たな改善効果データとして生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotion data is positive and the driving characteristic is improved, the The improvement effect data linked to a plurality of pieces of driving scene information are updated to the generated new improvement effect data. As a result, the driving characteristic improvement server S3 according to the second embodiment determines that the driving characteristic of the driver has improved, and furthermore, the improvement effect data (that is, driving Improvement effect data indicating a driving characteristic improvement support method that is more suitable for the driver by continuing the driving characteristic improvement support method) in the current driving situation and generating and updating new improvement effect data in other driving situations. more efficient management of
また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが肯定的であって、かつ、運転特性が改善していないと判定した場合、取得された運転場面情報に対応する改善効果データよりも支援の頻度を増加させた新たな改善効果データを生成し、取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者が快適(つまり、肯定的)に感じた改善効果データ(つまり、運転特性改善支援方法)における支援頻度を上げた新たな改善効果データを生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotion data is positive and the driving characteristic is not improved, the driving situation information corresponding to the acquired driving situation information New improvement effect data is generated in which the frequency of support is increased more than the improvement effect data, and the improvement effect data linked to the same driving scene information as the acquired driving scene information is added to the generated new improvement effect data. Update to data. As a result, the driving characteristic improvement server S3 according to the second embodiment provides a new improvement that increases the frequency of assistance in the improvement effect data (that is, the driving characteristic improvement support method) that the driver feels comfortable (that is, positively). By generating and updating the effect data, more efficient management of the improvement effect data indicating driving characteristic improvement assistance methods more suitable for the driver can be performed.
また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが否定的であって、かつ、運転特性が改善したと判定した場合、取得された運転場面情報に対応する改善効果データと異なる新たな改善効果データを生成し、取得された運転場面情報と異なる他の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新し、取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データの変更を省略する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者の運転特性が改善したと判定され、かつ、運転者が不快(つまり、否定的)に感じた改善効果データ(つまり、運転特性改善支援方法)を同一運転場面の新たな改善効果データとして生成して更新するとともに、他の運転場面においては運転者が不快(つまり、否定的)に感じた改善効果データと異なる改善効果データを新たな改善効果データとして生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to Embodiment 2 determines that the emotion data is negative and the driving characteristic is improved, the improvement effect corresponding to the acquired driving scene information Generate new improvement effect data different from the data, update the improvement effect data linked to other driving scene information different from the acquired driving scene information to the generated new improvement effect data, and acquire The modification of the improvement effect data linked to the same driving scene information as the driving scene information is omitted. As a result, the driving characteristic improvement server S3 according to the second embodiment determines that the driving characteristic of the driver has improved, and furthermore, the improvement effect data (that is, driving characteristic improvement support method) is generated and updated as new improvement effect data for the same driving situation, and the improvement effect data different from the improvement effect data that the driver feels uncomfortable (that is, negative) in other driving situations. is generated as new improvement effect data and updated, more efficient management of the improvement effect data indicating the driving characteristic improvement support method more suitable for the driver can be executed.
また、以上により、実施の形態2に係る運転特性改善サーバS3は、感情データが否定的であって、かつ、運転特性が改善していないと判定した場合、取得された運転場面情報に対応する改善効果データと異なる新たな改善効果データを生成し、取得された運転場面情報と同一の運転場面情報に紐付けられた改善効果データを、生成された新たな改善効果データに更新する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者の運転特性が改善していないと判定され、かつ、運転者が不快(つまり、否定的)に感じた改善効果データ(つまり、運転特性改善支援方法)と異なる改善効果データを、現在の運転場面の新たな改善効果データとして生成して更新するとともに、他の運転場面においても同様に運転者が不快(つまり、否定的)に感じた改善効果データと異なる改善効果データを新たな改善効果データとして生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, when the driving characteristic improvement server S3 according to the second embodiment determines that the emotion data is negative and the driving characteristic is not improved, the driving situation information corresponding to the acquired driving situation information New improvement effect data different from the improvement effect data is generated, and the improvement effect data linked to the same driving scene information as the acquired driving scene information is updated to the generated new improvement effect data. As a result, the driving characteristic improvement server S3 according to the second embodiment determines that the driving characteristic of the driver has not improved, and furthermore, the improvement effect data (that is, , driving characteristic improvement support method) is generated and updated as new improvement effect data for the current driving situation, and the driver is similarly uncomfortable (i.e., negative) in other driving situations. By generating and updating improvement effect data that differs from the improvement effect data felt by the driver as new improvement effect data, it is possible to more efficiently manage the improvement effect data that indicates a driving characteristic improvement support method that is more suitable for the driver. .
また、以上により、実施の形態2に係る運転特性改善サーバS3により生成される改善効果データは、車両C1A,…に搭載され、音声あるいは光により運転特性改善支援を実行するスピーカ25あるいは警告表示灯26(安全運転支援機器の一例)を制御する制御指令である。これにより、実施の形態2に係る運転特性改善サーバS3は、各車両C1A,…のそれぞれで実行される運転特性改善支援におけるスピーカ25あるいは警告表示灯26の制御指令をより効率的に管理できる。
As described above, the improvement effect data generated by the driving characteristics improvement server S3 according to the second embodiment is installed in the vehicles C1A, . 26 (an example of safe driving support equipment). Thereby, the driving characteristic improvement server S3 according to the second embodiment can more efficiently manage the control commands for the
また、以上により、実施の形態2に係る運転特性改善サーバS3により生成される改善効果データは、車両C1A,…に搭載され、音声あるいは光により支援を実行する安全運転支援機器を制御する制御指令であって、感情データが否定的である場合、音声または光のいずれか一方により支援を実行させる新たな改善効果データを生成する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者が現在の改善効果データに基づく支援方法を不快(つまり、否定的)に感じていると判定した場合、運転者により適した支援方法に変更した新たな改善効果データを生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。例えば、運転特性改善サーバS3は、現在の改善効果データがスピーカ25と警告表示灯26とを用いて安全確認行動を実行する支援方法である場合、スピーカ25または警告表示灯26のいずれか一方を用いて安全確認行動を実行する新たな改善効果データを生成したり、現在の改善効果データが警告表示灯26を用いて安全確認行動を実行する支援方法である場合、スピーカ25を用いて安全確認行動を実行する新たな改善効果データを生成したりする。
Further, as described above, the improvement effect data generated by the driving characteristic improvement server S3 according to the second embodiment is provided in the vehicles C1A, . and if the emotion data is negative, generate new improvement effect data for performing support by either voice or light. As a result, when the driving characteristic improvement server S3 according to the second embodiment determines that the driver feels uncomfortable (that is, negatively) with the support method based on the current improvement effect data, By generating and updating new improvement effect data for the changed support method, more efficient management of the improvement effect data indicating the driving characteristic improvement support method more suitable for the driver can be executed. For example, when the current improvement effect data is a support method for executing a safety confirmation action using the
また、以上により、実施の形態2に係る運転特性改善サーバS3により生成される改善効果データは、車両C1A,…に搭載され、音声あるいは光により支援を実行する安全運転支援機器を制御する制御指令であって、感情データが否定的である場合、取得された運転場面情報に対応する改善効果データよりも音声あるいは光による支援の頻度を減少させた新たな改善効果データを生成する。これにより、実施の形態2に係る運転特性改善サーバS3は、運転者が現在の改善効果データに基づく支援方法を運転者が不快(つまり、否定的)に感じていると判定した場合、運転特性改善支援の頻度を減少させた新たな改善効果データを生成して更新することで、運転者により適した運転特性改善支援方法を示す改善効果データのより効率的な管理を実行できる。 Further, as described above, the improvement effect data generated by the driving characteristic improvement server S3 according to the second embodiment is provided in the vehicles C1A, . When the emotion data is negative, new improvement effect data is generated in which the frequency of support by voice or light is reduced from that of the improvement effect data corresponding to the acquired driving scene information. As a result, when the driving characteristic improvement server S3 according to the second embodiment determines that the driver feels uncomfortable (that is, negatively) with the assistance method based on the current improvement effect data, the driving characteristic improvement server S3 By generating and updating new improvement effect data with reduced frequency of improvement support, more efficient management of the improvement effect data indicating the driving characteristic improvement support method more suitable for the driver can be executed.
以上により、実施の形態2に係る車両C1A,…は、車両C1A,…の運転場面を示す複数の運転場面情報と、運転場面情報に対応し、車両C1A,…を運転する運転者の安全確認行動の改善を支援する改善効果データと、運転者の利用者IDとを紐付けて記憶し、運転場面情報における運転者の運転特性データと、運転場面情報に対応する改善効果データに基づく支援に対する運転者の感情データとを各種センサ(センサの一例)により取得し、取得された運転特性データおよび感情データと、運転特性データおよび感情データが取得された運転場面情報と、利用者IDとを紐付けて、外部装置に送信し、外部装置から送信された運転場面情報に対応する新たな改善効果データを取得し、運転場面情報に紐付けられた改善効果データを、取得された新たな改善効果データに更新する。また、ここでいう車両C1A,…に搭載された1以上のコンピュータは、端末装置22あるいはECU16A等により構成されてよい。 As described above, the vehicles C1A, . The improvement effect data for supporting behavior improvement and the driver's user ID are linked and stored, and the driver's driving characteristic data in the driving scene information and the improvement effect data corresponding to the driving scene information are used for support. Emotional data of the driver is acquired by various sensors (an example of a sensor), and the acquired driving characteristic data and emotional data, the driving scene information from which the driving characteristic data and emotional data are acquired, and the user ID are linked. and transmit it to an external device, acquire new improvement effect data corresponding to the driving scene information transmitted from the external device, and convert the improvement effect data linked to the driving scene information to the acquired new improvement effect Update to data. Also, the one or more computers mounted on the vehicles C1A, .
これにより、実施の形態2に係る車両C1A,…は、運転特性改善サーバS3から送信され、取得された改善効果データに基づく運転特性改善支援結果として、運転場面情報と、運転者の運転特性と、運転特性改善支援(安全確認行動支援の一例)に対する運転者の感情データとを運転特性改善サーバS3に送信することで、運転者の現在の状態(つまり、運転者の現在の運転特性データ,感情データ)に基づく新たな改善効果データを取得できる。また、車両C1A,…のそれぞれは、取得された新たな改善効果データと、この新たな改善効果データの生成に用いられた運転場面情報と、運転特性データと、感情データとを利用者IDに紐付けることで、改善効果データをより効率的に管理できる。 As a result, the vehicles C1A, . , and the driver's emotion data for driving characteristic improvement support (an example of safety confirmation action support) are transmitted to the driving characteristic improvement server S3, so that the current state of the driver (that is, the driver's current driving characteristic data, You can acquire new improvement effect data based on emotion data). Each of the vehicles C1A, . By linking, the improvement effect data can be managed more efficiently.
以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. It is understood that it belongs to the technical scope of the present disclosure. In addition, the constituent elements of the various embodiments described above may be combined arbitrarily without departing from the gist of the invention.
本開示は、運転特性データおよび感情データに基づく運転特性改善支援データをより効率的に管理できる運転特性改善データの管理方法として有用である。 INDUSTRIAL APPLICABILITY The present disclosure is useful as a management method of driving characteristic improvement data that can more efficiently manage driving characteristic improvement support data based on driving characteristic data and emotion data.
10,12 カーナビゲーション装置
11,11A 通信機器
12A,32,42,52 プロセッサ
12B,15,33,43,53 メモリ
12C,22C 表示部
12D,22D 入力部
13,13A 車内カメラ
14 ジャイロセンサ
16,16A ECU
17 操作部
17A アクセルペダル
17B ブレーキペダル
17C ターンランプ
17D ステアリング
18 速度センサ
19,19A 車外センサ/カメラ
20 GPSセンサ
24 車内センサ
25,25A,25B,25C,25D スピーカ
26,26A,26B 警告表示灯
31,41,51 通信部
52A 支援方法生成部
54 データベース
100 運転特性管理システム
C1,C1A 車両
NW,NWA ネットワーク
S3 運転特性改善サーバ
TB3 運転特性履歴テーブル
TB4 運転特性改善管理テーブル
10, 12
17
Claims (11)
前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転場面情報における前記運転者の運転特性データとを複数の前記運転者の運転者IDごとに紐付けて登録し、
前記運転場面情報と前記支援データとをそれぞれ紐付けて、前記車両に送信し、
前記車両を運転する運転者の運転者IDと、前記運転場面情報に対応する前記運転者の運転特性データと、前記支援データに基づく支援に対する前記運転者の感情データとを取得し、
前記複数の運転者のそれぞれの運転者IDと取得された前記運転者IDとを照合し、
前記照合された運転者IDに紐付けられた運転特性データと、取得された前記運転特性データおよび前記感情データとに基づいて、取得された前記運転場面情報に対応する新たな支援データを生成し、
前記照合された前記運転者IDに紐付けられた複数の運転場面情報のうち取得された前記運転場面情報と同一の運転場面情報に紐付けられた前記支援データを、生成された前記新たな支援データに更新する、
運転特性改善支援データの管理方法。 A method for managing driving characteristic improvement support data executed by one or more computers capable of communicating with at least one vehicle,
a plurality of pieces of driving scene information indicating driving scenes of the vehicle; support data corresponding to the driving scene information and supporting improvement of safety confirmation behavior of a driver who drives the vehicle; and the driver in the driving scene information. and registering the driving characteristic data in association with each driver ID of the plurality of drivers,
linking the driving scene information and the support data, respectively, and transmitting the information to the vehicle;
acquiring a driver ID of a driver who drives the vehicle, driving characteristic data of the driver corresponding to the driving scene information, and emotion data of the driver with respect to assistance based on the assistance data;
matching the driver ID of each of the plurality of drivers with the acquired driver ID;
New support data corresponding to the acquired driving scene information is generated based on the driving characteristic data linked to the verified driver ID, and the acquired driving characteristic data and emotion data. ,
The support data linked to the same driving scene information as the acquired driving scene information among a plurality of pieces of driving scene information linked to the collated driver ID is added to the generated new assistance. update the data,
A method of managing driving characteristic improvement support data.
前記感情データと、前記運転特性が改善したか否かの判定結果とに基づいて、前記新たな支援データを生成する、
請求項1に記載の運転特性改善支援データの管理方法。 determining whether the driving characteristics of the driver in the driving scene have improved using the acquired driving characteristics data and the registered driving characteristics data;
generating the new assistance data based on the emotion data and a determination result as to whether the driving characteristics have improved;
The method for managing driving characteristic improvement support data according to claim 1 .
請求項2に記載の運転特性改善支援データの管理方法。 When it is determined that the emotion data is positive and the driving characteristics have improved, the support data linked to the plurality of pieces of driving scene information linked to the verified driver ID is transferred. , updating to the new assistance data generated;
The method for managing driving characteristic improvement support data according to claim 2.
取得された前記運転場面情報と同一の前記運転場面情報に紐付けられた前記支援データを、生成された前記新たな支援データに更新する、
請求項2に記載の運転特性改善支援データの管理方法。 When it is determined that the emotion data is positive and that the driving characteristics have not improved, the new driver increases the frequency of the assistance from that of the assistance data corresponding to the acquired driving scene information. generate support data,
updating the support data linked to the same driving scene information as the acquired driving scene information to the generated new support data;
The method for managing driving characteristic improvement support data according to claim 2.
取得された前記運転場面情報と異なる他の運転場面情報に紐付けられた支援データを、生成された前記新たな支援データに更新し、
取得された前記運転場面情報と同一の前記運転場面情報に紐付けられた前記支援データの変更を省略する、
請求項2に記載の運転特性改善支援データの管理方法。 generating the new improvement effect data different from the support data corresponding to the acquired driving scene information when it is determined that the emotion data is negative and the driving characteristics have improved;
updating support data linked to other driving scene information different from the acquired driving scene information to the generated new support data;
omitting the change of the support data linked to the same driving scene information as the acquired driving scene information;
The method for managing driving characteristic improvement support data according to claim 2.
取得された前記運転場面情報と同一の前記運転場面情報に紐付けられた前記支援データを、生成された前記新たな支援データに更新する、
請求項2に記載の運転特性改善支援データの管理方法。 generating the new improvement effect data different from the support data corresponding to the acquired driving scene information when it is determined that the emotion data is negative and the driving characteristics have not improved;
updating the support data linked to the same driving scene information as the acquired driving scene information to the generated new support data;
The method for managing driving characteristic improvement support data according to claim 2.
請求項1に記載の運転特性改善支援データの管理方法。 The assistance data is a control command for controlling driving safety assistance equipment that is mounted on the vehicle and performs the assistance by voice or light.
The method for managing driving characteristic improvement support data according to claim 1 .
前記感情データが否定的である場合、前記音声または前記光のいずれか一方により前記支援を実行させる前記新たな支援データを生成する、
請求項5または6に記載の運転特性改善支援データの管理方法。 The assistance data is a control command for controlling driving safety assistance equipment that is mounted on the vehicle and executes the assistance by voice or light,
if the emotion data is negative, generating the new assistance data that causes the assistance to be performed by either the voice or the light;
7. The method for managing driving characteristic improvement support data according to claim 5 or 6.
前記感情データが否定的である場合、取得された前記運転場面情報に対応する前記支援データよりも前記音声あるいは前記光による前記支援の頻度を減少させた前記新たな支援データを生成する、
請求項5または6に記載の運転特性改善支援データの管理方法。 The assistance data is a control command for controlling driving safety assistance equipment that is mounted on the vehicle and executes the assistance by voice or light,
when the emotion data is negative, generating the new support data in which the frequency of the support by the voice or the light is reduced compared to the support data corresponding to the acquired driving scene information;
7. The method for managing driving characteristic improvement support data according to claim 5 or 6.
前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転者の運転者IDとを紐付けて記憶し、
前記運転場面情報における前記運転者の運転特性データと、前記運転場面情報に対応する前記支援データに基づく支援に対する前記運転者の感情データとをセンサにより取得し、
取得された前記運転特性データおよび前記感情データと、前記運転特性データおよび前記感情データが取得された前記運転場面情報と、前記運転者IDとを紐付けて、外部装置に送信し、
前記外部装置から送信された前記運転場面情報に対応する新たな支援データを取得し、
前記運転場面情報に紐付けられた前記支援データを、取得された前記新たな支援データに更新する、
運転特性改善支援データの管理方法。 A method for managing driving characteristic improvement support data executed by a vehicle, comprising:
a plurality of pieces of driving scene information indicating driving scenes of the vehicle; support data corresponding to the driving scene information and supporting improvement of safety confirmation behavior of the driver who drives the vehicle; and a driver ID of the driver. is linked and stored,
obtaining, by a sensor, the driving characteristic data of the driver in the driving scene information and the emotion data of the driver with respect to assistance based on the assistance data corresponding to the driving scene information;
linking the acquired driving characteristic data and the emotion data, the driving scene information from which the driving characteristic data and the emotion data were acquired, and the driver ID, and transmitting the result to an external device;
Acquiring new support data corresponding to the driving scene information transmitted from the external device;
updating the support data linked to the driving scene information to the new support data obtained;
A method of managing driving characteristic improvement support data.
前記車両の運転場面を示す複数の運転場面情報と、前記運転場面情報に対応し、前記車両を運転する運転者の安全確認行動の改善を支援する支援データと、前記運転者の運転者IDとを紐付けて記憶し、
前記運転場面情報における前記運転者の運転特性データと、前記運転場面情報に対応する前記支援データに基づく支援に対する前記運転者の感情データとをセンサにより取得し、
取得された前記運転特性データおよび前記感情データと、前記運転特性データおよび前記感情データが取得された前記運転場面情報と、前記運転者IDとを紐付けて、外部装置に送信し、
前記外部装置から送信された前記運転場面情報に対応する新たな支援データを取得し、
前記運転場面情報に紐付けられた前記支援データを、取得された前記新たな支援データに更新する、
運転特性改善支援データの管理方法。 A method for managing driving characteristic improvement support data executed by one or more computers mounted on a vehicle,
a plurality of pieces of driving scene information indicating driving scenes of the vehicle; support data corresponding to the driving scene information and supporting improvement of safety confirmation behavior of the driver who drives the vehicle; and a driver ID of the driver. is linked and stored,
obtaining, by a sensor, the driving characteristic data of the driver in the driving scene information and the emotion data of the driver with respect to assistance based on the assistance data corresponding to the driving scene information;
linking the acquired driving characteristic data and the emotion data, the driving scene information from which the driving characteristic data and the emotion data were acquired, and the driver ID, and transmitting the result to an external device;
Acquiring new support data corresponding to the driving scene information transmitted from the external device;
updating the support data linked to the driving scene information to the new support data obtained;
A method of managing driving characteristic improvement support data.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021193603A JP2023079904A (en) | 2021-11-29 | 2021-11-29 | Management method of driving characteristic improvement support data |
PCT/JP2022/032660 WO2023074116A1 (en) | 2021-10-25 | 2022-08-30 | Management method for driving-characteristics improving assistance data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021193603A JP2023079904A (en) | 2021-11-29 | 2021-11-29 | Management method of driving characteristic improvement support data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023079904A true JP2023079904A (en) | 2023-06-08 |
Family
ID=86647108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021193603A Pending JP2023079904A (en) | 2021-10-25 | 2021-11-29 | Management method of driving characteristic improvement support data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023079904A (en) |
-
2021
- 2021-11-29 JP JP2021193603A patent/JP2023079904A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10192171B2 (en) | Method and system using machine learning to determine an automotive driver's emotional state | |
US11375338B2 (en) | Method for smartphone-based accident detection | |
US11042619B2 (en) | Vehicle occupant tracking and trust | |
US10467488B2 (en) | Method to analyze attention margin and to prevent inattentive and unsafe driving | |
US20200310528A1 (en) | Vehicle system for providing driver feedback in response to an occupant's emotion | |
US20200312062A1 (en) | Safety for vehicle users | |
US10852720B2 (en) | Systems and methods for vehicle assistance | |
CN110103878B (en) | Method and device for controlling unmanned vehicle | |
US20200001892A1 (en) | Passenger assisting apparatus, method, and program | |
CN107608388A (en) | Autonomous police car | |
KR20200113202A (en) | Information processing device, mobile device, and method, and program | |
JP6613623B2 (en) | On-vehicle device, operation mode control system, and operation mode control method | |
WO2007105792A1 (en) | Monitor and monitoring method, controller and control method, and program | |
US20200247422A1 (en) | Inattentive driving suppression system | |
US11113775B1 (en) | System and method for standardized evaluation of driver's license eligibility | |
US10666901B1 (en) | System for soothing an occupant in a vehicle | |
CN114340970A (en) | Information processing device, mobile device, information processing system, method, and program | |
JP2020154996A (en) | Information processing system, agent system, information processing method, and program | |
US11302304B2 (en) | Method for operating a sound output device of a motor vehicle using a voice-analysis and control device | |
JP2023079904A (en) | Management method of driving characteristic improvement support data | |
WO2023074116A1 (en) | Management method for driving-characteristics improving assistance data | |
JP7390329B2 (en) | Recognition index setting device | |
JP2024018437A (en) | How to manage driving characteristic improvement support data | |
RU2703341C1 (en) | Method for determining hazardous conditions on public roads based on monitoring the situation in the cabin of a vehicle | |
CN111907468B (en) | Method and device for controlling unmanned vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20240308 |