JP7070827B2 - Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program - Google Patents

Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program Download PDF

Info

Publication number
JP7070827B2
JP7070827B2 JP2018043969A JP2018043969A JP7070827B2 JP 7070827 B2 JP7070827 B2 JP 7070827B2 JP 2018043969 A JP2018043969 A JP 2018043969A JP 2018043969 A JP2018043969 A JP 2018043969A JP 7070827 B2 JP7070827 B2 JP 7070827B2
Authority
JP
Japan
Prior art keywords
intersection
evaluation
data
vehicle
discrimination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018043969A
Other languages
Japanese (ja)
Other versions
JP2019159641A (en
Inventor
哲也 塚本
浩史 岡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018043969A priority Critical patent/JP7070827B2/en
Publication of JP2019159641A publication Critical patent/JP2019159641A/en
Application granted granted Critical
Publication of JP7070827B2 publication Critical patent/JP7070827B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は運転評価装置、車載機、これらを備えた運転評価システム、運転評価方法、及び運転評価プログラムに関する。 The present invention relates to a driving evaluation device, an in-vehicle device, a driving evaluation system including these, a driving evaluation method, and a driving evaluation program.

特許文献1には、所定箇所に対する自動車の運転者の運転行動を評価する、運転行動自動評価システムが開示されている。
特許文献1記載の運転行動自動評価システムは、計測制御用コンピュータと、解析用コンピュータとを含んで構成され、前記解析用コンピュータには、危険個所に関する情報が予め記憶されている。前記危険個所の情報には、名称、座標および特徴等が含まれ、また、当該危険個所毎に設定された事故予防動作の定義データも記憶されている。
Patent Document 1 discloses an automatic driving behavior evaluation system that evaluates the driving behavior of a driver of an automobile with respect to a predetermined location.
The driving behavior automatic evaluation system described in Patent Document 1 is configured to include a measurement control computer and an analysis computer, and the analysis computer stores information on dangerous points in advance. The information on the dangerous place includes a name, coordinates, features, and the like, and also stores definition data of an accident prevention operation set for each dangerous place.

特許文献1記載の運転行動自動評価システムは、運転者の頭部に装着された角速度センサで検出された角速度データ、自動車の位置データ、及び前記定義データに基づいて、前記危険個所において前記事故予防動作が正しくなされたか否かを評価する構成となっている。 The driving behavior automatic evaluation system described in Patent Document 1 is based on the angular velocity data detected by the angular velocity sensor mounted on the driver's head, the position data of the automobile, and the definition data, and the accident prevention is performed at the dangerous place. It is configured to evaluate whether or not the operation has been performed correctly.

[発明が解決しようとする課題]
特許文献1記載の運転行動自動評価システムでは、前記危険個所の情報を危険個所毎に記憶しておく必要がある。特許文献1に記載されているように、運転者に走行させるコースが、教習所や施設等の所定のコースに設定されている場合は、設定すべき危険個所の数も限られるため、前記危険個所の情報量も少なくて済む。
[Problems to be solved by the invention]
In the driving behavior automatic evaluation system described in Patent Document 1, it is necessary to store the information of the dangerous place for each dangerous place. As described in Patent Document 1, when the course to be driven by the driver is set to a predetermined course such as a driving school or a facility, the number of dangerous points to be set is limited. The amount of information is also small.

しかしながら、運転者に走行させるコースが定まっていない場合や運転者が広域エリアを走行する場合、危険個所の数が増大する。そのため、全ての危険個所について予め個々に前記定義データを設定しておくことは効率的ではなく、前記危険個所の情報に漏れがあった場合、当該危険個所における前記事故予防動作の評価を正確に行うことができない。さらに、各危険個所において一律の条件で前記事故予防動作の評価を行う場合、評価の精度が低下してしまうという課題があった。 However, when the course to be driven by the driver is not determined or when the driver travels in a wide area, the number of dangerous points increases. Therefore, it is not efficient to set the definition data individually for all the dangerous points in advance, and if the information on the dangerous points is leaked, the evaluation of the accident prevention operation at the dangerous points is accurate. I can't do it. Further, when the accident prevention operation is evaluated under uniform conditions at each dangerous place, there is a problem that the accuracy of the evaluation is lowered.

特許第5408572号公報Japanese Patent No. 5408572

課題を解決するための手段及びその効果Means for solving problems and their effects

本発明は上記課題に鑑みなされたものであって、交差点における運転者の安全確認動作の評価を効率的かつ精度良く実行することができる運転評価装置、車載機、これらを備えた運転評価システム、運転評価方法、及び運転評価プログラムを提供することを目的としている。 The present invention has been made in view of the above problems, and is a driving evaluation device, an in-vehicle device, and a driving evaluation system provided with these, which can efficiently and accurately evaluate a driver's safety confirmation operation at an intersection. The purpose is to provide a driving evaluation method and a driving evaluation program.

上記目的を達成するために本開示に係る運転評価装置(1)は、車載機で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う運転評価装置であって、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて判別用データを取得する判別用データ取得部と、
前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する交差点判別部と、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルが記憶された評価テーブル記憶部と、
前記評価テーブルから、前記交差点判別部で判別された前記交差点の形状パターンに対応する前記評価条件を選択する評価条件選択部と、
該評価条件選択部により選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する安全確認評価部とを備えていることを特徴としている。
In order to achieve the above object, the driving evaluation device (1) according to the present disclosure uses the detection data including the driver's condition, the position of the vehicle, and the behavior of the vehicle detected by the on-board unit, and the driver. It is an operation evaluation device that evaluates the operation of
A discrimination data acquisition unit that acquires discrimination data using at least one of the detected data detected at the intersection where the driving evaluation is performed, and a discrimination data acquisition unit.
Using the discrimination data, an intersection discrimination unit that discriminates the shape pattern of the intersection for which the operation evaluation is performed, and an intersection discrimination unit.
An evaluation table storage unit that stores an evaluation table in which evaluation conditions for safety confirmation operations to be performed by the driver are set for each intersection shape pattern, and
From the evaluation table, an evaluation condition selection unit that selects the evaluation condition corresponding to the shape pattern of the intersection determined by the intersection determination unit, and an evaluation condition selection unit.
Based on the evaluation conditions selected by the evaluation condition selection unit and the detection data detected at the intersection where the driving evaluation is performed, the safety confirmation evaluation unit that evaluates the safety confirmation operation of the driver at the intersection is provided. It is characterized by having.

上記運転評価装置(1)によれば、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて前記判別用データが取得され、該判別用データを用いて、前記運転評価を行う交差点の形状パターンが判別される。そして、判別された前記交差点の形状パターンに対応する前記評価条件が前記評価テーブルから選択され、選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作が評価される。
したがって、前記運転評価を行う交差点の形状パターンに対応する前記評価条件で、交差点における運転者の安全確認動作の評価を効率的かつ精度良く実行することができる。
According to the operation evaluation device (1), the discrimination data is acquired using at least one of the detection data detected at the intersection where the operation evaluation is performed, and the discrimination data is used to obtain the discrimination data. The shape pattern of the intersection where the driving evaluation is performed is determined. Then, the evaluation conditions corresponding to the determined shape pattern of the intersection are selected from the evaluation table, and based on the selected evaluation conditions and the detection data detected at the intersection where the operation evaluation is performed, the evaluation conditions are selected. The driver's safety confirmation operation at the intersection is evaluated.
Therefore, it is possible to efficiently and accurately evaluate the driver's safety confirmation operation at the intersection under the evaluation conditions corresponding to the shape pattern of the intersection where the driving evaluation is performed.

また本開示に係る運転評価装置(2)は、上記運転評価装置(1)において、前記運転評価を行う交差点で検出された前記検出データを用いて、前記運転評価を行う交差点で曲がった方向を推定する方向推定部を備え、
前記評価テーブルには、
交差点の形状パターンと交差点で曲がる方向との組み合わせ毎に、運転者が行うべき安全確認動作の評価条件が設定され、
前記評価条件選択部が、
前記評価テーブルから、前記交差点判別部で判別された前記交差点の形状パターンと、前記方向推定部で推定された前記交差点で曲がった方向とに対応する前記評価条件を選択するものであることを特徴としている。
Further, the operation evaluation device (2) according to the present disclosure uses the detection data detected at the intersection where the operation evaluation is performed in the operation evaluation device (1) to determine the bending direction at the intersection where the operation evaluation is performed. Equipped with a direction estimation unit for estimation
In the evaluation table,
For each combination of the shape pattern of the intersection and the direction of the turn at the intersection, the evaluation conditions for the safety confirmation operation that the driver should perform are set.
The evaluation condition selection unit
The evaluation table is characterized in that the evaluation conditions corresponding to the shape pattern of the intersection determined by the intersection determination unit and the bending direction at the intersection estimated by the direction estimation unit are selected. It is supposed to be.

上記運転評価装置(2)によれば、前記評価テーブルから選択される前記評価条件が、前記運転評価を行う交差点の形状パターンと、前記交差点で曲がった方向とに対応しているので、交差点における運転者の安全確認動作をより精度良く評価することができる。 According to the operation evaluation device (2), the evaluation conditions selected from the evaluation table correspond to the shape pattern of the intersection where the operation evaluation is performed and the direction of the bend at the intersection. The driver's safety confirmation operation can be evaluated more accurately.

また本開示に係る運転評価装置(3)は、上記運転評価装置(1)又は(2)において、前記車両が交差点を通過しているときに前記車載機で検出された前記検出データを蓄積する検出データ蓄積部と、
前記判別用データが蓄積される判別用データ蓄積部とを備え、
前記判別用データ取得部が、
前記検出データ蓄積部に蓄積された、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、前記判別用データ蓄積部から前記判別用データを取得するものであることを特徴としている。
Further, the driving evaluation device (3) according to the present disclosure accumulates the detection data detected by the in-vehicle device when the vehicle is passing through the intersection in the driving evaluation device (1) or (2). Detection data storage unit and
A discrimination data storage unit for storing the discrimination data is provided.
The discrimination data acquisition unit
The discrimination data is acquired from the discrimination data storage unit by using at least one of the detection data stored in the detection data storage unit and detected at the intersection where the operation evaluation is performed. It is characterized by that.

上記運転評価装置(3)によれば、前記検出データ蓄積部を備えているので、前記車載機毎に前記検出データを蓄積することができる。また、前記判別用データ蓄積部に前記判別用データを蓄積しておくことができる。したがって、前記車載機の数が増えて、評価する処理量が増えた場合であっても、前記車載機毎に適切な前記判別用データを効率良く取得することができ、交差点における運転者毎の安全確認動作の評価処理を効率良く実行することができる。 According to the operation evaluation device (3), since the detection data storage unit is provided, the detection data can be stored for each on-board unit. Further, the discrimination data can be stored in the discrimination data storage unit. Therefore, even when the number of the in-vehicle devices increases and the amount of processing to be evaluated increases, it is possible to efficiently acquire the appropriate discrimination data for each in-vehicle device, and for each driver at the intersection. The evaluation process of the safety confirmation operation can be efficiently executed.

また本開示に係る運転評価装置(4)は、上記運転評価装置(3)において、前記判別用データ蓄積部に蓄積される前記判別用データには、前記車両が通過した交差点を含む交差点地図を抽出可能な地図データが含まれ、
前記判別用データ取得部により取得される前記判別用データが、前記地図データから抽出された、前記車両が通過した交差点を含む交差点地図データであり、
前記交差点判別部が、前記交差点地図データに基づいて、前記運転評価を行う交差点の形状パターンを判別するものであることを特徴としている。
Further, in the driving evaluation device (4) according to the present disclosure, in the driving evaluation device (3), the discrimination data stored in the discrimination data storage unit includes an intersection map including the intersection through which the vehicle has passed. Contains extractable map data,
The discrimination data acquired by the discrimination data acquisition unit is intersection map data including the intersection through which the vehicle has passed, which is extracted from the map data.
The intersection discrimination unit is characterized in that it discriminates the shape pattern of the intersection for which the operation evaluation is performed based on the intersection map data.

上記運転評価装置(4)によれば、前記運転評価を行う交差点で検出された前記検出データを用いて、前記判別用データ蓄積部から前記交差点地図データが取得され、該交差点地図データを用いて、前記運転評価を行う交差点の形状パターンが判別される。したがって、前記運転評価を行う交差点の形状パターンの判別を精度良く実行することができる。 According to the operation evaluation device (4), the intersection map data is acquired from the discrimination data storage unit using the detection data detected at the intersection where the operation evaluation is performed, and the intersection map data is used. , The shape pattern of the intersection where the operation evaluation is performed is determined. Therefore, it is possible to accurately discriminate the shape pattern of the intersection for which the operation evaluation is performed.

また本開示に係る運転評価装置(5)は、上記運転評価装置(4)において、
前記交差点判別部が、
入力層と中間層と出力層とを含むニューラルネットワークを備え、
前記入力層に、前記判別用データとして前記交差点地図データが入力され、
前記中間層で、前記交差点地図データに対し、重み付け係数に基づく演算が実行され、
前記出力層から前記交差点の形状パターンの判別結果が出力されることを特徴としている。
Further, the operation evaluation device (5) according to the present disclosure is the above-mentioned operation evaluation device (4).
The intersection discrimination unit
It has a neural network that includes an input layer, an intermediate layer, and an output layer.
The intersection map data is input to the input layer as the discrimination data, and the intersection map data is input.
In the intermediate layer, an operation based on a weighting coefficient is executed on the intersection map data, and the operation is performed.
It is characterized in that the discrimination result of the shape pattern of the intersection is output from the output layer.

上記運転評価装置(5)によれば、前記交差点判別部に前記ニューラルネットワークを用いることで、前記運転評価を行う交差点の形状パターンの判別を効率的かつ精度良く実行することができる。 According to the operation evaluation device (5), by using the neural network for the intersection discrimination unit, it is possible to efficiently and accurately discriminate the shape pattern of the intersection for which the operation evaluation is performed.

また本開示に係る運転評価装置(6)は、上記運転評価装置(3)において、前記検出データには、前記車両の外界状況を撮像又は検出した外界画像データがさらに含まれ、
前記判別用データ蓄積部に蓄積される前記判別用データには、前記車載機から送信されてきた前記外界画像データが含まれ、
前記判別用データ取得部により取得される前記判別用データが、前記車両が通過した交差点で撮像又は検出された前記外界画像データであり、
前記交差点判別部が、前記外界画像データに基づいて、前記運転評価を行う交差点の形状パターンを判別するものであることを特徴としている。
Further, in the driving evaluation device (6) according to the present disclosure, in the driving evaluation device (3), the detection data further includes the outside world image data obtained by capturing or detecting the outside world situation of the vehicle.
The discrimination data stored in the discrimination data storage unit includes the outside world image data transmitted from the vehicle-mounted device.
The discrimination data acquired by the discrimination data acquisition unit is the outside world image data imaged or detected at an intersection through which the vehicle has passed.
The intersection discrimination unit is characterized in that it discriminates the shape pattern of the intersection for which the operation evaluation is performed based on the outside world image data.

上記運転評価装置(6)によれば、前記判別用データ蓄積部に、前記判別用データとして前記外界画像データが蓄積され、該外界画像データを用いて、前記運転評価を行う交差点の形状が判別される。したがって、前記運転評価を行う交差点の形状パターンを現実の外界状況を基に精度良く判別することができる。 According to the operation evaluation device (6), the outside world image data is accumulated as the discrimination data in the discrimination data storage unit, and the shape of the intersection where the operation evaluation is performed is discriminated by using the outside world image data. Will be done. Therefore, the shape pattern of the intersection for which the operation evaluation is performed can be accurately discriminated based on the actual external world situation.

また本開示に係る運転評価装置(7)は、上記運転評価装置(6)において、
前記交差点判別部が、
入力層と中間層と出力層とを含むニューラルネットワークを備え、
前記入力層に、前記判別用データとして前記外界画像データが入力され、
前記中間層で、前記外界画像データに対し、重み付け係数に基づく演算が実行され、
前記出力層から前記交差点の形状パターンの判別結果が出力されることを特徴としている。
Further, the operation evaluation device (7) according to the present disclosure is the above-mentioned operation evaluation device (6).
The intersection discrimination unit
It has a neural network that includes an input layer, an intermediate layer, and an output layer.
The external image data is input to the input layer as the discrimination data, and the external image data is input to the input layer.
In the intermediate layer, an operation based on a weighting coefficient is executed on the external image data, and the operation is performed.
It is characterized in that the discrimination result of the shape pattern of the intersection is output from the output layer.

上記運転評価装置(7)によれば、前記交差点判別部に前記ニューラルネットワークを用いることで、前記運転評価を行う交差点の形状パターンの判別を効率的かつ精度良く実行することができる。 According to the operation evaluation device (7), by using the neural network for the intersection discrimination unit, it is possible to efficiently and accurately discriminate the shape pattern of the intersection for which the operation evaluation is performed.

また本開示に係る運転評価装置(8)は、上記運転評価装置(1)~(7)のいずれかにおいて、前記評価テーブルの前記評価条件には、前記運転者が行うべき安全確認動作のタイミング、確認角度、及び確認時間が含まれ、
前記安全確認評価部が、前記運転評価を行う交差点毎に、前記タイミング、前記確認角度、及び前記確認時間の評価を行い、各評価を基に点数化又はランク付けした評価結果を演算することを特徴としている。
Further, in the operation evaluation device (8) according to the present disclosure, in any of the operation evaluation devices (1) to (7), the timing of the safety confirmation operation to be performed by the driver is set in the evaluation condition of the evaluation table. , Confirmation angle, and confirmation time are included,
The safety confirmation evaluation unit evaluates the timing, the confirmation angle, and the confirmation time at each intersection where the operation evaluation is performed, and calculates the evaluation result scored or ranked based on each evaluation. It is a feature.

上記運転評価装置(8)によれば、各運転者の交差点における安全確認動作を総合的に評価することができ、また、前記評価結果を分かりやすい形態で出力することが可能となる。 According to the operation evaluation device (8), it is possible to comprehensively evaluate the safety confirmation operation at each driver's intersection, and it is possible to output the evaluation result in an easy-to-understand form.

また本開示に係る車載機(1)は、車両に搭載される車載機であって、
前記車両の運転者の状態を検出する運転者モニタリング部と、
前記車両の位置を検出する位置検出部と、
戦記車両の挙動を検出する挙動検出部と、
前記運転者モニタリング部、前記位置検出部、及び前記挙動検出部で検出されたデータを、前記運転者の安全確認動作を評価する運転評価装置に出力する出力部とを備えていることを特徴としている。
Further, the in-vehicle device (1) according to the present disclosure is an in-vehicle device mounted on a vehicle.
A driver monitoring unit that detects the state of the driver of the vehicle, and
A position detection unit that detects the position of the vehicle and
A behavior detection unit that detects the behavior of the warfare vehicle,
It is characterized by including a driver monitoring unit, a position detection unit, and an output unit that outputs data detected by the behavior detection unit to an operation evaluation device that evaluates the safety confirmation operation of the driver. There is.

上記車載機(1)によれば、前記運転者の状態、前記車両の位置、及び該車両の挙動を含む検出データを前記運転評価装置に出力するので、前記運転評価装置において前記運転者の安全確認動作の評価を実行させることができ、前記車載機の処理負担を軽減することができる。 According to the in-vehicle device (1), detection data including the state of the driver, the position of the vehicle, and the behavior of the vehicle is output to the driving evaluation device, so that the driver's safety in the driving evaluation device. The evaluation of the confirmation operation can be executed, and the processing load of the in-vehicle device can be reduced.

また本開示に係る運転評価システムは、上記運転評価装置(1)~(8)のいずれかと、上記車載機(1)とを含んで構成されていることを特徴としている。 Further, the driving evaluation system according to the present disclosure is characterized in that it includes any of the driving evaluation devices (1) to (8) and the vehicle-mounted device (1).

上記運転評価システムによれば、上記運転評価装置(1)~(8)のいずれかと、上記車載機(1)とを含んで構成されているので、上記運転評価装置(1)~(8)の効果を得ることができ、また、前記車載機の処理負担を軽減することができ、低コストで導入可能なシステムを構築することができる。 According to the operation evaluation system, since any one of the operation evaluation devices (1) to (8) and the in-vehicle device (1) are included, the operation evaluation devices (1) to (8) are included. It is possible to obtain the effect of the above, reduce the processing load of the in-vehicle device, and construct a system that can be introduced at low cost.

また本開示に係る運転評価方法は、車載機で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う運転評価方法であって、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて判別用データを取得する第1のステップと、
前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する第2のステップと、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記第2のステップで判別された前記交差点の形状パターンに対応する前記評価条件を選択する第3のステップと、
該第3のステップにより選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する第4のステップとを含むステップを実行させることを特徴としている。
Further, the driving evaluation method according to the present disclosure is a driving evaluation method for evaluating the driving of a driver by using detection data including the state of the driver, the position of the vehicle, and the behavior of the vehicle detected by the in-vehicle device. There,
The first step of acquiring discrimination data using at least one of the detected data detected at the intersection where the driving evaluation is performed, and
The second step of discriminating the shape pattern of the intersection for which the operation evaluation is performed using the discriminating data, and
From the evaluation table in which the evaluation conditions for the safety confirmation operation to be performed by the driver are set for each shape pattern of the intersection, the evaluation condition corresponding to the shape pattern of the intersection determined in the second step is selected. 3 steps and
Based on the evaluation conditions selected by the third step and the detection data detected at the intersection where the driving evaluation is performed, the fourth step of evaluating the driver's safety confirmation operation at the intersection. It is characterized by executing the steps including.

上記運転評価方法によれば、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて前記判別用データを取得し、該判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する。そして、該判別した前記交差点の形状パターンに対応する前記評価条件を前記評価テーブルから選択し、該選択した前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する。
したがって、前記運転評価を行う交差点の形状パターンに対応する前記評価条件で、交差点における運転者の安全確認動作の評価を効率的かつ精度良く実行することができる。
According to the operation evaluation method, the discrimination data is acquired using at least one of the detection data detected at the intersection where the operation evaluation is performed, and the operation evaluation is performed using the discrimination data. Determine the shape pattern of the intersection to be performed. Then, the evaluation conditions corresponding to the determined shape pattern of the intersection are selected from the evaluation table, and based on the selected evaluation conditions and the detection data detected at the intersection where the operation evaluation is performed, the evaluation conditions are selected. The driver's safety confirmation operation at the intersection is evaluated.
Therefore, it is possible to efficiently and accurately evaluate the driver's safety confirmation operation at the intersection under the evaluation conditions corresponding to the shape pattern of the intersection where the driving evaluation is performed.

また本開示に係る運転評価プログラムは、車載機で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う処理を少なくとも1つのコンピュータに実行させるための運転評価プログラムであって、
前記少なくとも1つのコンピュータに、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて判別用データを取得する第1のステップと、
前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する第2のステップと、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記第2のステップで判別された前記交差点の形状パターンに対応する前記評価条件を選択する第3のステップと、
該第3のステップにより選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する第4のステップとを実行させることを特徴としている。
Further, the driving evaluation program according to the present disclosure performs at least one process of evaluating the driving of the driver by using the detection data including the state of the driver, the position of the vehicle, and the behavior of the vehicle detected by the in-vehicle device. It is a driving evaluation program to be executed by one computer.
To the at least one computer
The first step of acquiring discrimination data using at least one of the detected data detected at the intersection where the driving evaluation is performed, and
The second step of discriminating the shape pattern of the intersection for which the operation evaluation is performed using the discriminating data, and
From the evaluation table in which the evaluation conditions for the safety confirmation operation to be performed by the driver are set for each shape pattern of the intersection, the evaluation condition corresponding to the shape pattern of the intersection determined in the second step is selected. 3 steps and
Based on the evaluation conditions selected by the third step and the detection data detected at the intersection where the driving evaluation is performed, the fourth step of evaluating the driver's safety confirmation operation at the intersection. It is characterized by being executed.

上記運転評価プログラムによれば、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて前記判別用データを取得し、該判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する。そして、該判別した前記交差点の形状パターンに対応する前記評価条件を前記評価テーブルから選択し、該選択した前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する。
したがって、前記運転評価を行う交差点の形状パターンに対応する前記評価条件で、交差点における運転者の安全確認動作の評価を効率的かつ精度良く実行することができる運転評価装置を実現できる。
According to the operation evaluation program, the discrimination data is acquired using at least one of the detection data detected at the intersection where the operation evaluation is performed, and the operation evaluation is performed using the discrimination data. Determine the shape pattern of the intersection to be performed. Then, the evaluation conditions corresponding to the determined shape pattern of the intersection are selected from the evaluation table, and based on the selected evaluation conditions and the detection data detected at the intersection where the operation evaluation is performed, the evaluation conditions are selected. The driver's safety confirmation operation at the intersection is evaluated.
Therefore, it is possible to realize a driving evaluation device capable of efficiently and accurately evaluating the safety confirmation operation of the driver at the intersection under the evaluation conditions corresponding to the shape pattern of the intersection where the driving evaluation is performed.

実施の形態に係る運転評価システムの適用例を示す概略構成図である。It is a schematic block diagram which shows the application example of the operation evaluation system which concerns on embodiment. 実施の形態に係る運転評価システムで用いられる車載機の要部を概略的に示すブロック図である。It is a block diagram which shows the main part of the in-vehicle device used in the driving evaluation system which concerns on embodiment. 車載機からサーバ装置に送信される検出データの構造の一例を示す図である。It is a figure which shows an example of the structure of the detection data transmitted from an in-vehicle device to a server device. 実施の形態に係る運転評価システムで用いられるサーバ装置の要部を概略的に示すブロック図である。It is a block diagram which shows the main part of the server apparatus used in the operation evaluation system which concerns on embodiment. 検出データ蓄積部に蓄積される検出データファイルの構造の一例を示す図である。It is a figure which shows an example of the structure of the detection data file stored in the detection data storage part. 評価テーブル記憶部に記憶される評価テーブルの構造の一例を示す図である。It is a figure which shows an example of the structure of the evaluation table stored in the evaluation table storage part. 評価データ記憶部に記憶されている評価データファイルの構造の一例を示す図である。It is a figure which shows an example of the structure of the evaluation data file stored in the evaluation data storage part. 実施の形態に係るサーバ装置の機能構成ブロック図である。It is a functional block diagram of the server apparatus which concerns on embodiment. 交差点判別部をニューラルネットワークで構成した例を示す概念図である。It is a conceptual diagram which shows the example which configured the intersection discriminating part by a neural network. 実施の形態に係る車載機のドライバモニタリング部が行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation performed by the driver monitoring unit of the vehicle-mounted device which concerns on embodiment. 実施の形態に係る車載機の制御部が行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation performed by the control unit of the vehicle-mounted device which concerns on embodiment. 実施の形態に係るサーバ装置の中央処理装置が行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation performed by the central processing unit of the server apparatus which concerns on embodiment. 実施の形態に係るサーバ装置の中央処理装置が行う安全確認評価の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the safety confirmation evaluation performed by the central processing unit of the server device which concerns on embodiment.

以下、本発明に係る運転評価装置、車載機、これらを備えた運転評価システム、運転評価方法、及び運転評価プログラムの実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of a driving evaluation device, an in-vehicle device, a driving evaluation system including these, a driving evaluation method, and an embodiment of a driving evaluation program according to the present invention will be described with reference to the drawings.

[適用例]
図1は、実施の形態に係る運転評価システムの適用例を示す概略構成図である。
運転評価システム1は、車両2に乗車している運転者3の安全確認動作を評価するためのシステムであって、少なくとも1台以上の車両2に搭載される車載機10と、各車載機10で取得されたデータを処理する少なくとも1つ以上のサーバ装置40とを含んで構成されている。サーバ装置40が、本発明に係る「運転評価装置」の一例である。
[Application example]
FIG. 1 is a schematic configuration diagram showing an application example of the operation evaluation system according to the embodiment.
The driving evaluation system 1 is a system for evaluating the safety confirmation operation of the driver 3 who is in the vehicle 2, and is an in-vehicle device 10 mounted on at least one or more vehicles 2 and each in-vehicle device 10. It is configured to include at least one or more server devices 40 that process the data acquired in. The server device 40 is an example of the "operation evaluation device" according to the present invention.

車載機10が搭載される車両2は、特に限定されない。本適用例では、各種の事業を営む事業者が管理する車両が対象とされ得る。例えば、運送事業者が管理するトラック、バス事業者が管理するバス、タクシー事業者が管理するタクシー、カーシェアリング事業者が管理するカーシェア車両、レンタカー事業者が管理するレンタカー、会社が所有している社有車、又はカーリース事業者からリースして使用する社有車などが対象とされ得る。 The vehicle 2 on which the vehicle-mounted device 10 is mounted is not particularly limited. In this application example, a vehicle managed by a business operator engaged in various businesses may be targeted. For example, a truck managed by a transportation company, a bus managed by a bus company, a taxi managed by a taxi company, a car sharing vehicle managed by a car sharing company, a rental car managed by a car rental company, or owned by a company. It may be a company-owned vehicle that is owned by a company or a company-owned vehicle that is leased and used by a car leasing company.

車載機10とサーバ装置40とは、通信ネットワーク4を介して通信可能に構成されている。通信ネットワーク4は、基地局を含む携帯電話網(3G/4G)や無線LAN(Local Area Network)などの無線通信網を含んでもよいし、公衆電話網などの有線通信網、インターネット、又は専用網などの電気通信回線を含んでもよい。 The vehicle-mounted device 10 and the server device 40 are configured to be communicable via the communication network 4. The communication network 4 may include a wireless communication network such as a mobile phone network (3G / 4G) including a base station or a wireless LAN (Local Area Network), a wired communication network such as a public telephone network, the Internet, or a dedicated network. It may include a telecommunication line such as.

また、車両2を管理する事業者の端末装置80(以下、事業者端末という。)が、通信ネットワーク4を介してサーバ装置40と通信可能に構成されている。事業者端末80は、通信機能を備えたパーソナルコンピュータでもよいし、携帯電話、スマートフォン、又はタブレット装置などの携帯情報端末などでもよい。また、事業者端末80が、通信ネットワーク4を介して車載機10と通信可能に構成されてもよい。 Further, the terminal device 80 of the business operator that manages the vehicle 2 (hereinafter referred to as the business operator terminal) is configured to be able to communicate with the server device 40 via the communication network 4. The business terminal 80 may be a personal computer having a communication function, or may be a mobile information terminal such as a mobile phone, a smartphone, or a tablet device. Further, the operator terminal 80 may be configured to be able to communicate with the vehicle-mounted device 10 via the communication network 4.

サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成されている。 The server device 40 includes a communication unit 41, a server computer 50, and a storage unit 60.

運転評価システム1では、サーバ装置40が、各車載機10から送信されてきた、運転者3の状態、車両2の位置、及び車両2の挙動を含む検出データを蓄積し、蓄積された各車載機10の検出データを用いて、各運転者3の運転評価を行う。該運転評価の項目には、交差点における運転者の安全確認動作を評価する項目が含まれている。サーバ装置40は、例えば、各車載機10から取得した検出データを用いて、各車両2の一日の運転が終了した後に、その日に通過した各交差点における安全確認動作の評価処理を実行してもよいし、又は一定期間毎に、該一定期間内に通過した各交差点における安全確認動作の評価処理を実行してもよく、運転評価処理の実行タイミングは特に限定されない。 In the driving evaluation system 1, the server device 40 accumulates the detection data including the state of the driver 3, the position of the vehicle 2, and the behavior of the vehicle 2 transmitted from each vehicle-mounted device 10, and the accumulated vehicle-mounted vehicle. The operation evaluation of each driver 3 is performed using the detection data of the machine 10. The driving evaluation item includes an item for evaluating the driver's safety confirmation operation at an intersection. The server device 40 uses, for example, the detection data acquired from each on-board unit 10 to execute an evaluation process of a safety confirmation operation at each intersection passed on that day after the day's operation of each vehicle 2 is completed. Alternatively, the evaluation process of the safety confirmation operation at each intersection passed within the fixed period may be executed at regular intervals, and the execution timing of the driving evaluation process is not particularly limited.

ところで、道路の交差点には、一般的な十字路(四叉路)だけではなく、三叉路、丁字路、Y字路、又は環状の交差点など、さまざまな形状(種類)の交差点がある。車両2が交差点を曲がる際に、運転者3が安全確認すべき行動、例えば、確認する方向、範囲、回数、又は時間などは、交差点の形状によって異なるのが一般的である。 By the way, road intersections include not only general crossroads (four-way intersections) but also intersections of various shapes (types) such as three-way intersections, junctions, Y-shaped roads, and circular intersections. When the vehicle 2 turns at an intersection, the behavior that the driver 3 should confirm safety, for example, the direction, range, number of times, or time to confirm, generally differs depending on the shape of the intersection.

交差点の形状に関係なく一律の評価条件で、交差点における安全確認動作の評価処理が実行される場合、前記評価条件が交差点の形状に適合していない場合には、正確な評価を行うことが難しい。 When the evaluation process of the safety confirmation operation at the intersection is executed under uniform evaluation conditions regardless of the shape of the intersection, it is difficult to perform accurate evaluation if the evaluation conditions do not match the shape of the intersection. ..

また、交差点毎に評価条件を予め個々に設定しようとした場合、特に広域エリアにおける設定を行う場合にあっては、交差点の数が増大する。そのため、全ての交差点について予め個々に評価条件を設定しておくことは効率的ではない。また、全ての交差点について予め個々に評価条件を設定しようとした場合、前記評価条件のデータを記憶するためのメモリ容量が増大するとともに、前記評価処理の実行時に、該当する交差点に対応する評価条件を選択する処理などの負担が増大する。さらに、多数の運転者3の評価処理を同時並行的に実行する場合、一層処理負担が増大してしまうという課題があった。 Further, when the evaluation conditions are individually set in advance for each intersection, the number of intersections increases, especially when the setting is performed in a wide area. Therefore, it is not efficient to set evaluation conditions individually in advance for all intersections. Further, when the evaluation conditions are individually set in advance for all the intersections, the memory capacity for storing the data of the evaluation conditions increases, and the evaluation conditions corresponding to the corresponding intersections are executed when the evaluation process is executed. The burden of processing to select is increased. Further, when the evaluation processes of a large number of drivers 3 are executed in parallel, there is a problem that the processing load is further increased.

そこで、本実施の形態に係るサーバ装置40は、運転評価を行う交差点の形状パターンを判別し、該判別した交差点の形状パターンに対応する評価条件と、前記運転評価を行う交差点で取得された検出データとに基づいて、各交差点における運転者3の安全確認動作を評価する処理を実行する。
例えば、サーバ装置40は、運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれか(例えば、位置データ)を用いて、前記運転評価を行う交差点の形状パターンの判別に用いる判別用データ(例えば、交差点部分の地図データ)を取得する。
Therefore, the server device 40 according to the present embodiment discriminates the shape pattern of the intersection for which the operation is evaluated, and the evaluation conditions corresponding to the shape pattern of the discriminated intersection and the detection acquired at the intersection for which the operation is evaluated. Based on the data, a process of evaluating the safety confirmation operation of the driver 3 at each intersection is executed.
For example, the server device 40 uses at least one of the detected data (for example, position data) detected at the intersection where the operation evaluation is performed, and is used for discriminating the shape pattern of the intersection where the operation evaluation is performed. Acquire data (for example, map data of an intersection portion).

その後、サーバ装置40は、取得した前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する。例えば、前記地図データに含まれる交差点の形状認識を行い、交差点の形状パターンを判別する。なお、同じ交差点であっても、例えば、丁字路などの交差点では、車両2が交差点に進入する方向によって、運転者3から見た交差点の形状パターンは異なる。本実施の形態における交差点の形状パターンとは、車両2の運転者3から見た交差点の形状パターンのことをいう。 After that, the server device 40 discriminates the shape pattern of the intersection where the operation evaluation is performed by using the acquired discriminating data. For example, the shape of an intersection included in the map data is recognized, and the shape pattern of the intersection is determined. Even at the same intersection, for example, at an intersection such as a junction, the shape pattern of the intersection as seen by the driver 3 differs depending on the direction in which the vehicle 2 enters the intersection. The shape pattern of the intersection in the present embodiment means the shape pattern of the intersection seen from the driver 3 of the vehicle 2.

そして、サーバ装置40は、十字路などの交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記判別された前記交差点の形状パターンに対応する前記評価条件を選択する。
次にサーバ装置40は、選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する処理を実行する。
Then, the server device 40 performs the evaluation corresponding to the determined shape pattern of the intersection from the evaluation table in which the evaluation conditions of the safety confirmation operation to be performed by the driver are set for each shape pattern of the intersection such as the crossroads. Select a condition.
Next, the server device 40 executes a process of evaluating the driver's safety confirmation operation at the intersection based on the selected evaluation conditions and the detection data detected at the intersection where the operation evaluation is performed.

また、サーバ装置40は、運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれか(例えば、角速度、又は位置データなど)を用いて、前記運転評価を行う交差点で曲がった方向を推定してもよい。 Further, the server device 40 uses at least one of the detected data (for example, angular velocity, position data, etc.) detected at the intersection where the operation evaluation is performed, and uses at least one of the detected data (for example, angular velocity, position data, etc.) to determine the direction of the bend at the intersection where the operation evaluation is performed. You may estimate.

この場合、サーバ装置40に、交差点の形状パターンと交差点で曲がる方向との組み合わせ毎に、運転者が行うべき安全確認動作の評価条件が記憶されている評価テーブルを装備しておく。サーバ装置40は、前記評価テーブルから前記判別された前記交差点の形状パターンと、前記推定された前記交差点で曲がった方向とに対応する評価条件を選択し、選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する処理を実行してもよい。 In this case, the server device 40 is equipped with an evaluation table in which the evaluation conditions for the safety confirmation operation to be performed by the driver are stored for each combination of the shape pattern of the intersection and the direction of turning at the intersection. The server device 40 selects evaluation conditions corresponding to the shape pattern of the intersection determined from the evaluation table and the direction of bending at the estimated estimated intersection, and the selected evaluation conditions and the operation. Based on the detection data detected at the intersection to be evaluated, a process of evaluating the driver's safety confirmation operation at the intersection may be executed.

係る構成によって、サーバ装置40では、一律の評価条件を用いることなく、また、交差点毎に評価条件を予め個々に設定しておくことなく、各交差点の形状に応じて、各交差点における運転者3の安全確認動作の評価を効率的かつ精度良く実行することが可能となる。 With this configuration, the server device 40 does not use uniform evaluation conditions and does not set individual evaluation conditions for each intersection in advance, and the driver 3 at each intersection according to the shape of each intersection. It is possible to efficiently and accurately evaluate the safety confirmation operation.

[構成例]
図2は、実施の形態に係る運転評価システム1で用いられる車載機10の要部を概略的に示すブロック図である。
車載機10は、プラットフォーム部11及びドライバモニタリング部20を含んで構成されている。また、車載機10にドライブレコーダ部30が接続されている。
[Configuration example]
FIG. 2 is a block diagram schematically showing a main part of the vehicle-mounted device 10 used in the operation evaluation system 1 according to the embodiment.
The on-board unit 10 includes a platform unit 11 and a driver monitoring unit 20. Further, the drive recorder unit 30 is connected to the vehicle-mounted device 10.

プラットフォーム部11には、車両2の加速度を測定する加速度センサ12、車両2の回転角速度を検出する角速度センサ13、車両2の位置を検出するGPS(Global Positioning System)受信部14が装備されている。また、プラットフォーム部11には、通信ネットワーク4を介して外部機器と通信処理を行う通信部15、ビープ音などの警告するための音、又は警告メッセージなどの音声を出力する報知部16、記憶部17、及び外部インターフェース(外部I/F)18が装備されている。さらにプラットフォーム部11には、各部の処理動作を制御する制御部19が装備されている。加速度センサ12と角速度センサ13は、本発明に係る車載機の「挙動検出部」の一例である。GPS受信部14は、本発明に係る車載機の「位置検出部」の一例である。 The platform unit 11 is equipped with an acceleration sensor 12 that measures the acceleration of the vehicle 2, an angular velocity sensor 13 that detects the rotational angular velocity of the vehicle 2, and a GPS (Global Positioning System) receiving unit 14 that detects the position of the vehicle 2. .. Further, the platform unit 11 includes a communication unit 15 that performs communication processing with an external device via the communication network 4, a notification unit 16 that outputs a warning sound such as a beep sound, or a voice such as a warning message, and a storage unit. 17 and an external interface (external I / F) 18 are equipped. Further, the platform unit 11 is equipped with a control unit 19 that controls the processing operation of each unit. The acceleration sensor 12 and the angular velocity sensor 13 are examples of the "behavior detection unit" of the vehicle-mounted device according to the present invention. The GPS receiving unit 14 is an example of the “position detecting unit” of the vehicle-mounted device according to the present invention.

加速度センサ12は、例えば、XYZ軸の3方向の加速度を測定する3軸加速度センサで構成されている。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサを用いることができる。なお、加速度センサ12には、2軸、1軸の加速度センサを用いてもよい。加速度センサ12で測定された加速度データが、検出時刻と対応付けて制御部19のRAM19bに記憶される。 The acceleration sensor 12 is composed of, for example, a three-axis acceleration sensor that measures acceleration in three directions of the XYZ axes. As the 3-axis accelerometer, a semiconductor type accelerometer such as a piezo resistance type can be used in addition to the capacitance type. A 2-axis and 1-axis accelerometer may be used as the accelerometer 12. The acceleration data measured by the acceleration sensor 12 is stored in the RAM 19b of the control unit 19 in association with the detection time.

角速度センサ13は、少なくとも鉛直軸回り(ヨー方向)の回転に応じた角速度、すなわち、車両2の左右方向への回転(旋回)に応じた角速度データを検出可能なセンサ、例えば、ジャイロセンサ(ヨーレートセンサともいう)で構成されている。
なお、角速度センサ13には、鉛直軸回りの1軸ジャイロセンサの他、左右方向の水平軸回り(ピッチ方向)の角速度も検出する2軸ジャイロセンサ、さらに前後方向の水平軸回り(ロール方向)の角速度も検出する3軸ジャイロセンサを用いてもよい。これらジャイロセンサには、振動式ジャイロセンサの他、光学式、又は機械式のジャイロセンサを用いることができる。
The angular velocity sensor 13 is a sensor capable of detecting at least an angular velocity corresponding to rotation around the vertical axis (yaw direction), that is, angular velocity data corresponding to rotation (turning) of the vehicle 2 in the left-right direction, for example, a gyro sensor (yaw rate). It is also called a sensor).
The angular velocity sensor 13 includes a uniaxial gyro sensor around the vertical axis, a biaxial gyro sensor that detects an angular velocity around the horizontal axis in the left-right direction (pitch direction), and a horizontal axis around the front-back direction (roll direction). A 3-axis gyro sensor that also detects the angular velocity of the gyro may be used. As these gyro sensors, in addition to the vibration type gyro sensor, an optical type or a mechanical type gyro sensor can be used.

また、角速度センサ13の鉛直軸回りの角速度の検出方向については、例えば、時計回りを正方向に、反時計回りを負方向に設定してもよい。この場合、車両2が右方向に旋回すれば正の角速度データが検出され、左方向に旋回すれば負の角速度データが検出される。角速度センサ13では、所定の周期(例えば、数十ms周期)で角速度が検出され、検出された角速度データが、例えば、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、加速度センサ12と角速度センサ13には、これらが一つのパッケージ内に実装された慣性センサを用いてもよい。 Further, regarding the detection direction of the angular velocity around the vertical axis of the angular velocity sensor 13, for example, clockwise may be set in the positive direction and counterclockwise may be set in the negative direction. In this case, if the vehicle 2 turns to the right, positive angular velocity data is detected, and if the vehicle 2 turns to the left, negative angular velocity data is detected. The angular velocity sensor 13 detects the angular velocity in a predetermined cycle (for example, a cycle of several tens of ms), and the detected angular velocity data is stored in the RAM 19b of the control unit 19 in association with the detection time, for example. For the acceleration sensor 12 and the angular velocity sensor 13, an inertial sensor in which these are mounted in one package may be used.

GPS受信部14は、アンテナ14aを介して人工衛星からのGPS信号を所定周期で受信して、現在地の位置データ(緯度、及び経度)を検出する。GPS受信部14で検出された位置データは、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、車両2の位置を検出する装置は、GPS受信部14に限定されるものではない。例えば、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo)、又は中国のコンパス(Compass)等の他の衛星測位システムに対応した測位装置を用いてもよい。 The GPS receiving unit 14 receives GPS signals from artificial satellites via the antenna 14a at a predetermined cycle, and detects position data (latitude and longitude) of the current location. The position data detected by the GPS receiving unit 14 is stored in the RAM 19b of the control unit 19 in association with the detection time. The device for detecting the position of the vehicle 2 is not limited to the GPS receiving unit 14. For example, positioning devices compatible with other satellite positioning systems such as the Quasi-Zenith Satellite in Japan, GLONASS in Russia, Galileo in Europe, or Compass in China may be used.

通信部15は、本発明に係る車載機の「出力部」の一例であり、通信ネットワーク4を介してサーバ装置40にデータ出力処理などを行う通信モジュールを含んで構成されている。 The communication unit 15 is an example of the “output unit” of the vehicle-mounted device according to the present invention, and includes a communication module that performs data output processing or the like on the server device 40 via the communication network 4.

記憶部17は、例えば、メモリーカードなどの着脱可能な記憶装置、又はハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などの1つ以上の記憶装置で構成されている。記憶部17には、例えば、加速度センサ12、角速度センサ13、GPS受信部14、ドライバモニタリング部20、又はドライブレコーダ部30から取得したデータなどが記憶される。 The storage unit 17 is composed of, for example, a detachable storage device such as a memory card, or one or more storage devices such as a hard disk drive (HDD) and a solid state drive (SSD). The storage unit 17 stores, for example, data acquired from the acceleration sensor 12, the angular velocity sensor 13, the GPS receiving unit 14, the driver monitoring unit 20, or the drive recorder unit 30.

外部I/F18は、ドライブレコーダ部30などの車載機器との間でデータや信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。 The external I / F 18 includes an interface circuit, a connector, and the like for exchanging data and signals with an in-vehicle device such as a drive recorder unit 30.

制御部19は、CPU(Central Processing Unit)19a、RAM(Random Access Memory)19b、及びROM(Read Only Memory)19cを含むマイクロコンピュータで構成されている。制御部19は、取得した各種データをRAM19b又は記憶部17に記憶する処理を行う。また、制御部19は、ROM19cに記憶されたプログラムの他、必要に応じてRAM19b又は記憶部17に記憶された各種データを読み出して、プログラムを実行する。 The control unit 19 is composed of a microcomputer including a CPU (Central Processing Unit) 19a, a RAM (Random Access Memory) 19b, and a ROM (Read Only Memory) 19c. The control unit 19 performs a process of storing various acquired data in the RAM 19b or the storage unit 17. Further, the control unit 19 reads out various data stored in the RAM 19b or the storage unit 17 as needed in addition to the program stored in the ROM 19c, and executes the program.

ドライバモニタリング部20は、ドライバカメラ21、画像解析部22、及びインターフェース(I/F)23を含んで構成されている。
ドライバカメラ21は、例えば、図示しないレンズ部、撮像素子部、光照射部、及びこれら各部を制御するカメラ制御部などを含んで構成されている。
The driver monitoring unit 20 includes a driver camera 21, an image analysis unit 22, and an interface (I / F) 23.
The driver camera 21 includes, for example, a lens unit (not shown), an image sensor unit, a light irradiation unit, and a camera control unit that controls each of these units.

前記撮像素子部は、例えば、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、及びマイクロレンズなどを含んで構成されている。前記撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、近赤外線などの赤外線又は紫外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでもよい。前記光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。ドライバカメラ21は、単眼カメラでもよいし、ステレオカメラであってもよい。 The image pickup device unit includes, for example, an image pickup device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), a filter, a microlens, and the like. The image pickup element unit includes an infrared sensor such as a CCD, CMOS, or a photodiode capable of receiving infrared rays such as near infrared rays or ultraviolet rays to form an image pickup image, in addition to those capable of forming an image captured image by receiving light in the visible region. It may be included. The light irradiation unit includes a light emitting element such as an LED (Light Emitting Diode), and an infrared LED or the like may be used so that the state of the driver can be imaged day or night. The driver camera 21 may be a monocular camera or a stereo camera.

前記カメラ制御部は、例えば、プロセッサなどを含んで構成されている。前記カメラ制御部が、前記撮像素子部や前記光照射部を制御して、該光照射部から光(例えば、近赤外線など)を照射し、前記撮像素子部でその反射光を撮像する制御などを行う。ドライバカメラ21は所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮像し、ドライバカメラ21で撮像された画像のデータが画像解析部22へ出力される。 The camera control unit includes, for example, a processor and the like. The camera control unit controls the image pickup element unit and the light irradiation unit to irradiate light (for example, near infrared rays) from the light irradiation unit, and the image pickup element unit captures the reflected light. I do. The driver camera 21 captures an image at a predetermined frame rate (for example, 30 to 60 frames per second), and the data of the image captured by the driver camera 21 is output to the image analysis unit 22.

画像解析部22は、例えば、画像処理プロセッサなどを含んで構成され、ドライバカメラ21で撮像された画像から運転者の顔の向き、視線の方向、及び目開度のうちの少なくともいずれかの情報(運転者の状態)を検出する処理などを行う。画像解析部22で検出された運転者の状態を示すデータ、画像データ、及び撮像日時データが、インターフェース(I/F)23を介してプラットフォーム部11に送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。 The image analysis unit 22 is configured to include, for example, an image processing processor, and information on at least one of the driver's face direction, line-of-sight direction, and eye opening from the image captured by the driver camera 21. Performs processing to detect (driver's condition). Data indicating the driver's state, image data, and imaging date / time data detected by the image analysis unit 22 are transmitted to the platform unit 11 via the interface (I / F) 23, and the RAM 19b or the storage unit of the platform unit 11 It is stored in 17.

画像解析部22で検出される運転者の顔の向きは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角で示してよく、少なくとも左右の向きを示すヨー角が含まれる。またこれらの角度は、所定の基準方向に対する角度で示すことができ、例えば、前記基準方向が、運転者の正面方向に設定されてもよい。 The orientation of the driver's face detected by the image analysis unit 22 is, for example, a pitch angle which is an angle (vertical orientation) around the X axis (left and right axis) of the driver's face, and a Y axis of the face ( It may be indicated by the Yaw angle, which is the angle around the vertical axis (horizontal axis), and the Roll angle, which is the angle around the Z axis (front-back axis) of the face (left-right tilt), and is at least left and right. Includes yaw angle to indicate orientation. Further, these angles can be indicated by an angle with respect to a predetermined reference direction, and for example, the reference direction may be set to the front direction of the driver.

また、画像解析部22で検出される運転者の視線の方向は、例えば、画像から検出された、運転者の顔の向きと、目領域の情報(目頭、眼尻、又は瞳孔の位置など)との関係から推定され、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。 Further, the direction of the driver's line of sight detected by the image analysis unit 22 is, for example, the direction of the driver's face detected from the image and information on the eye region (position of the inner corner of the eye, the outer corner of the eye, or the pupil). It is estimated from the relationship with and can be indicated by a line-of-sight vector V (three-dimensional vector) on three-dimensional coordinates. The line-of-sight vector V is, for example, a pitch angle that is an angle (up and down direction) around the X axis (left and right axis) of the driver's face, and a yaw that is an angle (left and right direction) around the Y axis (up and down axis) of the face. It may be estimated from at least one of the angle and the roll angle (tilt left and right) around the Z axis (front-back axis) of the face and the information in the eye area. Further, the line-of-sight vector V shows a part of the value of the three-dimensional vector in common with the value of the vector of the face orientation (for example, the origin of the three-dimensional coordinates is common), or the vector of the face orientation is used as a reference. It may be indicated by the relative angle (relative value of the vector of the orientation of the face).

また、画像解析部22で検出される運転者の目開度は、例えば、画像から検出された、運転者の目領域の情報(目頭、眼尻、上下のまぶたの位置、又は瞳孔の位置など)を基に推定される。 Further, the driver's eye opening detected by the image analysis unit 22 is, for example, information on the driver's eye region (the inner corner of the eye, the outer corner of the eye, the position of the upper and lower eyelids, the position of the pupil, etc.) detected from the image. ) Is estimated.

プラットフォーム部11の外部I/F18には、ドライブレコーダ部30が接続されている。ドライブレコーダ部30は、車外カメラ31と車内カメラ32とを含んで構成されている。
車外カメラ31は、車両2の前方の画像を撮像するカメラであり、車内カメラ32は、車両2の室内の画像を撮像するカメラである。車外カメラ31と車内カメラ32は、例えば、可視光カメラで構成され得るが、近赤外線カメラなどで構成してもよい。
車外カメラ31と車内カメラ32は、それぞれ所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮像し、車外カメラ31と車内カメラ32で撮像された画像と撮像日時などのデータがプラットフォーム部11へ送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。なお、ドライブレコーダ部30は車外カメラ31のみ備えた構成であってもよい。
The drive recorder unit 30 is connected to the external I / F 18 of the platform unit 11. The drive recorder unit 30 includes an outside camera 31 and an inside camera 32.
The out-of-vehicle camera 31 is a camera that captures an image in front of the vehicle 2, and the in-vehicle camera 32 is a camera that captures an image of the interior of the vehicle 2. The outside camera 31 and the inside camera 32 may be composed of, for example, a visible light camera, but may be composed of a near infrared camera or the like.
The out-of-vehicle camera 31 and the in-vehicle camera 32 each capture an image at a predetermined frame rate (for example, 30 to 60 frames per second), and the images captured by the out-of-vehicle camera 31 and the in-vehicle camera 32 and data such as the imaging date and time are stored in the platform unit. It is sent to 11 and stored in the RAM 19b or the storage unit 17 of the platform unit 11. The drive recorder unit 30 may be configured to include only the external camera 31.

車載機10は、プラットフォーム部11とドライバモニタリング部20とが1つの筐体内に収納された、コンパクトな構成にすることが可能である。その場合における車載機10の車内設置箇所は、ドライバカメラ21で少なくとも運転者の顔を含む視野を撮像できる位置であれば、特に限定されない。例えば車両2のダッシュボード中央付近の他、ハンドルコラム部分、メーターパネル付近、ルームミラー近傍位置、又はAピラー部分などに設置してもよい。また、ドライバカメラ21の仕様(例えば、画角や画素数(縦×横)など)及び位置姿勢(例えば、取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がドライバモニタリング部20又はプラットフォーム部11に記憶されてもよい。また、ドライバモニタリング部20は、プラットフォーム部11と一体に構成される形態の他、プラットフォーム部11と別体で構成されてもよい。 The on-board unit 10 can have a compact configuration in which the platform unit 11 and the driver monitoring unit 20 are housed in one housing. In that case, the location where the vehicle-mounted device 10 is installed in the vehicle is not particularly limited as long as the driver camera 21 can capture at least the field of view including the driver's face. For example, in addition to the vicinity of the center of the dashboard of the vehicle 2, it may be installed in the steering wheel column portion, the vicinity of the meter panel, the position near the rearview mirror, the A pillar portion, or the like. In addition, information including the specifications of the driver camera 21 (for example, the angle of view, the number of pixels (vertical x horizontal), etc.) and the position / posture (for example, the mounting angle, the distance from a predetermined origin (the center position of the handle, etc.), etc.) is the driver. It may be stored in the monitoring unit 20 or the platform unit 11. Further, the driver monitoring unit 20 may be configured separately from the platform unit 11 in addition to the form integrated with the platform unit 11.

図3は、車載機10からサーバ装置40に送信される検出データの構造の一例を示す図である。
検出データには、車載機10の識別情報(シリアルナンバー等)、送信日時、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線の方向(ピッチ、及びヨー)、目開度(右目、及び左目)、車両の加速度(前後、左右、及び上下)、角速度(ヨー)、運転者画像、車外画像、車両の位置データ(緯度、及び経度)、及び走行速度が含まれている。なお、サーバ装置40に送信される検出データの構造は、図3に示した構造に限定されるものではない。
検出データは、例えば、車載機10が、車両2が交差点を通過したことを検出した場合に送信される。車載機10は、例えば、角速度センサ13で検出された回転角速度の値が所定の閾値(交差点進入を推定する閾値)を超えてから所定時間が経過した場合に、車両2が交差点を通過したと判断することが可能となっている。
FIG. 3 is a diagram showing an example of the structure of detection data transmitted from the vehicle-mounted device 10 to the server device 40.
The detection data includes the identification information (serial number, etc.) of the in-vehicle device 10, the transmission date and time, the direction of the driver's face (pitch, yaw, and roll), the direction of the line of sight (pitch, yaw), and the eye opening (right eye). , And left eye), vehicle acceleration (front-back, left-right, and up-down), angular velocity (yaw), driver image, out-of-vehicle image, vehicle position data (latitude and longitude), and running speed. The structure of the detection data transmitted to the server device 40 is not limited to the structure shown in FIG.
The detection data is transmitted, for example, when the vehicle-mounted device 10 detects that the vehicle 2 has passed the intersection. According to the vehicle-mounted device 10, for example, when the predetermined time elapses after the value of the rotational angular velocity detected by the angular velocity sensor 13 exceeds a predetermined threshold value (threshold value for estimating the approach to the intersection), the vehicle 2 passes through the intersection. It is possible to judge.

図4は、実施の形態に係る運転評価システム1で用いられるサーバ装置40の要部を概略的に示すブロック図である。
サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成され、これらは通信バス42を介して接続されている。
FIG. 4 is a block diagram schematically showing a main part of the server device 40 used in the operation evaluation system 1 according to the embodiment.
The server device 40 includes a communication unit 41, a server computer 50, and a storage unit 60, and these are connected via a communication bus 42.

通信ユニット41は、通信ネットワーク4を介して、車載機10や事業者端末80などとの間で各種のデータや信号の送受信を実現するための通信装置で構成されている。 The communication unit 41 is composed of a communication device for realizing transmission / reception of various data and signals to and from the vehicle-mounted device 10 and the business terminal 80 via the communication network 4.

サーバコンピュータ50は、1つ以上のCPUを含んで構成される中央処理装置51と、制御プログラム52が記憶されたメインメモリ53とを含んで構成されている。中央処理装置51は、メインメモリ53中の制御プログラム52に従って、各種処理を実行するようになっている。 The server computer 50 includes a central processing unit 51 including one or more CPUs, and a main memory 53 in which the control program 52 is stored. The central processing unit 51 executes various processes according to the control program 52 in the main memory 53.

記憶ユニット60は、例えば、ハードディスクドライブ、ソリッドステートドライブなど、1つ以上の大容量記憶装置で構成され、検出データ蓄積部61、判別用データ蓄積部62、評価テーブル記憶部63、評価データ記憶部64、及び運転者情報記憶部65を含んで構成されている。 The storage unit 60 is composed of one or more large-capacity storage devices such as a hard disk drive and a solid state drive, and includes a detection data storage unit 61, a discrimination data storage unit 62, an evaluation table storage unit 63, and an evaluation data storage unit. It includes 64 and a driver information storage unit 65.

検出データ蓄積部61には、車両2が交差点を通過しているときに車載機10で検出された検出データが、各車載機10の識別情報に対応付けて蓄積される。
図5は、検出データ蓄積部61に蓄積される検出データファイルの構造の一例を示す図である。
検出データファイル61aには、例えば、車載機10の識別情報(シリアルナンバー等)に対応付けて、車載機10から検出データが送信されてきた日時、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線の方向(ピッチ、及びヨー)、目開度(右目、及び左目)、車両の加速度(前後、左右、及び上下)、角速度(ヨー)、運転者画像(撮像日時、フレーム番号、及び画像データ)、車外画像(撮像日時、フレーム番号、及び画像データ)、車両の位置データ(緯度、及び経度)、走行速度などの情報が蓄積される。
The detection data storage unit 61 stores the detection data detected by the vehicle-mounted device 10 while the vehicle 2 is passing through the intersection in association with the identification information of each vehicle-mounted device 10.
FIG. 5 is a diagram showing an example of the structure of the detection data file stored in the detection data storage unit 61.
In the detection data file 61a, for example, the date and time when the detection data is transmitted from the in-vehicle device 10 in association with the identification information (serial number, etc.) of the in-vehicle device 10, the direction of the driver's face (pitch, yaw, and). Roll), line-of-sight direction (pitch and yaw), eye opening (right eye and left eye), vehicle acceleration (front and back, left and right, and up and down), angular speed (yaw), driver image (capture date and time, frame number, And image data), outside vehicle image (capture date and time, frame number, and image data), vehicle position data (latitude and longitude), traveling speed, and other information are accumulated.

判別用データ蓄積部62には、車両2が通過した交差点の形状パターンの判別に用いる判別用データが蓄積されている。
判別用データは、例えば、地図データである。地図データは、例えば、車両が通過した交差点を含む交差点地図の部分を抽出可能な地図データである。また、地図データは、交差点を含む道路の形状が認識できる地図データであれば、その種類は特に限定されない。例えば、平面地図画像データでもよいし、航空写真による地図画像データでもよい。また、カラー地図画像データでもよいし、道路部分と他の部分とが2値化処理された地図画像データでもよい。地図画像データは、少なくとも車両2が走行する範囲のデータがあればよく、もちろん、広域の地図画像データでもよい。また、地図画像以外のデータであってもよい。
The discrimination data storage unit 62 stores discrimination data used for discriminating the shape pattern of the intersection through which the vehicle 2 has passed.
The discrimination data is, for example, map data. The map data is, for example, map data capable of extracting a portion of an intersection map including an intersection through which a vehicle has passed. The type of map data is not particularly limited as long as the map data can recognize the shape of the road including the intersection. For example, it may be a plane map image data or a map image data by an aerial photograph. Further, the color map image data may be used, or the map image data in which the road portion and the other portion are binarized may be used. The map image data may be at least data in the range in which the vehicle 2 travels, and of course, map image data over a wide area may be used. Further, the data may be data other than the map image.

評価テーブル記憶部63には、交差点の形状パターンと交差点で曲がる方向との組み合わせ毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルが記憶されている。 The evaluation table storage unit 63 stores an evaluation table in which evaluation conditions for safety confirmation operations to be performed by the driver are set for each combination of the shape pattern of the intersection and the direction of turning at the intersection.

図6は、評価テーブル記憶部63に記憶されている評価テーブルの構造の一例を示す図である。評価テーブル63aの項目には、パターンナンバー、交差点形状パターン、曲がる方向、運転者が行うべき確認行動が含まれている。図6に示した評価テーブルは、日本等の、自動車が左側通行である場合の一例である。なお、自動車が左側通行の国と、自動車が右側通行の国とでは、右折と左折が逆になる。また、評価テーブルの内容は、国による交通法規に適応した内容に適宜設定される。 FIG. 6 is a diagram showing an example of the structure of the evaluation table stored in the evaluation table storage unit 63. The items of the evaluation table 63a include a pattern number, an intersection shape pattern, a turning direction, and a confirmation action to be performed by the driver. The evaluation table shown in FIG. 6 is an example of a case where a car is traveling on the left side, such as in Japan. In a country where a car is on the left side and a country where a car is on the right side, the right turn and the left turn are reversed. In addition, the contents of the evaluation table are appropriately set according to the traffic regulations of the country.

交差点形状パターンの項目には、予め類型化された交差点の形状パターンが登録されている。例えば、生活道路の十字路、生活道路の左側丁字路、生活道路の左側丁字路、幹線道路の十字路、幹線道路の左側丁字路、及び幹線道路の右側丁字路などが記憶されている。なお、左側丁字路とは、車両の進行方向に対して、左折と直進とが可能な交差点である。右側丁字路とは、車両の進行方向に対して、右折と直進とが可能な交差点である。また、交差点の信号の有無、または横断歩道の有無などの項目でさらに細かく類型化してもよい。 In the item of the intersection shape pattern, the shape pattern of the intersection categorized in advance is registered. For example, a crossroads of a living road, a left junction of a living road, a left junction of a living road, a crossroads of a main road, a left junction of a main road, and a right junction of a main road are stored. The left junction is an intersection where the vehicle can turn left and go straight in the direction of travel. The right-hand junction is an intersection where you can turn right and go straight in the direction of travel of the vehicle. Further, it may be further categorized by items such as the presence / absence of a signal at an intersection or the presence / absence of a pedestrian crossing.

曲がる方向の項目には、各交差点形状パターンの交差点で曲がる方向、例えば、左折又は右折が記憶されている。
確認行動の項目には、各交差点形状パターンの交差点を通過する際(進入前、又は進入中)に、運転者が安全確認すべき方向(右又は左)、その角度、時間などの項目が1つ以上記憶されている。角度は、例えば、車両の正面方向に対する運転者の顔の向き、又は視線の方向を示す。
In the item of the turning direction, the direction of turning at the intersection of each intersection shape pattern, for example, a left turn or a right turn is stored.
The items of confirmation action include items such as the direction (right or left), the angle, and time that the driver should confirm safety when passing through the intersection of each intersection shape pattern (before or during approach). More than one is remembered. The angle indicates, for example, the direction of the driver's face or the direction of the line of sight with respect to the front direction of the vehicle.

例えば、評価テーブル63aのNo.1の場合(生活道路の十字路を左折するパターン)では、確認行動1として、進入前における左確認がa度以上でt1秒間以上行われたかを評価する項目が設定されている。この評価は、交差点進入前に歩行者や二輪車などの巻き込み確認を行ったか否かの評価である。
確認行動2には、進入前における右確認がa度以上でt1秒間以上行われたかを評価する項目が設定されている。この評価は、交差点で右折してくる対向車の有無、又は車両の前方から交差点を渡ろうとしている歩行者等の有無を確認したか否かの評価である。
確認行動3には、進入中における左確認がb度以上でt2秒間以上行われたかを評価する項目が設定されている。この評価は、交差点を渡ろうとしている歩行者等の有無、左折後の前方(進路切替方向)の安全を確認したか否かの評価である。
For example, No. 1 in the evaluation table 63a. In the case of 1 (the pattern of turning left at the crossroads of the living road), an item for evaluating whether the left confirmation before approaching is performed at a degree or more for t1 second or more is set as the confirmation action 1. This evaluation is an evaluation of whether or not pedestrians, motorcycles, etc. have been confirmed to be involved before entering the intersection.
In the confirmation action 2, an item for evaluating whether the right confirmation before approaching is performed at a degree or more for t1 second or more is set. This evaluation is an evaluation of whether or not it is confirmed whether or not there is an oncoming vehicle turning right at the intersection, or whether or not there is a pedestrian or the like who is trying to cross the intersection from the front of the vehicle.
In the confirmation action 3, an item for evaluating whether the left confirmation during the approach is performed at b degrees or more for t2 seconds or more is set. This evaluation is an evaluation of whether or not there are pedestrians or the like trying to cross the intersection, and whether or not the safety of the front (course switching direction) after turning left has been confirmed.

評価データ記憶部64には、サーバコンピュータ50で実行された運転者の安全確認動作の評価結果、すなわち、車載機10毎に、少なくとも交差点における運転者3の安全確認動作の評価結果に関する情報が記憶される。
図7は、評価データ記憶部64に記憶されている評価データファイルの構造の一例を示す図である。評価データファイル64aには、車載機10の識別情報、交差点通過日時、交差点位置、評価条件(評価テーブルから選択された交差点形状パターンのナンバー)、及び評価結果が含まれている。評価結果には、例えば、評価テーブル63aから選択された評価条件での評価を基に点数化又はランク付けされた評価データが記憶される。
運転者情報記憶部65には、事業者が管理する運転者3に関する各種情報が記憶されている。
The evaluation data storage unit 64 stores the evaluation result of the driver's safety confirmation operation executed by the server computer 50, that is, information on the evaluation result of the driver 3's safety confirmation operation at least at the intersection for each in-vehicle device 10. Will be done.
FIG. 7 is a diagram showing an example of the structure of the evaluation data file stored in the evaluation data storage unit 64. The evaluation data file 64a includes identification information of the in-vehicle device 10, the date and time of passing the intersection, the position of the intersection, the evaluation conditions (the number of the intersection shape pattern selected from the evaluation table), and the evaluation result. In the evaluation result, for example, evaluation data scored or ranked based on the evaluation under the evaluation conditions selected from the evaluation table 63a is stored.
The driver information storage unit 65 stores various information about the driver 3 managed by the business operator.

図8は、実施の形態に係るサーバ装置の機能構成ブロック図である。
サーバコンピュータ50の中央処理装置51は、判別用データ取得部54、方向推定部55、交差点判別部56、評価条件選択部57、及び安全確認評価部58を含んで構成されている。
FIG. 8 is a functional configuration block diagram of the server device according to the embodiment.
The central processing unit 51 of the server computer 50 includes a discrimination data acquisition unit 54, a direction estimation unit 55, an intersection discrimination unit 56, an evaluation condition selection unit 57, and a safety confirmation evaluation unit 58.

判別用データ取得部54は、検出データ蓄積部61から運転評価を行う交差点で検出された検出データを読み出し、該検出データを用いて、判別用データ蓄積部62から運転評価を行う交差点の形状パターンの判別に用いる判別用データを取得する処理を行う。
例えば、判別用データ取得部54は、検出データ蓄積部61から運転評価を行う交差点で検出された位置データ(経度、及び緯度)を読み出し、該位置データに基づいて、判別用データ蓄積部62に蓄積されている地図データ(広域地図データ)から運転評価を行う交差点部分の地図データ(交差点地図データ)を取得する処理を行う。
The discrimination data acquisition unit 54 reads out the detection data detected at the intersection where the operation is evaluated from the detection data storage unit 61, and uses the detection data to perform the operation evaluation from the discrimination data storage unit 62. The shape pattern of the intersection. Performs the process of acquiring the discrimination data used for the discrimination of.
For example, the discrimination data acquisition unit 54 reads out the position data (longitudinal and latitude) detected at the intersection where the operation is evaluated from the detection data storage unit 61, and the discrimination data storage unit 62 is based on the position data. Performs the process of acquiring the map data (intersection map data) of the intersection portion for which driving evaluation is performed from the accumulated map data (wide area map data).

方向推定部55は、検出データ蓄積部61から、運転評価を行う交差点で検出された検出データを読み出し、該検出データを用いて、前記運転評価を行う交差点で曲がった方向を推定する処理を実行する。
例えば、方向推定部55は、検出データ蓄積部61から運転評価を行う交差点を通過するときに検出された角速度データを読み出し、該角速度データの値の正負を基に車両2の右左折方向を推定してもよい。例えば、角速度データの値が正の場合、右折と推定し、積分値が負の場合、左折と推定することができる。また、角速度データの積分値を演算し、演算した積分値の正負に基づいて、車両2の右左折方向を推定してもよい。
或いは、方向推定部55は、検出データ蓄積部61から運転評価を行う交差点を通過するときに検出された位置データ(緯度、及び経度)を読み出し、位置データの時系列変化に基づいて、車両2の右左折方向を推定してもよい。
The direction estimation unit 55 reads the detection data detected at the intersection where the driving evaluation is performed from the detection data storage unit 61, and executes a process of estimating the bending direction at the intersection where the driving evaluation is performed using the detection data. do.
For example, the direction estimation unit 55 reads out the angular velocity data detected when passing through the intersection for driving evaluation from the detection data storage unit 61, and estimates the right / left turn direction of the vehicle 2 based on the positive / negative of the value of the angular velocity data. You may. For example, if the value of the angular velocity data is positive, it can be estimated to be a right turn, and if the integrated value is negative, it can be estimated to be a left turn. Further, the integrated value of the angular velocity data may be calculated, and the right / left turn direction of the vehicle 2 may be estimated based on the positive / negative of the calculated integrated value.
Alternatively, the direction estimation unit 55 reads out the position data (latitude and longitude) detected when passing through the intersection for driving evaluation from the detection data storage unit 61, and based on the time-series change of the position data, the vehicle 2 You may estimate the right / left turn direction of.

交差点判別部56は、判別用データ取得部54により取得された前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する処理を実行する。
例えば、交差点判別部56は、判別用データ取得部54により取得された交差点地図データを用いて、道路の交差形状の画像認識処理を行い、運転評価を行う交差点の形状パターンを判別する処理を行う。画像認識処理には、例えば、テンプレートマッチングによる交差点形状の認識処理を行ってもよい。この場合は、予め複数種類の交差点形状のテンプレートを記憶しておき、前記交差点地図データと、前記テンプレートとのパターンマッチング処理により、運転評価を行う交差点の形状パターンを判別してもよい。
The intersection discriminating unit 56 executes a process of discriminating the shape pattern of the intersection to be evaluated for operation by using the discriminating data acquired by the discriminating data acquisition unit 54.
For example, the intersection discrimination unit 56 performs image recognition processing of the intersection shape of the road using the intersection map data acquired by the discrimination data acquisition unit 54, and performs processing to discriminate the shape pattern of the intersection for which driving evaluation is performed. .. For the image recognition process, for example, the intersection shape recognition process by template matching may be performed. In this case, a plurality of types of intersection shape templates may be stored in advance, and the shape pattern of the intersection to be evaluated for driving may be determined by pattern matching processing between the intersection map data and the template.

または、交差点判別部56にニューラルネットワークを用いて、交差点の形状バターンの画像認識処理を行うようにしてもよい。
図9は、交差点判別部56をニューラルネットワークで構成した例を示す概念図である。
ニューラルネットワーク56aは、入力層56b、中間層(隠れ層ともいう)56c、出力層56dを含む複数の層で区分けされ、複数のニューロン(ユニットともいう)によって信号が処理され、出力層56dから分類結果が出力される構成となっている。
ニューラルネットワーク56aは、例えば、様々な交差点形状の地図画像を教師データとして予め学習処理を行って作成した学習済み分類器として機能する。
Alternatively, a neural network may be used for the intersection discrimination unit 56 to perform image recognition processing of the shape pattern of the intersection.
FIG. 9 is a conceptual diagram showing an example in which the intersection discrimination unit 56 is configured by a neural network.
The neural network 56a is divided into a plurality of layers including an input layer 56b, an intermediate layer (also referred to as a hidden layer) 56c, and an output layer 56d, and signals are processed by a plurality of neurons (also referred to as units) and classified from the output layer 56d. The result is output.
The neural network 56a functions as a trained classifier created by performing learning processing in advance using map images of various intersection shapes as teacher data, for example.

例えば、入力層56bに、判別用データ取得部54によって判別用データ蓄積部62から取得された交差点地図データ62aの画素情報が入力され、中間層56cで、交差点地図データ62aに対し、学習済みの重み付け係数に基づく演算が実行され、出力層56dから交差点の形状パターンの判別結果が出力されるように構成されている。 For example, the pixel information of the intersection map data 62a acquired from the discrimination data storage unit 62 by the discrimination data acquisition unit 54 is input to the input layer 56b, and the intermediate layer 56c has already learned the intersection map data 62a. The calculation based on the weighting coefficient is executed, and the output layer 56d is configured to output the discrimination result of the shape pattern of the intersection.

入力層56bは、ニューラルネットワーク56aに与える情報を取り込む層である。例えば、地図画像の画素数に対応したユニット数を備え、各ニューロンに地図画像の各画素情報が入力される。 The input layer 56b is a layer that captures information given to the neural network 56a. For example, the number of units corresponding to the number of pixels of the map image is provided, and each pixel information of the map image is input to each neuron.

中間層56cを構成する各ニューロンは、複数の入力値に重み係数を積算して加算し、さらにしきい値を減算した値を伝達関数(例えば、ステップ関数、又はシグモイド関数など)で処理した値を出力する処理を行い、入力層56bに入力された地図画像の交差点形状の特徴を抽出していく。例えば、中間層56cの浅い層では、地図画像における交差点形状の小さい特徴(道路の境界部分の特徴など)が認識され、層が深くなる(出力側になる)につれて、小さい特徴が組み合わされて、交差点の大きな特徴(道路の交差形状の特徴など)が認識される。 Each neuron constituting the intermediate layer 56c is a value obtained by adding a weight coefficient to a plurality of input values, adding the weight coefficient, and subtracting a threshold value, and processing the value by a transfer function (for example, a step function or a sigmoid function). Is performed, and the characteristics of the intersection shape of the map image input to the input layer 56b are extracted. For example, in the shallow layer of the intermediate layer 56c, small features of the intersection shape in the map image (characteristics of the boundary portion of the road, etc.) are recognized, and as the layer becomes deeper (toward the output side), the smaller features are combined. Major features of intersections (such as features of road intersections) are recognized.

出力層56dを構成する各ニューロンは、ニューラルネットワーク56aが算出した結果を出力する。例えば、評価テーブル63aに設定された交差点形状バターン数のニューロンで構成され、いずれの交差点の形状パターンに属するのかを分類(識別)した結果を出力する。 Each neuron constituting the output layer 56d outputs the result calculated by the neural network 56a. For example, it is composed of neurons having the number of intersection shape patterns set in the evaluation table 63a, and outputs the result of classifying (identifying) which intersection shape pattern belongs to.

評価条件選択部57は、評価テーブル記憶部63から評価テーブル63aを読み出し、評価テーブル63aから、交差点判別部56で判別された前記交差点の形状パターンと、方向推定部55で推定された交差点で曲がった方向とに対応する評価条件を選択する処理を実行する。 The evaluation condition selection unit 57 reads the evaluation table 63a from the evaluation table storage unit 63, and bends at the intersection shape pattern determined by the intersection determination unit 56 and the intersection estimated by the direction estimation unit 55 from the evaluation table 63a. The process of selecting the evaluation condition corresponding to the direction is executed.

安全確認評価部58は、評価条件選択部57により選択された評価条件と、運転評価を行う交差点で検出された検出データとに基づいて、交差点における運転者の安全確認動作を評価する処理を実行し、評価結果を評価データ記憶部64に記憶する。 The safety confirmation evaluation unit 58 executes a process of evaluating the driver's safety confirmation operation at the intersection based on the evaluation conditions selected by the evaluation condition selection unit 57 and the detection data detected at the intersection where the driving evaluation is performed. Then, the evaluation result is stored in the evaluation data storage unit 64.

安全確認評価部58は、まず、車両2の交差点への進入時刻を推定する処理を行う。例えば、安全確認評価部58は、検出データ蓄積部61に記憶された角速度データ(車載機10から交差点通過時に送信されてきた角速度データ)の積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を検出し、この検出時刻を交差点への進入時刻として推定する。 The safety confirmation evaluation unit 58 first performs a process of estimating the approach time of the vehicle 2 to the intersection. For example, the safety confirmation evaluation unit 58 calculates the integrated value of the angular velocity data (angular velocity data transmitted from the in-vehicle device 10 when passing through the intersection) stored in the detection data storage unit 61, and the calculated integrated value is predetermined. The time when the integration ratio is reached is detected, and this detection time is estimated as the approach time to the intersection.

そして、安全確認評価部58は、評価テーブル63aから選択された評価条件に基づいて、交差点への進入時刻の前後所定時間内における運転者の安全確認動作を評価する処理を行う。
安全確認評価部58は、まず、検出データ蓄積部61に蓄積された検出データに基づいて、進入時刻の前後所定時間内における運転者の顔の向き又は視線の方向の少なくともいずれかの振り角度及び振り時間を検出する。
Then, the safety confirmation evaluation unit 58 performs a process of evaluating the driver's safety confirmation operation within a predetermined time before and after the approach time to the intersection based on the evaluation conditions selected from the evaluation table 63a.
First, based on the detection data stored in the detection data storage unit 61, the safety confirmation evaluation unit 58 has at least one swing angle and a swing angle of at least one of the driver's face direction and the line-of-sight direction within a predetermined time before and after the approach time. Detect the swing time.

次に安全確認評価部58は、評価テーブル63aから選択された評価条件と、進入時刻より前の所定時間(進入前)における、振り角度及び振り時間とに基づいて、交差点への進入前の安全確認動作を評価する処理を行う。なお、前記選択された評価条件に左右の各方向の確認行動が含まれている場合、左右の各方向の検出順序は問わない。 Next, the safety confirmation evaluation unit 58 determines the safety before entering the intersection based on the evaluation conditions selected from the evaluation table 63a and the swing angle and swing time at the predetermined time (before the approach) before the approach time. Performs the process of evaluating the confirmation operation. When the selected evaluation conditions include confirmation actions in each of the left and right directions, the detection order in each of the left and right directions does not matter.

例えば、右方向の安全確認については、(1)右方向の確認タイミングが適切であるか否か、(2)右方向への振り角度が所定角度以上であるか否か、(3)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(1)右方向の確認タイミングが適切であるか否かは、例えば、進入時刻の所定時間前までに、右方向への振り角度が所定角度以上になったか否かにより判定することができる。 For example, regarding safety confirmation in the right direction, (1) whether or not the confirmation timing in the right direction is appropriate, (2) whether or not the swing angle in the right direction is equal to or greater than a predetermined angle, and (3) the predetermined value. It is determined whether or not the state of the angle or more continues for a predetermined time or more. (1) Whether or not the confirmation timing in the right direction is appropriate can be determined by, for example, whether or not the swing angle in the right direction is equal to or greater than the predetermined angle by a predetermined time before the approach time. ..

同様に、左方向の安全確認については、(4)左方向の確認タイミングが適切であるか否か、(5)左方向への振り角度が所定角度以上であるか否か、(6)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(4)左方向の確認タイミングが適切であるか否かは、例えば、進入時刻の所定時間前までに、左方向への振り角度が所定角度以上になったか否かにより判定することができる。 Similarly, regarding safety confirmation in the left direction, (4) whether or not the confirmation timing in the left direction is appropriate, (5) whether or not the swing angle in the left direction is equal to or greater than a predetermined angle, and (6) the above. It is determined whether or not the state of the predetermined angle or more continues for the predetermined time or more. (4) Whether or not the confirmation timing in the left direction is appropriate can be determined by, for example, whether or not the swing angle in the left direction is equal to or greater than the predetermined angle by a predetermined time before the approach time. ..

また、安全確認評価部58は、評価テーブル63aから選択された評価条件と、進入時刻より後の所定時間(進入中)における、振り角度及び振り時間とに基づいて、交差点での進路変更方向、例えば、右折先又は左折先の安全確認動作を評価する処理を行う。
例えば、進路変更方向の安全確認については、(7)進路変更方向の確認タイミングが適切であるか否か、(8)右折又は左折する進路変更方向への振り角度が所定角度以上であるか否か、(9)前記所定角度以上の状態が所定時間以上継続しているか否かを判定する。上記(7)進路変更方向の確認タイミングが適切であるか否かは、例えば、進入時刻より後の所定時間までに、進路変更方向への振り角度が所定角度以上になったか否かにより判定することができる。
Further, the safety confirmation evaluation unit 58 determines the course change direction at the intersection based on the evaluation conditions selected from the evaluation table 63a and the swing angle and swing time at a predetermined time (during approach) after the approach time. For example, a process for evaluating the safety confirmation operation at the right turn destination or the left turn destination is performed.
For example, regarding the safety confirmation of the course change direction, (7) whether or not the confirmation timing of the course change direction is appropriate, and (8) whether or not the swing angle in the course change direction of turning right or left is equal to or more than a predetermined angle. Or (9) it is determined whether or not the state of the predetermined angle or more continues for a predetermined time or more. Whether or not the confirmation timing of the above (7) course change direction is appropriate is determined by, for example, whether or not the swing angle in the course change direction is equal to or greater than the predetermined angle by a predetermined time after the approach time. be able to.

さらに、安全確認評価部58は、進入時刻の前後所定時間における車両2の走行速度に基づいて、運転者の減速意識を評価する処理を行ってもよい。例えば、(10)進入時刻の前後所定時間における車両2の走行速度の最高値が、所定の速度(たとえば、交差点を安全に曲がって通過できる上限速度)以下であるかを判定することにより、減速意識の有無を評価してもよい。 Further, the safety confirmation evaluation unit 58 may perform a process of evaluating the driver's deceleration consciousness based on the traveling speed of the vehicle 2 at a predetermined time before and after the approach time. For example, (10) deceleration by determining whether the maximum value of the traveling speed of the vehicle 2 at a predetermined time before and after the approach time is equal to or less than a predetermined speed (for example, an upper limit speed at which a vehicle can safely turn and pass through an intersection). You may evaluate the presence or absence of consciousness.

安全確認評価部58は、評価テーブル63aから選択された評価条件に設定された各確認行動について、上記項目(1)~(10)の判定方法に基づいて評価を行い、交差点毎の評価点を算出する処理を行う。例えば、評価条件に設定された各確認行動について、確認タイミング、確認角度、及び確認時間の評価結果を合計し、必要な統計処理(平均化、又は正規化処理など)を施して、交差点毎の点数又はランク付けによるスコアを算出する。
そして、安全確認評価部58は、算出した交差点毎の評価点を記憶ユニット60の評価データ記憶部64に記憶する処理を行う。
The safety confirmation evaluation unit 58 evaluates each confirmation action set in the evaluation conditions selected from the evaluation table 63a based on the determination methods of the above items (1) to (10), and evaluates the evaluation points for each intersection. Perform the calculation process. For example, for each confirmation action set in the evaluation conditions, the evaluation results of confirmation timing, confirmation angle, and confirmation time are totaled, and necessary statistical processing (averaging, normalization processing, etc.) is performed for each intersection. Calculate the score by scoring or ranking.
Then, the safety confirmation evaluation unit 58 performs a process of storing the calculated evaluation points for each intersection in the evaluation data storage unit 64 of the storage unit 60.

また、サーバコンピュータ50は、事業者端末80のブラウザから要求された各種リクエストを処理して、ブラウザを通じて事業者端末80に各種リクエストに対応する処理結果などを提示する処理を行ってもよい。
例えば、サーバコンピュータ50が、事業者端末80から運転者の運転評価結果の送信リクエストを受け付けた場合、評価データ記憶部64に記憶された運転者の評価データに基づいて、所定の形式の運転評価報告書を作成し、事業者端末80のブラウザを通じて、運転評価報告書を提示する処理などを実行してもよい。これら処理は、サーバコンピュータ50とは別のサーバコンピュータで実行してもよい。
Further, the server computer 50 may process various requests requested from the browser of the business terminal 80 and present the processing results corresponding to the various requests to the business terminal 80 through the browser.
For example, when the server computer 50 receives a transmission request for a driver's driving evaluation result from the operator terminal 80, a predetermined type of driving evaluation is performed based on the driver's evaluation data stored in the evaluation data storage unit 64. You may create a report and execute a process of presenting a driving evaluation report through the browser of the business operator terminal 80. These processes may be executed on a server computer other than the server computer 50.

[動作例]
図10は、実施の形態に係る車載機10におけるドライバモニタリング部20が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバカメラ21で画像が撮像されるタイミング(例えば、毎フレーム、又は所定間隔のフレーム毎)で実行される。
[Operation example]
FIG. 10 is a flowchart showing a processing operation performed by the driver monitoring unit 20 in the vehicle-mounted device 10 according to the embodiment. This processing operation is executed, for example, at the timing when an image is captured by the driver camera 21 (for example, every frame or every frame at a predetermined interval).

まず、画像解析部22は、ドライバカメラ21で撮像された画像を取得する(ステップS1)。 First, the image analysis unit 22 acquires an image captured by the driver camera 21 (step S1).

次に画像解析部22は、取得した画像から運転者の顔、又は顔の領域を検出する処理を行う(ステップS2)。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。 Next, the image analysis unit 22 performs a process of detecting the driver's face or a face area from the acquired image (step S2). The method for detecting a face from an image is not particularly limited, but it is preferable to adopt a method for detecting a face at high speed and with high accuracy.

画像解析部22は、ステップS2で検出した顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う(ステップS3)。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、画像解析部22が、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。この手法によれば、ドライバカメラ21の設置位置や画像中の顔の向きなどに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007-249280号公報に記載された技術を適用することができるが、これに限定されるものではない。 The image analysis unit 22 performs a process of detecting the position and shape of facial organs such as eyes, nose, mouth, and eyebrows from the facial region detected in step S2 (step S3). The method for detecting the facial organs from the facial region in the image is not particularly limited, but it is preferable to adopt a method that can detect the facial organs at high speed and with high accuracy. For example, a method in which the image analysis unit 22 creates a three-dimensional face shape model, fits the three-dimensional face shape model to the face region on the two-dimensional image, and detects the position and shape of each organ of the face can be adopted. According to this method, it is possible to accurately detect the position and shape of each organ of the face regardless of the installation position of the driver camera 21 or the orientation of the face in the image. As a technique for fitting a three-dimensional face shape model to a human face in an image, for example, the technique described in JP-A-2007-249280 can be applied, but the technique is not limited thereto.

次に画像解析部22は、ステップS3で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する(ステップS4)。例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角を運転者の顔の向きに関する情報として検出してもよい。 Next, the image analysis unit 22 detects the orientation of the driver's face based on the position and shape data of each organ of the face obtained in step S3 (step S4). For example, the pitch angle of vertical rotation (around the X axis), the yaw angle of the horizontal rotation (around the Y axis), and the roll angle of the total rotation (around the Z axis) included in the parameters of the above three-dimensional face shape model are set. It may be detected as information regarding the orientation of the driver's face.

次に画像解析部22は、ステップS4で求めた運転者の顔の向き、及びステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、及び瞳孔)の位置や形状に基づいて、視線の方向を検出する(ステップS5)。
視線の方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(目尻、目頭、瞳孔の相対位置、又は強膜(いわゆる白目)部分と虹彩(いわゆる黒目)部分の相対位置、濃淡、テクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。または、前記3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線方向として検出してもよい。
Next, the image analysis unit 22 determines the orientation of the driver's face determined in step S4, and the position and shape of the driver's facial organs determined in step S3, particularly the characteristic points of the eyes (outer corners of the eyes, inner corners of the eyes, and pupils). The direction of the line of sight is detected based on the position and shape (step S5).
The direction of the line of sight is, for example, the feature amount of the image of the eye in various face directions and the direction of the line of sight (relative position of the outer corner of the eye, the inner corner of the eye, the pupil, or the relative position of the sclera (so-called white eye) part and the iris (so-called black eye) part. , Shading, texture, etc.) may be detected by learning in advance using a learning device and evaluating the degree of similarity with the learned feature amount data. Alternatively, using the fitting result of the three-dimensional face shape model, the size and center position of the eyeball are estimated from the size and orientation of the face and the position of the eyes, and the position of the pupil is detected to determine the center of the eyeball. The vector connecting the center of the pupil may be detected as the line-of-sight direction.

次に画像解析部22は、ステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔、及びまぶた)の位置や形状に基づいて、目開度を検出する(ステップS6)。 Next, the image analysis unit 22 determines the eye opening degree based on the position and shape of the driver's facial organs obtained in step S3, particularly the positions and shapes of the characteristic points of the eyes (outer corners of the eyes, inner corners of the eyes, pupils, and eyelids). Detect (step S6).

次に画像解析部22は、ステップS4で検出した運転者の顔の向きと、ステップS5で検出した運転者の視線の方向と、ステップS6で検出した運転者の目開度と、運転者の画像と、撮像時刻とを対応付けて、画像情報としてプラットフォーム部11に送信し(ステップS7)、その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。 Next, the image analysis unit 22 determines the direction of the driver's face detected in step S4, the direction of the driver's line of sight detected in step S5, the opening of the driver's eyes detected in step S6, and the driver's eyes. The image and the imaging time are associated with each other and transmitted as image information to the platform unit 11 (step S7), after which the image analysis unit 22 returns to step S1 and repeats the process.

図11は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、数十ms~数秒の所定周期で実行される。 FIG. 11 is a flowchart showing a processing operation performed by the control unit 19 in the vehicle-mounted device 10 according to the embodiment. This processing operation is executed, for example, in a predetermined cycle of several tens of ms to several seconds.

制御部19は、加速度センサ12で測定された加速度データを取得してRAM19bに記憶する(ステップS11)。 The control unit 19 acquires the acceleration data measured by the acceleration sensor 12 and stores it in the RAM 19b (step S11).

また、制御部19は、角速度センサ13で検出された角速度データを取得してRAM19bに記憶する(ステップS12)。 Further, the control unit 19 acquires the angular velocity data detected by the angular velocity sensor 13 and stores it in the RAM 19b (step S12).

また、制御部19は、ドライバモニタリング部20から送信されてきた画像情報を取得してRAM19bに記憶する(ステップS13)。 Further, the control unit 19 acquires the image information transmitted from the driver monitoring unit 20 and stores it in the RAM 19b (step S13).

さらに、制御部19は、ドライブレコーダ部30から送出されてきたデータ(車外画像と車内画像のデータ)を取得してRAM19bに記憶する(ステップS14)。 Further, the control unit 19 acquires the data (data of the image outside the vehicle and the image inside the vehicle) transmitted from the drive recorder unit 30 and stores it in the RAM 19b (step S14).

また、制御部19は、GPS受信部14で検出された位置データを取得する(ステップS15)。 Further, the control unit 19 acquires the position data detected by the GPS receiving unit 14 (step S15).

次に制御部19は、位置データの単位時間変化に基づいて走行速度を算出し、位置データと走行速度とをRAM19bに記憶する(ステップS16)。 Next, the control unit 19 calculates the traveling speed based on the unit-time change of the position data, and stores the position data and the traveling speed in the RAM 19b (step S16).

次に制御部19は、車両2が交差点に進入したか否かを判断する(ステップS17)。例えば、制御部19は、角速度の積分値が車両の交差点への進入を示す閾値以上であり、かつ走行速度が交差点への進入を示す所定の上限速度以下であるか否かを判断する。 Next, the control unit 19 determines whether or not the vehicle 2 has entered the intersection (step S17). For example, the control unit 19 determines whether or not the integrated value of the angular velocity is equal to or higher than the threshold value indicating the approach of the vehicle to the intersection and the traveling speed is equal to or lower than the predetermined upper limit speed indicating the approach to the intersection.

ステップS17において、制御部19は、車両2が交差点に進入したと判断すれば、次に制御部19は、車両2が交差点を通過したか否かを判断する(ステップS18)。例えば、角速度の積分値が、車両が交差点を通過したことを示す閾値以下になり、かつ走行速度が、交差点の通過を示す所定の下限速度以上になったか否かを判断する。 In step S17, if the control unit 19 determines that the vehicle 2 has entered the intersection, then the control unit 19 determines whether or not the vehicle 2 has passed the intersection (step S18). For example, it is determined whether or not the integrated value of the angular velocity is equal to or less than the threshold value indicating that the vehicle has passed the intersection and the traveling speed is equal to or more than the predetermined lower limit speed indicating the passage of the intersection.

制御部19が、車両2が交差点を通過したと判断すれば、制御部19は、車両2が交差点に進入した前後所定時間(数十秒程度)に取得した検出データをRAM19bから読み出し、通信部15を制御して検出データをサーバ装置40へ送信する処理を実行する(ステップS19)。その後、制御部19は、ステップS11に戻り、処理を繰り返す。車載機10からサーバ装置40へ送信される検出データの構造の一例は図3に示している。 If the control unit 19 determines that the vehicle 2 has passed the intersection, the control unit 19 reads the detection data acquired at a predetermined time (about several tens of seconds) before and after the vehicle 2 enters the intersection from the RAM 19b, and reads the detection data from the RAM 19b. 15 is controlled to execute a process of transmitting detection data to the server device 40 (step S19). After that, the control unit 19 returns to step S11 and repeats the process. An example of the structure of the detection data transmitted from the vehicle-mounted device 10 to the server device 40 is shown in FIG.

なお、制御部19は、ステップS19の処理に代えて、RAM19bから読み出した検出データを記憶部17(例えば、着脱式記憶媒体)に記憶してもよい。そして、一日の走行終了後、運転者3が車載機10から記憶部17を取り外し、記憶部17に記憶された検出データを事業者端末80に読み込ませて、事業者端末80がサーバ装置40に送信するようにしてもよい。 The control unit 19 may store the detection data read from the RAM 19b in the storage unit 17 (for example, a removable storage medium) instead of the processing in step S19. Then, after the end of the day's driving, the driver 3 removes the storage unit 17 from the vehicle-mounted device 10, causes the business operator terminal 80 to read the detection data stored in the storage unit 17, and the business operator terminal 80 uses the server device 40. You may send it to.

図12は、実施の形態に係るサーバ装置40における中央処理装置51が行う処理動作を示すフローチャートである。
中央処理装置51は、車載機10から送信されてきた検出データを受信したか否かを判断する(ステップS21)。
FIG. 12 is a flowchart showing a processing operation performed by the central processing unit 51 in the server device 40 according to the embodiment.
The central processing unit 51 determines whether or not the detection data transmitted from the vehicle-mounted device 10 has been received (step S21).

中央処理装置51は、車載機10から検出データを受信したと判断すれば、次に、車載機10から受信した検出データを、車載機10の識別情報と対応付けて検出データ蓄積部61に記憶する(ステップS22)。 If the central processing unit 51 determines that the detection data has been received from the vehicle-mounted device 10, then the detection data received from the vehicle-mounted device 10 is stored in the detection data storage unit 61 in association with the identification information of the vehicle-mounted device 10. (Step S22).

その後、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングか否かを判断する(ステップS23)。前記評価を実行するタイミングか否かは、例えば、車載機10から車両2の運転終了を示す信号を受信したか否かで判断してもよい。 After that, the central processing unit 51 determines whether or not it is the timing to execute the evaluation of the driver's safe driving behavior (step S23). Whether or not it is the timing to execute the evaluation may be determined, for example, by whether or not a signal indicating the end of operation of the vehicle 2 is received from the vehicle-mounted device 10.

中央処理装置51は、前記評価を実行するタイミングではないと判断すればステップS21に戻る。 If the central processing unit 51 determines that it is not the timing to execute the evaluation, the process returns to step S21.

一方、中央処理装置51は、前記評価を実行するタイミングになったと判断すれば、車載機10が搭載された車両2の運転者3の交差点における安全確認動作の評価処理を行う(ステップS24)。ステップS24で実行される評価処理については、図13のフローチャートを用いて説明する。 On the other hand, if the central processing unit 51 determines that it is time to execute the evaluation, the central processing unit 51 performs an evaluation process of the safety confirmation operation at the intersection of the driver 3 of the vehicle 2 on which the vehicle-mounted device 10 is mounted (step S24). The evaluation process executed in step S24 will be described with reference to the flowchart of FIG.

その後、中央処理装置51は、評価処理の結果を、車載機10又は運転者3の情報と対応付けて評価データ記憶部64に記憶する処理を行い(ステップS25)、処理を終える。 After that, the central processing unit 51 performs a process of storing the result of the evaluation process in the evaluation data storage unit 64 in association with the information of the vehicle-mounted device 10 or the driver 3 (step S25), and ends the process.

図13は、実施の形態に係るサーバ装置40における中央処理装置51が行う安全確認動作の評価処理動作を示すフローチャートの一例である。なお、本フローチャートは、車載機10が搭載された車両2の1日の運転が終了するまでに通過した各交差点における運転者3の安全確認動作を評価する処理動作を示している。 FIG. 13 is an example of a flowchart showing an evaluation processing operation of the safety confirmation operation performed by the central processing unit 51 in the server device 40 according to the embodiment. It should be noted that this flowchart shows a processing operation for evaluating the safety confirmation operation of the driver 3 at each intersection that has passed by the end of the day's driving of the vehicle 2 on which the on-board unit 10 is mounted.

中央処理装置51は、検出データ蓄積部61から車載機10の検出データを読み出す(ステップS31)。 The central processing unit 51 reads out the detection data of the vehicle-mounted device 10 from the detection data storage unit 61 (step S31).

次に中央処理装置51は、読み出した検出データの数、すなわち、通過した交差点の数Nを時系列でカウントする(ステップS32)。 Next, the central processing unit 51 counts the number of read detection data, that is, the number N of the passed intersections in chronological order (step S32).

次に中央処理装置51は、通過した交差点の数Nが1以上であるか否かを判断する(ステップS33)。 Next, the central processing unit 51 determines whether or not the number N of the passed intersections is 1 or more (step S33).

中央処理装置51は、ステップS33で、交差点の数Nが1以上でないと判断した場合、交差点の数N=0を評価データ記憶部64に記憶して(ステップS34)、処理を終える。 When the central processing unit 51 determines in step S33 that the number N of intersections is not 1 or more, the central processing unit 51 stores the number N = 0 of intersections in the evaluation data storage unit 64 (step S34), and ends the process.

一方、中央処理装置51は、ステップS33で、交差点の数Nが1以上であると判断すれば、評価した交差点の数を時系列順にカウントするカウンタCに1を加算する(ステップS35)。 On the other hand, if the central processing unit 51 determines in step S33 that the number N of intersections is 1 or more, 1 is added to the counter C that counts the number of evaluated intersections in chronological order (step S35).

次に中央処理装置51は、C番目に通過した交差点における検出データを用いて、判別用データ蓄積部62から、運転評価を行う交差点の形状パターンの判別用データを取得する(ステップS36)。
例えば、中央処理装置51は、C番目の検出データに含まれる交差点通過時の位置データ(経度、及び緯度)に基づいて、判別用データ蓄積部62に蓄積されている地図データ(例えば、広域地図データ)から運転評価を行う交差点部分の地図データ(交差点地図データ)を取得する処理を行う。
Next, the central processing unit 51 acquires the discrimination data of the shape pattern of the intersection to be evaluated from the discrimination data storage unit 62 by using the detection data at the intersection that has passed the Cth position (step S36).
For example, the central processing device 51 has a map data (for example, a wide area map) stored in the discrimination data storage unit 62 based on the position data (longitude and latitude) at the time of passing the intersection included in the C-th detection data. Performs the process of acquiring the map data (intersection map data) of the intersection portion for which driving evaluation is performed from the data).

次に中央処理装置51は、読み出した検出データを用いて、交差点で曲がった方向を推定する処理を実行する(ステップS37)。
例えば、中央処理装置51は、検出データに含まれる角速度データが正負のいずれかであるかに基づいて、車両2の右左折方向を推定する。例えば、角速度データが、正の場合、右折と推定し、負の場合、左折と推定する設定とすることができる。また、角速度の積分値を演算し、演算した積分値の正負に基づいて、車両2の右左折方向を推定してもよいし、検出データに含まれる位置データ(緯度、及び経度)の時系列変化に基づいて、車両2の右左折方向を推定してもよい。
Next, the central processing unit 51 executes a process of estimating the bending direction at the intersection using the read detection data (step S37).
For example, the central processing unit 51 estimates the right / left turn direction of the vehicle 2 based on whether the angular velocity data included in the detection data is positive or negative. For example, if the angular velocity data is positive, it is estimated to be a right turn, and if it is negative, it is estimated to be a left turn. Further, the integrated value of the angular velocity may be calculated, and the right / left turn direction of the vehicle 2 may be estimated based on the positive / negative of the calculated integrated value, or the time series of the position data (latitude and longitude) included in the detection data. The right / left turn direction of the vehicle 2 may be estimated based on the change.

次に中央処理装置51は、ステップS37で取得した判別用データを交差点判別部56へ入力し、交差点の形状パターンを判別する処理を実行する(ステップS38)。
例えば、上記したニューラルネットワーク56aを用いて、交差点の形状バターンの画像認識処理を行う。入力層56bに、判別用データとして取得された交差点地図データ62aを入力し、中間層56cで、交差点地図データ62aに対し、重み付け係数に基づく演算を実行し、出力層56dから交差点の形状パターンの判別結果を出力する処理を実行する。または、中央処理装置51は、判別用データとして取得された交差点地図データを用いて、テンプレートマッチングなどの画像認識処理で道路の交差形状の判別を行い、交差点の形状パターンの判定結果を出力する処理を実行してもよい。
Next, the central processing unit 51 inputs the discrimination data acquired in step S37 to the intersection discrimination unit 56, and executes a process of discriminating the shape pattern of the intersection (step S38).
For example, using the above-mentioned neural network 56a, image recognition processing of the shape pattern of an intersection is performed. The intersection map data 62a acquired as discrimination data is input to the input layer 56b, the intermediate layer 56c executes an operation based on the weighting coefficient for the intersection map data 62a, and the output layer 56d determines the shape pattern of the intersection. Execute the process to output the discrimination result. Alternatively, the central processing unit 51 uses the intersection map data acquired as discrimination data to discriminate the intersection shape of the road by image recognition processing such as template matching, and outputs the determination result of the shape pattern of the intersection. May be executed.

次に中央処理装置51は、交差点判別部56で判定された交差点の形状パターンの判定結果を取得する(ステップS39)。 Next, the central processing unit 51 acquires the determination result of the shape pattern of the intersection determined by the intersection determination unit 56 (step S39).

その後、中央処理装置51は、評価テーブル記憶部63から評価テーブル63aを読み出す(ステップS40)。 After that, the central processing unit 51 reads the evaluation table 63a from the evaluation table storage unit 63 (step S40).

次に中央処理装置51は、評価テーブル63aから、ステップS39で取得された前記交差点の形状パターンと、ステップS37で推定された前記交差点で曲がった方向とに対応する評価条件を選択する処理を行う(ステップS41)。 Next, the central processing unit 51 performs a process of selecting from the evaluation table 63a the evaluation conditions corresponding to the shape pattern of the intersection acquired in step S39 and the direction of bending at the intersection estimated in step S37. (Step S41).

次に中央処理装置51は、ステップS41で選択された評価条件と、C番目の検出データとに基づいて、C番目に通過した交差点における運転者の安全確認動作を評価する処理を行う(ステップS42)。 Next, the central processing unit 51 performs a process of evaluating the driver's safety confirmation operation at the intersection passed through the Cth position based on the evaluation conditions selected in step S41 and the Cth detection data (step S42). ).

中央処理装置51は、例えば、評価テーブルから選択された評価条件に設定された各確認行動について、上記した項目(1)~(10)の判定方法に基づいて、確認タイミング、確認角度、及び確認時間などの評価を行い、評価結果を統計処理して、当該交差点における点数又はランク付けによる評価スコアを算出する。次に中央処理装置51は、評価結果を評価データ記憶部64に記憶する処理を行う(ステップS43)。 For example, the central processing unit 51 confirms the confirmation timing, the confirmation angle, and the confirmation for each confirmation action set in the evaluation conditions selected from the evaluation table, based on the determination methods of the above items (1) to (10). Evaluation such as time is performed, the evaluation result is statistically processed, and the evaluation score based on the score or ranking at the intersection is calculated. Next, the central processing unit 51 performs a process of storing the evaluation result in the evaluation data storage unit 64 (step S43).

次に中央処理装置51は、カウンタCが交差点の数Nになったか否かを判断し(ステップS44)、カウンタCが交差点の数Nになっていないと判断すれば、中央処理装置51は、ステップS35に戻り、処理を繰り返す。一方、中央処理装置51は、カウンタCが交差点の数Nになったと判断すれば、その後処理を終える。 Next, the central processing unit 51 determines whether or not the counter C has reached the number N of intersections (step S44), and if it is determined that the counter C has not reached the number N of intersections, the central processing unit 51 determines. The process returns to step S35 and the process is repeated. On the other hand, if the central processing unit 51 determines that the counter C has reached the number N of intersections, the central processing unit 51 ends the processing thereafter.

実施の形態に係るサーバ装置40によれば、運転評価を行う交差点で検出された検出データの位置データを用いて、判別用データ蓄積部62から判別用データが取得され、該判別用データを用いて、前記運転評価を行う交差点の形状パターンが判別される。そして、判別された交差点の形状パターンに対応する評価条件が評価テーブル63aから選択され、選択された評価条件と、前記運転評価を行う交差点で検出された検出データとに基づいて、交差点における運転者の安全確認動作が評価される。
したがって、運転評価を行う交差点の形状パターンに対応する評価条件で、交差点における運転者の安全確認動作の評価を効率的かつ精度良く実行することができる。
According to the server device 40 according to the embodiment, discrimination data is acquired from the discrimination data storage unit 62 using the position data of the detection data detected at the intersection where the operation is evaluated, and the discrimination data is used. Therefore, the shape pattern of the intersection where the operation evaluation is performed is determined. Then, the evaluation conditions corresponding to the determined shape pattern of the intersection are selected from the evaluation table 63a, and the driver at the intersection is based on the selected evaluation conditions and the detection data detected at the intersection where the driving evaluation is performed. The safety confirmation operation is evaluated.
Therefore, it is possible to efficiently and accurately evaluate the driver's safety confirmation operation at the intersection under the evaluation conditions corresponding to the shape pattern of the intersection where the driving evaluation is performed.

また、評価テーブル記憶部63の評価テーブル63aには、交差点形状パターンと交差点で曲がる方向との組み合わせ毎に、評価条件が設定されているので、交差点毎に評価条件を設定しておく必要がなく、サーバ装置40において、評価条件を記憶するメモリ容量を削減でき、また、評価条件の選択も効率良く行うことができる。 Further, in the evaluation table 63a of the evaluation table storage unit 63, evaluation conditions are set for each combination of the intersection shape pattern and the direction of bending at the intersection, so that it is not necessary to set the evaluation conditions for each intersection. In the server device 40, the memory capacity for storing the evaluation conditions can be reduced, and the evaluation conditions can be efficiently selected.

また、サーバ装置40によれば、検出データ蓄積部61を備えているので、車載機10毎に検出データを蓄積することができる。また、判別用データ蓄積部62に判別用データを蓄積しておくことができる。したがって、車載機10の数が増えて、評価する処理量が増えた場合であっても、車載機10毎に適切な判別用データを効率よく取得することができ、交差点における運転者毎の安全確認動作の評価処理を効率良く実行することができる。 Further, according to the server device 40, since the detection data storage unit 61 is provided, the detection data can be stored for each in-vehicle device 10. Further, the discrimination data can be stored in the discrimination data storage unit 62. Therefore, even when the number of on-board units 10 increases and the amount of processing to be evaluated increases, appropriate discrimination data can be efficiently acquired for each on-board unit 10, and safety for each driver at an intersection can be obtained. The evaluation process of the confirmation operation can be executed efficiently.

また、サーバ装置40によれば、運転評価を行う交差点で検出された位置データを用いて、判別用データ蓄積部62から交差点地図データが取得され、該交差点地図データを用いて、運転評価を行う交差点の形状パターンが判別される。したがって、運転評価を行う交差点の形状パターンの判別を効率的かつ精度良く実行することができる。 Further, according to the server device 40, the intersection map data is acquired from the discrimination data storage unit 62 using the position data detected at the intersection where the operation evaluation is performed, and the operation evaluation is performed using the intersection map data. The shape pattern of the intersection is determined. Therefore, it is possible to efficiently and accurately discriminate the shape pattern of the intersection for which the operation is evaluated.

また、サーバ装置40によれば、交差点判別部56にニューラルネットワーク56aを用いることで、運転評価を行う交差点の形状パターンの判別を効率的かつ精度良く実行することができる。 Further, according to the server device 40, by using the neural network 56a for the intersection discrimination unit 56, it is possible to efficiently and accurately discriminate the shape pattern of the intersection for which the operation is evaluated.

また、サーバ装置40によれば、安全確認評価部58が、運転評価を行う交差点毎に、確認タイミング、確認角度、及び確認時間の評価を行い、各評価を基に点数化又はランク付けした評価結果を演算するので、各運転者の交差点における安全確認動作を総合的に評価することができ、また、前記評価結果を事業者端末80に分かりやすい形態で出力することが可能となる。 Further, according to the server device 40, the safety confirmation evaluation unit 58 evaluates the confirmation timing, the confirmation angle, and the confirmation time at each intersection for which the operation evaluation is performed, and scores or ranks the evaluation based on each evaluation. Since the result is calculated, it is possible to comprehensively evaluate the safety confirmation operation at each driver's intersection, and it is possible to output the evaluation result to the operator terminal 80 in an easy-to-understand form.

また、サーバ装置40によれば、交差点の形状に応じて、交差点への進入前における運転者の左右の安全確認動作を正確に評価することができる。また、交差点への進入後における運転者の進路変更方向に対する安全確認動作を正確に評価することができる。さらに、進入時刻の前後所定時間における車両2の速度に基づいて、運転者の減速意識が評価されるので、交差点における運転者の安全確認意識を正確に評価することができる。さらに、これらの評価結果に基づいて、交差点毎の安全確認動作の評価点を算出することにより、運転者が通過した交差点全体における安全確認動作をより高度に評価することができる。 Further, according to the server device 40, it is possible to accurately evaluate the left and right safety confirmation operation of the driver before entering the intersection according to the shape of the intersection. In addition, it is possible to accurately evaluate the safety confirmation operation for the driver's course change direction after entering the intersection. Further, since the driver's deceleration consciousness is evaluated based on the speed of the vehicle 2 at a predetermined time before and after the approach time, the driver's safety confirmation consciousness at the intersection can be accurately evaluated. Further, by calculating the evaluation points of the safety confirmation operation for each intersection based on these evaluation results, the safety confirmation operation at the entire intersection passed by the driver can be evaluated to a higher degree.

また、車載機10によれば、運転者3の状態、車両2の位置、及び車両2の挙動を含む検出データをサーバ装置40に出力するので、サーバ装置40において運転者の安全確認動作の評価を実行させることができ、車載機10の処理負担を軽減することができる。また、その構成を簡略化することができ、車両2への後付けも容易に行うことができる。 Further, according to the on-board unit 10, detection data including the state of the driver 3, the position of the vehicle 2, and the behavior of the vehicle 2 is output to the server device 40, so that the server device 40 evaluates the safety confirmation operation of the driver. Can be executed, and the processing load of the in-vehicle device 10 can be reduced. In addition, the configuration can be simplified and retrofitting to the vehicle 2 can be easily performed.

また、運転評価システム1によれば、サーバ装置40と、車載機10とを含んで構成されているので、サーバ装置40の効果を得ることができ、また、車載機10の処理負担を軽減することができ、低コストで導入可能なシステムを構築することができる。 Further, according to the operation evaluation system 1, since the server device 40 and the in-vehicle device 10 are included, the effect of the server device 40 can be obtained, and the processing load of the in-vehicle device 10 is reduced. It is possible to build a system that can be introduced at low cost.

以上、本発明の実施の形態を詳細に説明したが、上記説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。 Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and changes can be made without departing from the scope of the present invention.

[変形例]
上記実施の形態に係るサーバ装置40では、判別用データ蓄積部62に、判別用データとして地図データが蓄積されている場合について説明した。別の実施の形態では、車載機10の車外カメラ31で撮像された車外画像データ(外界画像データ)が、判別用データとして判別用データ蓄積部62に蓄積されるように構成してもよい。
この場合、判別用データ取得部54により取得される判別用データは、車両が通過した交差点で撮像又は検出された車外画像データとなり、交差点判別部56では、車外画像データに基づいて、運転評価を行う交差点の形状パターンを判別する処理が実行される。
[Modification example]
In the server device 40 according to the above embodiment, the case where the map data is stored as the discrimination data in the discrimination data storage unit 62 has been described. In another embodiment, the vehicle exterior image data (outside world image data) captured by the vehicle exterior camera 31 of the vehicle-mounted device 10 may be configured to be stored in the discrimination data storage unit 62 as discrimination data.
In this case, the discrimination data acquired by the discrimination data acquisition unit 54 is the vehicle exterior image data captured or detected at the intersection through which the vehicle has passed, and the intersection discrimination unit 56 performs driving evaluation based on the vehicle exterior image data. The process of determining the shape pattern of the intersection to be performed is executed.

また、この場合、交差点判別部56がニューラルネットワーク56aで構成されてもよく、例えば、入力層56bに、判別用データとして車外画像データが入力され、中間層56cで、車外画像データに対し、重み付け係数に基づく演算が実行され、出力層56dから交差点の形状パターンの判別結果が出力されるように構成してもよい。 Further, in this case, the intersection discrimination unit 56 may be configured by the neural network 56a. For example, the vehicle exterior image data is input as the discrimination data in the input layer 56b, and the intermediate layer 56c weights the vehicle exterior image data. The calculation based on the coefficient may be executed, and the determination result of the shape pattern of the intersection may be output from the output layer 56d.

[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車載機(10)で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う運転評価装置(40)であって、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて判別用データを取得する判別用データ取得部(54)と、
前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する交差点判別部(56)と、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブル(63a)が記憶された評価テーブル記憶部(63)と、
前記評価テーブル(63a)から、前記交差点判別部(56)で判別された前記交差点の形状パターンに対応する前記評価条件を選択する評価条件選択部(57)と、
該評価条件選択部(57)により選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する安全確認評価部(58)とを備えていることを特徴とする運転評価装置。
[Additional Notes]
Embodiments of the present invention may also be described as, but are not limited to, the following appendices.
(Appendix 1)
A driving evaluation device (40) that evaluates a driver's driving using detection data including the driver's condition, the position of the vehicle, and the behavior of the vehicle detected by the on-board unit (10).
A discrimination data acquisition unit (54) that acquires discrimination data using at least one of the detected data detected at the intersection where the driving evaluation is performed, and a discrimination data acquisition unit (54).
Using the discrimination data, an intersection discrimination unit (56) for discriminating the shape pattern of the intersection for which the operation evaluation is performed, and an intersection discrimination unit (56).
An evaluation table storage unit (63) that stores an evaluation table (63a) in which evaluation conditions for safety confirmation operations to be performed by the driver are set for each shape pattern of an intersection, and
An evaluation condition selection unit (57) that selects the evaluation condition corresponding to the shape pattern of the intersection determined by the intersection determination unit (56) from the evaluation table (63a).
A safety confirmation evaluation that evaluates the safety confirmation operation of the driver at the intersection based on the evaluation conditions selected by the evaluation condition selection unit (57) and the detection data detected at the intersection where the operation evaluation is performed. An operation evaluation device including a unit (58).

(付記2)
車両に搭載される車載機(10)であって、
前記車両の運転者の状態を検出する運転者モニタリング部(20)と、
前記車両の位置を検出する位置検出部(14)と、
戦記車両の挙動を検出する挙動検出部(12,13)と、
前記運転者モニタリング部(20)、前記位置検出部(14)、及び前記挙動検出部(12,13)で検出されたデータを、前記運転者の安全確認動作を評価する運転評価装置(40)に出力する出力部(15)とを備えていることを特徴とする車載機。
(Appendix 2)
An on-board unit (10) mounted on a vehicle.
The driver monitoring unit (20) that detects the state of the driver of the vehicle, and
The position detection unit (14) that detects the position of the vehicle and
The behavior detection unit (12, 13) that detects the behavior of the warfare vehicle, and
The operation evaluation device (40) that evaluates the safety confirmation operation of the driver by using the data detected by the driver monitoring unit (20), the position detection unit (14), and the behavior detection unit (12, 13). An in-vehicle device characterized by having an output unit (15) for outputting to.

(付記3)
運転評価装置(40)と、車載機(10)とを含んで構成されていることを特徴とする運転評価システム(1)。
(Appendix 3)
A driving evaluation system (1) characterized by including a driving evaluation device (40) and an in-vehicle device (10).

(付記4)
車載機(10)で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う運転評価方法であって、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて判別用データを取得する第1のステップ(S36)と、
前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する第2のステップ(S39)と、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記第2のステップで判別された前記交差点の形状パターンに対応する前記評価条件を選択する第3のステップ(S41)と、
該第3のステップ(S41)により選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する第4のステップ(S42)とを含むステップを実行させることを特徴とする運転評価方法。
(Appendix 4)
A driving evaluation method for evaluating a driver's driving using detection data including the driver's condition, the position of the vehicle, and the behavior of the vehicle detected by the on-board unit (10).
The first step (S36) of acquiring discrimination data using at least one of the detected data detected at the intersection where the driving evaluation is performed, and
The second step (S39) of discriminating the shape pattern of the intersection for which the operation evaluation is performed using the discriminating data, and
From the evaluation table in which the evaluation conditions for the safety confirmation operation to be performed by the driver are set for each shape pattern of the intersection, the evaluation condition corresponding to the shape pattern of the intersection determined in the second step is selected. Step 3 (S41) and
A fourth evaluation of the driver's safety confirmation operation at the intersection based on the evaluation conditions selected in the third step (S41) and the detection data detected at the intersection where the driving evaluation is performed. An operation evaluation method comprising executing a step including a step (S42).

(付記5)
車載機(10)で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う処理を少なくとも1つのコンピュータに実行させるための運転評価プログラムで(53)あって、
前記少なくとも1つのコンピュータ(51)に、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて判別用データを取得する第1のステップ(S36)と、
前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する第2のステップ(S39)と、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記第2のステップで判別された前記交差点の形状パターンに対応する前記評価条件を選択する第3のステップ(S41)と、
該第3のステップ(S41)により選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する第4のステップ(S42)とを実行させることを特徴とする運転評価プログラム。
(Appendix 5)
To have at least one computer perform a process of evaluating the driver's driving using the detection data including the driver's condition, the position of the vehicle, and the behavior of the vehicle detected by the on-board unit (10). There is (53) in the driving evaluation program,
To the at least one computer (51)
The first step (S36) of acquiring discrimination data using at least one of the detected data detected at the intersection where the driving evaluation is performed, and
The second step (S39) of discriminating the shape pattern of the intersection for which the operation evaluation is performed using the discriminating data, and
From the evaluation table in which the evaluation conditions for the safety confirmation operation to be performed by the driver are set for each shape pattern of the intersection, the evaluation condition corresponding to the shape pattern of the intersection determined in the second step is selected. Step 3 (S41) and
A fourth evaluation of the driver's safety confirmation operation at the intersection based on the evaluation conditions selected in the third step (S41) and the detection data detected at the intersection where the driving evaluation is performed. A driving evaluation program characterized by executing a step (S42).

1 運転評価システム
2 車両
3 運転者
4 通信ネットワーク
10 車載機
11 プラットフォーム部
12 加速度センサ
13 角速度センサ
14 GPS受信部
15 通信部
16 報知部
17 記憶部
18 外部インターフェース(外部I/F)
19 制御部
19a CPU
19b RAM
19c ROM
20 ドライバモニタリング部
21 ドライバカメラ
22 画像解析部
23 インターフェース(I/F)
30 ドライブレコーダ部
31 車外カメラ
32 車内カメラ
40 サーバ装置(運転評価装置)
41 通信ユニット
50 サーバコンピュータ
51 中央処理装置
52 メインメモリ
53 制御プログラム
54 判別用データ取得部
55 方向推定部
56 交差点判別部
57 評価条件選択部
58 安全確認評価部
60 記憶ユニット
61 検出データ蓄積部
61a 検出データファイル
62 判別用データ蓄積部
63 評価テーブル記憶部
63a 評価テーブル
64 評価データ記憶部
64a 評価データファイル
65 運転者情報記憶部
80 事業者端末
1 Driving evaluation system 2 Vehicle 3 Driver 4 Communication network 10 In-vehicle device 11 Platform unit 12 Accelerometer 13 Angular velocity sensor 14 GPS receiver 15 Communication unit 16 Notification unit 17 Storage unit 18 External interface (external I / F)
19 Control unit 19a CPU
19b RAM
19c ROM
20 Driver monitoring unit 21 Driver camera 22 Image analysis unit 23 Interface (I / F)
30 Drive recorder section 31 Outside camera 32 Inside camera 40 Server device (driving evaluation device)
41 Communication unit 50 Server computer 51 Central processing device 52 Main memory 53 Control program 54 Discrimination data acquisition unit 55 Direction estimation unit 56 Crossing point discrimination unit 57 Evaluation condition selection unit 58 Safety confirmation evaluation unit 60 Storage unit 61 Detection data storage unit 61a Detection Data file 62 Discrimination data storage unit 63 Evaluation table storage unit 63a Evaluation table 64 Evaluation data storage unit 64a Evaluation data file 65 Driver information storage unit 80 Business terminal

Claims (9)

車載機で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う運転評価装置であって、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて判別用データを取得する判別用データ取得部と、
前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する交差点判別部と、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルが記憶された評価テーブル記憶部と、
前記評価テーブルから、前記交差点判別部で判別された前記交差点の形状パターンに対応する前記評価条件を選択する評価条件選択部と、
該評価条件選択部により選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する安全確認評価部と
前記車両が交差点を通過しているときに前記車載機で検出された前記検出データを蓄積する検出データ蓄積部と、
前記判別用データが蓄積される判別用データ蓄積部とを備え、
前記判別用データ取得部が、
前記検出データ蓄積部に蓄積された、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、前記判別用データ蓄積部から前記判別用データを取得するものであり、
前記判別用データ蓄積部に蓄積される前記判別用データには、前記車両が通過した交差点を含む交差点地図を抽出可能な地図データが含まれ、
前記判別用データ取得部により取得される前記判別用データが、前記地図データから抽出された、前記車両が通過した交差点を含む交差点地図データであり、
前記交差点判別部が、前記交差点地図データに基づいて、前記運転評価を行う交差点の形状パターンを判別するものであって、
入力層と中間層と出力層とを含むニューラルネットワークを備え、
前記入力層に、前記判別用データとして前記交差点地図データが入力され、
前記中間層で、前記交差点地図データに対し、重み付け係数に基づく演算が実行され、
前記出力層から前記交差点の形状パターンの判別結果が出力されるように構成されていることを特徴とする運転評価装置。
A driving evaluation device that evaluates a driver's driving using detection data including the driver's condition, the position of the vehicle, and the behavior of the vehicle detected by the on-board unit.
A discrimination data acquisition unit that acquires discrimination data using at least one of the detected data detected at the intersection where the driving evaluation is performed, and a discrimination data acquisition unit.
Using the discrimination data, an intersection discrimination unit that discriminates the shape pattern of the intersection for which the operation evaluation is performed, and an intersection discrimination unit.
An evaluation table storage unit that stores an evaluation table in which evaluation conditions for safety confirmation operations to be performed by the driver are set for each intersection shape pattern, and
From the evaluation table, an evaluation condition selection unit that selects the evaluation condition corresponding to the shape pattern of the intersection determined by the intersection determination unit, and an evaluation condition selection unit.
A safety confirmation evaluation unit that evaluates the driver's safety confirmation operation at the intersection based on the evaluation conditions selected by the evaluation condition selection unit and the detection data detected at the intersection where the driving evaluation is performed .
A detection data storage unit that stores the detection data detected by the on-board unit when the vehicle is passing through an intersection, and a detection data storage unit.
A discrimination data storage unit for storing the discrimination data is provided.
The discrimination data acquisition unit
The discrimination data is acquired from the discrimination data storage unit by using at least one of the detection data stored in the detection data storage unit and detected at the intersection where the operation evaluation is performed. ,
The discrimination data stored in the discrimination data storage unit includes map data capable of extracting an intersection map including an intersection through which the vehicle has passed.
The discrimination data acquired by the discrimination data acquisition unit is intersection map data including the intersection through which the vehicle has passed, which is extracted from the map data.
The intersection discriminating unit discriminates the shape pattern of the intersection for which the driving evaluation is performed based on the intersection map data.
It has a neural network that includes an input layer, an intermediate layer, and an output layer.
The intersection map data is input to the input layer as the discrimination data, and the intersection map data is input.
In the intermediate layer, an operation based on a weighting coefficient is executed on the intersection map data, and the operation is performed.
An operation evaluation device characterized in that the output layer is configured to output the determination result of the shape pattern of the intersection .
車載機で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う運転評価装置であって、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて判別用データを取得する判別用データ取得部と、
前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する交差点判別部と、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルが記憶された評価テーブル記憶部と、
前記評価テーブルから、前記交差点判別部で判別された前記交差点の形状パターンに対応する前記評価条件を選択する評価条件選択部と、
該評価条件選択部により選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する安全確認評価部と、
前記車両が交差点を通過しているときに前記車載機で検出された前記検出データを蓄積する検出データ蓄積部と、
前記判別用データが蓄積される判別用データ蓄積部とを備え、
前記判別用データ取得部が、
前記検出データ蓄積部に蓄積された、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、前記判別用データ蓄積部から前記判別用データを取得するものであり、
前記検出データには、前記車両の外界状況を撮像又は検出した外界画像データがさらに含まれ、
前記判別用データ蓄積部に蓄積される前記判別用データには、前記車載機から送信されてきた前記外界画像データが含まれ、
前記判別用データ取得部により取得される前記判別用データが、前記車両が通過した交差点で撮像又は検出された前記外界画像データであり、
前記交差点判別部が、前記外界画像データに基づいて、前記運転評価を行う交差点の形状パターンを判別するものであって、
入力層と中間層と出力層とを含むニューラルネットワークを備え、
前記入力層に、前記判別用データとして前記外界画像データが入力され、
前記中間層で、前記外界画像データに対し、重み付け係数に基づく演算が実行され、
前記出力層から前記交差点の形状パターンの判別結果が出力されるように構成されていることを特徴とする運転評価装置。
A driving evaluation device that evaluates a driver's driving using detection data including the driver's condition, the position of the vehicle, and the behavior of the vehicle detected by the on-board unit.
A discrimination data acquisition unit that acquires discrimination data using at least one of the detected data detected at the intersection where the driving evaluation is performed, and a discrimination data acquisition unit.
Using the discrimination data, an intersection discrimination unit that discriminates the shape pattern of the intersection for which the operation evaluation is performed, and an intersection discrimination unit.
An evaluation table storage unit that stores an evaluation table in which evaluation conditions for safety confirmation operations to be performed by the driver are set for each intersection shape pattern, and
From the evaluation table, an evaluation condition selection unit that selects the evaluation condition corresponding to the shape pattern of the intersection determined by the intersection determination unit, and an evaluation condition selection unit.
A safety confirmation evaluation unit that evaluates the driver's safety confirmation operation at the intersection based on the evaluation conditions selected by the evaluation condition selection unit and the detection data detected at the intersection where the driving evaluation is performed.
A detection data storage unit that stores the detection data detected by the on-board unit when the vehicle is passing through an intersection, and a detection data storage unit.
A discrimination data storage unit for storing the discrimination data is provided.
The discrimination data acquisition unit
The discrimination data is acquired from the discrimination data storage unit by using at least one of the detection data stored in the detection data storage unit and detected at the intersection where the operation evaluation is performed. ,
The detection data further includes external image data obtained by capturing or detecting the external situation of the vehicle.
The discrimination data stored in the discrimination data storage unit includes the outside world image data transmitted from the vehicle-mounted device.
The discrimination data acquired by the discrimination data acquisition unit is the outside world image data imaged or detected at an intersection through which the vehicle has passed.
The intersection discriminating unit discriminates the shape pattern of the intersection for which the operation evaluation is performed based on the outside world image data.
It has a neural network that includes an input layer, an intermediate layer, and an output layer.
The external image data is input to the input layer as the discrimination data, and the external image data is input to the input layer.
In the intermediate layer, an operation based on a weighting coefficient is executed on the external image data, and the operation is performed.
An operation evaluation device characterized in that the output layer is configured to output the determination result of the shape pattern of the intersection .
前記運転評価を行う交差点で検出された前記検出データを用いて、前記運転評価を行う交差点で曲がった方向を推定する方向推定部を備え、
前記評価テーブルには、
交差点の形状パターンと交差点で曲がる方向との組み合わせ毎に、運転者が行うべき安全確認動作の評価条件が設定され、
前記評価条件選択部が、
前記評価テーブルから、前記交差点判別部で判別された前記交差点の形状パターンと、前記方向推定部で推定された前記交差点で曲がった方向とに対応する前記評価条件を選択するものであることを特徴とする請求項1又は請求項2記載の運転評価装置。
Using the detection data detected at the intersection where the driving evaluation is performed, a direction estimation unit for estimating the bending direction at the intersection where the driving evaluation is performed is provided.
In the evaluation table,
For each combination of the shape pattern of the intersection and the direction of the turn at the intersection, the evaluation conditions for the safety confirmation operation that the driver should perform are set.
The evaluation condition selection unit
The evaluation table is characterized in that the evaluation conditions corresponding to the shape pattern of the intersection determined by the intersection determination unit and the bending direction at the intersection estimated by the direction estimation unit are selected. The operation evaluation device according to claim 1 or 2 .
前記評価テーブルの前記評価条件には、前記運転者が行うべき安全確認動作のタイミング、確認角度、及び確認時間が含まれ、
前記安全確認評価部が、前記運転評価を行う交差点毎に、前記タイミング、前記確認角度、及び前記確認時間の評価を行い、各評価を基に点数化又はランク付けした評価結果を出力することを特徴とする請求項1~のいずれかの項に記載の運転評価装置。
The evaluation conditions of the evaluation table include the timing, confirmation angle, and confirmation time of the safety confirmation operation to be performed by the driver.
The safety confirmation evaluation unit evaluates the timing, the confirmation angle, and the confirmation time at each intersection where the operation evaluation is performed, and outputs the evaluation result scored or ranked based on each evaluation. The operation evaluation device according to any one of claims 1 to 3 , wherein the operation evaluation device is characterized.
請求項1~のいずれかの項に記載の運転評価装置と、
車両に搭載される車載機とを含んで構成され
該車載機が、
前記車両の運転者の状態を検出する運転者モニタリング部と、
前記車両の位置を検出する位置検出部と、
前記車両の挙動を検出する挙動検出部と、
前記運転者モニタリング部、前記位置検出部、及び前記挙動検出部で検出されたデータを、前記運転者の安全確認動作を評価する運転評価装置に出力する出力部とを備えていることを特徴とする運転評価システム。
The operation evaluation device according to any one of claims 1 to 4 , and the operation evaluation device.
Consists of including on-board equipment mounted on the vehicle ,
The in-vehicle device
A driver monitoring unit that detects the state of the driver of the vehicle, and
A position detection unit that detects the position of the vehicle and
A behavior detection unit that detects the behavior of the vehicle,
It is characterized by including a driver monitoring unit, a position detection unit, and an output unit that outputs data detected by the behavior detection unit to an operation evaluation device that evaluates the safety confirmation operation of the driver. Driving evaluation system.
車載機で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う運転評価方法であって、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、前記運転評価を行う交差点の形状パターンの判別に用いる判別用データを取得する第1のステップと、
該第1のステップにより取得された前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する第2のステップと、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記第2のステップで判別された前記交差点の形状パターンに対応する前記評価条件を選択する第3のステップと、
該第3のステップにより選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する第4のステップとを含むステップを実行させ
前記第1のステップが、
前記車両が交差点を通過しているときに前記車載機で検出された前記検出データを蓄積する検出データ蓄積部に蓄積された、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、判別用データ蓄積部から前記判別用データを取得するステップであり、
前記判別用データ蓄積部に蓄積される前記判別用データには、前記車両が通過した交差点を含む交差点地図を抽出可能な地図データが含まれ、
前記第1のステップにより取得される前記判別用データが、前記地図データから抽出された、前記車両が通過した交差点を含む交差点地図データであり、
前記第2ステップが、前記交差点地図データに基づいて、前記運転評価を行う交差点の形状パターンを判別するステップであって、
入力層に、前記判別用データとして前記交差点地図データが入力され、
中間層で、前記交差点地図データに対し、重み付け係数に基づく演算が実行され、
出力層から前記交差点の形状パターンの判別結果が出力されるように構成されている、前記入力層と前記中間層と前記出力層とを含むニューラルネットワークを用いることを特徴とする運転評価方法。
A driving evaluation method for evaluating a driver's driving using detection data including the driver's condition, the position of the vehicle, and the behavior of the vehicle detected by the on-board unit.
A first step of acquiring discrimination data used for discriminating the shape pattern of the intersection for which the driving evaluation is performed by using at least one of the detected data detected at the intersection for which the driving evaluation is performed.
Using the discrimination data acquired in the first step, the second step of discriminating the shape pattern of the intersection for which the operation evaluation is performed, and the second step.
From the evaluation table in which the evaluation conditions for the safety confirmation operation to be performed by the driver are set for each shape pattern of the intersection, the evaluation condition corresponding to the shape pattern of the intersection determined in the second step is selected. 3 steps and
Based on the evaluation conditions selected by the third step and the detection data detected at the intersection where the driving evaluation is performed, the fourth step of evaluating the driver's safety confirmation operation at the intersection. Perform the steps that include
The first step is
At least of the detection data detected at the intersection where the driving evaluation is performed, which is stored in the detection data storage unit that stores the detection data detected by the on-board unit when the vehicle is passing through the intersection. It is a step of acquiring the discrimination data from the discrimination data storage unit by using any of them.
The discrimination data stored in the discrimination data storage unit includes map data capable of extracting an intersection map including an intersection through which the vehicle has passed.
The discrimination data acquired in the first step is intersection map data including the intersection through which the vehicle has passed, which is extracted from the map data.
The second step is a step of determining the shape pattern of the intersection to be evaluated for driving based on the intersection map data.
The intersection map data is input to the input layer as the discrimination data, and the intersection map data is input.
In the middle layer, an operation based on the weighting coefficient is executed on the intersection map data, and the operation is performed.
An operation evaluation method comprising a neural network including the input layer, the intermediate layer, and the output layer, which is configured to output the discrimination result of the shape pattern of the intersection from the output layer .
車載機で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う運転評価方法であって、A driving evaluation method for evaluating a driver's driving using detection data including the driver's condition, the position of the vehicle, and the behavior of the vehicle detected by the on-board unit.
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、前記運転評価を行う交差点の形状パターンの判別に用いる判別用データを取得する第1のステップと、A first step of acquiring discrimination data used for discriminating the shape pattern of the intersection for which the driving evaluation is performed by using at least one of the detected data detected at the intersection for which the driving evaluation is performed.
該第1のステップにより取得された前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する第2のステップと、Using the discrimination data acquired in the first step, the second step of discriminating the shape pattern of the intersection for which the operation evaluation is performed, and the second step.
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記第2のステップで判別された前記交差点の形状パターンに対応する前記評価条件を選択する第3のステップと、From the evaluation table in which the evaluation conditions for the safety confirmation operation to be performed by the driver are set for each shape pattern of the intersection, the evaluation condition corresponding to the shape pattern of the intersection determined in the second step is selected. 3 steps and
該第3のステップにより選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する第4のステップとを含むステップを実行させ、Based on the evaluation conditions selected by the third step and the detection data detected at the intersection where the driving evaluation is performed, the fourth step of evaluating the driver's safety confirmation operation at the intersection. Perform the steps that include
前記第1のステップが、The first step is
前記車両が交差点を通過しているときに前記車載機で検出された前記検出データを蓄積する検出データ蓄積部に蓄積された、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、判別用データ蓄積部から前記判別用データを取得するステップであり、At least of the detection data detected at the intersection where the driving evaluation is performed, which is stored in the detection data storage unit that stores the detection data detected by the on-board unit when the vehicle is passing through the intersection. It is a step of acquiring the discrimination data from the discrimination data storage unit by using any of them.
前記検出データには、前記車両の外界状況を撮像又は検出した外界画像データがさらに含まれ、The detection data further includes external image data obtained by capturing or detecting the external situation of the vehicle.
前記判別用データ蓄積部に蓄積される前記判別用データには、前記車載機から送信されてきた前記外界画像データが含まれ、The discrimination data stored in the discrimination data storage unit includes the outside world image data transmitted from the vehicle-mounted device.
前記第1のステップにより取得される前記判別用データが、前記車両が通過した交差点で撮像又は検出された前記外界画像データであり、The discrimination data acquired in the first step is the outside world image data imaged or detected at an intersection through which the vehicle has passed.
前記第2のステップが、前記外界画像データに基づいて、前記運転評価を行う交差点の形状パターンを判別するステップであって、The second step is a step of determining the shape pattern of the intersection to be evaluated for operation based on the external image data.
入力層に、前記判別用データとして前記外界画像データが入力され、The external image data is input to the input layer as the discrimination data, and the external image data is input to the input layer.
中間層で、前記外界画像データに対し、重み付け係数に基づく演算が実行され、In the intermediate layer, an operation based on the weighting coefficient is executed on the external image data, and the operation is performed.
出力層から前記交差点の形状パターンの判別結果が出力されるように構成されている、前記入力層と前記中間層と前記出力層とを含むニューラルネットワークを用いることを特徴とする運転評価方法。An operation evaluation method comprising a neural network including the input layer, the intermediate layer, and the output layer, which is configured to output the discrimination result of the shape pattern of the intersection from the output layer.
車載機で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う処理を少なくとも1つのコンピュータに実行させるための運転評価プログラムであって、
前記少なくとも1つのコンピュータに、
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、前記運転評価を行う交差点の形状パターンの判別に用いる判別用データを取得する第1のステップと、
該第1のステップにより取得された前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する第2のステップと、
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記第2のステップで判別された前記交差点の形状パターンに対応する前記評価条件を選択する第3のステップと、
該第3のステップにより選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する第4のステップとを実行させ
前記第1のステップが、
前記車両が交差点を通過しているときに前記車載機で検出された前記検出データを蓄積する検出データ蓄積部に蓄積された、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、判別用データ蓄積部から前記判別用データを取得するステップであり、
前記判別用データ蓄積部に蓄積される前記判別用データには、前記車両が通過した交差点を含む交差点地図を抽出可能な地図データが含まれ、
前記第1のステップにより取得される前記判別用データが、前記地図データから抽出された、前記車両が通過した交差点を含む交差点地図データであり、
前記第2ステップが、前記交差点地図データに基づいて、前記運転評価を行う交差点の形状パターンを判別するステップであって、
入力層に、前記判別用データとして前記交差点地図データが入力され、
中間層で、前記交差点地図データに対し、重み付け係数に基づく演算が実行され、
出力層から前記交差点の形状パターンの判別結果が出力されるように構成されている、前記入力層と前記中間層と前記出力層とを含むニューラルネットワークを用いることを特徴とする運転評価プログラム。
A driving evaluation program for causing at least one computer to perform a process of evaluating a driver's driving using detection data including the state of the driver, the position of the vehicle, and the behavior of the vehicle detected by the in-vehicle device. And,
To the at least one computer
A first step of acquiring discrimination data used for discriminating the shape pattern of the intersection for which the driving evaluation is performed by using at least one of the detected data detected at the intersection for which the driving evaluation is performed.
Using the discrimination data acquired in the first step, the second step of discriminating the shape pattern of the intersection for which the operation evaluation is performed, and the second step.
From the evaluation table in which the evaluation conditions for the safety confirmation operation to be performed by the driver are set for each shape pattern of the intersection, the evaluation condition corresponding to the shape pattern of the intersection determined in the second step is selected. 3 steps and
Based on the evaluation conditions selected by the third step and the detection data detected at the intersection where the driving evaluation is performed, the fourth step of evaluating the driver's safety confirmation operation at the intersection. Let it run
The first step is
At least of the detection data detected at the intersection where the driving evaluation is performed, which is stored in the detection data storage unit that stores the detection data detected by the on-board unit when the vehicle is passing through the intersection. It is a step of acquiring the discrimination data from the discrimination data storage unit by using any of them.
The discrimination data stored in the discrimination data storage unit includes map data capable of extracting an intersection map including an intersection through which the vehicle has passed.
The discrimination data acquired in the first step is intersection map data including the intersection through which the vehicle has passed, which is extracted from the map data.
The second step is a step of determining the shape pattern of the intersection to be evaluated for driving based on the intersection map data.
The intersection map data is input to the input layer as the discrimination data, and the intersection map data is input.
In the middle layer, an operation based on the weighting coefficient is executed on the intersection map data, and the operation is performed.
An operation evaluation program characterized by using a neural network including the input layer, the intermediate layer, and the output layer, which is configured to output the discrimination result of the shape pattern of the intersection from the output layer .
車載機で検出された、運転者の状態、車両の位置、及び該車両の挙動を含む検出データを用いて、運転者の運転評価を行う処理を少なくとも1つのコンピュータに実行させるための運転評価プログラムであって、A driving evaluation program for causing at least one computer to perform a process of evaluating a driver's driving using detection data including the state of the driver, the position of the vehicle, and the behavior of the vehicle detected by the in-vehicle device. And,
前記少なくとも1つのコンピュータに、To the at least one computer
前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、前記運転評価を行う交差点の形状パターンの判別に用いる判別用データを取得する第1のステップと、A first step of acquiring discrimination data used for discriminating the shape pattern of the intersection for which the driving evaluation is performed by using at least one of the detected data detected at the intersection for which the driving evaluation is performed.
該第1のステップにより取得された前記判別用データを用いて、前記運転評価を行う交差点の形状パターンを判別する第2のステップと、Using the discrimination data acquired in the first step, the second step of discriminating the shape pattern of the intersection for which the operation evaluation is performed, and the second step.
交差点の形状パターン毎に、運転者が行うべき安全確認動作の評価条件が設定された評価テーブルから、前記第2のステップで判別された前記交差点の形状パターンに対応する前記評価条件を選択する第3のステップと、From the evaluation table in which the evaluation conditions for the safety confirmation operation to be performed by the driver are set for each shape pattern of the intersection, the evaluation condition corresponding to the shape pattern of the intersection determined in the second step is selected. 3 steps and
該第3のステップにより選択された前記評価条件と、前記運転評価を行う交差点で検出された前記検出データとに基づいて、前記交差点における運転者の安全確認動作を評価する第4のステップとを実行させ、Based on the evaluation conditions selected by the third step and the detection data detected at the intersection where the driving evaluation is performed, the fourth step of evaluating the driver's safety confirmation operation at the intersection. Let it run
前記第1のステップが、The first step is
前記車両が交差点を通過しているときに前記車載機で検出された前記検出データを蓄積する検出データ蓄積部に蓄積された、前記運転評価を行う交差点で検出された前記検出データのうちの少なくともいずれかを用いて、判別用データ蓄積部から前記判別用データを取得するステップであり、At least of the detection data detected at the intersection where the driving evaluation is performed, which is stored in the detection data storage unit that stores the detection data detected by the on-board unit when the vehicle is passing through the intersection. It is a step of acquiring the discrimination data from the discrimination data storage unit by using any of them.
前記検出データには、前記車両の外界状況を撮像又は検出した外界画像データがさらに含まれ、The detection data further includes external image data obtained by capturing or detecting the external situation of the vehicle.
前記判別用データ蓄積部に蓄積される前記判別用データには、前記車載機から送信されてきた前記外界画像データが含まれ、The discrimination data stored in the discrimination data storage unit includes the outside world image data transmitted from the vehicle-mounted device.
前記第1のステップにより取得される前記判別用データが、前記車両が通過した交差点で撮像又は検出された前記外界画像データであり、The discrimination data acquired in the first step is the outside world image data imaged or detected at an intersection through which the vehicle has passed.
前記第2のステップが、前記外界画像データに基づいて、前記運転評価を行う交差点の形状パターンを判別するステップであって、The second step is a step of determining the shape pattern of the intersection to be evaluated for operation based on the external image data.
入力層に、前記判別用データとして前記外界画像データが入力され、The external image data is input to the input layer as the discrimination data, and the external image data is input to the input layer.
中間層で、前記外界画像データに対し、重み付け係数に基づく演算が実行され、In the intermediate layer, an operation based on the weighting coefficient is executed on the external image data, and the operation is performed.
出力層から前記交差点の形状パターンの判別結果が出力されるように構成されている、前記入力層と前記中間層と前記出力層とを含むニューラルネットワークを用いることを特徴とする運転評価プログラム。An operation evaluation program characterized by using a neural network including the input layer, the intermediate layer, and the output layer, which is configured to output the discrimination result of the shape pattern of the intersection from the output layer.
JP2018043969A 2018-03-12 2018-03-12 Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program Active JP7070827B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018043969A JP7070827B2 (en) 2018-03-12 2018-03-12 Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043969A JP7070827B2 (en) 2018-03-12 2018-03-12 Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program

Publications (2)

Publication Number Publication Date
JP2019159641A JP2019159641A (en) 2019-09-19
JP7070827B2 true JP7070827B2 (en) 2022-05-18

Family

ID=67996948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043969A Active JP7070827B2 (en) 2018-03-12 2018-03-12 Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program

Country Status (1)

Country Link
JP (1) JP7070827B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112034885B (en) * 2020-09-08 2022-08-23 中国人民解放军海军航空大学 Unmanned aerial vehicle roll stabilizing method adopting low-cost inclinometer for measurement

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157880A (en) 2002-11-07 2004-06-03 Toyota Central Res & Dev Lab Inc Confirmation action evaluation device
WO2014006759A1 (en) 2012-07-06 2014-01-09 トヨタ自動車株式会社 Traveling control device for vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157880A (en) 2002-11-07 2004-06-03 Toyota Central Res & Dev Lab Inc Confirmation action evaluation device
WO2014006759A1 (en) 2012-07-06 2014-01-09 トヨタ自動車株式会社 Traveling control device for vehicle

Also Published As

Publication number Publication date
JP2019159641A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US9041789B2 (en) System and method for determining driver alertness
KR102043060B1 (en) Autonomous drive apparatus and vehicle including the same
CN108496178A (en) System and method for estimating Future Path
US11783600B2 (en) Adaptive monitoring of a vehicle using a camera
CN104786933A (en) Panoramic image driving auxiliary device and panoramic image driving auxiliary method
CN108545019A (en) A kind of safety driving assist system and method based on image recognition technology
JP7224118B2 (en) Safety confirmation evaluation device, in-vehicle device, safety confirmation evaluation system equipped with these, safety confirmation evaluation method, and safety confirmation evaluation program
JP6967042B2 (en) Driving evaluation device, driving evaluation system, driving evaluation method, program, and intersection attribute discrimination method
WO2019117005A1 (en) Driving evaluation report, vehicle-mounted device, driving evaluation report creation device, driving evaluation report creation system, computer program for creation of driving evaluation report, and storage medium
US20240037935A1 (en) Artificial intelligence based real time vehicle parking verification
KR101702950B1 (en) Display apparatus for vehicle and control method for the same
JP7070827B2 (en) Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program
CN108074395B (en) Identity recognition method and device
JP7114953B2 (en) In-vehicle device, driving evaluation device, driving evaluation system provided with these, data transmission method, and data transmission program
WO2019117004A1 (en) Safety check evaluation device, on-board device, safety check evaluation system comprising these, safety check evaluation method, safety check evaluation program, and storage medium
JP7068606B2 (en) Driving evaluation device, on-board unit, driving evaluation method, and computer program
JP7376996B2 (en) Vehicle dangerous situation determination device, vehicle dangerous situation determination method, and program
JP7075048B2 (en) Safety confirmation evaluation device, in-vehicle device, safety confirmation evaluation system equipped with these, safety confirmation evaluation method, and safety confirmation evaluation program
JP2019159926A (en) Driver replacement promotion device, drive evaluation system having the same thereon, and computer program
JP7060841B2 (en) Operation evaluation device, operation evaluation method, and operation evaluation program
JP7099036B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
JP6950597B2 (en) On-board unit, driving evaluation system, information processing method, and program
JP7298351B2 (en) State determination device, in-vehicle device, driving evaluation system, state determination method, and program
JP7235438B2 (en) Driving evaluation device, driving evaluation method, and computer program
JP7135913B2 (en) Driving evaluation screen display method, program, driving evaluation system, and driving evaluation screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220419

R150 Certificate of patent or registration of utility model

Ref document number: 7070827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150