JP2019016213A - On-vehicle device, processing device and program - Google Patents

On-vehicle device, processing device and program Download PDF

Info

Publication number
JP2019016213A
JP2019016213A JP2017133801A JP2017133801A JP2019016213A JP 2019016213 A JP2019016213 A JP 2019016213A JP 2017133801 A JP2017133801 A JP 2017133801A JP 2017133801 A JP2017133801 A JP 2017133801A JP 2019016213 A JP2019016213 A JP 2019016213A
Authority
JP
Japan
Prior art keywords
value
types
vehicle device
driver
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017133801A
Other languages
Japanese (ja)
Other versions
JP6947556B2 (en
Inventor
宏次 小栗
Koji Oguri
宏次 小栗
治樹 河中
Haruki Kawanaka
治樹 河中
祐来 金子
Yuki Kaneko
祐来 金子
啓之 大石
Hiroyuki Oishi
啓之 大石
達夫 山本
Tatsuo Yamamoto
達夫 山本
裕一 小林
Yuichi Kobayashi
裕一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Energy System Corp
Oguri Koji
Original Assignee
Yazaki Energy System Corp
Oguri Koji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Energy System Corp, Oguri Koji filed Critical Yazaki Energy System Corp
Priority to JP2017133801A priority Critical patent/JP6947556B2/en
Publication of JP2019016213A publication Critical patent/JP2019016213A/en
Application granted granted Critical
Publication of JP6947556B2 publication Critical patent/JP6947556B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Traffic Control Systems (AREA)

Abstract

To make it possible to accurately determine a state such as a drowsiness level of a driver based on various traveling data that can be acquired from an on-vehicle device without photographing the driver.SOLUTION: An on-vehicle device 10 detects a plurality of types of operation information D 1 to D 9, and combines a plurality of types of statistical values Dx of each of them to use as a feature amount. An evaluation value calculation unit 17 of the on-vehicle device 10 calculates an evaluation value Dy such as a drowsiness level or the like by substituting a combination of optimized feature amounts into a multiple regression equation learned and determined in advance. A learning processing apparatus executes a learning process for optimizing an evaluation operation of the on-vehicle device 10. This learning processing apparatus 50 sets experimental data of a simulated driving and its correct value as a target of learning processing, extracts each feature amount, and executes multiple regression analysis. A principal component analysis is applied to feature quantities and extract only principal components. A feature quantity with a small correlation coefficient is deleted to reduce a number of calculation items.SELECTED DRAWING: Figure 1

Description

本発明は、車載機および処理装置に関し、特に車両を運転する運転者の状態を検知するための技術に関する。   The present invention relates to an in-vehicle device and a processing device, and more particularly to a technique for detecting a state of a driver who drives a vehicle.

様々な車両において、安全な運転状態を維持するためには、運転者が正常な運転状態であることが不可欠である。例えば、睡眠不足の状態の運転者が車両を運転している時には居眠り運転を行う可能性があり、交通事故に繋がる危険性が高い。また、何らかの病気の発症により運転者が突然意識を失い、運転不可能な状況に陥る可能性も考えられる。また、運転者自体が身体的には問題が発生していない場合であっても、例えばわき見運転を継続的に行った場合には交通事故に繋がる危険性が高くなる。   In various vehicles, in order to maintain a safe driving state, it is essential that the driver is in a normal driving state. For example, there is a possibility that a driver who is in a sleep-deficient state is driving a nap when driving a vehicle, and there is a high risk of causing a traffic accident. It is also possible that the driver suddenly loses consciousness due to the onset of some illness and falls into an impossible driving situation. Moreover, even if the driver itself does not have a physical problem, for example, when the side-by-side driving is continuously performed, there is a high risk of causing a traffic accident.

そこで、特許文献1に示されている居眠り運転防止装置は、検出した車両の速度に基づいて、予め定められた監視速度から所定時間以内に所定速度以上の減速を検出すると、居眠りと判定する居眠り判定手段と、居眠りを判定した場合に運転者に対して警告を発する警告手段とを備えている。   Therefore, the snooze driving prevention device disclosed in Patent Document 1 is determined to fall asleep when it detects a deceleration exceeding a predetermined speed within a predetermined time from a predetermined monitoring speed based on the detected vehicle speed. A determination unit and a warning unit that issues a warning to the driver when a nap is determined are provided.

また、特許文献2に示されている車両用運転支援装置は、ドライバ(運転者)特性算出に使用する走行ログのデータ範囲を、蓄積した走行ログの特徴に応じて動的に変化させることで、より精度良くドライバ特性を算出するための技術を示している。   In addition, the vehicle driving support device disclosed in Patent Document 2 dynamically changes the data range of the travel log used for calculating the driver (driver) characteristics according to the characteristics of the accumulated travel log. The technique for calculating the driver characteristics with higher accuracy is shown.

また、特許文献3に示されている状態判定装置は、移動体の運転者の状態を判定する際の判定精度を向上させるための技術を示している。具体的には、センサ群での検知結果に従って、自動車の挙動を表すパラメータを繰り返し導出し、パラメータを判定モデルに照合した結果、判定モデルが有する閾値領域のいずれかに、パラメータが包含されていれば、運転者が漫然と運転しているものと判定する。   Moreover, the state determination apparatus shown by patent document 3 has shown the technique for improving the determination precision at the time of determining the state of the driver | operator of a moving body. Specifically, as a result of repeatedly deriving a parameter representing the behavior of the vehicle according to the detection result of the sensor group and collating the parameter with the determination model, the parameter is included in one of the threshold regions of the determination model. For example, it is determined that the driver is driving casually.

また、人間の健康状態を検出するための一般的な技術として、ウェアラブル機器が用いられる場合もある。このようなウェアラブル機器は、例えば腕時計のように人体に装着され、体温、心拍、血圧などの生体情報を計測する。このような生体情報を利用して、眠気を判定することが可能である。また、車載カメラを利用して車両を運転している運転者の顔等を撮影し、顔画像の内容から運転者の状態を監視することも試みられている。   In addition, as a general technique for detecting a human health state, a wearable device may be used. Such a wearable device is worn on a human body like a wristwatch, for example, and measures biological information such as body temperature, heartbeat, blood pressure, and the like. It is possible to determine drowsiness using such biological information. In addition, an attempt has been made to monitor the state of the driver from the contents of the face image by photographing the face and the like of the driver driving the vehicle using an in-vehicle camera.

特開2004−34938号公報JP 2004-34938 A 特開2015−143936号公報JP2015-143936A 特開2016−21192号公報Japanese Patent Laid-Open No. 2006-2192

しかしながら、運転者の状態を推定するために運転者の生体情報を利用する場合には、運転者がウェアラブル機器を常に装着した状態で車両を運転しなければならないので、運転者にかかる負担が大きく、継続的に使用するのは困難である。また、車載カメラを利用して車両を運転している運転者の顔等を撮影する場合には、運転者が常に監視されていることを意識することになり、特に、業務用車両を運転する乗務員の場合には運転中の精神的な負担が大きい。すなわち、乗務員は運転中に企業内の他人から常に監視されていると考えることになるので、このような状況は避ける必要がある。   However, when the driver's biometric information is used to estimate the driver's state, the driver must drive the vehicle with the wearable device always worn, which places a heavy burden on the driver. It is difficult to use continuously. In addition, when taking a picture of the face of a driver who is driving a vehicle using an in-vehicle camera, the driver will be aware that the driver is constantly monitored, especially driving a business vehicle. In the case of a crew member, the mental burden during driving is large. In other words, it is necessary to avoid such a situation because the crew members will always be monitored by others in the company while driving.

一方、特許文献1のように車両の速度に基づいて居眠り運転等の状態を検出する場合には、運転者に特別な負担がかかることはない。しかし、検出対象が居眠り運転のような特定の状態のみに限られるし、誤検出が生じる可能性もあるので、信頼性が十分に高いとは言えない。   On the other hand, when a state such as a snooze driving is detected based on the speed of the vehicle as in Patent Document 1, no special burden is imposed on the driver. However, since the detection target is limited only to a specific state such as snoozing driving and there is a possibility of erroneous detection, it cannot be said that the reliability is sufficiently high.

本発明は、上記の状況に鑑みてなされたものであり、その目的は、車載機から取得できる各種の運行データに基づいて、運転手の状態、例えばウトウトしながら運転している状態、動揺しながら運転している状態などを精度よく判定するために利用可能な車載機、処理装置及びプログラムを提供することにある。   The present invention has been made in view of the above situation, and its purpose is based on various operation data that can be acquired from the in-vehicle device, such as the state of the driver, for example, the state of driving while out, the shaking. It is to provide an in-vehicle device, a processing device, and a program that can be used to accurately determine the state of driving while driving.

前述した目的を達成するために、本発明に係る車載機は、下記(1)〜(5)を特徴としている。
(1) 情報の種類が互いに異なるL(Lは2以上の整数)種類の車両の運行情報が入力される入力部と、
L種類の前記運行情報それぞれから取得される統計値を特徴量として有する評価値に応じて、運転手の状態を通知する出力部と、
を備えることを特徴とする車載機。
(2) 前記統計値として、前記運行情報それぞれから取得されるM(Mは2以上の整数)種類の統計値を有し、
前記評価値は、L種類の前記運行情報毎に取得されたM種類の前記統計値(合計N=L×M個の統計値)の中から所定数P取り出したときの組合せ()の一部又は全てそれぞれにおいて、各組合せに用いられた前記統計値から算出される値を前記特徴量として有する、
ことを特徴とする上記(1)に記載の車載機。
(3) 前記特徴量は、各組合せに用いられた前記統計値の積から算出される値である
ことを特徴とする上記(2)に記載の車載機。
(4) 前記統計値は、N個の前記統計値に加え、さらに、過去の少なくとも一時点における評価値を有し、
前記評価値は、(N+1)個の前記統計値の中から所定数P取り出したときの組合せ(N+1)毎に、各組合せに用いられた前記統計値から算出される値を前記特徴量として有する、
ことを特徴とする上記(3)に記載の車載機。
(5) 前記評価値は、複数の前記特徴量を重回帰式に代入した数値である、
ことを特徴とする上記(1)乃至(4)のいずれかに記載の車載機。
In order to achieve the above-described object, the vehicle-mounted device according to the present invention is characterized by the following (1) to (5).
(1) An input unit for inputting operation information of L (L is an integer of 2 or more) types of vehicles having different types of information;
An output unit for notifying a driver's state according to an evaluation value having a statistical value acquired from each of the L types of operation information as a feature value;
An in-vehicle device comprising:
(2) As the statistical value, there are M (M is an integer of 2 or more) types of statistical values acquired from each of the operation information,
The evaluation value is a combination ( N CP ) when a predetermined number P is extracted from the M types of statistical values (total N = L × M statistical values) acquired for each of the L types of operation information. In part or all of the above, the characteristic amount includes a value calculated from the statistical value used for each combination.
The in-vehicle device according to (1) above, wherein
(3) The in-vehicle device according to (2), wherein the feature amount is a value calculated from a product of the statistical values used for each combination.
(4) In addition to the N statistical values, the statistical value further includes an evaluation value at least in the past.
The evaluation value is a value calculated from the statistical value used for each combination for each combination ( N + 1 C P ) when a predetermined number P is extracted from the ( N + 1 ) statistical values. As a feature quantity,
The in-vehicle device according to (3) above, wherein
(5) The evaluation value is a numerical value obtained by substituting a plurality of the feature quantities into a multiple regression equation.
The in-vehicle device according to any one of (1) to (4) above,

上記(1)の構成の車載機によれば、複数種類の運行情報の各々の統計値に基づいて算出される評価値を利用するので、単一の運行情報だけでは得られない特徴量を評価することができ、運転手の微妙な状態の違いも識別可能になる。また、運転手の顔を撮影する必要もないし、ウェアラブル機器を運転手が装着する必要もないので、運転手の負担が小さい。
上記(2)の構成の車載機によれば、複数種類の運行情報と、複数種類の統計値との組み合わせの少なくとも一部分の各々から算出される特徴量に基づいて算出される評価値を利用するので、様々な種類の特徴量を評価することができ、運転手の微妙な状態の違いも識別可能になる。
上記(3)の構成の車載機によれば、各統計値の積により前記特徴量を算出するので、様々な種類の特徴量を評価することができる。
上記(4)の構成の車載機によれば、過去の少なくとも一時点における評価値を最新の計算値にフィードバックすることができる。そのため、運転状態の特徴量の検出を開始してから正しい特徴量が得られるまでに時間がかかる場合であっても、フィードバックした過去の評価値に基づいて正しい特徴量を評価することが可能になる。
上記(5)の構成の車載機によれば、重回帰式に基づき、複数の前記特徴量の各々を説明変数として、運転手の状態を表す1つの目的変数を前記評価値として算出できる。
According to the in-vehicle device having the configuration of (1) above, evaluation values calculated based on statistical values of each of a plurality of types of operation information are used. It is possible to distinguish between subtle differences in the driver's condition. Further, it is not necessary to photograph the driver's face and the driver does not need to wear the wearable device, so the burden on the driver is small.
According to the in-vehicle device having the configuration (2), the evaluation value calculated based on the feature amount calculated from each of at least a part of the combination of the plurality of types of operation information and the plurality of types of statistical values is used. Therefore, various types of feature amounts can be evaluated, and subtle differences in the driver's state can be identified.
According to the in-vehicle device having the configuration (3), since the feature amount is calculated by the product of the statistical values, various types of feature amounts can be evaluated.
According to the in-vehicle device having the configuration (4), it is possible to feed back an evaluation value at least at a point in the past to the latest calculated value. Therefore, even if it takes time until the correct feature value is obtained after the detection of the feature value of the driving state, it is possible to evaluate the correct feature value based on the past evaluation values fed back. Become.
According to the in-vehicle device having the configuration (5), one objective variable representing the driver's state can be calculated as the evaluation value using each of the plurality of feature quantities as an explanatory variable based on a multiple regression equation.

前述した目的を達成するために、本発明に係る処理装置は、下記(6)、(7)を特徴としている。
(6) 各種情報が入力される入力部と、
前記入力部から入力された情報を基にデータ処理を行うデータ処理部と、
を備え、
前記入力部は、情報の種類が互いに異なるL(Lは2以上の整数)種類の車両の運行情報と、前記運行情報が取得された際に評価された運転手の状態と、が入力され、
前記データ処理部は、
L種類の前記運行情報毎に取得されたM種類の統計値(合計N=L×M個の統計値)の中から所定数P取り出したときの組合せ()の一部又は全てそれぞれにおいて、各組合せに用いられた前記統計値から算出される値を特徴量として算出し、
さらに、前記運転手の状態を目的変数として重回帰分析を行い、前記特徴量に対して乗算する係数を当該特徴量毎に算出する
ことを特徴とする処理装置。
(7) 前記データ処理部は、さらに、前記特徴量に対して主成分分析を行い、前記目的変数に対する相関が相対的に高い特徴量を前記重回帰分析の対象とする、
ことを特徴とする上記(6)に記載の処理装置。
In order to achieve the above-described object, the processing apparatus according to the present invention is characterized by the following (6) and (7).
(6) an input unit for inputting various information;
A data processing unit that performs data processing based on information input from the input unit;
With
The input unit is input with operation information of L (L is an integer of 2 or more) types of vehicles having different types of information, and a driver's state evaluated when the operation information is acquired,
The data processing unit
Part or all of combinations ( N CP ) when a predetermined number P is extracted from M types of statistical values (total N = L × M statistical values) acquired for each of the L types of operation information. In the above, a value calculated from the statistical value used for each combination is calculated as a feature amount,
Further, a processing apparatus is characterized in that a multiple regression analysis is performed using the driver's state as an objective variable, and a coefficient for multiplying the feature quantity is calculated for each feature quantity.
(7) The data processing unit further performs a principal component analysis on the feature quantity, and sets a feature quantity having a relatively high correlation with the objective variable as a target of the multiple regression analysis.
The processing apparatus according to (6) above, wherein

上記(6)の構成の処理装置によれば、目的変数である前記運転手の状態と一致するように学習が実施され、必要な特徴量毎の係数が算出される。ここで算出された適切な係数を、上記(1)に記載の車載機に与えることにより、車載機は前記運転手の状態を適切に評価することが可能になる。
上記(7)の構成の処理装置によれば、上記(1)に記載の車載機が運転手の状態を正しく評価するために必要な特徴量の数を大幅に削減できるので、計算の負荷が小さくなり、処理能力の低いコンピュータを搭載した車載機であっても短時間で評価結果を得ることが可能になる。
According to the processing device having the above configuration (6), learning is performed so as to coincide with the state of the driver, which is an objective variable, and a coefficient for each necessary feature amount is calculated. By giving the appropriate coefficient calculated here to the in-vehicle device described in (1) above, the in-vehicle device can appropriately evaluate the state of the driver.
According to the processing apparatus having the configuration of (7), the number of feature quantities necessary for the in-vehicle device described in (1) to correctly evaluate the driver's state can be greatly reduced, so that the calculation load is reduced. Even if it is an in-vehicle device equipped with a computer having a small processing capacity, evaluation results can be obtained in a short time.

前述した目的を達成するために、本発明に係るプログラムは、下記(8)を特徴としている。
(8) コンピュータに、上記(6)又は(7)に記載の前記入力部及び前記データ処理部の機能を実現させるためのプログラム。
In order to achieve the above-described object, a program according to the present invention is characterized by the following (8).
(8) A program for causing a computer to realize the functions of the input unit and the data processing unit according to (6) or (7).

上記(8)の構成のプログラムによれば、目的変数である前記運転手の状態と一致するように学習が実施され、必要な特徴量毎の係数が算出される。ここで算出された適切な係数を、上記(1)に記載の車載機に与えることにより、車載機は前記運転手の状態を適切に評価することが可能になる。   According to the program configured as described in (8) above, learning is performed so as to match the driver's state, which is an objective variable, and a coefficient for each necessary feature amount is calculated. By giving the appropriate coefficient calculated here to the in-vehicle device described in (1) above, the in-vehicle device can appropriately evaluate the state of the driver.

本発明の車載機、処理装置およびプログラムは、車載機から取得できる各種の運行データに基づいて、運転手の状態を精度よく判定するために役立てることができる。本発明の処理装置及びプログラムは、車載機が計算に用いる特徴量毎の係数を学習により算出する機能を有する。本発明の車載機は、本発明の処理装置が算出した各係数を採用することにより、運転手の状態を評価する精度を高めることができる。   The in-vehicle device, the processing device, and the program of the present invention can be used for accurately determining the state of the driver based on various operation data that can be acquired from the in-vehicle device. The processing apparatus and program of the present invention have a function of calculating a coefficient for each feature amount used for calculation by the in-vehicle device by learning. The vehicle-mounted device of the present invention can improve the accuracy of evaluating the driver's condition by employing each coefficient calculated by the processing device of the present invention.

以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。   The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through a mode for carrying out the invention described below (hereinafter referred to as “embodiment”) with reference to the accompanying drawings. .

図1は、本発明の実施形態における車載機の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of an in-vehicle device according to an embodiment of the present invention. 図2は、本発明の実施形態における学習処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of the learning processing system according to the embodiment of the present invention. 図3は、車載カメラが撮影した映像の例を示す正面図である。FIG. 3 is a front view showing an example of an image taken by the in-vehicle camera. 図4は、ドライビングシミュレータとそれに付随する装置の位置関係を示す側面図である。FIG. 4 is a side view showing the positional relationship between the driving simulator and the accompanying device. 図5は、学習処理装置における学習処理の具体例を示すフローチャートである。FIG. 5 is a flowchart illustrating a specific example of the learning process in the learning processing apparatus. 図6は、眠気レベルの時間推移に関する正解値、重回帰式の推定値、および重回帰式の推定値を量子化した値の具体例を示すタイムチャートである。FIG. 6 is a time chart showing specific examples of the correct value regarding the time transition of the sleepiness level, the estimated value of the multiple regression equation, and a value obtained by quantizing the estimated value of the multiple regression equation. 図7は、学習処理装置における学習処理の変形例を示すフローチャートである。FIG. 7 is a flowchart illustrating a modification of the learning process in the learning processing apparatus.

本発明の車載機および処理装置に関する具体的な実施の形態について、各図を参照しながら以下に説明する。   Specific embodiments relating to the vehicle-mounted device and the processing apparatus of the present invention will be described below with reference to the drawings.

<実施形態の車載機10の説明>
<概要の説明>
本発明の実施形態における車載機10の構成例を図1に示す。図1に示した車載機10は、例えばタクシー、トラック、バスのような業務用車両など様々な車両に搭載した状態で使用され、運転手の状態を自動検出するために利用される。検出対象の代表的な状態として、ここでは運転手の居眠りの状態を想定している。しかし、この車載機10は居眠りに限らず、様々な状態の検知に利用できる。
<Description of In-vehicle Device 10 of Embodiment>
<Overview>
A configuration example of the in-vehicle device 10 in the embodiment of the present invention is shown in FIG. The in-vehicle device 10 shown in FIG. 1 is used in various vehicles such as business vehicles such as taxis, trucks, and buses, and is used for automatically detecting the driver's state. Here, as a representative state of the detection target, a driver's dozing state is assumed. However, this in-vehicle device 10 can be used for detecting various states as well as being asleep.

図1に示した車載機10は、ドライブレコーダであり、運転手の居眠り運転を検知して危険を報知するための機能が追加されている。しかし、本発明の車載機はドライブレコーダに限らず、様々な種類の車載機に本発明の機能を搭載できる。   The in-vehicle device 10 shown in FIG. 1 is a drive recorder, and a function for detecting a driver's dozing operation and notifying a danger is added. However, the in-vehicle device of the present invention is not limited to a drive recorder, and the functions of the present invention can be installed in various types of in-vehicle devices.

<構成の説明>
図1に示した車載機10の入力には、自車両に搭載されている車速センサ(図示せず)が出力する車速パルス信号SG1が印加される。この車速パルス信号SG1は、例えば車両のトランスミッションの出力軸が所定量回動する毎に発生するパルスを含んでいる。したがって、自車両の走行速度(km/h)や移動距離を車速パルス信号SG1に基づいて算出できる。
<Description of configuration>
A vehicle speed pulse signal SG1 output from a vehicle speed sensor (not shown) mounted on the host vehicle is applied to the input of the in-vehicle device 10 shown in FIG. The vehicle speed pulse signal SG1 includes, for example, a pulse that is generated every time the output shaft of the vehicle transmission rotates by a predetermined amount. Therefore, the traveling speed (km / h) and moving distance of the host vehicle can be calculated based on the vehicle speed pulse signal SG1.

また、図1に示した車載機10の入力には、車載カメラ30が接続されている。この車載カメラ30は、例えば自車両の前方の窓付近に固定され、自車両の進行方向前方の路面や風景などの状況を撮影できる方向に向けられている。なお、複数台の車載カメラ30を必要に応じて用いることができる。車載カメラ30の撮影内容を表す映像信号SG4が車載機10に入力される。   The in-vehicle camera 30 is connected to the input of the in-vehicle device 10 shown in FIG. The in-vehicle camera 30 is fixed, for example, in the vicinity of a window in front of the host vehicle, and is directed in a direction in which a situation such as a road surface or a landscape in front of the host vehicle can be photographed. A plurality of in-vehicle cameras 30 can be used as necessary. A video signal SG <b> 4 representing the content captured by the in-vehicle camera 30 is input to the in-vehicle device 10.

また、実際の車両においては、車速パルス信号SG1、映像信号SG4以外の様々な信号を外部から車載機10に入力することが可能であるが、運転手の居眠りを検出する用途だけであれば、他の信号を入力する必要はない。   In an actual vehicle, it is possible to input various signals other than the vehicle speed pulse signal SG1 and the video signal SG4 from the outside to the vehicle-mounted device 10, but only for the purpose of detecting the driver's sleep, There is no need to input other signals.

図1に示したように、車載機10の内部には、車速検出機能11、加速度センサ12、画像認識エンジン13、ドライブレコーダ機能14、運行データ検出機能15、統計値算出部16、評価値算出部17、フィードバック処理部18、評価値判定部19、音声出力部20、および広域無線通信アダプタ21が備わっている。また、広域無線通信アダプタ21にアンテナ22が接続されている。   As shown in FIG. 1, an in-vehicle device 10 includes a vehicle speed detection function 11, an acceleration sensor 12, an image recognition engine 13, a drive recorder function 14, an operation data detection function 15, a statistical value calculation unit 16, and an evaluation value calculation. A unit 17, a feedback processing unit 18, an evaluation value determination unit 19, an audio output unit 20, and a wide area wireless communication adapter 21 are provided. An antenna 22 is connected to the wide area wireless communication adapter 21.

なお、図1に示した車載機10の内部の主要な構成要素の実体は、マイクロコンピュータを主体とする電気回路のハードウェアと、このマイクロコンピュータが実行するプログラムおよびデータとで構成されるソフトウェアからなる。また、必要に応じて、画像処理専用のプロセッサや、数値演算用のプロセッサなどが車載機10に内蔵される場合もある。   The entity of the main components inside the in-vehicle device 10 shown in FIG. 1 is composed of software composed of hardware of an electric circuit mainly composed of a microcomputer and programs and data executed by the microcomputer. Become. Further, if necessary, an in-vehicle device 10 may include a processor dedicated to image processing, a processor for numerical calculation, and the like.

車速検出機能11は、外部から入力される車速パルス信号SG1に基づいて自車両の最新の走行速度(km/h)を常時算出する。この算出結果の走行速度の信号SG5が車速検出機能11から出力され運行データ検出機能15に入力される。   The vehicle speed detection function 11 constantly calculates the latest traveling speed (km / h) of the host vehicle based on the vehicle speed pulse signal SG1 input from the outside. The calculated traveling speed signal SG5 is output from the vehicle speed detection function 11 and input to the operation data detection function 15.

加速度センサ12は、車載機10に固定されており、自車両の進行方向(前後方向)の加速度の大きさと、横方向(左右方向)の加速度の大きさとをそれぞれ検出する機能を有している。進行方向の加速度の大きさを表す信号SG2と、横方向の加速度の大きさを表す信号SG3とのそれぞれが加速度センサ12から出力され、運行データ検出機能15に印加される。   The acceleration sensor 12 is fixed to the vehicle-mounted device 10 and has a function of detecting the magnitude of acceleration in the traveling direction (front-rear direction) and the magnitude of acceleration in the lateral direction (left-right direction) of the host vehicle. . A signal SG2 indicating the magnitude of the acceleration in the traveling direction and a signal SG3 indicating the magnitude of the lateral acceleration are each output from the acceleration sensor 12 and applied to the operation data detection function 15.

画像認識エンジン13は、入力される映像信号SG4の各フレームの画像に対して、リアルタイムで認識処理を実行し、様々な特徴量を検出する。具体的には、画像中の路面に標示されている各白線(レーンの境界の区切り位置)の位置、自車両の位置などを自動的に認識することができる。   The image recognition engine 13 performs recognition processing in real time on the image of each frame of the input video signal SG4 and detects various feature amounts. Specifically, it is possible to automatically recognize the position of each white line (lane boundary separation position) marked on the road surface in the image, the position of the host vehicle, and the like.

ドライブレコーダ機能14は、一般的なドライブレコーダと同様の機能を実現する。すなわち、入力される映像信号SG4の情報や、走行速度、加速度のような自車両の運行状態に関する情報を取得して記録する。大量の情報を記録できるように、例えば不揮発性メモリにより構成されるメモリカードのような記憶装置がドライブレコーダ機能14に備わっている。   The drive recorder function 14 realizes the same function as a general drive recorder. That is, information on the input video signal SG4, information on the running state of the host vehicle, such as travel speed and acceleration, is acquired and recorded. In order to record a large amount of information, the drive recorder function 14 is provided with a storage device such as a memory card constituted by a nonvolatile memory, for example.

運行データ検出機能15は、運転手の状態を検出するために必要とされる9種類の運行情報D1〜D9を、走行速度の信号SG5、進行方向の加速度の信号SG2、横方向の加速度の信号SG3、および画像認識結果の信号SG6に基づいて検出する。なお、運行情報D1〜D9の種類数を必要に応じて増減することも可能である。この運行情報D1〜D9については後で詳細に説明する。   The operation data detection function 15 includes nine types of operation information D1 to D9 required for detecting the driver's condition, a traveling speed signal SG5, a traveling direction acceleration signal SG2, and a lateral direction acceleration signal. Detection is based on SG3 and signal SG6 of the image recognition result. In addition, it is also possible to increase / decrease the number of types of operation information D1-D9 as needed. The operation information D1 to D9 will be described later in detail.

統計値算出部16は、運行データ検出機能15から出力される9種類の運行情報D1〜D9のそれぞれについて、統計処理を施して各々の統計値Dxを算出する。統計値算出部16が算出する統計値Dxの種類については、標準偏差(std)、最大値(max)、最小値(min)、平均値(mean)、中央値(median)、最頻値(mode)、および範囲(range)の7種類がある。なお、統計値Dxの種類数を必要に応じて増減してもよい。   The statistical value calculation unit 16 performs statistical processing on each of the nine types of operation information D1 to D9 output from the operation data detection function 15, and calculates each statistical value Dx. The types of statistical values Dx calculated by the statistical value calculator 16 are standard deviation (std), maximum value (max), minimum value (min), average value (mean), median value (median), mode value ( There are seven types: mode) and range. Note that the number of types of the statistical value Dx may be increased or decreased as necessary.

評価値算出部17は、9種類の運行情報D1〜D9のそれぞれの7種類の統計値Dxと、フィードバック処理部18から印加されるフィードバック信号Dfとを、所定の計算式に代入して計算することにより、評価値Dyを求める。この評価値Dyは、この例では運転手の居眠りの状態の程度を数値化して表すものである。評価値算出部17の計算式の具体例については後で説明する。   The evaluation value calculation unit 17 calculates the seven types of statistical values Dx of the nine types of operation information D1 to D9 and the feedback signal Df applied from the feedback processing unit 18 by substituting them into a predetermined calculation formula. Thus, the evaluation value Dy is obtained. In this example, the evaluation value Dy represents the degree of the driver's drowsiness in a numerical value. A specific example of the calculation formula of the evaluation value calculation unit 17 will be described later.

フィードバック処理部18は、時間的に古い情報を現在の情報にフィードバックして現在の情報の評価に反映するための処理を行う。具体的には、フィードバック処理部18が評価値算出部17の出力する評価値Dyを入力して一時的に保持し、一定時間(例えば120秒)の経過後にフィードバック信号Dfとして出力する機能を有している。   The feedback processing unit 18 performs processing for feeding back old information to the current information and reflecting it in the evaluation of the current information. Specifically, the feedback processing unit 18 has a function of inputting the evaluation value Dy output from the evaluation value calculation unit 17 and temporarily holding it, and outputting it as a feedback signal Df after a predetermined time (for example, 120 seconds) has elapsed. doing.

評価値判定部19は、評価値算出部17が出力する評価値Dyを事前に定めた閾値と比較することにより、警報等を出力するか否かを判定する。例えば、評価値Dyが大きく、運転手が非常に眠そうな状況であると評価値判定部19が判定した場合には、居眠り運転の発生を回避するために必要な報知信号SG8を出力する。   The evaluation value determination unit 19 determines whether or not to output an alarm or the like by comparing the evaluation value Dy output by the evaluation value calculation unit 17 with a predetermined threshold value. For example, when the evaluation value determination unit 19 determines that the evaluation value Dy is large and the driver is very sleepy, the notification signal SG8 necessary for avoiding the occurrence of the sleep driving is output.

音声出力部20は、報知信号SG8に従って、居眠り運転の発生を回避するために役立つ音声出力を実行する。例えば、運転手に聞こえるように「危険です、停車して休憩して下さい」のような音声を出力する。   The audio output unit 20 executes audio output useful for avoiding the occurrence of a drowsy driving according to the notification signal SG8. For example, a sound such as “Dangerous, please stop and take a break” is output to the driver.

広域無線通信アダプタ21は、遠隔地のコンピュータとの間でデータ通信するための無線通信機能を提供する。例えば、ドライブレコーダ機能14が記録する運行情報や、報知信号SG8を、必要に応じて、遠隔地のサーバや当該車両を管理している企業の事務所PCなどに対して送信することができる。   The wide area wireless communication adapter 21 provides a wireless communication function for data communication with a remote computer. For example, the operation information recorded by the drive recorder function 14 and the notification signal SG8 can be transmitted to a remote server, an office PC of a company managing the vehicle, or the like as necessary.

<動作の説明>
<運行データ検出機能15の動作>
図1に示した運行データ検出機能15は、以下に示す9種類の運行情報D1〜D9をそれぞれ検出する。
<Description of operation>
<Operation of the operation data detection function 15>
The operation data detection function 15 shown in FIG. 1 detects the following nine types of operation information D1 to D9.

D1:自車両の走行速度。
D2:自車両の進行方向(前後方向:x軸)加速度。
D3:自車両の横方向(左右方向:y軸)加速度。
D4:FOE(Focus Of Expansion)ゆらぎ。より具体的には、x座標における(10秒間移動平均値−今回値)を利用する。
D5:FOE差分R。具体的には、x座標における絶対値(10秒間移動平均値−キャリブレーション後のFOE x座標値)を利用する。
D6:自車位置。具体的には、(絶対値(左白線交点座標+右白線交点座標)/2−車両直進走行時の6m地点での車両中心投影位置(座標))を6m地点の距離に換算した結果を利用する。
D7:左白線からの距離。より具体的には、自車両の現在位置から6m先の地点(自車位置)と左白線との横方向の距離を利用する。
D8:右白線からの距離。より具体的には、自車両の現在位置から6m先の地点(自車位置)と右白線との横方向の距離を利用する。
D9:横移動速度。
D1: The traveling speed of the host vehicle.
D2: Advancing direction (front-rear direction: x-axis) acceleration of the host vehicle.
D3: A lateral direction (left-right direction: y-axis) acceleration of the host vehicle.
D4: FOE (Focus Of Expansion) fluctuation. More specifically, (moving average value for 10 seconds−current value) in the x coordinate is used.
D5: FOE difference R. Specifically, an absolute value in the x coordinate (10-second moving average value−FOE x coordinate value after calibration) is used.
D6: The vehicle position. Specifically, (absolute value (left white line intersection coordinates + right white line intersection coordinates) / 2-vehicle center projection position (coordinates) at a 6m point when the vehicle is traveling straight) is converted into a distance of 6m points. To do.
D7: Distance from the left white line. More specifically, the lateral distance between a point (own vehicle position) 6 m ahead from the current position of the host vehicle and the left white line is used.
D8: Distance from the right white line. More specifically, a lateral distance between a point (own vehicle position) 6 m ahead from the current position of the host vehicle and the right white line is used.
D9: Horizontal movement speed.

自車両の走行速度D1は、走行速度の信号SG5に相当する。車両の進行方向(前後方向:x軸)加速度D2、および横方向(左右方向:y軸)加速度D3は、加速度センサ12が出力する加速度の信号SG2およびSG3に相当する。その他の上記運行情報D4〜D9の各々は、画像認識エンジン13の認識結果(信号SG6)に基づいて算出できる。   The traveling speed D1 of the host vehicle corresponds to the traveling speed signal SG5. The vehicle traveling direction (front-rear direction: x-axis) acceleration D2 and the lateral direction (left-right direction: y-axis) acceleration D3 correspond to acceleration signals SG2 and SG3 output from the acceleration sensor 12. Each of the other operation information D4 to D9 can be calculated based on the recognition result (signal SG6) of the image recognition engine 13.

動きの消失点(FOE)について説明する。例えば走行中の車両上で前方を撮影したカメラの映像においては、路面上の白線のように輝度の大きい箇所の画素が流れるように移動する。また、このような動きを表す各ベクトルを直線状に延長した先にある交点では動きがなくなる。この交点が動きの消失点(FOE)である。例えば、直線状の道路上を直進している車両においては、走行中の路面の進行方向の先にある無限遠点がFOEになる。また、例えば自車両が蛇行して走行したり、進行方向が変化するときにはFOEにも変化が現れる。したがって、居眠り運転の可能性を検知するために、FOEの変化を利用できる。   The vanishing point (FOE) of motion will be described. For example, in an image of a camera taken in front of a running vehicle, the pixel moves at a location with a high luminance such as a white line on the road surface. In addition, there is no movement at the intersection point where the vectors representing such movement are extended linearly. This intersection is the motion vanishing point (FOE). For example, in a vehicle traveling straight on a straight road, the point at infinity ahead of the traveling direction of the traveling road surface is FOE. For example, when the host vehicle runs meandering or the traveling direction changes, the FOE also changes. Therefore, the change in FOE can be used to detect the possibility of drowsy driving.

車載カメラ30が撮影した映像の例を図3に示す。図3に示した映像の中には、動きの消失点(FOE)、6m先の左白線、6m先の右白線の各位置が示されている。   An example of an image taken by the in-vehicle camera 30 is shown in FIG. In the image shown in FIG. 3, positions of a vanishing point (FOE) of motion, a left white line 6 m ahead, and a right white line 6 m ahead are shown.

<評価値算出部17が実行する計算式の説明>
図1に示した評価値算出部17が評価値Dyを算出するために利用する計算式の具体例を以下に示す。
<Description of Formula Performed by Evaluation Value Calculation Unit 17>
A specific example of a calculation formula used by the evaluation value calculation unit 17 shown in FIG. 1 to calculate the evaluation value Dy is shown below.

y= k01×D1max
+k02×D6max
+k03×D6min
+k04×D9max
+k05×Df
+k06×D1max×D6min
+k07×D1max×D7min
+k08×D1max×D7mean
+k09×D1max×Df
+k10×D1min×D8median
+k11×D4std×D5median
+k12×D4min×D5range
+k13×D5max×D7median
+k14×D5mode×D6min
+k15×D6max×D9max
+k16×D6max×Df
+k17×D6min×D7min
+k18×D7std×D7mean
+k19×D9max×Df
+kc0 ・・・(1)
但し、
y:評価値(Dyに相当する)
k01〜k19:各項目の運行情報(D1〜D9)の該当する統計値に割り当てた係数
kc0:定数項
D1max:自車両の走行速度D1の最大値
D6max:自車位置D6の最大値
D6min:自車位置D6の最小値
D9max:横移動速度D9の最大値
Df:フィードバック値(120秒前のyの計算値)
D7min:左白線からの距離D7の最小値
D7mean:左白線からの距離D7の平均値
D8median:右白線からの距離D8の中央値
D4std:FOEゆらぎD4の標準偏差
D5median:FOE差分Rの中央値
D4min:FOEゆらぎD4の最小値
D5range:FOE差分Rの範囲
D5max:FOE差分Rの最大値
D7median:左白線からの距離D7の中央値
D5mode:FOE差分Rの最頻値
D7std:左白線からの距離D7の標準偏差
y = k01 × D1max
+ K02 × D6max
+ K03 x D6min
+ K04 × D9max
+ K05 × Df
+ K06 × D1max × D6min
+ K07 × D1max × D7min
+ K08 × D1max × D7mean
+ K09 x D1max x Df
+ K10 × D1min × D8median
+ K11 × D4std × D5median
+ K12 × D4min × D5range
+ K13 × D5max × D7median
+ K14 × D5mode × D6min
+ K15 x D6max x D9max
+ K16 × D6max × Df
+ K17 × D6min × D7min
+ K18 × D7std × D7mean
+ K19 × D9max × Df
+ Kc0 (1)
However,
y: evaluation value (corresponding to Dy)
k01 to k19: Coefficients assigned to the corresponding statistical values of the operation information (D1 to D9) of each item kc0: Constant term D1max: Maximum value of traveling speed D1 of own vehicle D6max: Maximum value of own vehicle position D6 D6min: Own Minimum value of vehicle position D6 D9max: Maximum value of lateral movement speed D9 Df: Feedback value (calculated value of y before 120 seconds)
D7min: Minimum value of the distance D7 from the left white line D7mean: Average value of the distance D7 from the left white line D8median: Median of the distance D8 from the right white line D4std: Standard deviation of the FOE fluctuation D4 D5median: Median of the FOE difference R D4min : Minimum value of FOE fluctuation D4 D5range: Range of FOE difference R D5max: Maximum value of FOE difference R D7median: Median value of distance D7 from left white line D5mode: Mode of FOE difference R D7std: Distance D7 from left white line Standard deviation of

上記第(1)式の内容は単なる一例であり、実際には後述する学習処理を実施することにより様々な計算式を採用して計算の精度を向上することができる。   The content of the expression (1) is merely an example, and in practice, various calculation expressions can be adopted to improve the calculation accuracy by performing a learning process described later.

評価値yを算出するために用いる計算式の各項目における組み合わせについては、本実施形態では最大で2080種類存在する。すなわち、運行情報(D1〜D9)が9種類、統計値Dxの統計種類数が7であり、更に1種類のフィードバック信号Dfを利用するので、64種類の計算項目が存在する。
9×7+1=64 ・・・(2)
In this embodiment, there are a maximum of 2080 types of combinations in each item of the calculation formula used to calculate the evaluation value y. That is, there are nine types of operation information (D1 to D9), the number of statistical types Dx is 7, and one type of feedback signal Df is used, so there are 64 types of calculation items.
9 × 7 + 1 = 64 (2)

そして、これらの64項目の各々についての2項目の積を計算する組み合わせの種類数は次式のように2080になる。
64×(64−1)/2+64=2080 ・・・(3)
The number of types of combinations for calculating the product of two items for each of these 64 items is 2080 as shown in the following equation.
64 × (64−1) / 2 + 64 = 2080 (3)

しかしながら、2080種類の全ての項目を計算するためには大きな計算負荷がかかる。また、2080種類の項目の全てが運転手の居眠りと大きな因果関係を有しているわけではない。そこで、2080種類の組み合わせの項目の中から、学習処理によって利用価値の高い項目だけを選択して採用する。その結果の代表例が上記第(1)式の内容である。現実的には、230程度の計算項目を有する計算式を採用することが想定される。   However, a large calculation load is required to calculate all 2080 items. Also, not all 2080 types of items have a great causal relationship with the driver's doze. Therefore, only the items having high utility value are selected and adopted by the learning process from the 2080 types of combination items. A typical example of the result is the content of the above formula (1). Actually, it is assumed that a calculation formula having about 230 calculation items is employed.

しかし、いずれにしても、例えば上記第(1)式の内容の各項目は、運転手の居眠りと相関関係を有する運行情報(D1〜D9)の統計値を含んでいるので、運転手の居眠りに関する評価値Dyを算出するために利用できる。また、この計算式に含まれている各係数k01〜k19の値については、「−1〜+1」の範囲内の実数であり、例えば小数点以下4桁程度の精度を有する数値を採用する。これらの内容は、学習処理によって最適化される。   However, in any case, for example, each item of the expression (1) includes statistical values of operation information (D1 to D9) correlated with the driver's doze, so the driver's doze Can be used to calculate the evaluation value Dy. The values of the coefficients k01 to k19 included in this calculation formula are real numbers within the range of “−1 to +1”, and for example, numerical values having an accuracy of about four digits after the decimal point are adopted. These contents are optimized by the learning process.

<実施形態の学習処理システム40の説明>
<概要の説明>
本発明の実施形態における学習処理システム40の構成例を図2に示す。図2に示した学習処理システム40に含まれている学習処理装置50が本発明の処理装置に相当する。この学習処理システム40は、図1に示した車載機10の評価値算出部17が適切な計算式を用いて評価値Dyを算出するために必要な学習処理を実現するものである。この学習処理の結果により、評価値算出部17が採用する上記第(1)式の内容が変化する。
<Description of Learning Processing System 40 of Embodiment>
<Overview>
A configuration example of the learning processing system 40 in the embodiment of the present invention is shown in FIG. The learning processing device 50 included in the learning processing system 40 shown in FIG. 2 corresponds to the processing device of the present invention. The learning processing system 40 implements learning processing necessary for the evaluation value calculation unit 17 of the in-vehicle device 10 illustrated in FIG. 1 to calculate the evaluation value Dy using an appropriate calculation formula. Depending on the result of this learning process, the content of the above expression (1) adopted by the evaluation value calculation unit 17 changes.

<学習処理の準備の説明>
ドライビングシミュレータ41とそれに付随する装置の位置関係図4に示す。本実施形態では、学習処理で利用可能な実験データを取得するために、図4に示したドライビングシミュレータ41を利用する。
<Description of preparation for learning process>
FIG. 4 shows the positional relationship between the driving simulator 41 and the devices accompanying it. In the present embodiment, the driving simulator 41 shown in FIG. 4 is used to acquire experimental data that can be used in the learning process.

このドライビングシミュレータ41は、実際の車両の運転席と同じように運転手が着座可能な運転席を有しており、更に、運転手が操作可能なステアリングホイール、アクセルペダル、ブレーキペダル、変速操作レバーなどの機器を備えている。また、運転手の前方を主体として運転手を囲むように6面のディスプレイ41aが配置されている。このディスプレイ41aの画面上には、実際の運転状態において運転手が視認可能な前方視界の情景等を模擬した内容が、ドライビングシミュレータ41に対する運転操作に応じて表示される。   The driving simulator 41 has a driver seat on which a driver can be seated in the same manner as an actual driver seat of a vehicle, and further includes a steering wheel, an accelerator pedal, a brake pedal, and a shift operation lever that can be operated by the driver. Equipment. In addition, a six-sided display 41a is arranged so as to surround the driver with the driver's front as the main body. On the screen of the display 41a, the contents simulating the scene of the front view that the driver can visually recognize in the actual driving state are displayed according to the driving operation with respect to the driving simulator 41.

模擬運転の実験を実施する場合には、図4に示すように被験者42がドライビングシミュレータ41の運転席に着座する。そして、この被験者42は、ドライビングシミュレータ41の運転手として、ディスプレイ41aの画面の内容を視認しながら、ステアリングホイール、アクセルペダル、ブレーキペダル、変速操作レバーなどの機器を操作して模擬運転を行う。被験者42の模擬運転操作に応じてディスプレイ41aの画面の内容が逐次変化する。   When the simulation driving experiment is performed, the subject 42 sits in the driving seat of the driving simulator 41 as shown in FIG. Then, as a driver of the driving simulator 41, the subject 42 performs simulated driving by operating devices such as a steering wheel, an accelerator pedal, a brake pedal, and a shift operation lever while visually confirming the contents of the display 41a. The contents of the screen of the display 41a change sequentially according to the simulated driving operation of the subject 42.

学習処理に必要な実験データを取得するために、図4に示すように運転席の前方に配置された前方映像録画用カメラ43が、ディスプレイ41aの画面における前方映像を撮影する。また、運転席の前方に配置された運転手顔映像録画用カメラ(ステレオカメラ)44が運転席に着座している被験者42の顔およびその近傍を撮影する。また、被験者42の生体情報である心電図を取得するために、心電計45が被験者42に装着される。   In order to acquire experimental data necessary for the learning process, as shown in FIG. 4, a front video recording camera 43 arranged in front of the driver's seat captures a front video on the screen of the display 41a. A driver's face video recording camera (stereo camera) 44 arranged in front of the driver's seat photographs the face of the subject 42 sitting in the driver's seat and the vicinity thereof. In addition, an electrocardiograph 45 is attached to the subject 42 in order to acquire an electrocardiogram that is the biological information of the subject 42.

学習処理に必要な実験データは、図2に示した情報記録装置46が記録する。すなわち、前方映像録画用カメラ43の撮影により得られる前方の映像と、運転手顔映像録画用カメラ44の撮影により得られる被験者42の顔の映像と、心電計45が出力する心電図の情報とが1組の時系列データとして情報記録装置46に記録される。また、自車両の走行速度、前後方向加速度、横方向加速度等の情報をドライビングシミュレータ41から入力して情報記録装置46が記録する。情報記録装置46は、大量の情報の記録を可能にするためにハードディスクなどの記憶装置を搭載している。   The experimental data necessary for the learning process is recorded by the information recording device 46 shown in FIG. That is, the front image obtained by photographing with the front video recording camera 43, the face image of the subject 42 obtained by photographing with the driver face video recording camera 44, and the electrocardiogram information output from the electrocardiograph 45 Are recorded in the information recording device 46 as a set of time-series data. Information such as the traveling speed of the host vehicle, the longitudinal acceleration, and the lateral acceleration is input from the driving simulator 41 and recorded by the information recording device 46. The information recording device 46 is equipped with a storage device such as a hard disk in order to record a large amount of information.

重回帰分析を適用して学習処理を行うためには、情報記録装置46が記録した模擬運転の実験データの他に、重回帰分析の目的変数に相当する運転手の状態を表す正解値が必要になる。したがって、図2に示すように、情報記録装置46が記録した情報に基づいて各時点の正解値を正解値の特定処理47により特定する。   In order to perform the learning process by applying the multiple regression analysis, in addition to the simulated driving experiment data recorded by the information recording device 46, a correct answer value representing the driver's state corresponding to the objective variable of the multiple regression analysis is required. become. Therefore, as shown in FIG. 2, the correct value at each time point is specified by the correct value specifying process 47 based on the information recorded by the information recording device 46.

正解値の特定処理47については、ここでは熟練者が行う人間の作業として、運転手顔映像録画用カメラ44が撮影した顔の再生映像(表情や頭の動きなど)と、心電計45が出力する心電図とに基づいて感覚的に評価した結果を各時点の正解値として出力する場合を想定している。   As for the correct value specifying process 47, here, as a human task performed by a skilled person, a reproduction image of a face (facial expression, head movement, etc.) taken by the driver's face video recording camera 44, and an electrocardiograph 45 It is assumed that the result of sensory evaluation based on the output electrocardiogram is output as a correct value at each time point.

勿論、正解値の特定処理47を自動化し、人間の作業を不要にすることも可能である。例えば、画像認識技術により、再生映像における被験者42の顔の表情や頭の動きなどを自動認識したり、認識した状態と心電図の状態とを組み合わせて正解値の評価結果を自動的に出力することができる。   Of course, it is also possible to automate the correct value specifying process 47 and eliminate the need for human work. For example, by automatically recognizing the facial expression or head movement of the subject 42 in the reproduced video by using image recognition technology, or by combining the recognized state and the electrocardiogram state, the correct answer value evaluation result is automatically output. Can do.

正解値の特定処理47において正解値を評価する際には、例えば表1に示した評価指標を利用し、これに準じた評価を実施することが想定される。表1の評価指標は、「新エネルギー・産業技術総合開発機構(NEDO)」が提案しているものである。
When the correct value is evaluated in the correct value specifying process 47, for example, it is assumed that an evaluation index shown in Table 1 is used and an evaluation according to this is performed. The evaluation indices in Table 1 are proposed by the New Energy and Industrial Technology Development Organization (NEDO).

すなわち、表1に示した評価指標を利用する場合には、被験者42の顔の表情や頭の動きなどと、5段階の評定値とを対応付けることができる。したがって、情報記録装置46が記録した情報を再生しながら、各時点の被験者42の状態として、眠気レベルを5段階評価した場合の正解値を、表1の内容に基づき、人間、又は機械が正解値の特定処理47で特定することができる。   That is, when the evaluation index shown in Table 1 is used, the facial expression of the subject 42, the movement of the head, and the like can be associated with the five-level rating values. Therefore, while reproducing the information recorded by the information recording device 46, the correct value when the sleepiness level is evaluated in five levels as the state of the subject 42 at each time point is determined by the person or machine based on the contents of Table 1. It can be specified by the value specifying process 47.

<学習処理の説明>
図2に示した学習処理装置50は、学習処理に用いる入力データ48として、情報記録装置46が記録した模擬運転の記録情報と、正解値の特定処理47により得られた各時点の正解値とを組み合わせて学習処理を実施する。
<Description of learning process>
The learning processing device 50 shown in FIG. 2 includes, as input data 48 used in the learning processing, the simulated driving record information recorded by the information recording device 46 and the correct value at each time point obtained by the correct value specifying processing 47. The learning process is implemented by combining

学習処理装置50の実体は、パーソナルコンピュータのような一般的な計算機であって、重回帰分析等の特別な計算処理を含む学習処理を実行するために必要なアプリケーションソフトウェアを搭載している。   The entity of the learning processing device 50 is a general computer such as a personal computer, and is loaded with application software necessary for executing learning processing including special calculation processing such as multiple regression analysis.

学習処理装置50は、基本的には運転手の状態(この例では眠気レベル)を目的変数yとする重回帰式の説明変数の各項目の数、各項目の種類、各項目の係数を最適化するための学習を実施するものである。この場合の重回帰式が使用可能な説明変数は、車載機10内の評価値算出部17に入力される各運行情報D1−D9における各統計値Dxに相当する。したがって、学習処理装置50においても、重回帰式の説明変数の項目数は、初期状態では上記第(3)式に示した組み合わせ種類数の2080になる。   The learning processing device 50 basically optimizes the number of items, the type of each item, and the coefficient of each item in the multiple regression equation with the driver state (in this example, sleepiness level) as the objective variable y. To learn how to make it happen. The explanatory variables for which the multiple regression equation can be used in this case correspond to the statistical values Dx in the operation information D1-D9 input to the evaluation value calculation unit 17 in the in-vehicle device 10. Therefore, also in the learning processing apparatus 50, the number of explanatory variables in the multiple regression equation is 2080, which is the number of types of combinations shown in the above equation (3) in the initial state.

そして、学習処理装置50が学習処理を実施することにより、重回帰式の説明変数の項目数を減らし、説明変数の種類を最適化すると共に、適切な目的変数yを算出するために必要な各係数を項目毎に算出する。学習処理装置50が学習処理の結果として算出した学習処理後の各種係数52や、重回帰式の説明変数の項目数、各項目の種類などが車載機10の評価値算出部17に登録される。   The learning processing device 50 performs the learning process to reduce the number of items of the explanatory variable of the multiple regression equation, optimize the type of the explanatory variable, and calculate each appropriate objective variable y. A coefficient is calculated for each item. Various coefficients 52 after learning processing calculated by the learning processing device 50 as a result of the learning processing, the number of explanatory variables of the multiple regression equation, the type of each item, and the like are registered in the evaluation value calculation unit 17 of the in-vehicle device 10. .

<学習処理の具体的な手順>
学習処理装置50における学習処理の手順の具体例を図5に示す。図5に示した学習処理について以下に説明する。
<Specific procedure of learning process>
A specific example of the procedure of the learning process in the learning processing apparatus 50 is shown in FIG. The learning process shown in FIG. 5 will be described below.

ステップS11では、学習処理装置50が入力データ48の中から、利用可能なデータを順次に抽出する。すなわち、車載機10の運行データ検出機能15が検出する9種類の運行情報D1−D9の各々に相当するデータをここで抽出する。   In step S <b> 11, the learning processing device 50 sequentially extracts usable data from the input data 48. That is, data corresponding to each of the nine types of operation information D1-D9 detected by the operation data detection function 15 of the in-vehicle device 10 is extracted here.

ステップS12では、S11で抽出した運行情報D1−D9の各々のデータに基づき、学習処理装置50が各々の特徴量を算出する。つまり、車載機10の統計値算出部16の動作と同じように、7種類の統計値Dxを9種類の運行情報D1−D9の各々に対して算出し、これらを特徴量とする。実際には、上記第(3)式に示した組み合わせ種類数の2080と同じ数の特徴量が得られる。   In step S12, the learning processing device 50 calculates each feature amount based on each data of the operation information D1-D9 extracted in S11. That is, similar to the operation of the statistical value calculation unit 16 of the in-vehicle device 10, seven types of statistical values Dx are calculated for each of the nine types of operation information D1-D9, and these are used as feature amounts. Actually, the same number of feature quantities as the number of combination types 2080 shown in the above equation (3) can be obtained.

ステップS13では、正解値への推定値の追従性向上を目的として、学習処理装置50が主成分分析(PCA:principal component analysis)を実施する。この例では、累積寄与率を定数として設定し、主成分分析を実施する。主成分分析について以下に説明する。   In step S13, the learning processing device 50 performs principal component analysis (PCA) for the purpose of improving the followability of the estimated value to the correct value. In this example, the cumulative contribution rate is set as a constant, and the principal component analysis is performed. The principal component analysis will be described below.

例えば、ある車両を真上から視た場合には、車両の縦幅と横幅とが分かるが、高さは分からない。一方、この車両を正面から見た場合には、車両の横幅と高さとが分かるが、縦幅は分からない。また、この車両を真横から視た場合には、車両の縦幅と高さとが分かるが、横幅は分からない。そこで、この車両を斜め45度方向から視ると、検出精度は落ちるが車両の縦幅、横幅、高さの全てを総合的に検出できる状態になる。   For example, when a certain vehicle is viewed from directly above, the vertical width and the horizontal width of the vehicle are known, but the height is not known. On the other hand, when the vehicle is viewed from the front, the width and height of the vehicle are known, but the vertical width is unknown. Further, when the vehicle is viewed from the side, the vertical width and height of the vehicle are known, but the horizontal width is unknown. Therefore, when this vehicle is viewed from a 45 ° oblique direction, the detection accuracy is lowered, but all of the vehicle's vertical width, horizontal width, and height can be comprehensively detected.

真上、正面、真横のそれぞれの視点で特徴量を把握する代わりに、斜め方向のように1つの視点、つまり主成分から全ての特徴量を把握しようとするのが主成分分析の考え方である。   The principle of principal component analysis is to grasp all feature quantities from one viewpoint, that is, the principal components, instead of grasping the feature quantities from the viewpoints directly above, in front, and directly beside. .

一方、車載機10の評価値算出部17、および学習処理装置50に入力される2080種類の特徴量には、9種類の運行情報D1−D9の各々に関する7種類の統計値Dx、および1つのフィードバック信号Dfにより構成される64個の特徴量の2項目積の組み合わせの全てが含まれている。つまり、車両を斜め方向から視た場合と同じような、全ての主成分が2080種類の特徴量に既に含まれている。そこで、2080種類の特徴量の中から重要度の高い主成分だけを抽出することが、主成分分析を実施することを意味する。   On the other hand, the 2080 types of feature values input to the evaluation value calculation unit 17 and the learning processing device 50 of the in-vehicle device 10 include 7 types of statistical values Dx and 9 types of operation information D1-D9. All the combinations of the two item products of the 64 feature amounts constituted by the feedback signal Df are included. That is, all the main components are already included in the 2080 types of feature amounts, as in the case of viewing the vehicle from an oblique direction. Therefore, extracting only the principal components having high importance from the 2080 types of feature amounts means that the principal component analysis is performed.

例えば、次の第(4)式に示す行列式を計算することにより、p種類の特徴量C1〜Cpと各種重みWとに基づき、q種類(p>>q)の主成分f1〜fqを取り出すことができる。つまり、説明変数の次元数をpからqに圧縮することができる。   For example, by calculating a determinant represented by the following equation (4), q types (p >> q) of main components f1 to fq are obtained based on p types of feature amounts C1 to Cp and various weights W. It can be taken out. That is, the number of dimensions of the explanatory variable can be compressed from p to q.

ステップS14では、学習処理装置50は、重回帰式における目的変数yと各特徴量との相関係数の行列を取得する(R=corrcoef)。つまり、ステップS13で2080個からq個(例えば230個)まで削減されたq個の各特徴量と目的変数yとの各々の相関係数を表す行列を取得する。   In step S14, the learning processing device 50 acquires a matrix of correlation coefficients between the objective variable y and each feature quantity in the multiple regression equation (R = corrcoef). That is, in step S13, a matrix representing each correlation coefficient between q feature quantities reduced from 2080 to q (for example, 230) and the objective variable y is acquired.

そして、学習処理装置50は、特徴量毎の相関係数の集合(行列)の中で相関係数が所定の閾値(この例では0.1)以上のもののみをステップS15で抽出し、閾値未満の特徴量はステップS16で削除する。つまり、相関係数が閾値未満の特徴量は重回帰式の計算対象項目から除外する。   Then, the learning processing device 50 extracts only the correlation coefficient set (matrix) for each feature quantity having a correlation coefficient equal to or greater than a predetermined threshold (0.1 in this example) in step S15. Feature values less than are deleted in step S16. That is, feature quantities having a correlation coefficient less than the threshold value are excluded from items to be calculated by the multiple regression equation.

ステップS17では、学習処理装置50は、ステップS15で抽出した、特徴量毎の相関係数の集合(行列)の中で相関係数が所定の閾値以上の特徴量に対して、説明変数の選択方法として一般的なステップワイズ法を適用し、特徴を選択する。すなわち、重回帰分析の結果の自由度調整済R二乗値(決定係数)、F値と係数のp値(それぞれの説明変数の係数の有意確率)を見ながら、どの組み合わせが最も当てはまりが良いかを繰り返し処理によって探る。   In step S17, the learning processing device 50 selects an explanatory variable for the feature quantity having a correlation coefficient equal to or greater than a predetermined threshold in the set (matrix) of correlation coefficients for each feature quantity extracted in step S15. A general stepwise method is applied as a method to select a feature. That is, which combination is best applied while looking at the R-square value (decision coefficient) adjusted for the degree of freedom of the result of the multiple regression analysis, the F value and the p value of the coefficient (significance probability of the coefficient of each explanatory variable) Search through repeated processing.

ステップS18では、学習処理装置50はステップS17で選択した特徴を用いて重回帰分析を実行する。すなわち、重回帰式の目的変数yを、説明変数である各特徴量の組み合わせにより十分に説明できる状態になるように、各特徴量の組み合わせと各特徴量の係数とをそれぞれパラメータとして特定する。この時には、学習処理に用いる入力データ48として正解値も入力されるので、目的変数yの正解値と、各特徴量との関係が最適化されるように、各特徴量の種類の組み合わせと各組み合わせの係数とを決定することができる。   In step S18, the learning processing device 50 performs a multiple regression analysis using the feature selected in step S17. That is, the combination of each feature quantity and the coefficient of each feature quantity are specified as parameters so that the objective variable y of the multiple regression equation can be sufficiently explained by the combination of each feature quantity that is an explanatory variable. At this time, since the correct value is also input as the input data 48 used in the learning process, the combinations of the types of the feature amounts and the respective values are optimized so that the relationship between the correct value of the objective variable y and each feature amount is optimized. Combination coefficients can be determined.

ステップS18で得られるパラメータが図2に示した学習処理後の各種係数52であり、これが車載機10の評価値算出部17に登録される。その結果として、評価値算出部17は、例えば上記第(1)式のような重回帰式の計算を実行することになる。したがって、例えば前記表1の内容に相当する運転手の眠気レベルについて、図2の学習処理システム40で学習した結果のパラメータを車載機10に登録した場合には、車載機10の評価値算出部17および評価値判定部19は居眠り運転を防止するために役立つ判定動作を行うことになる。   The parameters obtained in step S18 are the various coefficients 52 after the learning process shown in FIG. 2 and are registered in the evaluation value calculation unit 17 of the in-vehicle device 10. As a result, the evaluation value calculation unit 17 executes the calculation of a multiple regression equation such as the above equation (1). Therefore, for example, when a parameter obtained as a result of learning by the learning processing system 40 of FIG. 2 is registered in the in-vehicle device 10 for the sleepiness level of the driver corresponding to the contents of Table 1, the evaluation value calculation unit of the in-vehicle device 10 17 and the evaluation value determination unit 19 perform a determination operation useful for preventing a drowsy driving.

<眠気レベルの具体例>
眠気レベルの時間推移に関する正解値61(図中、正解値61を明りょうに示すため、正解値61と横軸とに挟まれる領域にグラデーションを施している。)、重回帰式の推定値62(図中、折れ線グラフにて記載されている。)、および重回帰式の推定値を量子化した値63(図中、「+」形状のプロットにて記載されている。)の具体例を図6に示す。図6において、横軸は時間を表し、縦軸は眠気レベルを表す。すなわち、学習処理装置50が学習処理を実行する場合には、図6に示すように、学習処理の進行に伴って重回帰式の推定値(y)62と正解値61とのずれが小さくなり、重回帰式のパラメータが最適化されていくことが分かる。
<Specific examples of sleepiness levels>
Correct value 61 regarding the time transition of the drowsiness level (in the figure, the correct value 61 is clearly shown, a gradation is given to a region between the correct value 61 and the horizontal axis), an estimated value 62 of the multiple regression equation (Described in a line graph in the figure), and a specific example of a value 63 (denoted by a “+” shape plot in the figure) obtained by quantizing the estimated value of the multiple regression equation. As shown in FIG. In FIG. 6, the horizontal axis represents time, and the vertical axis represents sleepiness level. That is, when the learning processing device 50 executes the learning process, as shown in FIG. 6, the difference between the multiple regression equation estimated value (y) 62 and the correct answer value 61 becomes smaller as the learning process progresses. It can be seen that the parameters of the multiple regression equation are optimized.

<学習処理の手順の変形例>
学習処理システム40における学習処理の手順の変形例を図7に示す。図7の学習処理について以下に説明する。
<Modification of learning process procedure>
A modified example of the procedure of the learning process in the learning processing system 40 is shown in FIG. The learning process in FIG. 7 will be described below.

ステップS21では、学習処理装置50が入力データ48の中から、利用可能なデータを順次に抽出する。すなわち、車載機10の運行データ検出機能15が検出する9種類の運行情報D1−D9の各々に相当するデータをここで抽出する。   In step S <b> 21, the learning processing device 50 sequentially extracts usable data from the input data 48. That is, data corresponding to each of the nine types of operation information D1-D9 detected by the operation data detection function 15 of the in-vehicle device 10 is extracted here.

ステップS22では、S21で抽出した運行情報D1−D9の各々のデータに基づき、学習処理装置50が各々の特徴量を算出する。つまり、車載機10の統計値算出部16の動作と同じように、7種類の統計値Dxを9種類の運行情報D1−D9の各々に対して算出し、これらを特徴量とする。実際には、上記第(3)式に示した組み合わせ種類数の2080と同じ数の特徴量が得られる。   In step S22, the learning processing device 50 calculates each feature amount based on each data of the operation information D1-D9 extracted in S21. That is, similar to the operation of the statistical value calculation unit 16 of the in-vehicle device 10, seven types of statistical values Dx are calculated for each of the nine types of operation information D1-D9, and these are used as feature amounts. Actually, the same number of feature quantities as the number of combination types 2080 shown in the above equation (3) can be obtained.

ステップS23では、学習処理装置50は、重回帰式における目的変数yと各特徴量との相関係数の行列を取得する(R=corrcoef)。つまり、2080個の各特徴量と目的変数yとの各々の相関係数を表す行列を取得する。   In step S23, the learning processing device 50 acquires a matrix of correlation coefficients between the objective variable y and each feature quantity in the multiple regression equation (R = corrcoef). That is, a matrix representing each correlation coefficient between 2080 feature quantities and the objective variable y is acquired.

そして、学習処理装置50は、特徴量毎の相関係数の集合(行列)の中で相関係数が所定の閾値(この例では0.3)以上のもののみをステップS24で抽出し、閾値未満の特徴量はステップS25で削除する。つまり、相関係数が閾値未満の特徴量は重回帰式の計算対象項目から除外する。   Then, the learning processing device 50 extracts only the correlation coefficient set (matrix) for each feature quantity having a correlation coefficient equal to or greater than a predetermined threshold (0.3 in this example) in step S24. Feature values less than are deleted in step S25. That is, feature quantities having a correlation coefficient less than the threshold value are excluded from items to be calculated by the multiple regression equation.

ステップS26では、正解値への推定値の追従性向上を目的として、学習処理装置50が主成分分析(PCA:principal component analysis)を実施する。この例では、累積寄与率が定数として設定して、主成分分析を実施する。すなわち、ステップS24で抽出した特徴量の数を更に削減して利用価値の高い主成分のみを抽出する。   In step S <b> 26, the learning processing device 50 performs principal component analysis (PCA) for the purpose of improving the followability of the estimated value to the correct answer value. In this example, the principal component analysis is performed with the cumulative contribution rate set as a constant. That is, the number of feature quantities extracted in step S24 is further reduced to extract only the main components having high utility value.

ステップS27では、学習処理装置50は、説明変数の選択方法として一般的なステップワイズ法を適用し、特徴を選択する。すなわち、重回帰分析の結果の自由度調整済R二乗値(決定係数)、F値と係数のp値(それぞれの説明変数の係数の有意確率)を見ながら、どの組み合わせが最も当てはまりが良いかを繰り返し処理によって探る。   In step S27, the learning processing apparatus 50 selects a feature by applying a general stepwise method as an explanatory variable selection method. That is, which combination is best applied while looking at the R-square value (decision coefficient) adjusted for the degree of freedom of the result of the multiple regression analysis, the F value and the p value of the coefficient (significance probability of the coefficient of each explanatory variable) Search through repeated processing.

ステップS28では、学習処理装置50はステップS27で選択した特徴を用いて重回帰分析を実行する。すなわち、重回帰式の目的変数yを、説明変数である各特徴量の組み合わせにより十分に説明できる状態になるように、各特徴量の組み合わせと各特徴量の係数とをそれぞれパラメータとして特定する。この時には、学習処理に用いる入力データ48として正解値も入力されるので、目的変数yの正解値と、各特徴量との関係が最適化されるように、各特徴量の種類の組み合わせと各組み合わせの係数とを決定することができる。   In step S28, the learning processing device 50 performs a multiple regression analysis using the feature selected in step S27. That is, the combination of each feature quantity and the coefficient of each feature quantity are specified as parameters so that the objective variable y of the multiple regression equation can be sufficiently explained by the combination of each feature quantity that is an explanatory variable. At this time, since the correct value is also input as the input data 48 used in the learning process, the combinations of the types of the feature amounts and the respective values are optimized so that the relationship between the correct value of the objective variable y and each feature amount is optimized. Combination coefficients can be determined.

ステップS28で得られるパラメータが図2に示した学習処理後の各種係数52であり、これが車載機10の評価値算出部17に登録される。その結果として、評価値算出部17は、例えば前記第(1)式のような重回帰式の計算を実行することになる。したがって、例えば前記表1の内容に相当する運転手の眠気レベルについて、図2の学習処理システム40で学習した結果のパラメータを車載機10に登録した場合には、車載機10の評価値算出部17および評価値判定部19は居眠り運転を防止するために役立つ判定動作を行うことになる。   The parameters obtained in step S28 are the various coefficients 52 after the learning process shown in FIG. 2 and are registered in the evaluation value calculation unit 17 of the in-vehicle device 10. As a result, the evaluation value calculation unit 17 executes the calculation of a multiple regression equation such as the equation (1). Therefore, for example, when a parameter obtained as a result of learning by the learning processing system 40 of FIG. 2 is registered in the in-vehicle device 10 for the sleepiness level of the driver corresponding to the contents of Table 1, the evaluation value calculation unit of the in-vehicle device 10 17 and the evaluation value determination unit 19 perform a determination operation useful for preventing a drowsy driving.

<利点>
図1に示した車載機10は、複数種類の運行情報D1〜D9を利用し、更にこれらの各々の複数種類の統計値Dxの組み合わせを利用するので、眠気レベルのような運転手の状態を高精度で検出することができる。また、算出に利用する特徴量として複数項目の積を採用することにより、利用価値の高い主成分を抽出し、評価値の精度を高めることができる。また、過去に算出された評価値をフィードバック信号Dfとして重回帰式の入力にフィードバックすることにより、評価値の精度を高めることができる。また、学習されたパラメータに基づいて重回帰式の内容を決定することにより、評価値の精度を高めることができる。
<Advantages>
The vehicle-mounted device 10 shown in FIG. 1 uses a plurality of types of operation information D1 to D9, and further uses a combination of each of these types of statistics Dx, so that the driver's state such as sleepiness level can be determined. It can be detected with high accuracy. In addition, by adopting a product of a plurality of items as the feature quantity used for the calculation, it is possible to extract a principal component having a high utility value and improve the accuracy of the evaluation value. Moreover, the accuracy of the evaluation value can be improved by feeding back the evaluation value calculated in the past to the input of the multiple regression equation as the feedback signal Df. Further, the accuracy of the evaluation value can be increased by determining the content of the multiple regression equation based on the learned parameters.

また、図2に示した学習処理システム40において、学習処理装置50は、学習処理に用いる入力データ48に基づき図5または図7に示した手順の学習処理を実施することにより、車載機10が必要とする高精度のパラメータを自動的に算出できる。また、学習処理装置50は、重回帰式で計算する各特徴量、すなわち説明変数の項目数を削減できるので、車載機10における計算の負荷を削減することができる。   In the learning processing system 40 shown in FIG. 2, the learning processing device 50 performs the learning processing of the procedure shown in FIG. 5 or 7 based on the input data 48 used for the learning processing, so that the in-vehicle device 10 The required high-precision parameters can be calculated automatically. Moreover, since the learning processing apparatus 50 can reduce each feature-value computed by a multiple regression equation, ie, the number of items of an explanatory variable, it can reduce the calculation load in the vehicle equipment 10.

<変形の可能性>
上述の実施形態においては、車載機10及び学習処理装置50における重回帰式の目的変数(y)として、運転手の眠気レベルを想定しているが、目的変数(y)を変更して適切な学習を実施することにより、他の様々な用途にも適用できる。例えば、運転手の注意力が低下している状態、運転手の運動能力が低下している状態、危険性の高い運転を行っている状態などの検出に利用できる可能性がある。
<Possibility of deformation>
In the above-described embodiment, the sleepiness level of the driver is assumed as the objective variable (y) of the multiple regression equation in the in-vehicle device 10 and the learning processing device 50. However, the objective variable (y) is changed appropriately. By performing learning, it can be applied to various other purposes. For example, there is a possibility that it can be used to detect a state in which the driver's attention is reduced, a state in which the driver's athletic ability is reduced, or a state in which driving with high risk is performed.

ここで、上述した本発明に係る車載機、処理装置及びプログラムの実施形態の特徴をそれぞれ以下[1]〜[8]に簡潔に纏めて列記する。
[1] 情報の種類が互いに異なるL(Lは2以上の整数)種類の車両の運行情報(D1〜D9)が入力される入力部(評価値算出部17)と、
L種類の前記運行情報それぞれから取得される統計値(Dx)を特徴量として有する評価値(Dy)に応じて、運転手の状態を通知する出力部(音声出力部20)と、
を備えることを特徴とする車載機(10)。
[2] 前記統計値として、前記運行情報それぞれから取得されるM(Mは2以上の整数)種類の統計値(Dx)を有し、
前記評価値(Dy)は、L種類の前記運行情報毎に取得されたM種類の前記統計値(合計N=L×M個の統計値)の中から所定数P取り出したときの組合せ()の一部又は全てそれぞれにおいて、各組合せに用いられた前記統計値から算出される値を前記特徴量として有する(第(1)式参照)、
ことを特徴とする上記[1]に記載の車載機。
[3] 前記特徴量は、各組合せに用いられた前記統計値の積から算出される値である(第(1)式参照)
ことを特徴とする上記[2]に記載の車載機。
[4] 前記統計値は、N個の前記統計値に加え、さらに、過去の少なくとも一時点における評価値(フィードバック信号Df)を有し、
前記評価値は、(N+1)個の前記統計値の中から所定数P取り出したときの組合せ(N+1)毎に、各組合せに用いられた前記統計値から算出される値を前記特徴量として有する(第(1)式参照)、
ことを特徴とする上記[3]に記載の車載機。
[5] 前記評価値(Dy)は、複数の前記特徴量を重回帰式に代入した数値である、
ことを特徴とする上記[1]乃至[4]のいずれかに記載の車載機。
[6] 各種情報が入力される入力部(学習処理に用いる入力データ48)と、
前記入力部から入力された情報を基にデータ処理を行うデータ処理部(学習処理装置50)と、
を備え、
前記入力部は、情報の種類が互いに異なるL(Lは2以上の整数)種類の車両の運行情報と、前記運行情報が取得された際に評価された運転手の状態と、が入力され、
前記データ処理部は、
L種類の前記運行情報毎に取得されたM種類の統計値(合計N=L×M個の統計値:Dx)の中から所定数P取り出したときの組合せ()の一部又は全てそれぞれにおいて、各組合せに用いられた前記統計値から算出される値を特徴量として算出し(S12,S22)、
さらに、前記運転手の状態を目的変数として重回帰分析を行い、前記特徴量に対して乗算する係数を当該特徴量毎に算出する(S18,S28)
ことを特徴とする処理装置。
[7] 前記データ処理部は、さらに、前記特徴量に対して主成分分析を行い(S13,S26)、前記目的変数に対する相関が相対的に高い特徴量を前記重回帰分析の対象とする、
ことを特徴とする上記[6]に記載の処理装置。
[8] コンピュータに、上記[6]又は[7]に記載の前記入力部及び前記データ処理部の機能を実現させるためのプログラム。
Here, the features of the above-described embodiments of the in-vehicle device, the processing device, and the program according to the present invention are briefly summarized and listed in the following [1] to [8], respectively.
[1] An input unit (evaluation value calculation unit 17) to which operation information (D1 to D9) of L types (L is an integer of 2 or more) of different types of information is input;
According to an evaluation value (Dy) having a statistical value (Dx) acquired from each of the L types of operation information as a feature value, an output unit (speech output unit 20) for notifying a driver's state;
A vehicle-mounted device (10) comprising:
[2] As the statistical value, there are M (M is an integer of 2 or more) types of statistical values (Dx) acquired from each of the operation information,
The evaluation value (Dy) is a combination when a predetermined number P is extracted from the M types of statistical values (total N = L × M statistical values) acquired for each of the L types of operation information ( N In part or all of C P ), a value calculated from the statistical value used for each combination is included as the feature amount (see Equation (1)).
The in-vehicle device according to [1] above, wherein
[3] The feature amount is a value calculated from a product of the statistical values used for each combination (see Formula (1)).
The in-vehicle device according to [2] above, wherein
[4] In addition to the N statistical values, the statistical value further includes an evaluation value (feedback signal Df) at least in the past.
The evaluation value is a value calculated from the statistical value used for each combination for each combination ( N + 1 C P ) when a predetermined number P is extracted from the ( N + 1 ) statistical values. As a feature quantity (see equation (1)),
The in-vehicle device according to [3] above, wherein
[5] The evaluation value (Dy) is a numerical value obtained by substituting a plurality of the feature quantities into a multiple regression equation.
The in-vehicle device according to any one of the above [1] to [4].
[6] An input unit (input data 48 used for learning processing) to which various information is input;
A data processing unit (learning processing device 50) that performs data processing based on information input from the input unit;
With
The input unit is input with operation information of L (L is an integer of 2 or more) types of vehicles having different types of information, and a driver's state evaluated when the operation information is acquired,
The data processing unit
L type of the operation information has been M types of statistics acquired for each (a total of N = L × M pieces of statistics: Dx) combinations when taking out a predetermined number P out of the (N C P) of the part or In each case, a value calculated from the statistical value used for each combination is calculated as a feature amount (S12, S22),
Further, a multiple regression analysis is performed using the driver's state as an objective variable, and a coefficient for multiplying the feature quantity is calculated for each feature quantity (S18, S28).
The processing apparatus characterized by the above-mentioned.
[7] The data processing unit further performs principal component analysis on the feature amount (S13, S26), and sets a feature amount having a relatively high correlation with the objective variable as a target of the multiple regression analysis.
The processing apparatus according to [6] above, wherein
[8] A program for causing a computer to realize the functions of the input unit and the data processing unit according to [6] or [7].

10 車載機
11 車速検出機能
12 加速度センサ
13 画像認識エンジン
14 ドライブレコーダ機能
15 運行データ検出機能
16 統計値算出部
17 評価値算出部
18 フィードバック処理部
19 評価値判定部
20 音声出力部
21 広域無線通信アダプタ
22 アンテナ
30 車載カメラ
40 学習処理システム
41 ドライビングシミュレータ
42 被験者
43 前方映像録画用カメラ
44 運転手顔映像録画用カメラ
45 心電計
46 情報記録装置
47 正解値の特定処理
48 学習処理に用いる入力データ
50 学習処理装置
51 学習処理前の各種係数
52 学習処理後の各種係数
61 眠気レベルの時間推移に関する正解値、
62 重回帰式の推定値
63 重回帰式の推定値を量子化した値
D1,D2,D3,D4,D5,D6,D7,D8,D9 運行情報
Df フィードバック信号
Dx 統計値
Dy 評価値
DESCRIPTION OF SYMBOLS 10 Onboard equipment 11 Vehicle speed detection function 12 Acceleration sensor 13 Image recognition engine 14 Drive recorder function 15 Operation data detection function 16 Statistical value calculation part 17 Evaluation value calculation part 18 Feedback processing part 19 Evaluation value determination part 20 Voice output part 21 Wide area wireless communication Adapter 22 Antenna 30 Vehicle-mounted camera 40 Learning processing system 41 Driving simulator 42 Subject 43 Front video recording camera 44 Driver face video recording camera 45 Electrocardiograph 46 Information recording device 47 Correct value identification processing 48 Input data used for learning processing 50 learning processing device 51 various coefficients before learning processing 52 various coefficients after learning processing 61 correct value regarding time transition of sleepiness level,
62 Estimated value of multiple regression equation 63 Quantized estimated value of multiple regression equation D1, D2, D3, D4, D5, D6, D7, D8, D9 Operation information Df Feedback signal Dx Statistical value Dy Evaluation value

Claims (8)

情報の種類が互いに異なるL(Lは2以上の整数)種類の車両の運行情報が入力される入力部と、
L種類の前記運行情報それぞれから取得される統計値を特徴量として有する評価値に応じて、運転手の状態を通知する出力部と、
を備えることを特徴とする車載機。
An input unit for inputting operation information of L types of vehicles having different types of information (L is an integer of 2 or more);
An output unit for notifying a driver's state according to an evaluation value having a statistical value acquired from each of the L types of operation information as a feature value;
An in-vehicle device comprising:
前記統計値として、前記運行情報それぞれから取得されるM(Mは2以上の整数)種類の統計値を有し、
前記評価値は、L種類の前記運行情報毎に取得されたM種類の前記統計値(合計N=L×M個の統計値)の中から所定数P取り出したときの組合せ()の一部又は全てそれぞれにおいて、各組合せに用いられた前記統計値から算出される値を前記特徴量として有する、
ことを特徴とする請求項1に記載の車載機。
As the statistical value, M (M is an integer of 2 or more) types of statistical values acquired from each of the operation information,
The evaluation value is a combination ( N CP ) when a predetermined number P is extracted from the M types of statistical values (total N = L × M statistical values) acquired for each of the L types of operation information. In part or all of the above, the characteristic amount includes a value calculated from the statistical value used for each combination.
The in-vehicle device according to claim 1.
前記特徴量は、各組合せに用いられた前記統計値の積から算出される値である
ことを特徴とする請求項2に記載の車載機。
The in-vehicle device according to claim 2, wherein the feature amount is a value calculated from a product of the statistical values used for each combination.
前記統計値は、N個の前記統計値に加え、さらに、過去の少なくとも一時点における評価値を有し、
前記評価値は、(N+1)個の前記統計値の中から所定数P取り出したときの組合せ(N+1)毎に、各組合せに用いられた前記統計値から算出される値を前記特徴量として有する、
ことを特徴とする請求項3に記載の車載機。
The statistical value has an evaluation value at least at a point in the past in addition to the N statistical values,
The evaluation value is a value calculated from the statistical value used for each combination for each combination ( N + 1 C P ) when a predetermined number P is extracted from the ( N + 1 ) statistical values. As a feature quantity,
The in-vehicle device according to claim 3.
前記評価値は、複数の前記特徴量を重回帰式に代入した数値である、
ことを特徴とする請求項1乃至請求項4のいずれか1項に記載の車載機。
The evaluation value is a numerical value obtained by substituting a plurality of feature quantities into a multiple regression equation.
The in-vehicle device according to any one of claims 1 to 4, wherein the in-vehicle device is characterized.
各種情報が入力される入力部と、
前記入力部から入力された情報を基にデータ処理を行うデータ処理部と、
を備え、
前記入力部は、情報の種類が互いに異なるL(Lは2以上の整数)種類の車両の運行情報と、前記運行情報が取得された際に評価された運転手の状態と、が入力され、
前記データ処理部は、
L種類の前記運行情報毎に取得されたM種類の統計値(合計N=L×M個の統計値)の中から所定数P取り出したときの組合せ()の一部又は全てそれぞれにおいて、各組合せに用いられた前記統計値から算出される値を特徴量として算出し、
さらに、前記運転手の状態を目的変数として重回帰分析を行い、前記特徴量に対して乗算する係数を当該特徴量毎に算出する
ことを特徴とする処理装置。
An input unit for inputting various information;
A data processing unit that performs data processing based on information input from the input unit;
With
The input unit is input with operation information of L (L is an integer of 2 or more) types of vehicles having different types of information, and a driver's state evaluated when the operation information is acquired,
The data processing unit
Part or all of combinations ( N CP ) when a predetermined number P is extracted from M types of statistical values (total N = L × M statistical values) acquired for each of the L types of operation information. In the above, a value calculated from the statistical value used for each combination is calculated as a feature amount,
Further, a processing apparatus is characterized in that a multiple regression analysis is performed using the driver's state as an objective variable, and a coefficient for multiplying the feature quantity is calculated for each feature quantity.
前記データ処理部は、さらに、前記特徴量に対して主成分分析を行い、前記目的変数に対する相関が相対的に高い特徴量を前記重回帰分析の対象とする、
ことを特徴とする請求項6に記載の処理装置。
The data processing unit further performs principal component analysis on the feature quantity, and sets a feature quantity having a relatively high correlation with the objective variable as a target of the multiple regression analysis.
The processing apparatus according to claim 6.
コンピュータに、請求項6又は7に記載の前記入力部及び前記データ処理部の機能を実現させるためのプログラム。   A program for causing a computer to realize the functions of the input unit and the data processing unit according to claim 6 or 7.
JP2017133801A 2017-07-07 2017-07-07 On-board equipment, processing equipment and programs Active JP6947556B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017133801A JP6947556B2 (en) 2017-07-07 2017-07-07 On-board equipment, processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017133801A JP6947556B2 (en) 2017-07-07 2017-07-07 On-board equipment, processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2019016213A true JP2019016213A (en) 2019-01-31
JP6947556B2 JP6947556B2 (en) 2021-10-13

Family

ID=65359047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017133801A Active JP6947556B2 (en) 2017-07-07 2017-07-07 On-board equipment, processing equipment and programs

Country Status (1)

Country Link
JP (1) JP6947556B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026553A1 (en) * 2021-08-23 2023-03-02 株式会社J-QuAD DYNAMICS Traffic flow simulation system and traffic flow simulation method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003789A (en) * 2006-06-21 2008-01-10 Toyota Motor Corp Driver state determination device
JP2015143936A (en) * 2014-01-31 2015-08-06 三菱電機株式会社 Vehicle driving support device, server, vehicle driving support system and vehicle driving support program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003789A (en) * 2006-06-21 2008-01-10 Toyota Motor Corp Driver state determination device
JP2015143936A (en) * 2014-01-31 2015-08-06 三菱電機株式会社 Vehicle driving support device, server, vehicle driving support system and vehicle driving support program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026553A1 (en) * 2021-08-23 2023-03-02 株式会社J-QuAD DYNAMICS Traffic flow simulation system and traffic flow simulation method

Also Published As

Publication number Publication date
JP6947556B2 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
US10485468B2 (en) System and method for assessing arousal level of driver of vehicle that can select manual driving mode or automated driving mode
Omidyeganeh et al. Intelligent driver drowsiness detection through fusion of yawning and eye closure
EP3588372B1 (en) Controlling an autonomous vehicle based on passenger behavior
JP6972629B2 (en) Information processing equipment, information processing methods, and programs
KR102053794B1 (en) Apparatus and method for delivering driver&#39;s movement intention based on bio-signals
CN107428245B (en) Device and method for predicting the level of alertness of a driver of a motor vehicle
Ding et al. Estimation of driver's posture using pressure distribution sensors in driving simulator and on-road experiment
Alam et al. Active vision-based attention monitoring system for non-distracted driving
Guria et al. Iot-enabled driver drowsiness detection using machine learning
JP6947556B2 (en) On-board equipment, processing equipment and programs
JP2022051216A (en) Safe operation support method, safe operation support system and safe operation support sever
Vasudevan et al. Driver feedback system with white line fever detection
JP2019122459A (en) Detection device and program
WO2021095153A1 (en) Driver anomaly response system, driver anomaly response method, and program
US10945651B2 (en) Arousal level determination device
JP2021105958A (en) Driver state estimation device and driver state estimation method
US11961395B2 (en) Driving assistance device, driving assistance method, and storage medium in which program is stored
JP2021037033A (en) Driver state estimation method and system
JP2022120346A (en) Driver state estimating device
JP7466433B2 (en) Driving data recording device, driving assistance system, driving data recording method, and program
JP7295790B2 (en) In-vehicle device, processing device and program
Vishnu et al. Driver Fatigue Detection and Visual Awareness Application
KR102476829B1 (en) Method for detecting drowsiness using deep learning and system for preventing drowsy driving using thereof
WO2022230629A1 (en) Electronic device, control method for electronic device, and program
JP2022120347A (en) Driver state estimating device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210916

R150 Certificate of patent or registration of utility model

Ref document number: 6947556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350