JP2021092962A - 車載機、処理装置及びプログラム - Google Patents

車載機、処理装置及びプログラム Download PDF

Info

Publication number
JP2021092962A
JP2021092962A JP2019223066A JP2019223066A JP2021092962A JP 2021092962 A JP2021092962 A JP 2021092962A JP 2019223066 A JP2019223066 A JP 2019223066A JP 2019223066 A JP2019223066 A JP 2019223066A JP 2021092962 A JP2021092962 A JP 2021092962A
Authority
JP
Japan
Prior art keywords
evaluation value
calculation unit
vehicle
feature amount
vehicle device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019223066A
Other languages
English (en)
Other versions
JP7295790B2 (ja
Inventor
佑季 鈴木
Yuki Suzuki
佑季 鈴木
啓之 大石
Hiroyuki Oishi
啓之 大石
裕一 小林
Yuichi Kobayashi
裕一 小林
宏次 小栗
Koji Oguri
宏次 小栗
治樹 河中
Haruki Kawanaka
治樹 河中
みくに 本井
Mikuni Motoi
みくに 本井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Energy System Corp
Original Assignee
Yazaki Energy System Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Energy System Corp filed Critical Yazaki Energy System Corp
Priority to JP2019223066A priority Critical patent/JP7295790B2/ja
Publication of JP2021092962A publication Critical patent/JP2021092962A/ja
Application granted granted Critical
Publication of JP7295790B2 publication Critical patent/JP7295790B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】運行情報の時系列データに基づいて評価値を求めることができ、精度よく運転者の状態を示す評価値を求めることができる車載機、処理装置及びプログラムを提供する。【解決手段】特徴量算出部15が、車両の運行情報D1、D2から複数種類の特徴量xを算出する。評価値算出部17は、複数種類の特徴量xを入力、車両の運転者の状態を表す評価値Dyを出力、として機械学習されている。評価値算出部17は、複数種類の特徴量xが入力され、複数種類の特徴量それぞれに対応する出力を出力するLSTM層17Aと、LSTM層17Aからの複数の出力を結合する結合層17Bと、結合層17Bからの出力が入力されるLSTM層17Cと、を有する。【選択図】図5

Description

本発明は、車載機、処理装置及びプログラムに関し、特に車両を運転する運転者の状態を検知するための技術に関する。
様々な車両において、安全な運転状態を維持するためには、運転者が正常な運転状態であることが不可欠である。例えば、睡眠不足の状態の運転者が車両を運転している時には居眠り運転を行う可能性があり、交通事故に繋がる危険性が高い。また、何らかの病気の発症により運転者が突然意識を失い、運転不可能な状況に陥る可能性も考えられる。また、運転者自体が身体的には問題が発生していない場合であっても、例えばわき見運転を継続的に行った場合には交通事故に繋がる危険性が高くなる。
そこで、特許文献1に記載された車載機は、運行情報から求めた複数種類の統計値(特徴量)を説明変数として、重回帰式に代入して目的変数である運転者の状態を示す評価値を求めている。
特開2019−16213号公報
しかしながら、上述した特許文献1に記載された車載機では、精度よく運転者の状態を示す評価値を求めることができない、という問題があった。
本発明は、上述した事情に鑑みてなされたものであり、その目的は、運行情報に基づいて運転者の状態を示す評価値を精度よく求めることができる車載機、処理装置及びプログラムを提供することにある。
前述した目的を達成するために、本発明に係る車載機、処理装置及びプログラムは、下記[1]〜[8]を特徴としている。
[1]
車両の運行情報を取得する取得部と、
前記運行情報から複数種類の特徴量を算出する特徴量算出部と、
複数種類の前記特徴量を入力、前記車両の運転者の状態を表す評価値を出力、として機械学習された評価値算出部と、
前記評価値に応じて、前記運転者の状態を通知する出力部と、を備え、
前記評価値算出部は、
複数種類の前記特徴量が入力され、複数種類の前記特徴量それぞれに対応する出力を出力する第1再帰型ニューラルネットワークと、
前記第1再帰型ニューラルネットワークからの複数の出力を結合する結合層と、
前記結合層からの出力が入力される第2再帰型ニューラルネットワークと、を有する、
車載機であること。
[2]
[1]に記載の車載機において、
前記第1再帰型ニューラルネットワーク及び前記第2再帰型ニューラルネットワークは
各々、LSTM(Long short-term memory)層から構成されている、
車載機であること。
[3]
[1]又は[2]に記載の車載機において、
所定期間内に算出された前記特徴量を時系列特徴量として抽出する時系列特徴量抽出部をさらに備え、
前記評価値算出部は、前記時系列特徴量を入力とする、
車載機であること。
[4]
[1]〜[3]の何れか1項に記載の車載機において、
前記運行情報は、前記車両の基準位置から左車線まで左位置ベクトルと、前記車両の前記基準位置から右車線までの右位置ベクトルと、から構成されている、
車載機であること。
[5]
[4]に記載の車載機において、
前記左位置ベクトル及び前記右位置ベクトルから求められる道路幅の変化量に基づいて、前記左位置ベクトル及び前記右位置ベクトルの時系列データから検出精度が低い区間を判定して、除去するデータスクリーニング部を備えた、
車載機であること。
[6]
[1]〜[5]何れか1項に記載の車載機において、
前記特徴量算出部は、前記運行情報と、運転開始から一定期間内に取得した初期運行情報と、の双方に基づいて前記特徴量を算出する、
車載機であること。
[7]
車両の運行情報を取得する取得部と、
前記運行情報から複数の特徴量を算出する特徴量算出部と、
複数種類の前記特徴量を入力、前記車両の運転者の状態を表す評価値を出力、として機械学習された評価値算出部と、を備え、
前記評価値算出部は、
複数種類の前記特徴量が入力され、複数種類の前記特徴量それぞれに対応する出力を出力する第1再帰型ニューラルネットワークと、
前記第1再帰型ニューラルネットワークからの複数の出力を結合する結合層と、
前記結合層からの出力が入力される第2再帰型ニューラルネットワークと、を有する、
処理装置であること。
[8]
コンピュータに、[7]に記載の前記取得部、前記特徴量算出部及び前記評価値算出部の機能を実現させるためのプログラムであること。
上記[1]、[7]及び[8]の構成の車載機、処理装置及びプログラムによれば、評価値算出部が、2つの第1、第2再帰型ニューラルネットワークで構成されている。これにより、運行情報の時系列データに基づいて評価値を求めることができ、精度よく運転者の状態を示す評価値を求めることができる。
上記[2]の構成の車載機によれば、第1、第2再帰型ニューラルネットワークが、LSTM層から構成されている。これにより、長期的に保持された特徴量の時系列データに基づいて評価値を求めることができ、より一層精度よく運転者の状態を示す評価値を求めることができる。
上記[3]の構成の車載機によれば、評価値算出部に時系列特徴量が入力される。これ
により、より一層精度よく運転者の状態を示す評価値を求めることができる。
上記[4]の構成の車載機によれば、運転者の状態に対する依存度が高い左位置ベクトルと、右位置ベクトルと、に基づいて評価値を求めることにより、より一層精度よく運転者の状態を示す評価値を求めることができる。
上記[5]の構成の車載機によれば、データスクリーニング部が、左位置ベクトル及び右位置ベクトルの時系列データから検出精度が低い区間を判定して、除去する。これにより、より一層精度よく運転者の状態を示す評価値を求めることができる。
上記[6]の構成の車載機によれば、特徴量算出部は、運行情報と、初期運行情報と、の双方に基づいて特徴量を算出する。これにより、特徴量の個人差がなくなり、より一層精度よく運転者の状態を示す評価値を求めることができる。
本発明によれば、運行情報の時系列データに基づいて評価値を求めることができ、精度よく運転者の状態を示す評価値を求めることができる車載機、処理装置及びプログラムを提供することができる。
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。
図1は、本発明の実施形態における車載機の構成例を示すブロック図である。 図2は、図1に示す運行データ検出機能が検出する位置ベクトルについて説明するための説明図である。 図3は、運転者A〜Cの位置ベクトルのヒストグラムである。 図4は、運転者D、Eの位置ベクトルのヒストグラムである。 図5は、図1に示す評価値算出部の詳細を示すブロック図である。 図6は、学習処理システムの構成例を示すブロック図である。 図7は、ドライビングシミュレータとそれに付随する装置の位置関係を示す側面図である。 図8は、学習時に用いられる評価値算出部の詳細を示すブロック図である。 図9は、本発明品、比較例1、比較例2における眠気レベルに対するMEAを示すグラフである。
本発明の車載機および処理装置に関する具体的な実施の形態について、各図を参照しながら以下に説明する。
<実施形態の車載機10の説明>
本発明の実施形態における車載機10の構成例を図1に示す。図1に示した車載機10は、例えばタクシー、トラック、バスのような業務用車両など様々な車両に搭載した状態で使用され、運転手の状態を自動検出するために利用される。検出対象の代表的な状態として、ここでは運転手の居眠りの状態を想定している。しかし、この車載機10は居眠りに限らず、様々な状態の検知に利用できる。
図1に示した車載機10は、ドライブレコーダであり、運転手の居眠り運転を検知して
危険を報知するための機能が追加されている。しかし、本発明の車載機はドライブレコーダに限らず、様々な種類の車載機に本発明の機能を搭載できる。
<構成の説明>
図1に示した車載機10の入力には、車載カメラ30が接続されている。この車載カメラ30は、例えば自動車の前方の窓付近に固定され、自動車の進行方向前方の路面や風景などの状況を撮影できる方向に向けられている。なお、複数台の車載カメラ30を必要に応じて用いることができる。車載カメラ30の撮影内容を表す撮影信号SG1が車載機10に入力される。
また、実際の車両において、映像信号SG1以外の様々な信号を外部から車載機10に入力することが可能であるが、運転手の居眠りを検出する用途だけであれば、他の信号を入力する必要はない。
図1に示したように、車載機10の内部には、画像認識エンジン11、ドライブレコーダ機能12、取得部としての運行データ検出機能13、データスクリーニング部14、特徴量算出部15、時系列特徴量抽出部16、評価値算出部17、評価値判定部18、出力部としての音声出力部19、および広域無線通信アダプタ20が備わっている。また、広域無線通信アダプタ20にアンテナ21が接続されている。
なお、図1に示した車載機10の内部の主要な構成要素の実体は、マイクロコンピュータを主体とする電気回路のハードウェアと、このマイクロコンピュータが実行するプログラムおよびデータとで構成されるソフトウェアからなる。また、必要に応じて、画像処理専用のプロセッサや、数値演算用のプロセッサなどが車載機10に内蔵される場合もある。
画像認識エンジン11は、入力される映像信号SG1を各フレームの画像に対して、リアルタイムで認識処理を実行し、様々な特徴量を検出する。本実施形態では、画像中に路面に標示されている各白線(レーンの境界の区切り位置)の位置、自車両の位置などを自動的に認識することができる。
ドライブレコーダ機能12は、一般的なドライブレコーダと同様の機能を実現する。すなわち、入力される映像信号SG1の情報を取得して記録する。大量の情報を記録できるように、例えば不揮発性メモリにより構成されるメモリカードのような記憶装置がドライブレコーダ機能12に備わっている。
運行データ検出機能13は、画像認識結果の信号SG2に基づいて、運転者の状態を検出するために必要とされる運行情報D1、D2を検出する。なお、運行情報D1、D2の種類数を必要に応じて増減することも可能である。この運行情報D1、D2については後で詳細に説明する。
データスクリーニング部14は、画像認識結果の信号SG2に基づいて、運行情報D1、D2の時系列データから検出精度が低いものを除去する。
特徴量算出部15は、運行データ検出機能13から出力される2種類の運行情報D1、D2のそれぞれについて、統計処理を施して各々の特徴量xを算出する。なお、特徴量xの種類数を必要に応じて増減することも可能である。この特徴量xについては後で詳細に説明する。
時系列特徴量抽出部16は、サンプリング間隔k毎に算出される上記特徴量xから所定
期間Ls内に算出された特徴量xを時系列特徴量xとして抽出する。時刻tにおける特徴量x={x (1),x (2),…,x (n)}とするとき、時刻tのときの時系列特徴量をx (1)={xt−Ls+k (1),xt−Ls+2k (1),…,x (1)}、x(2)={xt−Ls+k (2),xt−Ls+2k (2),…,x (2)}、…、x(n)={xt−Ls+k (n),xt−Ls+2k (n),…,x (n)}として抽出する。
評価値算出部17は、時系列特徴量抽出部16により抽出された上記時系列特徴量xを入力、評価値Dyを出力、として機械学習された再帰型ニューラルネットワーク(RNN)から構成されている。この評価値算出部17については後で詳細に説明する。
評価値判定部18は、評価値算出部17が出力する評価値Dyに基づいて運転者の眠気レベルを判定する。例えば、眠気レベルが非常に高いと評価値判定部18が判定した場合には、居眠り運転の発生を回避するために必要な報知信号SG4を出力する。
音声出力部19は、報知信号SG4に従って、居眠り運転の発生を回避するために役立つ音声出力を実行する。例えば、運転手に聞こえるように「危険です、停車して休憩して下さい」のような音声を出力する。
広域無線通信アダプタ20は、アンテナ21を用いて、遠隔地のコンピュータとの間でデータ通信するための無線通信機能を提供する。例えば、ドライブレコーダ機能12が記録する映像信号SG1や、報知信号SG4を、必要に応じて、遠隔地のサーバや当該車両を管理している期限の事務所PCなどに対して送信することができる。
<動作の説明>
<運行データ検出機能13の動作>
図1に示した運行データ検出機能13は、以下に示す2種類の運行情報D1、D2をそれぞれ検出する。
D1:自車両左端を基準とした左車線への左位置ベクトルpl(図2参照)
D2:自動車右端を基準として右車線への右位置ベクトルpr(図2参照)
<データスクリーニング部14の動作>
上述した位置ベクトルpl、prは、車載カメラ10により10Hzで撮影される白線の途切れや、複数の白線の合流、白線以外の部分(縁石、隣接車線を走行する車両のバンパーなど)の誤検出により、精度が低くなることがある。データスクリーニング部14は、位置ベクトル(運行情報D1、D2)の時系列データから白線検出の精度が低い区域を除去する。
車両が同一車線内を走行しているとすると、時刻tにおける左位置ベクトルpl(t)および右位置ベクトルpr(t)の大きさは相対的な増減をする。このため、下記の式(1)で示す時刻tにおける道路幅U(t)は理想的には一定値を取るはずである。
U(t)=|pl(t)−pr(t)|+d …(1)
d:車幅
しかし、実際には、U(t)の単位時間あたりの変化量ΔU(t)は様々な値をとり、ΔU(t)が極端に大きくなる部分の位置ベクトルpl(t)、pr(t)は、信頼性が低いと言える。そこで、データスクリーニング部14は、変化量ΔU(t)を演算し、|ΔU(t)|≧αとなるような信頼性が低い時刻tの前10秒から後10秒のpl(t−10秒)〜pl(t)〜pl(t+10秒)、pr(t−10秒)〜pr(t)〜pr(
t+10秒)を除去する。ただし、上記αは、蓄積したドライブレコーダのデータから経験的に決定する。
<特徴量算出部15の動作>
発明者らは、運転者の眠気が車両制御の変化に表れる(例えば眠気時に車両が少し偏って走行する)、との仮説をもとに、運転者A〜Eにドライビングシミュレータを模擬運転させた。そして、本発明者らは、運転者A〜Eの眠気レベルがレベル1〜2の時と、眠気レベルが3〜4の時と、それぞれ位置ベクトルplを測定した。結果を図3及び図4に示す。なお、眠気レベルについては、表1に示すように運転者の表情から判定している。
Figure 2021092962
図3及び図4は、横軸が位置ベクトルpl、縦軸が頻度を示すヒストグラムである。同図からも明らかなように、眠気レベルがレベル1〜2の時と、眠気レベルがレベル3〜4の時と、では分布の形が異なることがわかった。
そこで、特徴量算出部15は、位置ベクトルpl、prのヒストグラムの形状変化特徴量化した特徴量xを算出する。
まず、特徴量xとして、位置ベクトルpの1σ、−1σを用いることについて考えてみる。今、時刻tsから時刻teまでの位置ベクトルpの1σ、−1σの値は、Pσ(ts、te)、Nσ(ts、te)として下記の式(2)および(3)により求めることができる。
Pσ(ts、te)=m(ts、te)+σ(ts、te) …(2)
Nσ(ts、te)=m(ts、te)−σ(ts、te) …(3)
m(ts、te):位置ベクトルの平均、σ(ts、te):位置ベクトルの標準偏差
しかしながら、図3及び図4からも明らかなように、位置ベクトルpのヒストグラムは、車種や運転者の個性の違いにより、分布が異なり、Pσ(ts、te)、Nσ(ts、te)に影響を及ぼすことが分かる。
そこで、本実施形態では、特徴量算出部15は、走行開始数分における初期位置ベクトルpの初期1σ、−1σに対する変化量であるP、Nを特徴量xとして算出する。今、tωをスクリーニング済みのデータがW秒たまった時刻とするとき、時刻tにおけるP(t
)、N(t)は、下記の式(4)、式(5)で表すことができる。
Figure 2021092962
また、特徴量算出部15は、P、Nの変化量Dを特徴量xとして算出すると共に、P、N間の距離Sを特徴量xとして算出する。位置ベクトルprに対応するDr、位置ベクトルplに対応するDlは、下記の式(6)、(7)で表すことができる。時刻tにおけるS(t)は、下記の式(8)で表すことができる。
Dr=P(t)−P(t−tω) …(6)
Dl=N(t)−N(t−tω) …(7)
S(t)=P(t)−N(t) if t>tω …(8)
また、特徴量算出部15は、距離Sの絶対値Aを特徴量xとして算出する。時刻tにおけるA(t)は、下記の式(9)で表すことができる。
A(t)=|P(t)−N(t)| if t>tω …(9)
特徴量算出部15は、位置ベクトルpr、plそれぞれについてP、N、D、S、Aを算出する。
また、特徴量算出部15は、時刻t−tωから時刻tまでの間の位置ベクトルprが、走行開始t=0から時刻tωまでの間の位置ベクトルprの1σであるPσ(1、tω)を超えた回数をWで割ったCrを特徴量xとして算出する。同様に、特徴量算出部15は、時刻t−tωから時刻tまでの間の位置ベクトルplが、走行開始t=0から時刻tωまでの間の位置ベクトルplの−1σであるNσ(1、tω)を超えた回数をWで割ったClを特徴量xとして算出する。
上記Crは下記の式(10)、(11)で表すことができる。
Figure 2021092962
上記Clは下記の式(12)、(13)で表すことができる。
Figure 2021092962
即ち、特徴量算出部15は、位置ベクトルpl、prに基づいて、{Pr、Nr、Pl、Nl、Dr、Dl、Sr、Sl、Ar、Al、Cr、Cl}を特徴量xとして算出する。
<時系列特徴量抽出部16の動作>
時系列特徴量抽出部16は、特徴量x={x (1),x (2),…,x (n)}である{Pr、Nr、Pl、Nl、Dr、Dl、Sr、Sl、Ar、Al、Cr、Cl}についてそれぞれ上述したように時系列特徴量を抽出する。抽出した時刻tにおける時系列特徴量は下記のベクトルで表される。
(1)={Prt−Ls+k,Prt−Ls+2k,…,Pr
(2)={Nrt−Ls+k,Nrt−Ls+2k,…,Nr

(n)={Clt−Ls+k,Clt−Ls+2k,…,Cl
<評価値算出部17の動作>
評価値算出部17の構成を図5に示す。同図に示すように、評価値算出部17は、第1再帰型ニューラルネットワークとしてのLSTM層17Aと、結合層17Bと、第2再帰型ニューラルネットワークとしてのLSTM層17Cと、Dense層17D、17Eと、を有している。LSTM層17Aは、特徴量x毎に設けられている。本実施形態では、評価値算出部17には、12個の特徴量xが入力されているため、LSTM層17Aも12個、設けられている。
LSTM層17Aは、一つ前の出力が入力されるニューラルネットワークであるRNNを拡張したものである。今、単純なRNNにおいて、第1層のユニットをi=1,…,I、第2層のユニットをj=1,…,Jで表すと、時刻tにおける第2層の出力zj(t)は下記の式(14)、(15)で表される。即ち、第2層のユニットには、第1層のユニットへの入力x1(t)〜xI(t)に加えて第2のユニットの一つ前の出力y1(t−1)〜yJ(t−1)が入力される。
Figure 2021092962
zj(t)=f(yj(t)) …(15)
ここで、xi(t)は第1層のユニットiに対する入力であり、本実施形態では、図5に示すように、時系列特徴量として抽出したベクトルが入力される。wは結合の際の重みで、bはバイアス項であり、fは活性化関数である。
LSTM層17Aは、上述したRNNに加えて、RNNの出力を加算し続けた値が記憶されるセルと、セルに記憶される情報を制御する入力ゲート、出力ゲート、忘却ゲートと、有している。入力ゲート、忘却ゲート、出力ゲートは、各々別々のRNNから構成されている。入力ゲートは、RNNからセルへの入力を選択的にオンオフする役割を果たす。出力ゲートは、LSTM層17Aの出力を選択的にオンオフする役割を果たす。忘却ゲートは、セルに記憶された情報を選択的に忘却させる役割を果たす。LSTM層16Aは、セルを設けて、3つのゲートによりセルを制御することにより、長期依存の学習を行うことができる。
結合層17Bは、各LSTM層16Aから出力されたベクトルを結合して、結合したベクトルを次のLSTM層17Cに入力する。LSTM層17Cは、上述したLSTM層1
7Aと同様の構成である。LSTM層17Cからの出力は、Dense層17Dに入力される。Dense層17Dは、入力層を出力層に全結合するニューラルネットワーク(以下、NN)から構成され、Dense層17Dからの出力がDense層16Eに入力される。Dense層17Eも、入力層を出力層に全結合するNNから構成される。Dense層16Eの出力層の数は1つであり、このDense層17Eからの出力が評価値Dyとなる。なお、Dense層17D、17Eの損失関数としては、本実施形態では二乗誤差(ランプ関数)が用いられる。
<学習処理システム40の説明>
<概要の説明>
次に、上述した評価値算出部17が適切に評価値Dyを算出するために必要な学習処理を実現するための学習処理システム40について説明する。図6に学習処理システム40の構成例を示す。
<学習処理の準備の説明>
ドライビングシミュレータ41とそれに付随する装置の位置関係を図7に示す。本実施形態では、学習処理で利用可能な実験データを取得するために、図7に示したドライビングシミュレータ41を利用する。
このドライビングシミュレータ41は、実際の車両の運転席と同じように運転者が着座可能な運転席を有しており、更に、運転者が操作可能なステアリングホイール、アクセルペダル、ブレーキペダル、変速操作レバーなどの機器を備えている。また、運転者の前方を主体として運転者を囲むように6面のディスプレイ41aが配置されている。このディスプレイ41aの画面上には、実際の運転状態において運転者が視認可能な前方視界の情景等を模擬した内容が、ドライビングシミュレータ41に対する運転操作に応じて表示される。
模擬運転を実施する場合には、図7に示すように被験者42がドライビングシミュレータ41の運転席に着座する。そして、この被験者42は、ドライビングシミュレータ41の運転者として、ディスプレイ41aの画面の内容を視認しながら、ステアリングホイール、アクセルペダル、ブレーキペダル、変速操作レバーなどの機器を操作して模擬運転を行う。被験者42の模擬運転操作に応じてディスプレイ41aの画面の内容が逐次変化する。
学習処理に必要な実験データを取得するために、図7に示すように運転席の前方に配置された前方映像録画用カメラ43が、ディスプレイ41aの画面における前方映像を撮影する。また、運転席の前方に配置された運転手顔映像録画用カメラ(ステレオカメラ)44が運転席に着座している被験者42の顔およびその近傍を撮影する。また、被験者42の生体情報である心電図を取得するために、心電計45が被験者42に装着される。
学習処理に必要な実験データは、図6に示した情報記録装置46が記録する。すなわち、前方映像録画用カメラ43の撮影により得られる前方の映像と、運転手顔映像録画用カメラ44の撮影により得られる被験者42の顔の映像と、心電計45が出力する心電図の情報とが1組の時系列データとして情報記録装置46に記録される。情報記録装置46は、大量の情報の記録を可能にするためにハードディスクなどの記憶装置を搭載している。
ニューラルネットワークの機械学習を行うためには、情報記録装置46が記録した模擬運転の実験データから得た時系列特徴量x(入力)と、運転者の状態を表す正解値(出力)と、が必要となる。従って、図7に示すように、情報記録装置46が記録した情報に基づいて各時点の正解値を、正解値の特定処理47により特定する。
正解値の特定処理について、ここでは熟練者が行う人間の作業として、運転手顔映像録画用カメラ44が撮影した顔の再生映像(表情や頭の動きなど)と、心電計45が出力する心電図とに基づいて感覚的に評価した結果を各時点の正解値として出力する場合を想定している。
勿論、正解値の特定処理47を自動化し、人間の作業を不要にすることも可能である。例えば、画像認識技術により、再生映像における被験者の顔の表情や頭の動きなどを自動認識したり、認識した状態と心電図の状態とを組み合わせて正解値の評価結果を自動的に出力したりすることができる。
正解値の特定処理47において正解値を評価する際には、例えば上述した表1に示した評価指標を利用し、これに準じた評価を実施することが想定される。
すなわち、表1に示した評価指標を利用する場合には、被験者42の顔の表情や頭の動きなどと、5段階の評定値とを対応付けることができる。したがって、情報記録装置46が記録した情報を再生しながら、各時点の被験者42の状態として、眠気レベルを5段階評価した場合の正解値を、表1の内容に基づき、人間、又は機械が正解値の特定処理47で特定することができる。
<学習処理の説明>
図7に示した学習処理装置50は、学習処理に用いる入力データとして、情報記録装置46が記録した模擬運転の記録情報から求めた時系列特徴量xと、正解値の特定処理47によって得られた各時点の評価値Dyの正解値とを組み合わせて学習処理を実行する。
なお、学習時用いられる評価値算出部17は、過学習を抑制するために、図8に示すように、ドロップアウト17F〜17Hが設けられている。ドロップアウト17Fは、LSTM層17Aの出力に設けられ、一定の割合でLSTM層17Aの出力をマスクする。ドロップアウト17Gは、LSTM層17Cの出力に設けられ、一定の割合でLSTM層17Gの出力をマスクする。ドロップアウト17Hは、Dense層17Dの出力に設けられ、一定の割合でDense層17Dの出力をマスクする。
学習処理装置50の実体は、パーソナルコンピュータのような一般的な計算式であって誤差逆伝番法などの学習処理を実行するために必要なアプリケーションソフトウェアを搭載している。学習処理装置50は、上述したLSTM層17A、17Dを構成するRNNの重みwを最適化し、評価値算出部17に登録する。
<効果の説明>
<効果>
上述した実施形態によれば、評価値算出部17が、RNNを拡張した2つのLSTM層16A、16Dで構成されている。これにより、運行情報D1、D2の時系列データに基づいて評価値Dyを求めることができ、精度よく運転者の状態を示す評価値を求めることができる。
次に、本発明者らは、上述した実施形態で説明した車載機10(以下、本発明品)の効果を確認するために、本発明品及び後述する比較例1、2、それぞれについて業務用運転者の運行情報に対する眠気レベル推定の性能評価実験を行った。運行情報や、眠気レベルの正解値は、業務用車両での高速道路走行によって取得した。
<比較例1>
比較例1としては、上述した特許文献1に記載された眠気レベルの推定方法を採用する
。特許文献1に記載された推定方法では、ドラレコから、速度や加速度に加えて、自車における白線までの距離や横移動速度、白線と白線との消失点移動量などの特徴を取得し、重回帰分析によって眠気レベルを推定する。
<比較例2>
比較例2としては、feed-forward neural network(FFNN)による眠気レベルの推定
方法を採用する。比較例2としては、説明変数をx={Pr、Nr、Pl、Nl、Dr、Dl、Sr、Sl、Ar、Al、Cr、Cl}、目的変数を眠気レベルとし、FFNNをベースとしている。
<評価指標>
評価指標として、本発明品、比較例1、2で推定した推定眠気レベルと正解眠気レベルとの平均絶対誤差(MAE)および次式(16)で表される眠気の立ち上がり誤差(TE)を用いる。
Figure 2021092962
ただし、τiは、眠気レベルiからi+1に上がる時の正解値と推定値との時刻差を示す。
<評価結果>
上記評価結果を下記の表2に示す。
Figure 2021092962
表2からも明らかなように、MAE、TEともに本発明品が最も精度が高く、比較例1、2よりも優れた性能を示すことが分かる。
また、本発明品、比較例1、2における眠気レベルごとのMAEを図9に示す。同図に示すように、本発明品は、比較例1に比べて眠気レベル3、4の追従性が上がっていることが分かる。
また、本発明品が、比較例2によりも優れている理由としては、LSTMが特徴量xの時系列的な変化に注目しているのに対して、比較例2では瞬間的な特徴量のみに注目して
推定していることが考えられる。
<その他の効果>
また、上述した実施形態によれば、運行情報D1、D2は、左位置ベクトルplと、右位置ベクトルprと、から構成されている。これにより、運転者の状態に対する依存度が高い左位置ベクトルplと、右位置ベクトルprと、に基づいて評価値Dyを求めることにより、より一層精度よく運転者の状態を示す評価値を求めることができる。
また、上述した実施形態によれば、左位置ベクトルpl及び右位置ベクトルprから求められる道路幅Uの変化量ΔUに基づいて、左位置ベクトルpl及び右位置ベクトルprの時系列データから検出精度が低い区間を判定して、除去するデータスクリーニング部14を備えている。これにより、より一層精度よく運転者の状態を示す評価値Dyを求めることができる。
また、上述した実施形態によれば、特徴量算出部15は、運転開始から所定期間tω内に取得した初期運行情報D1、D2からPσ(1、tω)、Nσ(1、tω)を求め、任意時間tにおける運行情報D1、D2から求めたPσ(t−tω、t)、Nσ(t−tω、t)からPσ(1、tω)、Nσ(1、tω)を差し引いた値をP(t)、N(t)として評価値算出部17に入力する。これにより、特徴量の個人差がなくなり、より一層精度よく運転者の状態を示す評価値Dyを求めることができる。
なお、本発明は、上述した実施形態に限定されるものではなく、適宜、変形、改良、等が可能である。その他、上述した実施形態における各構成要素の材質、形状、寸法、数、配置箇所、等は本発明を達成できるものであれば任意であり、限定されない。
上述した実施形態では、評価値算出部17は、RNNを拡張した2段のLSTM層17A、17Cから構成されていたが、これに限ったものではない。LSTM層17A、17Cの代わりに、RNNを用いもよい。
上述した実施形態では、評価値算出部17に時系列特徴量を入力していたが、これに限ったものではない。評価値算出部17に特徴量を入力するようにしてもよい。
上述した実施形態では、運行情報D1、D2として位置ベクトルpl、prを用いていたが、これに限ったものではない。例えば、車両の横方向位置など他の運行情報を用いてもよい。また、特徴量としても、運行情報を統計処理して求められるものであればよく、上述した実施形態に限定されるものではない。
上述した実施形態では、データスクリーニング部14を設けていたが、これに限ったものではない。データスクリーニング部14はなくてもよい。
上述した実施形態では、特徴量から初期特徴量を差し引いていたが、これに限ったものではない。初期特徴量を差し引くことは必須ではない。
ここで、上述した本発明に係る車載機、処理装置及びプログラムの実施形態の特徴をそれぞれ以下[1]〜[8]に簡潔に纏めて列記する。
[1]
車両の運行情報(D1、D2)を取得する取得部(13)と、
前記運行情報(D1、D2)から複数種類の特徴量(x)を算出する特徴量算出部(15)と、
複数種類の前記特徴量(x)を入力、前記車両の運転者の状態を表す評価値(Dy)を
出力、として機械学習された評価値算出部(17)と、
前記評価値(Dy)に応じて、前記運転者の状態を通知する出力部(19)と、を備え、
前記評価値算出部(17)は、
複数種類の前記特徴量(x)が入力され、複数種類の前記特徴量(x)それぞれに対応する出力を出力する第1再帰型ニューラルネットワーク(17A)と、
前記第1再帰型ニューラルネットワーク(17A)からの複数の出力を結合する結合層(17B)と、
前記結合層か(17B)らの出力が入力される第2再帰型ニューラルネットワーク(17C)と、を有する、
車載機(10)であること。
[2]
[1]に記載の車載機(10)において、
前記第1再帰型ニューラルネットワーク(17A)及び前記第2再帰型ニューラルネットワーク(17C)は各々、LSTM(Long short-term memory)層から構成されている、
車載機(10)であること。
[3]
[1]又は[2]に記載の車載機(10)において、
所定期間(Ls)内に算出された前記特徴量(x)を時系列特徴量として抽出する時系列特徴量抽出部(16)をさらに備え、
前記評価値算出部(17)は、前記時系列特徴量を入力とする、
車載機(10)であること。
[4]
[1]〜[3]の何れか1項に記載の車載機(10)において、
前記運行情報(D1、D2)は、前記車両の基準位置から左車線まで左位置ベクトル(pl)と、前記車両の前記基準位置から右車線までの右位置ベクトル(pr)と、から構成されている、
車載機(10)であること。
[5]
[4]に記載の車載機(10)において、
前記左位置ベクトル(pl)及び前記右位置ベクトル(pr)から求められる道路幅(U)の変化量に基づいて、前記左位置ベクトル(pl)及び前記右位置ベクトル(pr)の時系列データから検出精度が低い区間を判定して、除去するデータスクリーニング部(14)を備えた、
車載機(10)であること。
[6]
[1]〜[5]何れか1項に記載の車載機(10)において、
前記特徴量算出部(15)は、前記運行情報と、運転開始から一定期間(tω)内に取得した初期運行情報と、の双方に基づいて前記特徴量を算出する、
車載機(10)であること。
[7]
車両の運行情報(D1、D2)を取得する取得部(13)と、
前記運行情報(D1、D2)から複数の特徴量(x)を算出する特徴量算出部(15)と、
複数種類の前記特徴量(x)を入力、前記車両の運転者の状態を表す評価値(Dy)を出力、として機械学習された評価値算出部(17)と、を備え、
前記評価値算出部(17)は、
複数種類の前記特徴量(x)が入力され、複数種類の前記特徴量(x)それぞれに対応する出力を出力する第1再帰型ニューラルネットワーク(17A)と、
前記第1再帰型ニューラルネットワーク(17A)からの複数の出力を結合する結合層(17B)と、
前記結合層からの出力が入力される第2再帰型ニューラルネットワーク(17C)と、を有する、
処理装置であること。
[8]
コンピュータに、[7]に記載の前記取得部(13)、前記特徴量算出部(15)及び前記評価値算出部(17)の機能を実現させるためのプログラムであること。
10 車載機
13 運行データ検出機能(取得部)
14 データスクリーニング部
15 特徴量算出部
16 時系列特徴量抽出部
17 評価値算出部
17A LSTM層(第1再帰型ニューラルネットワーク)
17B 結合層
17C LSTM層(第2再帰型ニューラルネットワーク)
19 音声出力部(出力部)
Ls 所定期間
D1、D2 運行情報
Dy 評価値
pl 左位置ベクトル
pr 右位置ベクトル
tω 一定時間
U 道路幅
x 特徴量

Claims (8)

  1. 車両の運行情報を取得する取得部と、
    前記運行情報から複数種類の特徴量を算出する特徴量算出部と、
    複数種類の前記特徴量を入力、前記車両の運転者の状態を表す評価値を出力、として機械学習された評価値算出部と、
    前記評価値に応じて、前記運転者の状態を通知する出力部と、を備え、
    前記評価値算出部は、
    複数種類の前記特徴量が入力され、複数種類の前記特徴量それぞれに対応する出力を出力する第1再帰型ニューラルネットワークと、
    前記第1再帰型ニューラルネットワークからの複数の出力を結合する結合層と、
    前記結合層からの出力が入力される第2再帰型ニューラルネットワークと、を有する、
    車載機。
  2. 請求項1に記載の車載機において、
    前記第1再帰型ニューラルネットワーク及び前記第2再帰型ニューラルネットワークは各々、LSTM(Long short-term memory)層から構成されている、
    車載機。
  3. 請求項1又は2に記載の車載機において、
    所定期間内に算出された前記特徴量を時系列特徴量として抽出する時系列特徴量抽出部をさらに備え、
    前記評価値算出部は、前記時系列特徴量を入力とする、
    車載機。
  4. 請求項1〜3の何れか1項に記載の車載機において、
    前記運行情報は、前記車両の基準位置から左車線まで左位置ベクトルと、前記車両の前記基準位置から右車線までの右位置ベクトルと、から構成されている、
    車載機。
  5. 請求項4に記載の車載機において、
    前記左位置ベクトル及び前記右位置ベクトルから求められる道路幅の変化量に基づいて、前記左位置ベクトル及び前記右位置ベクトルの時系列データから検出精度が低い区間を判定して、除去するデータスクリーニング部を備えた、
    車載機。
  6. 請求項1〜5何れか1項に記載の車載機において、
    前記特徴量算出部は、前記運行情報と、運転開始から一定期間内に取得した初期運行情報と、の双方に基づいて前記特徴量を算出する、
    車載機。
  7. 車両の運行情報を取得する取得部と、
    前記運行情報から複数の特徴量を算出する特徴量算出部と、
    複数種類の前記特徴量を入力、前記車両の運転者の状態を表す評価値を出力、として機械学習された評価値算出部と、を備え、
    前記評価値算出部は、
    複数種類の前記特徴量が入力され、複数種類の前記特徴量それぞれに対応する出力を出力する第1再帰型ニューラルネットワークと、
    前記第1再帰型ニューラルネットワークからの複数の出力を結合する結合層と、
    前記結合層からの出力が入力される第2再帰型ニューラルネットワークと、を有する、
    処理装置。
  8. コンピュータに、請求項7に記載の前記取得部、前記特徴量算出部及び前記評価値算出部の機能を実現させるためのプログラム。
JP2019223066A 2019-12-10 2019-12-10 車載機、処理装置及びプログラム Active JP7295790B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019223066A JP7295790B2 (ja) 2019-12-10 2019-12-10 車載機、処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019223066A JP7295790B2 (ja) 2019-12-10 2019-12-10 車載機、処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2021092962A true JP2021092962A (ja) 2021-06-17
JP7295790B2 JP7295790B2 (ja) 2023-06-21

Family

ID=76312487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019223066A Active JP7295790B2 (ja) 2019-12-10 2019-12-10 車載機、処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7295790B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004109006A (ja) * 2002-09-19 2004-04-08 Fuji Heavy Ind Ltd 物体検出装置
JP2011059856A (ja) * 2009-09-08 2011-03-24 Nissan Motor Co Ltd 車両用運転特性検出装置、車両用運転特性検出方法および自動車
JP2015084253A (ja) * 2015-01-08 2015-04-30 マツダ株式会社 ドライバ感情推定装置
JP2018028906A (ja) * 2016-08-16 2018-02-22 トヨタ自動車株式会社 ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム
JP2019139277A (ja) * 2018-02-06 2019-08-22 オムロン株式会社 評価装置、動作制御装置、評価方法、及び評価プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004109006A (ja) * 2002-09-19 2004-04-08 Fuji Heavy Ind Ltd 物体検出装置
JP2011059856A (ja) * 2009-09-08 2011-03-24 Nissan Motor Co Ltd 車両用運転特性検出装置、車両用運転特性検出方法および自動車
JP2015084253A (ja) * 2015-01-08 2015-04-30 マツダ株式会社 ドライバ感情推定装置
JP2018028906A (ja) * 2016-08-16 2018-02-22 トヨタ自動車株式会社 ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム
JP2019139277A (ja) * 2018-02-06 2019-08-22 オムロン株式会社 評価装置、動作制御装置、評価方法、及び評価プログラム

Also Published As

Publication number Publication date
JP7295790B2 (ja) 2023-06-21

Similar Documents

Publication Publication Date Title
US20220286811A1 (en) Method for smartphone-based accident detection
US10748446B1 (en) Real-time driver observation and progress monitoring
US9472083B2 (en) Direct observation event triggering of drowsiness
Gat et al. A monocular vision advance warning system for the automotive aftermarket
EP3588372B1 (en) Controlling an autonomous vehicle based on passenger behavior
US20170301107A1 (en) Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium
CN112489425A (zh) 车辆防撞预警方法、装置、车载终端设备和存储介质
US10977882B1 (en) Driver health profile
CN113460062A (zh) 驾驶行为分析系统
JP7474160B2 (ja) 情報処理装置
DE112017008236T5 (de) Verfahren und vorrichtung zur unterstützung des fahrens
JP7295790B2 (ja) 車載機、処理装置及びプログラム
WO2022240823A1 (en) Online driver delay and frequency response model
WO2021005975A1 (ja) 状態判定装置、車載機、運転評価システム、状態判定方法、及びプログラム
US10562450B2 (en) Enhanced lane negotiation
WO2020250574A1 (ja) 運転支援装置、運転支援方法及びプログラム
JP2020177444A (ja) 乗員損傷推定サーバ、乗員損傷推定システム、乗員損傷推定方法、及びプログラム
CN115320626B (zh) 基于人车状态的危险感知能力预测方法、装置及电子设备
US11961395B2 (en) Driving assistance device, driving assistance method, and storage medium in which program is stored
Bulygin et al. Methodology for in-the-Wild Driver Monitoring Dataset Formation
US20220153282A1 (en) Attention level determination
CN117064386A (zh) 感知反应时间确定方法、装置、设备、介质和程序产品
CN118043251A (zh) 人机交互监视器
Liono et al. Detecting passenger discomfort from abnormal driving manoeuvres

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210804

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230327

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230404

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230609

R150 Certificate of patent or registration of utility model

Ref document number: 7295790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150