JP2021064343A - 行動認識装置、行動認識方法、及び情報生成装置 - Google Patents

行動認識装置、行動認識方法、及び情報生成装置 Download PDF

Info

Publication number
JP2021064343A
JP2021064343A JP2020003134A JP2020003134A JP2021064343A JP 2021064343 A JP2021064343 A JP 2021064343A JP 2020003134 A JP2020003134 A JP 2020003134A JP 2020003134 A JP2020003134 A JP 2020003134A JP 2021064343 A JP2021064343 A JP 2021064343A
Authority
JP
Japan
Prior art keywords
information
driver
state
recognition device
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020003134A
Other languages
English (en)
Other versions
JP2021064343A5 (ja
JP7120258B2 (ja
Inventor
正樹 増田
Masaki Masuda
正樹 増田
要 小川
Kaname Ogawa
要 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to PCT/JP2020/038149 priority Critical patent/WO2021075348A1/ja
Publication of JP2021064343A publication Critical patent/JP2021064343A/ja
Publication of JP2021064343A5 publication Critical patent/JP2021064343A5/ja
Priority to US17/717,484 priority patent/US20220242418A1/en
Application granted granted Critical
Publication of JP7120258B2 publication Critical patent/JP7120258B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Abstract

【課題】ドライバ状態から運転行動を高速かつ高精度に認識する装置を、高度な専門性を必要とすることなく簡易に構成する技術を提供する。【解決手段】画像処理部は、S5では、S4にて取得された一次情報毎に、一次情報から抽出される1以上の対象状態のそれぞれについて、対象状態に該当するか否かを表し、且つ、加減演算が可能な二つの値で表現された二次情報を生成する。更に、画像処理部は、複数の二次情報の時系列から、時間窓を用いて判定用情報群を抽出し、判定用情報群を用いて更新された行動ベクトルを用いて、ドライバの運転行動を認識する。【選択図】図2

Description

本開示は、ドライバの状態から運転行動を認識する技術に関する。
下記非特許文献1には、ドライバの視線の動きを表す時系列データを集めて分析することで、認識対象となる運転行動毎に、平均的なモデルを予め生成し、運転中に検出される時系列データとモデルとを比較することで、運転行動を認識する技術が記載されている。
モデルは、ドライバによって注視される複数の領域を視領域として、所定時間内で各視領域を見た時間割合や頻度、最大注視時間、及び視領域間の移動頻度等の特徴に、各要素が対応づけられた特徴ベクトルで表される。また、分析の対象となる時系列データには、ノイズ除去などのフィルタリング処理も施される。
Sujitha Martin, Mohan M. Trivedi "Gaze Fixation and Dynamics for Behavior Modeling and Prediction of On-road Driving Maneuvers" 2017 IEEE Intelligent Vehicles Symposium (IV) June 11-14, 2017, Redondo Beach, CA, USA
しかしながら、発明者の詳細な検討の結果、非特許文献1に記載の従来技術には以下の課題が見出された。
すなわち、従来技術では、特徴ベクトルの要素となる特徴の選定には、収集した時系列データから、どの特徴がドライバの行動に影響を与えているのかを判定できる高度な専門性が必要となる。また、従来技術では、特徴の選定され方によって、認識性能が大きく変動する。このため、判定に使用する特徴の選定が難しいという課題があった。
また、従来技術では、運転行動毎に、個別に特徴を選定して、個別にモデルを生成する必要があり、モデルの生成に手間を要するという課題もあった。
本開示の一つの局面は、ドライバ状態から運転行動を高速かつ高精度に認識する装置を、高度な専門性を必要とすることなく簡易に構成する技術を提供する。
本開示の一態様は、行動認識装置であって、情報取得部(20:S4)と、情報変換部(20:S5)と、抽出部(20:S31)と、更新部(20:S32〜S36)と、認識部(20:S37〜S40)と、を備える。
情報取得部は、車両の状態、車両を運転するドライバの状態、及び車両の周辺の状態のうち、少なくとも一つを含む1以上の一次情報を繰り返し取得する。情報変換部は、情報取得部が取得した一次情報毎に、一次情報から抽出される1以上の対象状態のそれぞれについて、対象状態に該当するか否かを表し、且つ、加減演算が可能な二つの値で表現された二次情報を生成する。抽出部は、情報変換部で生成される複数の二次情報の時系列から、時間窓を用いて判定用情報群を抽出する。更新部は、各要素がドライバの運転行動に対応づけられたベクトルを行動ベクトルとして、行動ベクトルの初期値を与え、判定用情報群を用いて算出される行動ベクトルの修正量によって、行動ベクトルを更新する。認識部は、更新部にて更新された行動ベクトルを用いて、ドライバの運転行動を認識する。
本開示の一態様は、ドライバの運転行動を認識する行動認識方法であって、情報取得ステップ(S4)と、情報変換ステップ(S5)と、抽出ステップ(S31)と、更新ステップ(S32〜S36)と、認識ステップ(S37〜S40)と、を備える。情報取得ステップ、情報変換ステップ、抽出ステップ、更新ステップ、及び認識ステップでは、それぞれ、情報取得部、情報変換部、抽出部、更新部、及び認識部での動作と同様の動作が実行される。
このような構成によれば、ドライバの運転行動に関する専門的な知識に基づいて生成されるモデルを用いることなく、ドライバの運転行動を認識することができる。その結果、ドライバの運転行動に関する専門的な知識を必要とすることなく、当該装置を簡易に構成することができる。ドライバが実行しようとしている運転行動を認識できるため、認識された運転行動に関する情報の提示やその運転行動を支援するためのシステム制御を、早目に開始できる。
本開示の一態様は、情報生成装置であって、情報取得部(20:S4)と、情報変換部(20:S5)と、を備える。情報取得部は、車両の状態、車両を運転するドライバの状態、及び車両の周辺の状態のうち、少なくとも一つを含む1以上の一次情報を繰り返し取得する。情報変換部は、情報取得部が取得した一次情報毎に、一次情報から抽出される1以上の対象状態のそれぞれについて、対象状態に該当するか否かを表し、且つ、加減演算が可能な二つの値で表現された二次情報を生成する。これにより、複数の二次情報の時系列が生成される。
このような構成によれば、複数の二次情報の任意時点での信号レベルを加減演算した結果によって演算対象となった二次情報間の関係を表現することができる。また、加減演算した結果は、行動ベクトルの更新に用いる修正量の算出等に使用することで、処理負荷を軽減できる。
行動認識装置の構成を示すブロック図である。 情報生成処理のフローチャートである。 取得画像と、顔検出及び顔特徴点検出の結果とを示す説明図である。 視領域を表す説明図である。 ドライバ状態とドライバ状態情報及び個別状態情報の時系列データとを例示する説明図である。 時間窓の設定に関する説明図である。 学習データの切り出しに関する説明図である。 回帰木を説明する説明図である。 回帰木にて使用される比較データペアに関する説明図である。 行動認識用パラメータを生成する学習処理のフローチャートである。 行動認識処理のフローチャートである。 学習データに加える車両情報に関する説明図である。 ドライバ状態とドライバ状態情報の時系列データとを例示する説明図である。
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
図1に示す行動認識装置1は、車両に搭載され、車両において取得される様々な情報からドライバが実行しようとしている運転行動を認識する。行動認識装置1は、カメラ10と、画像処理部20とを備える。行動認識装置1は、通信部30を備えてもよい。
カメラ10は、例えば公知のCCDイメージセンサやCMOSイメージセンサなどを用いることができる。カメラ10は、例えば、車両の運転席に着座したドライバの顔が撮像範囲に含まれるように配置される。カメラ10は、周期的に撮像を実行し、撮像画像のデータを画像処理部20に出力する。
通信部30は、車載通信ネットワークを介して車両各部に設けられた電子制御ユニットと通信することで様々な情報を取得する。車載通信ネットワークは、例えばCANが用いられる。CANは登録商標である。画像処理部20が通信部30を介して取得する情報には、車両情報と周辺情報とが含まれてもよい。
車両情報は、車両の状態を表す状態情報である。車両情報には、例えば、車速、操舵角、ヨーレート、加速度、アクセルペダル操作量、ブレーキ圧等が含まれてもよい。つまり、車両情報には、車両の挙動を表す情報だけでなく、車両の挙動に影響を与える情報が含まれていてもよい。
周辺情報は、車両周囲の状況を表す状態情報である。周辺情報には、車両の周囲を撮像するカメラからの画像、及び車両の周囲に存在する物体を検出するミリ波レーダ、ライダー、超音波センサ等での検出結果の他、これら画像及び検出結果を解析することで得られる情報が含まれてもよい。
画像処理部20は、CPU20aと、例えば、RAM又はROM等の半導体メモリ(以下、メモリ20b)と、を有するマイクロコンピュータを備える。画像処理部20が実行する処理によって実現される機能に対応した機能ブロックとして、画像処理部20は、情報生成部21と、行動認識部22と、学習部23とを備える。なお、情報生成部21を備える画像処理部20が情報生成装置に相当する。
[2.情報生成処理]
情報生成部21としての機能を実現するために、画像処理部20が実行する情報生成処理について、図2のフローチャートを用いて説明する。情報生成処理は、予め設定された周期で繰り返し起動される。
S1では、画像処理部20は、カメラ10から画像を取得する。
続くS2では、画像処理部20は、顔検出処理を実行する。顔検出処理は、S1で取得した画像から、顔が撮像された領域である顔領域を検出する処理である。顔検出処理では、例えば、パターンマッチングを用いることができるが、これに限定されるものではない。顔検出処理の結果、例えば、図3中の枠Wで示す部分が顔領域として検出される。
続くS3では、画像処理部20は、特徴点検出処理を実行する。特徴点検出処理は、S2で抽出された顔領域の画像を用いて、撮像された顔の向き及び目の状態を特定するのに必要な複数の顔特徴点を検出する処理である。顔特徴点には、目、鼻、口、耳、及び顔等の輪郭における特徴的な部位が用いられる。特徴点検出処理の結果、例えば、図3中の丸印で示す複数の顔特徴点が検出される。
続くS4では、画像処理部20は、情報取得処理を実行する。情報取得処理は、S3で検出された複数の顔特徴点に基づき、顔領域の画像から検出される目の周辺画像を用いて、ドライバの状態を表すドライバ状態情報を生成する処理である。このドライバ状態情報が一次情報に相当する。ドライバ状態情報は、図13に示すように、複数の信号レベルを有し、各信号レベルに、ドライバの注視方向、ドライバの眼の開閉状態(例えば、閉眼状態)、及びドライバの顔向き状態等が対応づけられる。つまり、ドライバ状態情報が示す信号レベルのそれぞれが、一つの対象状態を表し、ドライバ状態情報は、ドライバの状態がどの対象状態に該当するかを表す多値情報である。
ドライバの注視方向は、運転時にドライバに視認される範囲を複数の領域(以下、視領域)に分割して、どの視領域を注視しているかによって表す。図4に示すように、視領域には、左サイドミラー(以下、左ミラー)E1、正面E2、ルームミラーE3、メータE4、右サイドミラー(以下、右ミラー)E5が含まれる。但し、視領域の分割方法は、これらに限定されるものではなく、より細かく分割した視領域を用いてもよいし、ドライバから見た角度等によって分割した視領域を用いてもよい。
ドライバの閉眼状態は、眼が閉じられることによって、どの視領域も見ていない状態を表す。ドライバの顔向き状態は、顔の向きが正面方向から所定角度以上離れている状態を表す。つまり、ドライバが、上記視領域以外を注視しているよそ見の状態を表す。
続くS5では、画像処理部20は、情報変換処理を実行して処理を終了する。情報変換処理は、S4で生成されたドライバ状態情報が示す複数の信号レベルのそれぞれについて、信号レベルに該当するときは1、該当しないときは0となる二つの値で表現された個別状態情報に変換し、その変換結果をメモリ20bに蓄積する処理である。この個別状態情報が二次情報に相当する。
図5に示すように、ドライバの注視方向に関する個別状態情報は、いずれも、該当する視領域を注視していると判定された場合に1、それ以外の場合に0となる2値で表される。ドライバの閉眼状態に関する個別状態情報は、閉眼の場合に1、それ以外の場合に0となる2値で表される。ドライバの顔向き状態に関する個別状態情報は、顔向き角度が正面方向に対して所定角度以上である場合に1、それ以外の場合に0となる2値で表される。これらドライバ状態情報から生成される複数の個別状態情報は、任意の時点で択一的にいずれか一つが1となり、他は全て0となる。
なお、S3及びS4の処理では、例えば、本願出願人が特願2019−108028号にて提案した、回帰関数を用いて特徴点の検出や注視方向を検出する方法を用いることができる。また、S4が情報取得部、S5が情報変換部に相当する。
情報生成処理が繰り返されることにより、メモリ20bには、対象状態(すなわち、ドライバ状態情報の信号レベル)毎に個別状態情報の時系列が蓄積される。
[3.運転行動認識]
[3−1.概要]
行動認識処理で使用される方法、すなわち、情報生成部21が生成する複数の個別状態情報の時系列からドライバが実施しようとしている運転行動を認識する方法について説明する。行動認識処理は、画像処理部20が行動認識部22としての機能を実現するために実行する処理である。
認識の対象となる運転行動には、例えば、「直進」「左車線変更」「右車線変更」「左折」「右折」「左分岐」「右分岐」「合流」「停止」等が含まれてもよい。
行動認識処理では、複数の個別状態情報の時系列から時間窓Tを用いて切り出される判定用情報群Iが用いられる。時間窓Tは、図6に示すように、認識対象となる運転行動を検出したいタイミングから、その運転行動が実際に開始されるタイミングまでの長さ以上の時間幅に設定される。図5は、時間窓Tによって切り出された判定用情報群Iの一例である。
判定用情報群Iは、図7に示すように、時間窓Tを画像の1又は数フレーム分ずつ時間をずらしながら適用する、いわゆるスライディングウインドを用いて、連続的に抽出される。行動認識処理は、このようにして抽出される複数の判定用情報群Iのそれぞれに対して実行される。
ここで、認識対象となる運転行動と同数であるD個の要素a〜aを持つベクトルを、スコアベクトルAという。スコアベクトルAは、(1)式で表され、各要素a〜aは、各運転行動のいずれかに対応づけられる。スコアベクトルAは、該当する運転行動に対応する要素の値が大きく、該当しない運転行動に対応する要素の値が小さくなるようなワンホット形式をとり、最終的に一番大きな値を有する要素に対応づけられた運転行動が認識結果となる。スコアベクトルAが行動ベクトルに相当する。
Figure 2021064343
行動認識処理では、(2)式に示すように、スコアベクトルの初期値A(0)を与え、修正量Rによって、スコアベクトルAを修正することで、ドライバが実施しようとしている運転行動を表したスコアベクトルAを算出する。
Figure 2021064343
修正量Rは、(3)式に示すように、スコアベクトルの初期値A(0)と、時間窓Tによって切り出された判定用情報群I を入力情報として、修正関数Fに作用させることで得られる。修正関数Fは、勾配ブースティングを用いた回帰関数の加法モデルを適用した関数である。このような回帰関数は、例えば、“One Millisecond Face Alignment with an Ensemble of Regression Trees” Vahid Kazemi and Josephine Sullivan, The IEEE Conference on CVPR,2014,1867-1874(以下、参考文献1)、及び、“Greedy Function Approximation : A gradient boosting machine” Jerome H. Friedman, The Annals of Statistics Volume 29, Number 5 (2001),1189-1232(以下、参考文献2)等に示される。
Figure 2021064343
修正関数FKは、予め用意されたK個の回帰木RT〜RTを用いて回帰的に値が決定される関数であり、(4)式で定義される。回帰木RT〜RTは、木構造をとる弱仮説の集合である。Fは修正関数FKの初期値、Gはkで識別される回帰木RTによって値が決定される回帰関数であり、k=1,2,…Kである。また、γは学習率であり、0<γ<1に設定される。γの値を小さくすることで、過学習となることを抑制する。
Figure 2021064343
K個の回帰木RT〜RTは、いずれも同様の構造を有する。例えば、図8に示すように、回帰木RTとして、ノードを順次二つに分岐させる二分木が用いられる。回帰木RTの枝の分岐点となるノードを通常ノード41、回帰木RTの葉となるノードを末端ノード42という。通常ノード41を識別するノードインデックスをeとすると、e番目の通常ノード41には、比較データペア(Pe0,Pe1)とスレッショルドTHとが対応づけられる。末端ノード42のそれぞれには回帰量Gの具体的な値rk1〜rk8が対応づけられる。
比較データペア(Pe0,Pe1)に属する二つのデータは、個別状態情報の種類と、時間窓によって切り取られた時間領域の開始時間を基点とする相対時間で表された抽出時間とで定義される。図9に示すように、個別状態情報の種類は、二つのデータ間で異なっていてもよいし同じであってもよい。また、抽出時間も、二つのデータ間で異なっていてもよいし同じであってもよい。但し、二つのデータ間で、個別状態情報の種類が同じである場合は、抽出時間を異ならせる必要がある。逆に言えば、二つのデータ間で、抽出時間が同じである場合は、個別状態情報の種類を異ならせる必要がある。図9中に示した太字破線の矢印の両端が、比較データペア(Pe0,Pe1)として抽出される二つのデータに対応する。
回帰木RTの各通常ノード41では、比較データペア(Pe0,Pe1)の差分値、すなわちPe0−Pe1が、スレッショルドTHよりも低いか否かに応じて、次階層の通常ノード41又は末端ノード42に至るいずれの枝を選択するかが決定される。比較データペア(Pe0,Pe1)を構成する個々のデータの値は、いずれも0又は1であるため、差分値は−1,0,1のいずれかとなる。つまり、スレッショルドTHeは、−1<THe≦1に設定される。なお、比較データペア(Pe0,Pe1)の差分値が、判定用情報群Iから抽出される特徴に相当する。
回帰木RTの通常ノード41に対応づけられた比較データペア(Pe0,Pe1)の差分値と、スレッショルドTHとの比較結果に従って、回帰木RTの枝を辿りながら同様の処理を繰り返すことで複数ある末端ノード42のいずれかに到達する。到達した末端ノード42に対応付けられた回帰量rkjが回帰関数Gの値となり、ひいては修正関数Fの出力値の一部となる。図8では、j=1,2,…8である。
このように、行動認識処理では、スコアベクトルAの初期値A(0)と、修正関数Fの初期値Fと、回帰木RTを定義する各パラメータとが事前に用意されている必要がある。以下では、これらのパラメータを総称して行動認識用パラメータという。
行動認識用パラメータは、画像処理部20が学習処理を実行することで生成される。但し、学習処理は、必ずしも画像処理部20で実行される必要は無く、画像処理部20以外の装置にて実行されてもよい。
[3−2.学習]
行動認識用パラメータを設定するための学習処理について、図10のフローチャートを用いて説明する。学習処理は、画像処理部20が学習部23としての機能を実現するために実行する処理である。学習処理を実行する際には、メモリ20bに学習用の個別状態情報が記憶される。学習用の個別状態情報には、画像の1フレーム単位で、ドライバの運転行動の正解ラベルが予め付与される。
S11では、画像処理部20は、メモリ20bに記憶された学習用の個別状態情報から、時間窓を用いて切り出された多数(例えば、N個)の個別状態情報群を学習情報として、学習情報毎に、スコアベクトルAの正解値(以下、教師データ)A〜Aを生成する。
具体的には、図7に示すように、学習情報に含まれる画像のフレーム毎に付与された正解ラベルを参照して、教師データAiを生成する。例えば、学習情報に含まれる画像のすべてのフレームに正解ラベルとして「直進」が付与されていれば、スコアベクトルAの「直進」に対応づけられた要素を1、その他の要素を0に設定した教師データAiを生成する。また、学習情報に含まれる画像のフレームに、左車線変更の開始点が含まれていれば、スコアベクトルAの「左車線変更」に対応づけられた要素を1、その他の要素を0に設定した教師データAiを生成する。
続くS12では、画像処理部20は、スコアベクトルの初期値A(0)を算出する。スコアベクトルの初期値A(0)は、例えば、S11で生成された教師データA〜Aの平均値を用いてもよい。
続くS13では、画像処理部20は、(5)式に従って、学習情報毎に、教師データAとスコアベクトルの初期値A(0)との差分である修正残差ΔAを算出する。
Figure 2021064343
続くS14では、画像処理部20は、修正量Rの算出に用いる修正関数Fの初期値F0を、(6)式を用いて算出する。
Figure 2021064343
(6)式は、各学習情報における修正残差ΔAiと、スコアベクトルAと同じ次元を有する任意のベクトルVとの距離を、全ての学習情報について合計したときに、その合計値を最小にするベクトルVを修正関数Fの初期値Fとすることを意味する。
続くS15では、画像処理部20は、回帰木RT〜RTの識別に用いる回帰木インデックスkを1に初期化する。
続くS16では、画像処理部20は、学習情報毎に、残り修正量cを(7)式を用いて算出する。
Figure 2021064343
続くS17では、画像処理部20は、学習情報を用いて、回帰木RTの生成に用いる比較データペア(Pe0,Pe1)を選択する。なお、比較データペア(Pe0,Pe1)の選択及び回帰木RTの生成には、例えば、上述した参考文献1の2.3.2項に記載される方法を用いてもよい。特に、比較データペア(Pe0,Pe1)の選択は、ランダム及び総当たりのいずれでもよい。
なお、比較データペア(Pe0,Pe1)を、このような学習によって選択することは、以下に例示するような特徴の中から、運転行動の認識において寄与率の高い特徴に対応づけられる比較データペア(Pe0,Pe1)を、自動的に選択することを意味する。
・各視領域E1〜E5が注視されている時間又は注視されていない時間の合計。
・注視される視領域が変化するタイミング。
・ある視領域が注視されてから他の視領域が注視されるまでの時間間隔。
・同一視領域、且つ時刻が異なる2点間の状態変化。
・異なる視領域、且つ時刻が異なる2点間の状態変化。
続くS18では、画像処理部20は、S17で選択した比較データペア(Pe0,Pe1)の差分値を、学習情報を分類する際の指標とし、すべての学習情報において残り修正量cに近い値が得られるような回帰木RTを生成する。すなわち、回帰木RTによって実現される回帰関数Gkを生成する。
続くS19では、画像処理部20は、S18で生成された回帰関数Gを用いて、(8)式により、修正関数Fを更新する。
Figure 2021064343
続くS20では、画像処理部20は、回帰木インデックスkを1増加させる。
続くS21では、画像処理部20は、k>Kであるか否かを判定する。S21において否定判定された場合は、新たな回帰木を作成するために処理をS16に戻し、S21において肯定判定された場合は、処理を終了させる。
学習処理では、一つの修正関数FのためにK個の回帰関数G(すなわち、回帰木RT)が生成される。
[3−3.行動認識処理]
画像処理部20が実行する行動認識処理について、図11のフローチャートを用いて説明する。行動認識処理では、上述の学習処理によって生成された行動認識用パラメータが用いられる。行動認識処理は、S1にて画像が取得される毎、すなわち1フレーム毎に行ってもよいし、複数フレーム毎に行ってもよい。
まずS31では、画像処理部20は、S5にて蓄積された複数の個別状態情報の時系列から時間窓Tを用いて現時点から過去、時間窓分の情報を切り出すことで、判定用情報群Iを取得する。
続くS32では、画像処理部20は、回帰木インデックスkを1に初期化する。
続くS33では、画像処理部20は、回帰木インデックスkで識別される回帰木RTと、S31で取得された判定用情報群Iと、学習処理で算出された行動判定用パラメータとを用いて回帰関数Gの値を取得し、(8)式を用いて修正関数Fを更新する。
続くS34では、画像処理部20は、回帰木インデックスkを1増加させる。
続くS35では、画像処理部20は、k>Kであるか否かを判定する。つまり、K個の回帰木RT〜RTの全てが修正関数Fの算出に用いられたか否かを判定する。S35において否定判定された場合は処理をS33に戻し、S35において肯定判定された場合は処理をS36に進める。S33〜S35の処理により、最終的に(4)式に示された修正関数Fが算出され、(3)式に示すように、この修正関数Fによって得られる値が、スコアベクトルの初期値A(0)に対する修正量Rとなる。
S36では、画像処理部20は、(2)式を用いて修正されたスコアベクトルAを生成する。
続くS37では、画像処理部20は、修正されたスコアベクトルAのうち、最大スコアSCを有する要素を抽出する。
続くS38では、画像処理部20は、SC>THsであるか否かを判定する。THsは、判定結果の信頼性を判定するための閾値である。S38において肯定判定された場合は処理をS39に進め、S38において否定判定された場合は処理をS40に進める。
S39では、画像処理部20は、最大スコアSCを有する要素に対応づけられた運転行動を、ドライバが実施しようとしている運転行動の認識結果として出力して、処理を終了する。
S40では、画像処理部20は、スコアベクトルAに示された推定結果の信頼性が低いものとして、推定結果を無効化して、処理を終了する。
[4.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(4a)本実施形態では、行動認識処理におけるスコアベクトルAの修正量Rの算出に勾配ブースティングにより学習された回帰木RTを用いる。しかも、回帰木RTの条件分岐に用いるパラメータとして、比較データペア(Pe0,Pe1)の差分値を用いる。つまり、回帰的な処理において単純なパラメータを利用する。このため、本実施形態によれば、行動認識処理の処理量が削減され、高速動作を実現できる。
(4b)本実施形態によれば、機械学習によって自動的に学習及び認識が実行されるため、ドライバの運転行動に対する専門的な知識を必要とすることなく、運転行動の認識に必要なパラメータを生成することができる。
(4c)本実施形態では、状態情報に対してフィルタリング等の前処理を行う必要がないため、前処理を実行することによる誤差の蓄積や、前処理の性能による検出精度の劣化を避けることができ、ドライバの運転行動の認識精度を向上させることができる。
(4d)本実施形態では、大量のデータを機械学習することで得られた回帰木RTを用いてドライバに応じた回帰関数Gを生成し、この回帰関数Gによって得られる修正値Rによって修正されたスコアベクトルAを用いて認識結果を得る。このため、平均的なモデルとの比較によって認識結果を得る従来技術と比較して、多様なドライバに対するロバスト性の高い認識結果を得ることができる。
(4e)本実施形態によれば、個別状態情報として2値で表現される情報を用いるため、個別状態情報の蓄積に必要なメモリ容量を削減できる。
(4f)本実施形態によれば、ドライバが実施しようとしている運転行動を認識するため、認識された運転行動に関わる情報の提示や、その運転行動を支援するためのシステム制御を早目に開始できる。
[5.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(5a)上記実施形態では、回帰木RTへの入力情報となる比較データペア(Pe0,Pe1)を、ドライバ状態情報から生成される複数の個別状態情報から抽出しているが、本開示はこれに限定されるものではない。例えば、通信部30を介して取得される車両情報や周辺情報を一次情報として、これらの一次情報のそれぞれから、二次情報である複数の個別状態情報を抽出してもよい。また、取得される一次情報が2値化された情報である場合、一次情報をそのまま二次情報として用いてもよい。
図12に示すように、車両情報として、車速、操舵角、ヨーレート、加速度等の検出結果であるアナログ信号を用いる場合、ある時点の値を、他の情報の値と比較(例えば、値の加減算等)しても、意味のある結果を得ることができない。このため、比較データペア(Pe0,Pe1)を生成する際に、状態情報の種類として車両情報を選択した場合には、同一情報かつ異なる時刻で定義される2点を選択する必要がある。但し、車両情報を、複数に区分けされた値域毎に、その値域内の値であるか否かを表す2値化された複数の情報(すなわち、二次情報)に変換して用いる場合には他の状態情報と組み合わせて比較データペア(Pe0,Pe1)を生成してもよい。
(5b)上記実施形態では、回帰木RTを用いて回帰関数Gを取得する方法を例示したが、本開示は、これに限定されるものではなく、公知の別の手法を用いて回帰関数を取得してもよい。
(5c)上記実施形態では、個別状態情報の一つとして、顔の向きが正面方向から所定角度以上離れている状態、すなわち、よそ見している状態を表す「ドライバの顔向き状態」を用いているが、本開示はこれに限定されるものではない。例えば、認識対象の運転行動によっては、ドライバの顔向きを、「右向き」「左向き」「上向き」「下向き」等に分けて、それぞれを別の個別状態情報としてもよい。
(5d)本開示に記載の画像処理部20及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の画像処理部20及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の画像処理部20及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。画像処理部20に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(5e)上記実施形態における一つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、一つの構成要素が有する一つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、一つの構成要素によって実現したり、複数の構成要素によって実現される一つの機能を、一つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(5f)上述した行動認識装置及び情報生成装置の他、種々の形態で本開示を実現することもできる。例えば、行動認識装置又は情報生成装置を構成要素とするシステム、行動認識装置又は情報生成装置を構成する画像処理部としてコンピュータを機能させるためのプログラムとして実現されてもよい。更に、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、行動認識方法、及び情報生成方法などとして実現されてもよい。
1…行動認識装置、10…カメラ、20…画像処理部、20a…CPU、20b…メモリ、21…情報生成部、22…行動認識部、23…学習部、30…通信部。

Claims (12)

  1. 車両の状態、前記車両を運転するドライバの状態、及び前記車両の周辺の状態のうち、少なくとも一つを含む1以上の一次情報を繰り返し取得するように構成された情報取得部(20:S4)と、
    前記情報取得部が取得した前記一次情報毎に、前記一次情報から抽出される1以上の対象状態のそれぞれについて、前記対象状態に該当するか否かを表し、且つ、加減演算が可能な二つの値で表現された二次情報を生成するように構成された情報変換部(20:S5)と、
    前記情報変換部で生成される複数の前記二次情報の時系列から、時間窓を用いて判定用情報群を抽出するように構成された抽出部(20:S31)と、
    各要素が前記ドライバの運転行動に対応づけられたベクトルを行動ベクトルとして、前記行動ベクトルの初期値を与え、前記判定用情報群を用いて算出される前記行動ベクトルの修正量によって、前記行動ベクトルを更新するように構成された更新部(20:S32〜S36)と、
    前記更新部にて更新された前記行動ベクトルを用いて、前記ドライバの運転行動を認識するように構成された認識部(20:S37〜S40)と、
    を備える、行動認識装置。
  2. 請求項1に記載の行動認識装置であって、
    前記更新部は、前記判定用情報群から算出される特徴量と、前記行動ベクトルに対する修正量との関係を表す回帰関数を用いて、前記行動ベクトルの修正量を算出する、
    行動認識装置。
  3. 請求項2に記載の行動認識装置であって、
    前記更新部にて使用される前記回帰関数は、勾配ブースティングによって学習される回帰木であって、木構造をとる弱仮説の集合として実現される
    行動認識装置。
  4. 請求項2又は請求項3に記載の行動認識装置であって、
    前記更新部は、前記特徴量として、前記判定用情報群から抽出される二つのデータである比較データペアの差分値を用いる、
    行動認識装置。
  5. 請求項4に記載の行動認識装置であって、
    前記比較データペアは、同一の前記二次情報から抽出される
    行動認識装置。
  6. 請求項4に記載の行動認識装置であって、
    前記比較データペアは、異なる前記二次情報から抽出される
    行動認識装置。
  7. 請求項1から請求項6までのいずれか1項に記載の行動認識装置であって、
    前記行動ベクトルの各要素に対応づけられる前記ドライバの運転行動には、直進、左車線変更、及び右車線変更のうち、少なくとも一つが含まれる
    行動認識装置。
  8. 請求項1から請求項7までのいずれか1項に記載の行動認識装置であって、
    前記一次情報には、前記ドライバの状態を表す情報が含まれ、
    前記二次情報には、前記ドライバが注視する領域である視領域を表す情報、前記ドライバの眼の開閉状態を表す情報、及び前記ドライバの顔向きを表す情報のうち、少なくとも一つが含まれる
    行動認識装置。
  9. ドライバの運転行動を認識する行動認識方法であって、
    車両の状態、前記車両を運転する前記ドライバの状態、及び前記車両の周辺の状態のうち、少なくとも一つを含む1以上の一次情報を繰り返し取得する情報取得ステップ(S4)と、
    前記情報取得ステップにて取得された前記一次情報毎に、前記一次情報から抽出される一つ以上の対象状態のそれぞれについて、前記対象状態に該当するか否かを表し、且つ、加減演算が可能な二つの値で表現された二次情報を生成する情報変換ステップ(S5)と、
    前記情報変換ステップで生成される複数の前記二次情報の時系列から、時間窓を用いて判定用情報群を抽出する抽出ステップ(S31)と、
    各要素が前記ドライバの運転行動に対応づけられたベクトルを行動ベクトルとして、前記行動ベクトルの初期値を与え、前記判定用情報群を用いて算出される前記行動ベクトルの修正量によって、前記行動ベクトルを更新する更新ステップ(S32〜S36)と、
    前記更新ステップにて更新された前記行動ベクトルを用いて、前記ドライバの運転行動を認識する認識ステップ(S37〜S40)と、
    を備える、行動認識方法。
  10. 車両の状態、前記車両を運転するドライバの状態、及び前記車両の周辺の状態のうち、少なくとも一つを含む1以上の一次情報を繰り返し取得するように構成された情報取得部(20:S4)と、
    前記情報取得部が取得した前記一次情報毎に、前記一次情報から抽出される1以上の対象状態のそれぞれについて、前記対象状態に該当するか否かを表し、且つ、加減演算が可能な二つの値で表現された二次情報を生成するように構成された情報変換部(20:S5)と、
    を備える情報生成装置。
  11. 請求項10に記載の情報生成装置であって、
    前記一次情報には、前記ドライバの状態の一つとして前記ドライバの注視方向が含まれ、
    前記二次情報には、前記ドライバが注視する領域である視領域を、前記ドライバが前記視領域を注視している状態を前記対象状態とする
    情報生成装置。
  12. 請求項10又は請求項11に記載の情報生成装置であって、
    一つの前記一次情報から前記二次情報が複数生成され、任意の時点でいずれか一つの前記二次情報が、択一的に前記対象状態に該当するように設定された
    情報生成装置。
JP2020003134A 2019-10-16 2020-01-10 行動認識装置、及び行動認識方法 Active JP7120258B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/038149 WO2021075348A1 (ja) 2019-10-16 2020-10-08 行動認識装置、行動認識方法、及び情報生成装置
US17/717,484 US20220242418A1 (en) 2019-10-16 2022-04-11 Behavior recognition apparatus and behavior recognition method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019189632 2019-10-16
JP2019189632 2019-10-16

Publications (3)

Publication Number Publication Date
JP2021064343A true JP2021064343A (ja) 2021-04-22
JP2021064343A5 JP2021064343A5 (ja) 2021-10-28
JP7120258B2 JP7120258B2 (ja) 2022-08-17

Family

ID=75486381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020003134A Active JP7120258B2 (ja) 2019-10-16 2020-01-10 行動認識装置、及び行動認識方法

Country Status (3)

Country Link
US (1) US20220242418A1 (ja)
JP (1) JP7120258B2 (ja)
WO (1) WO2021075348A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116403171B (zh) * 2023-06-08 2023-09-01 松立控股集团股份有限公司 一种车辆重识别方法、系统及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010204984A (ja) * 2009-03-04 2010-09-16 Nissan Motor Co Ltd 運転支援装置
JP2018520444A (ja) * 2015-09-21 2018-07-26 三菱電機株式会社 顔の位置合わせのための方法
JP2019113925A (ja) * 2017-12-21 2019-07-11 株式会社デンソー 居眠り警報装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010204984A (ja) * 2009-03-04 2010-09-16 Nissan Motor Co Ltd 運転支援装置
JP2018520444A (ja) * 2015-09-21 2018-07-26 三菱電機株式会社 顔の位置合わせのための方法
JP2019113925A (ja) * 2017-12-21 2019-07-11 株式会社デンソー 居眠り警報装置

Also Published As

Publication number Publication date
US20220242418A1 (en) 2022-08-04
WO2021075348A1 (ja) 2021-04-22
JP7120258B2 (ja) 2022-08-17

Similar Documents

Publication Publication Date Title
CN107292386B (zh) 使用深度学习的基于视觉的雨水检测
CN108062562B (zh) 一种物体重识别方法及装置
EP3561727A1 (en) A device and a method for extracting dynamic information on a scene using a convolutional neural network
KR101708547B1 (ko) 사상(事象) 검출 장치 및 사상 검출 방법
CN111783505A (zh) 伪造人脸的识别方法、装置和计算机可读存储介质
US20220076117A1 (en) Methods for generating a deep neural net and for localising an object in an input image, deep neural net, computer program product, and computer-readable storage medium
CN110827265B (zh) 基于深度学习的图片异常检测方法
CN111783665A (zh) 一种动作识别方法、装置、存储介质和电子设备
CN111914665A (zh) 一种人脸遮挡检测方法、装置、设备及存储介质
US20230104196A1 (en) Device and a Method for Processing Data Sequences Using a Convolutional Neural Network
CN112560827A (zh) 模型训练方法、装置、预测方法、电子设备及介质
WO2021075348A1 (ja) 行動認識装置、行動認識方法、及び情報生成装置
CN104794446A (zh) 基于合成描述子的人体动作识别方法及系统
CN111611944A (zh) 身份识别方法及装置、电子设备、存储介质
CN110046701B (zh) 在连接网络中处理和生成图像数据的方法
WO2022171590A1 (en) Method for determining a degradation degree of a captured image, computer program product, computer-readable storage medium as well as assistance system
CN111435457B (zh) 对传感器获取的采集进行分类的方法
JP5360143B2 (ja) 走行場面認識モデル生成装置、運転支援装置、及びプログラム
KR102219906B1 (ko) 기계학습을 위한 학습데이터 자동 생성 방법 및 장치
CN110827319B (zh) 一种基于局部敏感直方图改进的Staple目标跟踪方法
JP7013722B2 (ja) 運転支援装置
WO2021112048A1 (ja) 運転分析装置、及び運転分析方法
Palazzi et al. Where should you attend while driving?
CN114863570A (zh) 视频动作识别模型的训练、识别方法、装置以及介质
JPWO2020003392A1 (ja) 運転支援装置および運転モード判断モデル生成装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7120258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151