JP7172968B2 - 運転分析装置、及び運転分析方法 - Google Patents

運転分析装置、及び運転分析方法 Download PDF

Info

Publication number
JP7172968B2
JP7172968B2 JP2019218107A JP2019218107A JP7172968B2 JP 7172968 B2 JP7172968 B2 JP 7172968B2 JP 2019218107 A JP2019218107 A JP 2019218107A JP 2019218107 A JP2019218107 A JP 2019218107A JP 7172968 B2 JP7172968 B2 JP 7172968B2
Authority
JP
Japan
Prior art keywords
driver
driving
analysis device
feature
driving analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019218107A
Other languages
English (en)
Other versions
JP2021089480A (ja
JP2021089480A5 (ja
Inventor
景亮 黒川
要 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019218107A priority Critical patent/JP7172968B2/ja
Priority to PCT/JP2020/044557 priority patent/WO2021112048A1/ja
Publication of JP2021089480A publication Critical patent/JP2021089480A/ja
Publication of JP2021089480A5 publication Critical patent/JP2021089480A5/ja
Priority to US17/826,403 priority patent/US20220284718A1/en
Application granted granted Critical
Publication of JP7172968B2 publication Critical patent/JP7172968B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/50Instruments characterised by their means of attachment to or integration in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/178Warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1868Displaying information according to relevancy according to driving situations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/741Instruments adapted for user detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Evolutionary Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本開示は、ドライバの画像からドライバの状態を分析する技術に関する。
下記特許文献1には、ドライバの目の向き及び頭の向きを検出することで、ドライバの健康悪化の特徴を識別、評価する技術が記載されている。健康悪化の特徴としては、知覚的又は視覚的なドライバの注意散漫、及びドライバの作業負荷の増大が挙げられている。具体的には、運転中のドライバの目が典型的に向く方向である道路正面を見た時間と、道路正面以外を瞥見した時間の合計とから道路正面を注視した割合である道路中心パーセント(以下、PRC)を算出する。そして、PRCを用いて注意散漫及び健康悪化等を評価する。
特開2010-131401号公報
しかしながら、発明者の詳細な検討の結果、特許文献1に記載の従来技術には以下の課題が見出された。
すなわち、従来技術では、PRCを用いて評価が行われるため、ドライバが意図的に正面以外を見た場合にも健康悪化及び注意散漫等と評価されてしまうという課題があった。更に、従来技術では、健康悪化や注意散漫以外の状態、及び意図的なドライバの行動等を的確に評価できないという課題もあった。
本開示の1つの局面は、ドライバの画像から、意図的なドライバの行動を含む様々なドライバの状態を分析する技術を提供することにある。
本開示の一態様は、運転分析装置であって、情報生成部(20:S10~S40)と、取得部(20:50)と、抽出部(20:S60)と、分析部(20:S70)と、を備える。
情報生成部は、車両を運転するドライバの視線が、予め設定された複数の視領域のいずれに向いているかを示す視線方向、及びドライバの目の開閉状態を検出要素として、検出要素の時系列を生成する。取得部は、検出要素の時系列から、予め設定された時間幅を有する時間窓を用いて評価用データを取得する。抽出部とは、検出要素毎に出現頻度を集計した結果を少なくとも含む複数の特徴量を、評価用データから抽出する。分析部は、抽出部にて抽出された複数の特徴量の少なくとも一部を入力とする関数を用いて、ドライバの傾向及び前記ドライバの状態のうち少なくとも一方を分析する。
このような構成によれば、従来技術とは異なり、正面方向を特別視せずに分析が行われるため、ドライバが意図的に正面方向以外を視認している状態を的確に判定でき、これを注意散漫等と誤認することを抑制できる。
また、注視方向に関する情報だけでなく、閉眼状態に関する情報も分析に用いるため、健康悪化や注意散漫等のドライバ状態に関する分析精度を向上させることができる。
運転分析装置の構成を示すブロック図である。 運転分析処理のフローチャートである。 取得画像と、顔検出及び顔特徴点検出の結果とを示す説明図である。 視領域及び眼状態を例示する説明図である。 顔状態を例示する説明図である。 注視領域及び顔向きの生データと評価用データの抽出に用いる時間窓とを例示する説明図である。 顔向きの生データから生成される特徴量を例示する説明図である。 顔状態の集計に用いる所定範囲を例示する説明図である。 注視領域の生データから生成される特徴量を例示する説明図である。 分析結果の提示に用いるレーダチャートである。 レーダチャートに示す統計データの算出方法を例示する説明図である。 レーダチャートから読み取られる視認行為の特徴を例示する説明図である。 関数を利用した分析方法を示す説明図である。 回帰関数の生成に用いる回帰木の説明図である。 特徴量の値を例示すると共に、比較データの生成に関わる制限事項についての説明図である。 勾配ブースティングによって回帰木を生成する学習処理のフローチャートである。 学習用データと教師データに用いる正解ラベルとの関係を示す説明図である。 勾配ブースティングによって生成される回帰関数を用いた分析処理のフローチャートである。 第2実施形態において、ランダムフォレストによって回帰木を生成する学習処理のフローチャートである。 ランダムフォレストによって生成される回帰関数を用いた分析処理のフローチャートである。 分析結果として、ドライバに対する警告や助言を提示する場合の具体的な内容を例示する説明図である。 分析に用いる関数としてニューラルネットワークを用いた場合の説明図である。
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.第1実施形態]
[1-1.構成]
図1に示す運転分析装置1は、車両に搭載され、ドライバの顔向きや視線方向等を分析することでドライバの状態等を分析する。分析の対象となるドライバの状態には、通常、眠気、及び漫然運転が含まれてもよい。
運転分析装置1は、カメラ10と、処理部20とを備える。運転分析装置1は、HMI部30を備えてもよい。なお、処理部20と、カメラ10及びHMI部30とは、直接接続されてもよいし、CAN等の車載ネットワークを介して接続されてもよい。CANは、登録商標であり、Controller Area Networkの略である。
カメラ10は、例えば公知のCCDイメージセンサやCMOSイメージセンサなどを用いることができる。カメラ10は、例えば、車両の運転席に着座したドライバの顔が撮像範囲に含まれるように配置される。カメラ10は、周期的に撮像を実行し、撮像画像のデータを処理部20に出力する。
処理部20は、CPU20aと、例えば、RAM又はROM等の半導体メモリ(以下、メモリ20b)と、を有するマイクロコンピュータを備える。処理部20は、CPU20aがプログラムを実行することで実現される機能を表すブロックとして、運転分析部21と学習部22とを備える。運転分析部21及び学習部22の処理内容については後述する。
HMI部30は、音声出力部31と、メータ表示部32と、HUD表示部33とを備える。なお、HMIは、ヒューマンマシンインタフェースの略である。
音声出力部31は、車両に搭載されたスピーカを介して警告音や音声を発生させる装置である。
メータ表示部32は、車両において計測された車速、エンジン回転数、燃料残量等の計測結果を表示するための装置である。HUD表示部33は、ウィンドシールド又はコンバイナに映像を投影することで、様々な情報を映し出す装置である。HUDは、ヘッドアップディスプレイの略である。メータ表示部32及びHUD表示部33の少なくとも一方の表示画面には、運転分析部21による分析結果を提示するためのエリアが用意される。
[1-2.運転分析処理]
運転分析部21の機能を実現するために処理部20が実行する運転分析処理を、図2のフローチャートを用いて説明する。運転分析処理は、予め設定された周期(例えば、1/20~1/30秒)で繰り返し起動される。
S10では、処理部20は、カメラ10から1フレーム分の画像を取得する。
続くS20では、処理部20は、顔検出処理を実行する。顔検出処理は、S10で取得した画像から、顔が撮像された領域である顔領域を検出する処理である。顔検出処理では、例えば、パターンマッチングを用いることができるが、これに限定されるものではない。顔検出処理の結果、例えば、図3中の枠Wで示す部分が顔領域として検出される。
続くS30では、処理部20は、特徴点検出処理を実行する。特徴点検出処理は、S20で抽出された顔領域の画像を用いて、撮像された顔の向き及び目の状態を特定するのに必要な複数の顔特徴点を検出する処理である。顔特徴点には、目、鼻、口、耳、及び顔等の輪郭における特徴的な部位が用いられる。特徴点検出処理の結果、例えば、図3中の丸印で示す複数の顔特徴点が検出される。
続くS40では、処理部20は、注視領域/顔向き検出処理を実行する。注視領域/顔向き検出処理は、S30で検出された複数の顔特徴点に基づき、顔領域の画像から検出される目の周辺画像を用いて、ドライバが注視する方向、ドライバの眼の開閉状態、及びドライバの顔向きを検出し、検出結果をメモリ20bに蓄積する処理である。なお、メモリ20bには、後述する時間窓の最大幅に相当するフレーム数分の検出結果が少なくとも蓄積される。
ドライバの注視方向は、運転時にドライバに視認される範囲を複数の領域(以下、視領域)に分割して、ドライバがどの視領域を注視しているかによって表す。図4に示すように、視領域には、を左サイドミラー(以下、左ミラー)E1、正面E2、ルームミラー(以下、後ミラー)E3、メータE4、右サイドミラー(以下、右ミラー)E5、コンソールE6、及び手元E7が含まれてもよい。但し、視領域の分割方法は、これらに限定されるものではなく、より細かく分割した視領域を用いてもよいし、ドライバから見た角度等によって分割した視領域を用いてもよい。
ドライバの開閉状態は、ここでは、眼が閉じられることによって、どの視領域も見ていない状態であるか否かを表す。この状態を閉眼E8と表記する。
視領域E1~E7の状態情報は、いずれも、該当する視領域をドライバが注視していると判定された場合に1、それ以外の場合に0となる2値で表される。閉眼E8の状態情報も、ドライバが閉眼の場合に1、それ以外の場合に0となる2値で表される。
視領域E1~E7及び閉眼E8の状態情報は、任意の時刻において、択一的にいずれか一つが1となり、他は全て0となる。
ドライバの顔向きは、図5にその一部を示すように、顔の向きが、ヨー方向θ1、ピッチ方向θ2、及びロール方向θ3のそれぞれについて、どの程度、回転又は傾斜しているかを角度で表す。ヨー方向θ1は、首を軸とした回転の方向の角度を表す。ピッチ方向θ2は、顔の前後方向への傾斜角度を表す。ロール方向θ3は、顔の横方向への傾斜角度を表す。なお、ドライバの顔向きに加えて、ドライバの顔位置を検出してもよい。
以下では、視領域E1~E7及び閉眼E8をまとめて眼状態E1~E8と称し、ドライバの顔向きを表すヨー方向θ1、ピッチ方向θ2、ロール方向θ3をまとめて顔状態θ1~θ3と称する。
なお、S30及びS40の処理では、例えば、本願出願人が特願2019-108028号にて提案した、回帰関数を用いて特徴点の検出や注視方向を検出する方法等を用いることができる。
続くS50では、処理部20は、メモリ20bに蓄積された眼状態E1~E8、及び顔状態θ1~θ3の時系列データから、時間窓を用いて評価用データを抽出する。時間窓は、図6に示すように、現時刻を基準として、過去、所定の時間幅に設定される。時間幅は、分析対象に応じて異なる長さに設定されてもよい。例えば、前方不注意の検出に用いる場合は、比較的短い時間幅T1(例えば、3秒程度)に設定する。周辺環境の確認に用いる場合は、より長い時間幅T2(例えば、15秒程度)に設定する。眠気の検出に用いる場合は、更に長い時間幅T3(例えば、30秒程度)に設定する。
図6に示す注視領域の生データは、眼状態E1~E8の中で値が1となる眼状態を、時間軸に沿って並べることで生成される。時間窓の時間幅T1~T3は、当該運転分析処理での分析結果を利用するアプリケーションに応じて切り替えてもよいし、複数種類の時間幅T1~T3が同時に用いられてもよい。顔向きの生データは、車両の進行方向を基準にして表された顔状態θ1~θ3の角度を、時間軸に沿って並べたものである。
続くS60では、処理部20は、抽出された評価用データを用いて、特徴量を抽出する。
特徴量には、眼状態E1~E8の値が1となる頻度(すなわち、画像フレームの数)を、眼状態E1~E8毎に集計した結果が含まれてもよい。また、特徴量には、一つの眼状態における状態の継続時間、遷移間隔等が含まれてもよい。更に、第1の眼状態から第2の眼状態への遷移(例えば、正面→右ミラー等)の頻度及び遷移間隔等が含まれてもよい。
特徴量には、注視領域の生データ中の閉眼E8に着目することで算出される、単位時間当たりの閉眼時間(以下、PERCLOS)、単位時間当たりの閉眼回数(以下、閉眼頻度)、閉眼周期、及び1回当たりの平均閉眼時間等が含まれてもよい。
特徴量には、顔状態θ1~θ3に基づき、図7に示すように、正面方向を基準とした所定角度範囲を範囲内、それ以外を範囲外として、範囲内及び範囲内のそれぞれについて該当する頻度を集計した結果が含まれてもよい。なお、所定角度範囲は、正面方向に対する両側で同じ角度に設定されてもよいし、図8に示すように、正面方向に対する両側でそれぞれ異なる角度に設定されてもよい。また、特徴量には、範囲内にある顔向き角度の平均値、及び分散値が含まれてもよい。更に、特徴量には、評価用データに顔位置が含まれる場合は、予め設定された典型的な顔位置毎の頻度や、顔位置が変化するときの移動速度等が含まれてもよい。
つまり、画像フレームが取得される毎に、時間窓の範囲が1フレーム分ずつずれた評価データに基づく複数の特徴量が得られる。図9は、眼状態E1~E8を集計することで得られる特徴量が時間の経過に従って変化する様子をグラフ形式で表現した図である。
続くS70では、処理部20は、S60で抽出された特徴量を用いてドライバの状態等を分析する分析処理を実行する。
続くS80では、処理部20は、S70での分析結果を、HMI部30を介してドライバに提示して処理を終了する。分析結果の提示方法は、画像を用いてもよいし、音声を用いてもよい。
なお、S10~S40が情報生成部、S50が取得部、S60が抽出部、S70が分析部、S80が表示部に相当する。
[1-3.分析及び分析結果の提示]
次に、S70での分析処理、及びS80での分析結果の提示方法の具体例について説明する。
[1-3-1.例1:レーダチャート]
S70での分析は、例えば、特定のドライバ状態に関連すると考えられる特徴量の一部を抽出して、予め用意された統計データと比較することが考えられる。この場合、S80での分析結果の提示は、図10に示すように、レーダチャートの画像を表示することが考えられる。
具体的には、抽出する特徴量として、例えば、注視方向が、正面E2、左ミラーE1、右ミラーE5、バックミラーE3である場合の集計値を用いてもよい。また、抽出する特徴量として、顔向きがヨー方向θ1の所定範囲外(以下、大ヨー)である場合の集計値を用いてもよい。更に、抽出する特徴量として、閉眼E8に基づく特徴量であるPERCLOS、閉眼時間、及び平均閉眼時間等を用いてもよい。
また、比較対象となる統計データとしては、図11に示すように、予め集計された全ドライバについてのデータの平均値を用いてもよいし、ある条件で抽出される一部のドライバについてのデータの平均値を用いてもよい。なお、統計データが基準値に相当する。ドライバの抽出に用いる条件としては、性別、年齢、運転経験等を用いてもよい。また、ドライバによらず、データの抽出に用いる条件として、地域、時間帯、及び天候等を用いてもよい。
なお、レーダチャートによる表示を確認することで、例えば、図12に示すような分析結果を得ることができる。図12中の左側のレーダチャートでは、前方の注視が突出し、ミラーの注視が少ないという傾向から、ドライバの視認行為の特徴として、車両周辺の確認が弱いことがわかる。また、図12中の右側のレーダチャートでは、前方の注視が非常に少ないという傾向から、ドライバの視認行為の特徴として、脇見をしており前方不注意であることがわかる。
[1-3-2.例2:関数を用いた分析]
S70での分析処理では、例えば、図13に示すように、S60にて生成された特徴量の少なくとも一部を入力情報群Iとし、予め用意された関数を用いて分析結果であるドライバの傾向やドライバの状態を出力してもよい。ここでは、勾配ブースティングを用いた回帰関数を用いて、ある一つのドライバ状態を分析結果として出力する場合について説明する。つまり、複数のドライバ状態を分析する場合は、分析対象となるドライバ状態毎に異なる回帰関数が用いられる。
関数の入力となる入力情報群Iには、先に説明した、レーダチャートに用いる8個の特徴量が含まれてもよい。関数の出力となるドライバ状態には、「通常」「眠気」及び「漫然運転」が含まれてもよい。また、ドライバ傾向を出力とする場合は、図12に示すように「前方への注視が多い/少ない」「ミラーへの注視が多い/少ない」等が含まれてもよい。
[1-3-2-1.概要]
入力情報群Iは、先に説明したように、時間窓を画像の1フレーム分ずつ時間をずらしながら適用する、いわゆるスライディングウインドを用いて、1フレーム毎に連続的に抽出される。分析処理は、1フレーム毎に抽出される入力情報群Iのそれぞれに対して実行される。
ここで、関数は、分析結果としてスコアベクトルAを出力する。スコアベクトルAは、分析対象となるドライバ状態に該当する場合に1となる要素と、該当しない場合に1となる要素とを有する。つまり、スコアベクトルAは、2個の要素a,aを持つベクトルであり、(1)式で表される。スコアベクトルAは、いずれかの要素の値が大きく、他の要素の値が小さくなるようなワンホット形式をとり、最終的により大きな値を有する要素に基づいて認識結果(すなわち、分析対象となるドライバ状態に該当する/該当しない)が得られる。
Figure 0007172968000001
分析処理では、(2)式に示すように、スコアベクトルの初期値A(0)を与え、修正量Rによって、スコアベクトルAを修正することで、ドライバ状態の分析結果を表すスコアベクトルAを算出する。
Figure 0007172968000002
修正量Rは、(3)式に示すように、時間窓によって切り出された入力情報群Iを、修正関数Fに作用させることで得られる。修正関数Fは、勾配ブースティングを用いた回帰関数の加法モデルを適用した関数である。このような回帰関数は、例えば、“One Millisecond Face Alignment with an Ensemble of Regression Trees” Vahid Kazemi and Josephine Sullivan, The IEEE Conference on CVPR,2014,1867-1874(以下、参考文献1)、及び、“Greedy Function Approximation : A gradient boosting machine” Jerome H. Friedman, The Annals of Statistics Volume 29, Number 5 (2001),1189-1232(以下、参考文献2)等に示される。
Figure 0007172968000003
修正関数Fは、予め用意されたI個の回帰木RT~RTを用いて回帰的に値が決定される関数であり、(4)式で定義される。Iは1以上の整数である。回帰木RT~RTは、木構造をとる弱仮説の集合である。Fは修正関数Fの初期値、Gは回帰木インデックスiで識別される回帰木RTによって値が決定される回帰関数であり、i=1,2,…,Iである。また、γは学習率であり、0<γ<1に設定される。γの値を小さくすることで、過学習となることを抑制する。
Figure 0007172968000004
I個の回帰木RT~RTは、いずれも同様の構造を有する。例えば、図14に示すように、回帰木RTとして、ノードを順次二つに分岐させる二分木が用いられる。回帰木RTの枝の分岐点となるノードを通常ノード41、回帰木RTの葉となるノードを末端ノード42という。通常ノード41を識別するノードインデックスをkとすると、k番目の通常ノード41には、比較データXと、閾値THとが対応づけられる。比較データX及び閾値THは、通常ノード41からいずれの下位ノードに分岐するかを決める分岐判定に使用される。末端ノード42のそれぞれには回帰木RTにより算出される回帰量Gの具体的な値ri1~ri8が対応づけられる。なお、回帰木RTを形成するノードのうち、末端ノード42を除いた、通常ノード41の数をK個とする。Kは1以上の整数である。
比較データXは、入力情報群Iに属するM個の特徴量X~Xのいずれかを用いてもよい。Mは1以上の整数である。また、M個の特徴量X~Xから選択される複数の特徴量に対して何等かの演算を行った結果を用いてもよい。但し、特徴量に対する演算結果を比較データXとする場合、図15に示すように、単位が同じ特徴量を選択する必要がある。例えば、眼状態E1~E8の集計値をそのまま用いる特徴量は、いずれもカウント値であるため、これらの間での演算結果を比較データXとすることは可能である。しかし、PERCLOS、閉眼頻度、及び平均閉眼時間を表す特徴量は、時間や割合を表しており、集計値をそのまま用いる特徴量との間での演算結果を比較データXとすることは不能である。
図14に戻り、回帰木RTのノードインデックスkで特定される各通常ノード41では、比較データXが、閾値THよりも小さいか否かに応じて、次階層の通常ノード41又は末端ノード42に至るいずれの枝を選択するかが決定される。つまり、各通常ノード41での比較結果に従って、回帰木RTの枝を順次選択する処理を繰り返すことで複数ある末端ノード42のいずれかに到達する。到達した末端ノード42に対応付けられた回帰量ri1,ri2,ri3,…いずれかが回帰関数Gの値となり、ひいては修正関数Fの値の一部となる。
このように、分析処理では、スコアベクトルAの初期値A(0)と、修正関数Fの初期値Fと、回帰木RTを定義するパラメータ(すなわち、比較データX~X,閾値TH~TH,回帰量ri1,ri2,ri3,…)とが事前に用意されている必要がある。以下では、これらのパラメータを総称して分析用パラメータという。
分析用パラメータは、処理部20の学習部22が学習処理を実行することで生成される。但し、学習処理は、必ずしも処理部20で実行される必要は無く、処理部20以外の装置にて実行されてもよい。
[1-3-2-2.学習]
分析用パラメータを設定するための学習処理について、図16のフローチャートを用いて説明する。学習処理を実行する際に、メモリ20bには、学習用に用意された眼状態E1~E8、及び顔状態θ1~θ3の時系列データ(以下、学習用時系列データ)が記憶される。学習用時系列データは、不特定多数のドライバが様々な状況で運転を行うことで得られるデータである。なお、学習用時系列データには、フレーム単位で、ドライバ状態の正解ラベルが予め付与される。なお正解ラベルは、例えば、図17に示すように、学習用時系列データの収集と平行して、ドライバの状態の主観評価、客観評価を収集し、その主観評価及び客観評価からドライバ状態を推定することで生成される。主観評価は、例えば「眠気を感じた」「ぼーっとしていた」等であり、客観評価は、「あくびをしていた」「首が傾いていた」「正面のみ見ていた」等である。
S110では、処理部20は、メモリ20bに記憶された学習用時系列データから、時間窓を用いて切り出されたN個の入力情報群Iのそれぞれを学習データとして、学習データ毎に、スコアベクトルAの正解値(以下、教師データ)A~Aを生成する。Nは1以上の整数である。
具体的には、学習データに含まれる画像のフレーム毎に付与された正解ラベルを参照して、教師データA~Aを生成する。n=1,2,…,Nとして、n番目の学習データに含まれる各画像のフレームに付与された正解ラベルに基づき、分析対象となるドライバ状態に該当する場合にはA=(1,0)に設定し、該当しない場合にはA=(0,1)に設定する。
続くS120では、処理部20は、スコアベクトルの初期値A(0)を算出する。スコアベクトルの初期値A(0)は、例えば、S110で生成された教師データA~Aの平均値を用いてもよい。
続くS130では、処理部20は、(5)式に従って、N個の学習データのそれぞれについて、教師データAとスコアベクトルの初期値A(0)との差分である修正残差ΔAを算出する。
Figure 0007172968000005
続くS140では、処理部20は、修正量Rの算出に用いる修正関数Fの初期値F0を、(6)式を用いて算出する。
Figure 0007172968000006
(6)式は、各学習データにおける修正残差ΔAと、スコアベクトルAと同じ次元を有する任意のベクトルVとの距離を、全ての学習データについて合計したときに、その合計値を最小にするベクトルVを修正関数Fの初期値Fとすることを意味する。
続くS150では、処理部20は、回帰木RT~RTの識別に用いる回帰木インデックスiを1に初期化する。
続くS160では、処理部20は、学習データ毎に、残り修正量c~cを(7)式を用いて算出する。
Figure 0007172968000007
続くS170では、処理部20は、学習データを用いて、回帰木RTの各通常ノード41で用いる比較データX~X及び閾値TH~THを順次設定することで回帰木RTを生成する。なお、回帰木RTの生成には、例えば、上述した参考文献1の2.3.2項に記載される方法を用いてもよい。特に、比較データX~Xの選択は、選択可能な全ての比較データ候補の中から、ランダムに選択してもよいし、総当たりで最適なものを探索してもよい。
なお、比較データX~Xを、このような学習によって選択することは、選択可能な全ての比較データ候補の中から、ドライバ状態の分析において寄与率の高い特徴に対応づけられる比較データを、自動的に選択することを意味する。
続くS180では、処理部20は、S170で選択した比較データX~Xを、学習データを分類する際の指標とし、すべての学習データにおいて残り修正量c~cに近い値が得られるような閾値TH~THを設定することで回帰木RTを生成する。すなわち、回帰木RTによって実現される回帰関数Gを生成する。
続くS190では、処理部20は、S180で生成された回帰関数Gを用いて、(8)式により、修正関数Fを更新する。
Figure 0007172968000008
続くS200では、処理部20は、回帰木インデックスiを1増加させる。
続くS210では、処理部20は、i>Iであるか否かを判定する。S210において否定判定された場合は、新たな回帰木RTを作成するために処理をS160に戻し、S210において肯定判定された場合は、処理を終了させる。
学習処理では、1つの修正関数FのためにI個の回帰関数G~G(すなわち、I個の回帰木RT~RT)が生成される。
[1-3-2-3.分析処理]
処理部20が、先のS70にて実行する分析処理について、図18のフローチャートを用いて説明する。分析処理では、上述の学習処理によって生成された分析用パラメータが用いられる。分析処理は、S10にて画像が取得される毎、すなわち1フレーム毎に行ってもよいし、複数フレーム毎に行ってもよい。
まずS310では、処理部20は、回帰木インデックスiを1に初期化する。
続くS320では、処理部20は、回帰木インデックスiで識別される回帰木RTと、S60で取得された入力情報群Iと、学習処理で算出された回帰木RTiの判定用パラメータとを用いて回帰関数Gの値を取得し、(8)式を用いて修正関数Fを更新する。
続くS330では、処理部20は、回帰木インデックスiを1増加させる。
続くS340では、処理部20は、i>Iであるか否かを判定する。つまり、I個の回帰木RT~RTの全てが修正関数Fの算出に用いられたか否かを判定する。処理部20は、S340において否定判定された場合は処理をS320に戻し、S340において肯定判定された場合は処理をS350に進める。S320~S340の処理により、最終的に(4)式に示された修正関数Fが算出され、(3)式に示すように、この修正関数Fによって得られる値が、スコアベクトルの初期値A(0)に対する修正量Rとなる。
S350では、処理部20は、(2)式を用いて修正されたスコアベクトルAを生成する。
続くS360では、処理部20は、修正されたスコアベクトルAのうち、より大きい値(以下、最大スコアSC)を有する要素を抽出する。
続くS370では、処理部20は、抽出された最大スコアSCが予め設定された閾値THsより大きいか否かを判定する。THsは、分析結果の信頼性を判定するための閾値である。処理部20は、SC>THsであれば処理をS380に進め、SC≦THsであれば処理をS390に進める。
S380では、処理部20は、最大スコアSCを有する要素に対応づけられた分析結果、すなわち、分析対象のドライバ状態に該当する又は該当しないを出力して、処理を終了する。
S390では、処理部20は、スコアベクトルAに示された分析結果の信頼性が低いものとして、分析結果を無効化して、処理を終了する。
[1-4.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1a)本実施形態では、眼状態E1~E8及び顔状態θ1~θ3から抽出される特徴量を用いて分析対象のドライバ状態に該当するか否かを分析し、分析結果をドライバに提示する。つまり、従来技術とは異なり、正面方向を特別視せずに分析が行われるため、ドライバが意図的に正面方向以外を視認している状態を的確に判定でき、これを注意散漫等と誤認することを抑制できる。
(1b)本実施形態では、分析結果の提示方法としてレーダチャートを用い、ドライバ自身について抽出された特徴量と共に、不特定多数のドライバの平均値等の統計データを提示する。このため、ドライバに、ドライバ自身と他者と比較を簡単に行わせることができる。その結果、ドライバに、運転時におけるドライバ自身の傾向及び特徴を容易に理解させることができる。
(1c)本実施形態では、特徴量の少なくとも一部を入力情報群Iとして、勾配ブースティングにより生成される回帰関数を用いて分析対象となるドライバ状態に該当するか否かを推定し、これを分析結果として出力する。このため、ドライバ状態と特徴量との関係について、専門的な知識がなくても、回帰関数の生成を行うことができ、精度の高い分析を行うことができる。
(1d)本実施形態では、注視方向に関する情報だけでなく、閉眼状態に関する情報も分析に用いるため、健康悪化や注意散漫等のドライバ状態に関する分析精度を向上させることができる。
[2.第2実施形態]
[2-1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
上記実施形態では、分析に用いる回帰関数(すなわち、回帰木)の生成に、勾配ブースティングを用いる。これに対し、第2実施形態では、回帰関数の生成に、ランダムフォレストを用いる点で、第1実施形態と相違する。
[2-2.学習処理]
次に、第2実施形態の処理部20が学習部22としての機能を実現するために、図16を用いて説明した第1実施形態の学習処理に代えて実行する学習処理について、図19のフローチャートを用いて説明する。
学習処理を実行する際には、第1実施形態の場合と同様に、メモリ20bに学習用の状態情報が記憶される。学習用の状態情報には、フレーム単位で、ドライバ状態の正解ラベルが予め付与される。ここでは、ドライバ状態の正解ラベルとして、ドライバが眠気を感じていない状態(以下、通常)を0、ドライバが眠気を感じている状態(以下、眠気)を1とする。
S510では、処理部20は、S310での処理と同様に、時間窓を用いて切り出されたN個の入力情報群Iを学習データとして、学習データ毎に、正解値である教師データA~Aを生成する。教師データは、0又は1の値をとる。
続くS520では、処理部20は、回帰木インデックスiを1に初期化する。
続くS530では、処理部20は、学習データのそれぞれから、M個の特徴量X~Xを抽出する。なお、M個の特徴量は、回帰木インデックスi毎に、M個より多数の特徴量候補の中から異なる組み合わせパターンで抽出される。
続くS540では、処理部20は、S530で抽出した特徴量X~Xを、回帰木RTが有する各ノードにおいて学習データを分類する際の指標として用いて、回帰木RTiを生成する。
具体的には、着目する通常ノード41に割り当てられた学習データのそれぞれを、特徴量Xが閾値aより大きいか否かによって、下位の二つのノードに振り分ける。このとき、振り分けられた学習データを用いて下位のノード毎に誤差Qを算出し、この誤差Qが最小となるように閾値aを選定することで回帰木RTを生成する。すなわち、回帰木RTによって実現される回帰関数Gを生成する。
なお、回帰木RTを生成する際に、回帰木RTの頂点に位置するノードNには、全ての学習データが割り当てられる。また、誤差Qは、以下のように算出する。すなわち、下位の二つのノードのうち、一方には「通常」を表す割当値0、他方には「眠気」を表す割当値1を割り当て、それぞれのノードに割り当てられた学習データの教師データと、そのノードの割当値との二乗誤差を誤差Qとする。
続くS550では、処理部20は、回帰木インデックスiを1増加させる。
続くS560では、処理部20は、回帰木インデックスiが回帰関数の生成に使用する回帰木RTiの総数Iより大きいか否かを判定し、i>Iであれば処理を終了し、i≦Iであれば処理をS530に戻し、新たな回帰木を生成するために、M個の特徴量の選定から再度処理を始める。
学習処理により、I個の回帰木RT~RTが生成される。具体的には、回帰木RTを構成する通常ノード41のそれぞれについて設定される比較データXik及び閾値aikと、末端ノード42のそれぞれについて設定される出力値とが、分析用パラメータとして生成される。なお、kは、回帰木RTを構成する個々のノードを識別するインデックスである。
[2-3.分析処理]
次に、第2実施形態の処理部20が運転分析部21としての機能を実現するために、図18を用いて説明した第1実施形態の分析処理に代えて実行する分析処理について、図20のフローチャートを用いて説明する。分析処理では、上述の学習処理によって生成された分析用パラメータが用いられる。
S710では、処理部20は、回帰木インデックスiを1に初期化すると共に、合計スコアSCを0に初期化する。
続くS720では、処理部20は、回帰木RTにて比較データとして使用する特徴量X~Xを、入力情報群Iから抽出する。
続くS730では、処理部20は、S720で抽出した特徴量X~Xを用いて、回帰木RTを順次辿ることで出力値rを取得する。
続くS740では、処理部20は、合計スコアSCに出力値rを加算することで、合計スコアSCを更新する。
続くS750では、処理部20は、回帰木インデックスiを1増加させる。
続くS760では、処理部20は、回帰木インデックスiが回帰関数の生成に使用する回帰木RTの総数Iより大きいか否かを判定し、i>Iであれば処理をS770に移行し、i≦Iであれば処理をS720に戻す。
続くS770では、処理部20は、合計スコアSCが予め設定された閾値THsより大きいか否かを判定し、SC>THsであれば処理をS780に移行し、SC≦THsであれば処理をS790に移行する。
S780では、処理部20は、分析対象のドライバ状態、すなわち「眠気」に該当する旨を、分析結果として出力して処理を終了する。
S790では、処理部20は、分析対象のドライバ状態に該当せず、ドライバ状態は「通常」に該当する旨を、分析結果として出力して処理を終了する。
[2-4.効果]
以上詳述した第2実施形態によれば、上述した第1実施形態の効果(1a)~(1d)と同様の効果を奏する。
[3.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(3a)上記実施形態では、分析結果であるドライバ状態をドライバに提示しているが、本開示はこれに限定されるものではない。例えば、図21に示すように、分析されたドライバ状態に適した警告や助言を提示してもよい。また、提示の仕方は、画像に限らず音声を用いてもよい。
(3b)上記実施形態では、分析処理に使用する関数の生成に回帰木を用いているが、本開示はこれに限定されるものではない。例えば、サポートベクターマシンや、図22に示すようなニューラルネットワーク等を用いてもよい。
(3c)上記実施形態では、分析処理による分析結果を、HMI部30を介してドライバに提示しているが、本開示はこれに限定されるものではなく、分析結果を、例えば、運転支援のための車両制御等に用いてもよい。
(3d)上記実施形態では、ドライバの顔画像から抽出される眼状態E1~E8、及び顔状態θ1~θ3から抽出される特徴量を分析処理に用いているが、本開示は、これに限定されるものではない。これらの特徴量に加え、例えば、ドライバの運転操作を表す情報、車両の挙動を表す情報、及び車両の周囲状況を表す情報等から抽出される特徴量を用いてもよい。
(3e)本開示に記載の処理部20及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の処理部20及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の処理部20及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。処理部20に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(3f)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(3g)上述した運転分析装置1の他、運転分析装置1を構成要素とするシステム、運転分析装置1を構成する処理部20としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、及び運転分析方法など、種々の形態で本開示を実現することもできる。
1…運転分析装置、10…カメラ、20…処理部、20a…CPU、20b…メモリ、21…運転分析部、22…学習部、30…HMI部、31…音声出力部、32…メータ表示部、33…HUD表示部、41…通常ノード、42…末端ノード。

Claims (8)

  1. 車両を運転するドライバの視線が、予め設定された複数の視領域のいずれに向いているかを示す視線方向、及び前記ドライバの目の開閉状態を検出要素として、前記検出要素の時系列を生成するように構成された情報生成部(20:S10~S40)と、
    前記検出要素の時系列から、予め設定された時間幅を有する時間窓を用いて評価用データを取得するように構成された取得部(20:50)と、
    前記検出要素毎に出現頻度を集計した結果を少なくとも含む複数の特徴量を、前記評価用データから抽出するように構成された抽出部(20:S60)と、
    前記抽出部にて抽出された前記複数の特徴量の少なくとも一部を入力とする関数を用いて、前記ドライバの傾向を分析するように構成された分析部(20:S70)と、
    を備える運転分析装置。
  2. 請求項1に記載の運転分析装置であって、
    前記抽出部にて抽出された前記複数の特徴量の少なくとも一部をレーダチャートの形式で表示するように構成された表示部(20:S80)を更に備える、
    運転分析装置。
  3. 請求項2に記載の運転分析装置であって、
    前記表示部は、前記レーダチャートに示す基準値として、不特定多数のドライバについての前記特徴量の平均値、及び当該運転分析装置での分析対象となる前記ドライバについて過去に取得された前記特徴量の平均値のうちいずれかを用いる
    運転分析装置。
  4. 請求項1から請求項3までのいずれか1項に記載の運転分析装置であって、
    前記抽出部にて抽出される前記特徴量には、同一の前記検出要素内又は複数の前記検出要素間での状態遷移の特徴を表す値が含まれる
    運転分析装置。
  5. 請求項1から請求項4までのいずれか1項に記載の運転分析装置であって、
    前記分析部は、前記関数として、ランダムフォレスト、及び勾配ブースティングのうちいずれかを用いて得られる回帰関数を用いる
    運転分析装置。
  6. 請求項5に記載の運転分析装置であって、
    前記分析部は、前記回帰関数の生成に用いる回帰木の各ノードでの分岐判定に用いる比較データとして、前記複数の特徴量から選択された2つ以上の対象特徴量による演算結果が少なくとも用いられ、
    前記対象特徴量には、値の単位が同じである前記特徴量が選択される
    運転分析装置。
  7. 請求項1から請求項4までのいずれか1項に記載の運転分析装置であって、
    前記分析部は、前記関数として、サポートベクターマシン、及びニューラルネットのうちいずれかを用いる
    運転分析装置。
  8. 車両を運転するドライバの視線が、予め設定された複数の視領域のいずれに向いているかを示す視線方向、及び前記ドライバの目の開閉状態を検出要素として、前記検出要素の時系列を生成し、
    前記検出要素の時系列から、予め設定された時間幅を有する時間窓を用いて評価用データを取得し、
    前記検出要素毎に出現頻度を集計した結果を少なくとも含む複数の特徴量を、前記評価用データから抽出し、
    抽出された前記複数の特徴量の少なくとも一部を入力とする関数を用いて、前記ドライバの傾向を分析する
    運転分析方法。
JP2019218107A 2019-12-02 2019-12-02 運転分析装置、及び運転分析方法 Active JP7172968B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019218107A JP7172968B2 (ja) 2019-12-02 2019-12-02 運転分析装置、及び運転分析方法
PCT/JP2020/044557 WO2021112048A1 (ja) 2019-12-02 2020-11-30 運転分析装置、及び運転分析方法
US17/826,403 US20220284718A1 (en) 2019-12-02 2022-05-27 Driving analysis device and driving analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019218107A JP7172968B2 (ja) 2019-12-02 2019-12-02 運転分析装置、及び運転分析方法

Publications (3)

Publication Number Publication Date
JP2021089480A JP2021089480A (ja) 2021-06-10
JP2021089480A5 JP2021089480A5 (ja) 2022-01-04
JP7172968B2 true JP7172968B2 (ja) 2022-11-16

Family

ID=76220640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019218107A Active JP7172968B2 (ja) 2019-12-02 2019-12-02 運転分析装置、及び運転分析方法

Country Status (3)

Country Link
US (1) US20220284718A1 (ja)
JP (1) JP7172968B2 (ja)
WO (1) WO2021112048A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114066297B (zh) * 2021-11-24 2023-04-18 西南交通大学 一种高速铁路行车调度员工作状态识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009261516A (ja) 2008-04-23 2009-11-12 Toyota Motor Corp 覚醒度推定装置
JP2017211882A (ja) 2016-05-26 2017-11-30 トヨタ自動車株式会社 車両の自動運転制御システム
JP2018075255A (ja) 2016-11-10 2018-05-17 株式会社デンソー 状態推定装置、及び状態推定方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3480483B2 (ja) * 1997-03-31 2003-12-22 三菱自動車工業株式会社 覚醒度推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009261516A (ja) 2008-04-23 2009-11-12 Toyota Motor Corp 覚醒度推定装置
JP2017211882A (ja) 2016-05-26 2017-11-30 トヨタ自動車株式会社 車両の自動運転制御システム
JP2018075255A (ja) 2016-11-10 2018-05-17 株式会社デンソー 状態推定装置、及び状態推定方法

Also Published As

Publication number Publication date
US20220284718A1 (en) 2022-09-08
JP2021089480A (ja) 2021-06-10
WO2021112048A1 (ja) 2021-06-10

Similar Documents

Publication Publication Date Title
TWI741512B (zh) 駕駛員注意力監測方法和裝置及電子設備
CN109740466B (zh) 广告投放策略的获取方法、计算机可读存储介质
Li et al. Modeling of driver behavior in real world scenarios using multiple noninvasive sensors
CN105389554B (zh) 基于人脸识别的活体判别方法和设备
JP4622702B2 (ja) 映像監視装置
CN108309311A (zh) 一种列车驾驶员实时盹睡检测装置及检测算法
CN109460703B (zh) 一种基于心率和面部特征的非侵入式疲劳驾驶识别方法
JP5225870B2 (ja) 情動分析装置
CN110765807A (zh) 驾驶行为分析、处理方法、装置、设备和存储介质
Celona et al. A multi-task CNN framework for driver face monitoring
CN113920491A (zh) 基于面部骨架模型的疲劳检测系统、方法、介质、检测设备
Hasan et al. State-of-the-art analysis of modern drowsiness detection algorithms based on computer vision
CN113989788A (zh) 一种基于深度学习和多指标融合的疲劳检测方法
JP7172968B2 (ja) 運転分析装置、及び運転分析方法
Li et al. Classification of eye movement and its application in driving based on a refined pre-processing and machine learning algorithm
CN113413134B (zh) 疲劳识别方法、装置、电子设备及存储介质
Palazzi et al. Where should you attend while driving?
WO2022024272A1 (ja) 情報処理システム、データ蓄積装置、データ生成装置、情報処理方法、データ蓄積方法、データ生成方法及び記録媒体、並びに、データベース
Lochbihler et al. Assessing Driver Gaze Location in a Dynamic Vehicle Environment
JP7120258B2 (ja) 行動認識装置、及び行動認識方法
Gong et al. Face detection and status analysis algorithms in day and night enivironments
Subbaiah et al. Driver drowsiness detection methods: A comprehensive survey
Ibnouf et al. Drowsy Driver Detection System For Poor Light Conditions
US20240153285A1 (en) Prediction of human subject state via hybrid approach including ai classification and blepharometric analysis, including driver monitoring systems
US20220117529A1 (en) System and method for determining an eye movement

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R151 Written notification of patent or utility model registration

Ref document number: 7172968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151