JP2019091272A - 運転者状態判定装置とその方法およびプログラム - Google Patents

運転者状態判定装置とその方法およびプログラム Download PDF

Info

Publication number
JP2019091272A
JP2019091272A JP2017219876A JP2017219876A JP2019091272A JP 2019091272 A JP2019091272 A JP 2019091272A JP 2017219876 A JP2017219876 A JP 2017219876A JP 2017219876 A JP2017219876 A JP 2017219876A JP 2019091272 A JP2019091272 A JP 2019091272A
Authority
JP
Japan
Prior art keywords
driver
learning
unit
vehicle
statistical information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017219876A
Other languages
English (en)
Other versions
JP6720951B2 (ja
Inventor
将士 田中
Masashi Tanaka
将士 田中
義朗 松浦
Yoshiro Matsuura
義朗 松浦
啓輔 横田
Keisuke Yokota
啓輔 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Nidec Mobility Corp
Original Assignee
Omron Corp
Omron Automotive Electronics Co Ltd
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Automotive Electronics Co Ltd, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017219876A priority Critical patent/JP6720951B2/ja
Priority to DE102018127163.8A priority patent/DE102018127163B4/de
Priority to CN201811300296.3A priority patent/CN109784135A/zh
Priority to US16/179,985 priority patent/US11062158B2/en
Publication of JP2019091272A publication Critical patent/JP2019091272A/ja
Application granted granted Critical
Publication of JP6720951B2 publication Critical patent/JP6720951B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0088Adaptive recalibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Abstract

【課題】運転者個々の個人差に依らず安全で精度の高い運転者状態判定を可能にする。
【解決手段】脇見等の運転者の状態を判定する運転者状態判定装置10の統計演算部14は、運転者監視センサ21から出力された車両の運転者の画像を含む第1のセンシングデータに基づいて、運転者の顔または視線の方向を判定し、車両の正面方向に対して運転者が正面として顔または視線を保持する方向についての統計情報を演算し、この統計情報に基づいて、車両の正面方向として設定された基準方向に対し、判定された運転者の顔または視線の方向を校正する。そして、運転者状態判定部15は、この校正された運転者の顔または視線の方向の基準方向からの乖離度に基づいて、運転者の状態を判定する。
【選択図】図1

Description

この発明の実施形態は、例えば車両の運転者の脇見状態を判定する運転者状態判定装置とその方法およびプログラムに関する。
近年、乗用車等の車両走行時に、運転者を支援するための各種装置が車両に搭載されるようになってきている。その一つに、車両の運転者の特定の状態、例えば、運転者の顔の方向又は視線方向を検出して、運転者が脇見をしているかどうかを判定し、脇見状態であれば警告を発する脇見運転判定装置が知られている。運転者の顔の方向又は視線方向が正面方向から所定角度以上ずれているときに、脇見をしていると判定するのが一般的である。ところが、この運転者の正面方向は車両の正面方向と必ずしも一致するものではなく、個人差が存在する。すなわち、運転者が正面として顔または視線を保持する方向は、個人により数度から十数度の違いがあることが知られている。
そこで、例えば、特許文献1には、脇見と判定された頻度と脇見ではないと判定された頻度との比に応じて、脇見判定の基準値を変更する脇見運転判定装置が提案されている。この装置では、その運転者に合った基準値を設定することで、運転者個々の個人差を補正して運転者の個人差により変化することのない精度の高い脇見判定を行うことができるようにしている。
特開平8−207617号公報
特許文献1に記載された技術では、運転者に応じて、脇見かどうかの判定基準値が変更される。しかしながらこの変更は、脇見の多い運転者に対しては判定基準を緩くするというものであり、運転者の個人差に応じて運転者の状態判定の精度は保証されるが、安全性の観点からは望ましいものではない。
この発明は上記事情に着目し、その目的の一つは、運転者個々の個人差に依らず安全で精度の高い運転者状態判定をできるようにした、運転者状態判定装置とその方法およびプログラムを提供しようとするものである。
上記課題を解決するためにこの発明の第1の態様は、運転者状態判定装置が、第1のセンサから出力された、車両の運転者の画像を含む第1のセンシングデータに基づいて、前記運転者の顔または視線の方向を判定し、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向についての統計情報を繰り返し演算する演算部と、前記演算部によって演算された前記統計情報に基づいて、前記車両の正面方向として設定された基準方向に対して前記演算部によって判定された前記運転者の顔または視線の方向を校正する、または、前記基準方向を校正する校正部と、前記校正部によって校正された前記運転者の顔または視線の方向の前記基準方向からの乖離度に基づいて、または、前記演算部によって判定された前記運転者の顔または視線の方向の前記校正部によって校正された前記基準方向からの乖離度に基づいて、前記運転者の状態を判定する第1の判定部と、前記第1の判定部の判定結果を、前記運転者に対して出力する出力部と、を具備するようにしたものである。
この発明の第1の態様によれば、運転者状態判定装置では、演算部により、第1のセンサから出力された第1のセンシングデータに基づいて、運転者の顔または視線の方向を判定し、車両の正面方向に対して運転者が正面として顔または視線を保持する方向についての統計情報を繰り返し演算し、校正部により、この演算された統計情報に基づいて、車両の正面方向として設定された基準方向に対して判定された運転者の顔または視線の方向を校正する、または、基準方向を校正する。つまり、運転者が正面と認識している方向(その運転者にとっての0°)を、車両の正面方向として設定された基準方向である運転者状態判定装置上の正面方向(0°)に合わせるための校正を行う。この校正としては、第1のセンシングデータに基づく運転者の顔または視線の方向の判定値を補正するようにしてもよいし、車両の正面方向として設定された基準方向を補正してもよい。そして、第1の判定部によって、この校正された運転者の顔または視線の方向の基準方向からの乖離度に基づいて、または、判定された運転者の顔または視線の方向の校正された基準方向からの乖離度に基づいて、運転者の状態を判定して、出力部により、その判定結果を運転者に対して出力する。よって、例えば、運転者個々人によって異なる、その運転者の顔または視線の方向の0°を、運転者状態判定装置の所定の基準方向である、例えば車両の正面方向0°に対して校正した上で、運転者の状態、例えば脇見状態か否かを判定することができる。すなわち、その運転者が正面と感じている方向が装置の0°と異なっていれば、その運転者の正面方向を装置の0°として扱う。これにより、例えば脇見運転の判定基準を運転者によって緩める必要が無くなり、運転者個々の個人差に依らず安全で精度の高い運転者状態判定を行うことが可能となる。
この発明の第2の態様は、上記第1の態様において、前記第1の判定部は、第2のセンサから出力された、車両の状態を表す第2のセンシングデータに基づいて、前記運転者の状態を判定するか否か、または、判定結果を前記出力部によって出力するか否かを決定するようにしたものである。
この発明の第2の態様によれば、第1の判定部によって、第2のセンサから出力された、車両の状態を表す第2のセンシングデータに基づいて、運転者の状態を判定するか否か、または、判定結果を前記出力部によって出力するか否かを決定する。つまり、車両の状態に応じて、運転者の状態を判定するかどうかを決定することができる。例えば、運転者の状態として脇見状態を判定する際に、カーブしている道路を走行しているときや、右左折、車線変更を行う際には、安全確認のため運転者は脇見と同様の振る舞いを行う場合が有るので、これを脇見と判定しないようにすることができる。また、車両が移動していない停車時には、運転者が脇見をしても問題とならない場合が多く、特には、車両を停車状態から発進させる際には、安全確認のために運転者は脇見と同様の振る舞いを行うので、車両停車状態のとき、および発進後所定時間の間または所定距離走行するまで、あるいは所定の車速に達するまでは、脇見判定を行わないようにしてもよい。また、運転者の状態の判定自体は行っても、その判定結果を出力しなければ、同様の効果が得られる。
この発明の第3の態様は、上記第2の態様において、前記演算部は、誤学習要因を排除した第1の条件が満たされるときに、前記統計情報を繰り返し演算する第1の学習部と、前記誤学習要因を含む第2の条件が満たされるときに、前記統計情報を繰り返し演算する第2の学習部と、を備え、前記校正部は、前記第2の学習部によって演算された前記統計情報に、前記第1の学習部によって演算された前記統計情報よりも低い重み付けを行って、前記運転者の顔または視線の方向、または、前記基準方向を校正するようにしたものである。
この発明の第3の態様によれば、演算部により、第1の学習部による誤学習要因を排除した第1の条件を満たす、精度は高いが回数が少ない統計情報演算に加えて、第2の学習部による上記誤学習要因を含む第2の条件を満たす、精度は低いが回数が多い統計情報演算も並行して行うことで、第1の判定部において、車両の運転開始直後から早い段階で運転者の状態を判定することが可能になる。また、校正部は、精度の高い統計情報よりも精度の低い統計情報の重みを低くして校正を行うことで、校正結果について、或る程度以上の精度を持たせることが可能になる。
この発明の第4の態様は、上記第3の態様において、前記演算部は、前記第1の学習部による前記統計情報の演算が所定回数行われたとき、前記第2の学習部による前記統計情報の演算を終了すようにしたものである。
この発明の第4の態様によれば、第1の学習部による統計情報の演算が所定回数行われれば、十分な精度の統計情報が得られるので、第1の学習部による統計情報の演算のみとする。したがって、不要な演算を行う無駄を省くことができる。
この発明の第5の態様は、上記第3または第4の態様において、過去に演算された複数の運転者それぞれの統計情報を記憶する記憶部をさらに具備し、前記演算部は、前記第2の学習部による前記統計情報の演算結果に近似する統計情報が前記記憶部に記憶されているとき、前記第2の学習部による前記統計情報の演算を終了するようにしたものである。
この発明の第5の態様によれば、第2の学習部によって演算された統計情報の演算結果に近似する統計情報が記憶部に記憶されていれば、つまり過去に演算されていれば、それ以上は第2の学習部による統計情報の演算を行わない。したがって、車両を運転している現在の運転者が既に演算した運転者であれば、第1の学習部によって演算された統計情報は正しいものとすることで、第1の学習部による統計情報のみの演算とすることができる。
この発明の第6の態様は、上記第5の態様において、前記第1の学習部は、運転者交代の可能性が生じたとき、そのときまでに前記演算部が演算した前記統計情報を前記記憶部に記憶させ、前記演算部は、運転者交代の可能性が生じたとき、前記第1および第2の学習部による前記統計情報の演算を新規に開始するようにしたものである。
この発明の第6の態様によれば、運転者交代の可能性が生じたとき、それまで第1の学習部によって演算した統計情報を記憶部に記憶させた上で、第1および第2の学習部による統計情報の演算を新規に開始する。通常、車両の動力源がオフされる前に、車両が完全に停止したパーキング状態とされるので、これにより運転者交代可能性有りと判定されて、それまで第1の学習部によって演算した統計情報が記憶部に記憶される。よって、演算した統計情報を確実に記憶部に記憶させることができる。特に、新たな運転者についての統計情報の演算をはじめた場合に、その演算結果を確実に記憶させることができる。
この発明の第7の態様は、上記第6の態様において、前記第1または第2のセンシングデータに基づいて、前記運転者交代の可能性の有無を判定する第2の判定部をさらに具備するようにしたものである。
この発明の第7の態様によれば、運転者交代の可能性が生じたかどうかは、第2の判定部によって、第1または第2のセンシングデータに基づいて判定される。例えば、第2の判定部は、車両が完全に停止したことを、第2のセンサである車速センサのセンシングデータにより判定し、パーキング状態となったことを、第2のセンサであるギアセレクタセンサおよび/またはパーキングブレーキセンサのセンシングデータにより判定することで、運転者が交代した可能性があると判定する。また、例えば、第2の判定部は、第1のセンサであるドライバカメラからの第1のセンシングデータに基づいて、運転者が監視画像中から一旦消えた後、再度監視画像中に出現したこと、あるいは、第1のセンシングデータに基づく運転者の顔または視線の検出が一旦不能となった後、再度検出可能となったことを検出した場合に、運転者が交代した可能性があると判定する。したがって、第1または第2のセンシングデータに基づいて、容易に運転者交代の可能性を判定できる。また、上記第2の判定部が上記運転者交代の可能性の有無を判定するために、顔認識等の複雑な個人認証処理は必要なく、あるいは、運転者が運転者交代を自己申請するような特別な操作を行わなくても、運転者交代の可能性を簡易に判定できるようになる。さらに、個人認証処理を行わないので、プログラムのセキュリティレベルを高くする必要がない。
この発明の第8の態様は、上記第1乃至第7の態様のいずれかにおいて、前記統計情報は、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向の、所定時間内の平均値および偏差量を含むようにしたものである。
この発明の第8の態様によれば、統計情報として、例えば所定時間内の車両の正面方向に対して運転者が正面として顔または視線を保持する方向の平均値および偏差量を演算する。したがって、統計情報を容易に求めることができる。
また、上記課題を解決するためにこの発明の第9の態様は、車両の運転者の状態を判定する運転者状態判定装置が実行する運転者状態判定方法であって、前記運転者状態判定装置が、第1のセンサから出力された、車両の運転者の画像を含む第1のセンシングデータに基づいて、前記運転者の顔または視線の方向を判定し、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向である保持方向についての統計情報を繰り返し演算する過程と、前記運転者状態判定装置が、前記演算された前記統計情報に基づいて、前記車両の正面方向として設定された基準方向に対して前記判定された前記運転者の顔または視線の方向を校正する、または、前記基準方向を校正する過程と、前記運転者状態判定装置が、前記校正された前記運転者の顔または視線の方向の前記基準方向からの乖離度に基づいて、または、前記判定された前記運転者の顔または視線の方向の前記校正された前記基準方向からの乖離度に基づいて、前記運転者の状態を判定する過程と、前記運転者状態判定装置が、前記運転者の状態の判定結果を、前記運転者に対して出力する過程と、を具備するようにしたものである。
この発明の第9の態様によれば、上記第1の態様同様、例えば、運転者個々人によって異なる、その運転者の顔または視線の方向の0°を、運転者状態判定装置の所定の基準方向である、例えば車両の正面方向0°に対して校正した上で、運転者の状態、例えば脇見状態か否かを判定することができ、運転者個々の個人差に依らず安全で精度の高い運転者状態判定を行うことが可能となる。
また、上記課題を解決するためにこの発明の第10の態様は、運転者状態判定プログラムが、上記第1乃至第8の態様のいずれかの運転者状態判定装置が具備する各部としてコンピュータを機能させるようにしたものである。
この発明の第10の態様によれば、コンピュータを利用して、上記第1乃至第8の態様を実現することができる。
すなわちこの発明の各態様によれば、運転者個々の個人差に依らず安全で精度の高い運転者状態判定をできるようにした、運転者状態判定装置とその方法およびプログラムを提供することができる。
図1は、この発明の実施形態に係る運転者状態判定装置の一適用例を説明するブロック図である。 図2は、第1実施形態に係る運転者状態判定装置を備えた運転者状態判定システムの構成を例示したブロック図である。 図3は、第1実施形態における運転者状態判定システムの学習データ記憶部に記憶された学習結果の一例を示す図である。 図4は、第1実施形態における運転者状態判定システムの処理手順と処理内容の一例を示すフローチャートである。 図5は、第1実施形態における処理手順に従った学習内容と演算される個人差補正値の一例を示すタイムチャートである。 図6Aは、第2実施形態に係る運転者状態判定装置を備えた運転者状態判定システムの学習データ記憶部に構成される不揮発性学習値テーブルの一例を示す図である。 図6Bは、第2実施形態における学習データ記憶部に構成される揮発性学習値テーブルの一例を示す図である。 図6Cは、第2実施形態における学習データ記憶部に構成される揮発性学習値テーブルの別の例を示す図である。 図6Dは、学習された精度優先学習値が新たに追加された不揮発性学習値テーブルの一例を示す図である。 図7は、第2実施形態における運転者状態判定システムの処理手順と処理内容の一例を示すフローチャートである。 図8は、第2実施形態における処理手順に従った学習内容と演算される個人差補正値の一例を示すタイムチャートである。 図9は、第2実施形態の変形例における運転者状態判定システムの処理手順と処理内容の一例を示すフローチャートである。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[適用例]
先ず、この発明の実施形態に係る、車両の運転者の状態を判定する運転者状態判定装置の一つの適用例について説明する。
図1は、この適用例における運転者状態判定装置の構成例を模式的に示したものである。
運転者状態判定装置10は、監視データ取得部11と、車両情報取得部12と、取得情報記憶部13と、演算部(第1の学習部および第2の学習部)および校正部としての統計演算部14と、第1の判定部としての運転者状態判定部15と、出力部16と、記憶部としての統計記憶部17と、第2の判定部としての運転者交代可能性判定部18と、を備えている。
監視データ取得部11は、運転者に対して車両内の所定位置に設置された、運転者の振る舞い、例えば車両の正面方向に対して運転者が正面として顔または視線を保持する方向である保持方向等を検出する第1のセンサとしての運転者監視センサ21から、第1のセンシングデータを取り込む。例えば、運転者監視センサ21は、運転者の顔を撮像できる箇所に設置され、例えば、ダッシュボード上、ステアリング中央、速度メータ脇、フロントピラー等に配置して、運転者の顔を含む上半身を撮像するカメラである。このカメラは、1秒間に複数枚、運転者の静止画像を撮像するスチルカメラであってもよいし、運転者の動画像を撮像するビデオカメラであってもよい。監視データ取得部11は、このカメラからの画像信号を、デジタル化処理して、運転者の画像を含む第1のセンシングデータとして取り込む。監視データ取得部11は、この取り込んだ第1のセンシングデータを、取得情報記憶部13に記憶させる。
取得情報記憶部13は、記憶媒体として例えばHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書込および読出しが可能な不揮発性メモリとRAM等の揮発性メモリを使用したものである。
車両情報取得部12は、車両の各所定位置に配置された第2のセンサとしての車両状態センサ22から、車両の状態を表す第2のセンシングデータである車両情報を取り込む。車両状態センサ22は、運転者交代可能性判定部18において運転者の交代が有ったか否かを判定するために使用される情報を検出するセンサである。運転者の交代は、通常であれば、車両が完全に停止したパーキング状態で行われると想定される。よって、車両状態センサ22は例えば、車両の速度を検出する車速センサ、パーキングブレーキの状態を検出するパーキングブレーキセンサ、オートマチックギア車におけるギアセレクタのパーキングポジションを検出するギアセレクタセンサなどを含むことができる。車両状態センサ22は、このように複数のセンサを含んでよい。車両情報取得部12は、この車両状態センサ22によって検出された検出情報を、デジタル化処理して、車両の状態を表す第2のセンシングデータとして取り込む。車両状態センサ22は、この取り込んだ第2のセンシングデータを、上記取得情報記憶部13に記憶させる。
統計演算部14は、車両の動力源であるエンジンおよび/またはモータのオン期間中、取得情報記憶部13に記憶された運転者の画像データから、運転者の顔または視線の方向等の特徴量を判定する。そして、統計演算部14は、所定時間毎に、上記所定時間内における車両の正面方向に対して運転者が正面として顔または視線を保持する方向である保持方向の平均値および偏差量等の統計情報を演算する。この所定時間毎に演算された統計情報は、後述するように、統計記憶部17に更新記憶されていく。つまり、統計情報が学習されていく。なお、上記所定時間は、例えば数秒(X秒)である。
ここで、統計演算部14における特徴量の統計情報の演算は、誤学習要因を排除した第1の条件が満たされるときに行う精度優先学習と、上記誤学習要因を含む第2の条件が満たされるときに行う機会優先学習との2つを含む。本明細書において、誤学習とは、本来学習するべきで無い、他の演算結果と乖離した統計情報を演算して記憶してしまうことを意味する。つまり、後述する運転者状態判定部15において誤判定結果を招く虞がある、精度の高くない統計情報を学習してしまうことを言う。
第1の条件は、例えば、車両の速度が80km/h以上かつ直線X秒以上継続で、ウィンカ無しであって、上記X秒間の上記特徴量の偏差量が所定値以内、例えば運転者の顔または視線の方向の偏差量がY°以内、とする。すなわち、直線道路を高速で走行していて且つ車線変更も行わない、顔または視線の方向がふらつかない時に、統計情報を取得する。これにより、精度が高い統計情報を取得することができる。但し、取得回数は少なくなる。
これに対して、第2の条件は、例えば、車両の速度が20km/h以上かつ直線X秒以上継続で、ウィンカ無し、とする。これにより、多数の統計情報を取得することができる。しかしながら、車両の速度が低い場合には、車両の速度が高い場合に比べて、運転者が脇見をする可能性が高い。そのため、精度はあまり高くない統計情報しか取得することができない。
よって、統計演算部14は、上述の校正を行う際に、この精度は高くないが多数取得された統計情報に関しては、取得量は少ないが精度の高い統計情報よりも低い重み付けを行って、運転者の顔または視線の方向の判定値、または、基準方向を補正する。なお、上記統計演算部14は、上記精度優先学習による統計情報の演算が所定回数行われたとき、上記機会優先学習による統計情報の演算を終了することができる。
運転者状態判定部15は、統計演算部14によって演算した統計情報に基づいて、車両の正面方向として設定された基準方向に対して判定された運転者の顔または視線の方向を校正する、または、基準方向を校正する。つまり、運転者が正面と認識している方向(その運転者にとっての0°)を、車両の正面方向として設定された基準方向である運転者状態判定装置上の正面方向(0°)に合わせるための校正を行う。この校正としては、第1のセンシングデータに基づく運転者の顔または視線の方向の判定値を補正するようにしてもよいし、車両の正面方向として設定された基準方向を補正してもよい。
そして、運転者状態判定部15は、この校正した運転者の顔または視線の方向の基準方向からの乖離度、または、統計演算部14によって判定された運転者の顔または視線の方向の校正された基準方向からの乖離度と、取得情報記憶部13に記憶された第2のセンシングデータである車両情報とに基づいて、運転者の状態、例えば脇見の状態を判定する。
出力部16は、運転者状態判定部15の判定結果を、運転者に対して出力する。出力部16は、例えば、スピーカと警告灯表示器を有し、運転者状態判定部15の判定結果を警告音や警告灯の点灯によって、運転者に出力する。出力部16は、スピーカと警告灯表示器の一方で構成されてもよい。また、警告音や警告表示を、車両が備えるナビゲーションシステムの音声出力機能や画像表示機能を利用することも可能であり、この場合には、出力部16は、ナビゲーションシステムへ運転者状態判定部15の判定結果を示す状態判定結果情報を出力するものであってよい。
統計記憶部17は、記憶媒体として例えばHDDまたはSSD等の随時書込および読出しが可能な不揮発性メモリとRAM等の揮発性メモリとを組み合わせて使用したものである。統計記憶部17の不揮発性メモリは、過去に学習した各運転者の振る舞いの特徴量についての統計情報、例えば車両の正面方向に対して運転者の顔または視線の保持方向の平均値および偏差量等の統計情報を記憶することができる。また、統計記憶部17の揮発性メモリは、統計演算部14で演算される都度の上記精度優先学習による統計情報と上記機会優先学習による統計情報およびそれぞれの演算回数を一時記憶することができる。上記統計演算部14は、この統計記憶部17の不揮発性メモリに、上記機会優先学習による統計情報の演算結果に近似する統計情報が記憶されているとき、この機会優先学習による統計情報の演算を終了するようにしてもよい。
運転者交代可能性判定部18は、取得情報記憶部13に記憶された第2のセンシングデータである車両情報に基づいて、運転者交代の可能性を判定する。例えば、運転者交代可能性判定部18は、車両が完全に停止し、パーキング状態となった場合、運転者が交代した可能性があると判定する。また、運転者交代可能性判定部18は、取得情報記憶部13に記憶された第1のセンシングデータである監視データに基づいて、運転者交代の可能性を判定することも可能である。例えば、運転者交代可能性判定部18は、運転者が一旦検出できなくなった後、再度検出できるようになった場合、運転者が交代した可能性が有ると判定する。上記統計演算部14は、運転者交代可能性判定部18によって運転者交代の可能性有りと判定されたとき、それまで演算した上記精度優先学習による統計情報を統計記憶部17の不揮発性メモリに記憶させてもよい。さらに、上記統計演算部14は、上記精度優先学習および機会優先学習による統計情報の演算を新規に開始してもよい。
以上のような構成であるから、運転者状態判定装置10においては、統計演算部14により、第1のセンサである運転者監視センサ21から出力された第1のセンシングデータである監視データに基づいて、運転者の顔または視線の方向を判定し、車両の正面方向に対して運転者が正面として顔または視線を保持する方向についての統計情報を繰り返し演算する。そして、運転者状態判定部15によって、この演算された統計情報に基づいて、車両の正面方向として設定された基準方向に対して判定された運転者の顔または視線の方向を校正する、または、基準方向を校正する。つまり、運転者が正面と認識している方向(その運転者にとっての0°)を、車両の正面方向として設定された基準方向である運転者状態判定装置上の正面方向(0°)に合わせるための校正を行う。この校正としては、第1のセンシングデータに基づく運転者の顔または視線の方向の判定値を補正するようにしてもよいし、車両の正面方向として設定された基準方向を補正してもよい。そして、運転者状態判定部15によって、この校正した運転者の顔または視線の方向の基準方向からの乖離度に基づいて、または、判定された運転者の顔または視線の方向の校正された基準方向からの乖離度に基づいて、運転者の状態を判定して、出力部16により、その判定結果を運転者に対して出力する。よって、例えば、運転者個々人によって異なる、その運転者の顔または視線の方向の0°を、運転者状態判定装置の所定の基準方向である、例えば車両の正面方向0°に対して校正した上で、運転者の状態、例えば脇見状態か否かを判定することができる。すなわち、その運転者が正面と感じている方向が装置の0°と異なっていれば、その運転者の正面方向を装置の0°として扱う。これにより、例えば脇見運転の判定基準を運転者によって緩める必要が無くなり、運転者個々の個人差に依らず安全で精度の高い運転者状態判定を行うことが可能となる。
また、運転者状態判定装置10においては、運転者状態判定部15によって、車両の状態を表す第2のセンシングデータに基づいて、運転者の状態を判定するか否か、または、判定結果を前記出力部によって出力するか否かを決定する。つまり、車両の状態に応じて、運転者の状態を判定するかどうかを決定することができる。例えば、運転者の状態として脇見状態を判定する際に、カーブしている道路を走行しているときや、右左折、車線変更を行う際には、安全確認のため運転者は脇見と同様の振る舞いを行う場合が有るので、これを脇見と判定しないようにすることができる。また、車両が移動していない停車時には、運転者が脇見をしても問題とならない場合が多く、特には、車両を停車状態から発進させる際には、安全確認のために運転者は脇見と同様の振る舞いを行うので、車両停車状態のとき、および発進後所定時間の間または所定距離走行するまで、あるいは所定の車速に達するまでは、脇見判定を行わないようにしてもよい。また、運転者の状態の判定自体は行っても、その判定結果を出力しなければ、同様の効果が得られる。
また、運転者状態判定装置10においては、統計演算部14において、誤学習要因を排除した第1の条件を満たす、精度は高いが回数が少ない精度優先学習に加えて、上記誤学習要因を含む第2の条件を満たす、精度は低いが回数が多い機会優先学習も並行して行うことで、運転者状態判定部15では、車両の運転開始直後から早い段階で運転者の状態を判定することが可能になる。この場合、運転者状態判定部15では、精度の高い精度優先学習による統計情報よりも精度の低い機会優先学習による統計情報の重みを低くして校正を行うことで、校正結果について、或る程度以上の精度を持たせることが可能になる。
また、運転者状態判定装置10においては、統計演算部14にて精度優先学習による統計情報の演算が所定回数行われれば、十分な精度の統計情報が得られるので、機会優先学習は終了して精度優先学習による統計情報の演算のみとする。したがって、不要な演算を行う無駄を省くことができる。
また、運転者状態判定装置10においては、統計演算部14において機会優先学習によって演算された統計情報の演算結果に近似する統計情報が、統計記憶部17の不揮発性メモリに記憶されていれば、それ以上は機会優先学習による統計情報の演算を行わないようにすることができる。すなわち、車両を運転している現在の運転者が既に演算した運転者であれば、そのとき精度優先学習によって演算された統計情報は正しいものとして、機会優先学習を終了することができる。
ここで、運転者状態判定装置10においては、運転者交代可能性判定部18によって運転者交代の可能性有りと判定されたとき、それまで精度優先学習によって演算した統計情報を統計記憶部17の不揮発性メモリに記憶させた上で、精度優先学習による統計情報の演算と機会優先学習による統計情報の演算とを新規に開始する。通常、車両の動力源がオフされる前に、車両が完全に停止したパーキング状態とされるので、これにより運転者交代可能性判定部18が運転者交代可能性有りと判定し、それまでの精度優先学習による統計情報が統計記憶部17の不揮発性メモリに記憶される。よって、演算した統計情報を確実に統計記憶部17の不揮発性メモリに記憶させて、次回以降の上記近似する統計情報の記憶有無判定に利用できるようにすることができる。特に、新たな運転者についての統計情報の演算をはじめた場合に、その演算結果を確実に記憶させることができる。
なお、運転者状態判定装置10においては、運転者交代可能性判定部18による運転者交代の可能性が生じたかどうかの判定は、取得情報記憶部13に記憶された第1または第2のセンシングデータに基づいて、判定されることができる。例えば、運転者交代可能性判定部18は、車両が完全に停止したことを、車両状態センサ22である車速センサのセンシングデータにより判定し、パーキング状態となったことを、車両状態センサ22であるギアセレクタセンサおよび/またはパーキングブレーキセンサのセンシングデータにより判定することで、運転者が交代した可能性があると判定する。また、例えば、運転者交代可能性判定部18は、運転者監視センサ21であるドライバカメラからの監視データに基づいて、運転者が監視画像中から一旦消えた後、再度監視中に出現したこと、あるいは、監視データに基づく運転者の顔または視線の検出が一旦不能となった後、再度検出可能となったことを検出した場合に、運転者が交代した可能性があると判定することができる。したがって、運転者交代可能性判定部18は、取得情報記憶部13に記憶されたセンシングデータに基づいて、容易に運転者交代の可能性を判定できる。また、運転者交代可能性判定部18が上記運転者交代の可能性の有無を判定するために、顔認識等の複雑な個人認証処理は必要なく、あるいは、運転者が運転者交代を自己申請するような特別な操作を行わなくても、運転者交代の可能性を簡易に判定できる。さらに、個人認証処理を行わないので、プログラムのセキュリティレベルを高くする必要がない。
また、運転者状態判定装置10においては、統計演算部14は、統計情報として、例えば所定時間内の車両の正面方向に対して運転者が正面として顔または視線を保持する方向の平均値および偏差量を演算する。したがって、統計情報を容易に求めることができる。
[第1実施形態]
次に、この発明の第1実施形態を説明する。
(構成)
(1)システム
図2は、この発明の第1実施形態に係る運転者状態判定装置を備えた運転者状態判定システムの全体構成の一例を示す図である。
運転者状態判定システムは、第1実施形態に係る運転者状態判定装置30と、各種のセンサ41〜46と、判定結果出力装置50とを備えている。
(2)センサ
本第1実施形態では、センサとして、例えば、運転者監視センサであるドライバカメラ41と、車両状態センサである、車速センサ42、ステアリングセンサ43、ウィンカセンサ44、ギアセレクタセンサ45およびパーキングブレーキセンサ46とを含む。勿論これは一例であり、その他のセンサを含んでいてもよい。
ドライバカメラ41は、運転者の顔を撮像できる箇所に設置され、例えば、ダッシュボード上、ステアリング中央、速度メータ脇、フロントピラー等に配置して、運転者の顔を含む上半身を撮像するカメラである。このドライバカメラ41は、1秒間に複数枚の静止画像を撮像するスチルカメラであってもよいし、動画像を撮像するビデオカメラであってもよい。
車速センサ42は、車両の移動速度を検出する。ステアリングセンサ43は、ステアリングの操舵角を検出する。このステアリングセンサ43は、運転者によるステアリングの操作自体を検出するセンサであってもよいし、ステアリング操作によって向きを変えられる車輪の舵角を検出するセンサであってもよい。ウィンカセンサ44は、ウィンカの操作を検出する。このウィンカセンサ44は、運転者によるウィンカレバーの操作自体を検出するセンサであってもよいし、ウィンカレバー操作に応じて点滅するウィンカの点滅制御信号を検出するセンサであってもよい。
また、ギアセレクタセンサ45は、オートマチックギア車におけるギアセレクタのパーキングポジションを検出する。このギアセレクタセンサ45は、運転者によるギアセレクタのセレクト操作自体を検出するセンサであってもよいし、セレクトされたポジションを表示するインジケータの点灯制御信号を検出するセンサであってもよい。パーキングブレーキセンサ46は、パーキングブレーキの状態を検出する。このパーキングブレーキセンサ46は、運転者によるパーキングブレーキレバーの操作自体を検出するセンサであってもよいし、パーキングブレーキを駆動する駆動制御信号を検出するセンサであってもよい。ギアセレクタセンサ45とパーキングブレーキセンサ46は、必ずしも両方備える必要は無い。例えば、オートマチックギアを搭載した車両では、パーキングブレーキセンサ46を備えず、ギアセレクタセンサ45のみであってもよい。マニュアルギアを搭載した車両では、パーキングブレーキセンサ46のみであってよい。
(3)運転者状態判定装置
運転者状態判定装置30は、制御ユニット32と、入出力インタフェースユニット31と、記憶ユニット33と、を備えている。
入出力インタフェースユニット31は、ドライバカメラ41から出力された画像信号を受信してデジタルデータに変換して、制御ユニット32に入力する。入出力インタフェースユニット31はまた、車速センサ42、ステアリングセンサ43、ウィンカセンサ44、ギアセレクタセンサ45およびパーキングブレーキセンサ46それぞれのセンシングデータを受信して、それらを制御ユニット32に入力する。入出力インタフェースユニット31はさらに、制御ユニット32から出力された運転者状態判定結果情報を出力制御信号に変換して判定結果出力装置50へ出力する。
記憶ユニット33は、記憶媒体として、例えばSSDやHDD等の随時書き込みおよび読み出しが可能な不揮発性メモリとRAM等の揮発性メモリを使用したものである。記憶ユニット33は、本実施形態を実施するために使用する記憶領域として、運転者の監視データを記憶する監視データ記憶部331と、車両の状態を記憶する車両情報記憶部332と、統計情報と学習回数とを含む学習結果を学習データとして記憶する学習データ記憶部333と、を備えている。
図3は、学習データ記憶部333に記憶される学習データの一例を示す図である。本第1実施形態では、学習データ記憶部333は、精度優先学習による統計情報である精度優先学習値およびその学習回数と、機会優先学習による統計情報である機会優先学習値およびその学習回数と、を記憶する。統計情報は、車両の正面方向に対して運転者が正面として顔または視線を保持する方向である保持方向の平均値および偏差量を含む。図3の例では、車両の正面方向として設定された基準方向である運転者状態判定装置上の正面方向を0°としたとき、精度優先学習による運転者の顔または視線の保持方向の平均値は+5.1°であり、運転者の顔または視線の保持方向の偏差量は1.1°であって、学習回数は3回であることを示している。また、機会優先学習による運転者の顔または視線の保持方向の平均値は+4.8°であり、運転者の顔または視線の保持方向の偏差量は1.3°であって、学習回数は8回であることを示している。なお、ここでは、基準方向に対して左右向を+−方向として記憶する例を示しているが、基準方向に対して上下方向を+−方向として記憶してもよいし、両方とも記憶するようにしてもよい。さらには、頭の傾きなども記憶するようにしてもかまわない。
制御ユニット32は、CPU(Central Processing Unit)等のハードウェアプロセッサと321とプログラムメモリ322とを有している。制御ユニット32は、プログラムメモリ322に記憶されたプログラムをハードウェアプロセッサ321が実行することで実現される、本実施形態を実施するために必要なソフトウェア構成として、監視データ取得部3211と、車両情報取得部3212と、個人差学習装置3213と、運転者状態判定部3214と、信号出力部3215と、を備えている。なお、これらのソフトウェア構成の各部は、専用のハードウェアによって構成してもよい。
監視データ取得部3211は、ドライバカメラ41から運転者の監視画像を取得する。すなわち、監視データ取得部3211は、ドライバカメラ41から出力された運転者の画像信号のデジタルデータであるセンシングデータを入出力インタフェースユニット31から取り込み、この取り込んだセンシングデータを運転者の監視データとして記憶ユニット33の監視データ記憶部331に記憶させる。
車両情報取得部3212は、車速センサ42、ステアリングセンサ43、ウィンカセンサ44、ギアセレクタセンサ45およびパーキングブレーキセンサ46それぞれから車両情報を取得する。すなわち、車両情報取得部3212は、それら各センサから出力されたセンシングデータを入出力インタフェースユニット31から取り込み、この取り込んだセンシングデータを車両情報として記憶ユニット33の車両情報記憶部332に記憶させる。
個人差学習装置3213は、運転者個々の個人差を学習する。例えば、個人差学習装置3213は、車両の動力源であるエンジンおよび/またはモータのオン期間中、所定時間毎、例えば数秒毎に、その所定時間内における車両の正面方向に対して運転者が正面として顔または視線を保持する方向である保持方向の平均値および偏差量といった統計情報を演算する。なお、運転者の顔または視線の現在の方向は、運転者状態判定部3214によって、監視データ記憶部331に記憶された監視データに基づいて判定され、運転者状態判定部3214から個人差学習装置3213に入力される。個人差学習装置3213は、この入力された運転者の顔または視線の方向に基づいて、所定時間内の運転者の特徴量である車両の正面方向に対して運転者が正面として顔または視線を保持する方向である保持方向の統計値を演算する。
なお、この統計情報の演算に際しては、車速や操舵角、ウィンカの有無等による2種類の条件を設けて、それぞれの条件を満たす場合にのみ、演算を行う。精度優先学習のための第1の条件は、例えば、車両の速度が80km/h以上かつ直線X秒以上継続で、ウィンカ無しであって、上記X秒間の上記特徴量の偏差量が所定値以内、例えば運転者の顔または視線の方向の偏差量がY°以内、とする。これにより、誤学習要因を排除することが可能となり、精度は高い統計情報を取得することができる。但し、取得回数は少なくなる。また、機会優先学習のための第2の条件は、例えば、車両の速度が20km/h以上かつ直線X秒以上継続で、ウィンカ無し、とする。この場合は、誤学習要因を排除することができないため、統計情報の精度はあまり高くない。しかしながら、多数の統計情報を取得することができる。
なお、個人差学習装置3213によって演算する統計情報は、上記所定時間内の運転者の顔または視線の保持方向について演算した平均値や偏差量だけではなく、それまで演算(学習)した統計情報も用いて、つまりそれまで演算した統計情報も加味した統計情報を演算するようにしてもよい。
個人差学習装置3213は、精度優先学習による統計情報である精度優先学習値と、その学習回数とを学習データ記憶部333に記憶させると共に、機会優先学習による統計情報である機会優先学習値と、その学習回数とを学習データ記憶部333に記憶させる。
また、個人差学習装置3213での精度優先学習および機会優先学習においては、上記所定時間内に運転者状態判定部3214で判定された運転者の顔または視線の保持方向の統計情報を演算して、学習データ記憶部333に記憶させる。
なお、個人差学習装置3213を含めたハードウェアプロセッサ321は、車両の駆動源がオンされると動作を開始し、駆動源のオフに伴って動作を終了する。
運転者状態判定部3214は、それぞれ演算して学習データ記憶部333に記憶させた、つまり精度優先学習および機会優先学習した学習データを学習データ記憶部333から読み込み、この学習データに基づいて、車両の正面方向として設定された基準方向に対して判定された運転者の顔または視線の方向を校正する。あるいは、個人差学習装置3213は、学習データに基づいて、基準方向を校正する。つまり、運転者が正面と認識している方向(その運転者にとっての0°)を、車両の正面方向として設定された基準方向である運転者状態判定装置上の正面方向(0°)に合わせるための校正を行う。この校正としては、第1のセンシングデータに基づく運転者の顔または視線の方向の判定値を補正するようにしてもよいし、車両の正面方向として設定された基準方向を補正してもよい。
なお、本第1実施形態においては、この校正は、詳細は後述するように、個人差学習装置3213において学習データに基づいて個人差補正値を算出し、運転者状態判定部3214において、この個人差補正値を使用して運転者の顔または視線の方向、あるいは、基準方向を補正することによって行う。
さらに、運転者状態判定部3214は、車両情報記憶部332からステアリングセンサ43やウィンカセンサ44のセンシングデータを読み込む。そして、運転者状態判定部3214は、校正した運転者の顔または視線の方向の基準方向からの乖離度に基づいて、または、判定された運転者の顔または視線の方向の校正された基準方向からの乖離度に基づいて、運転者の状態、例えば脇見状態であるか否かを判定する。このとき、運転者状態判定部3214は、ステアリングセンサ43やウィンカセンサ44のセンシングデータにより、この判定自体を行うか否か、または判定結果を出力するか否かを決定する。これは、カーブしている道路を走行しているときや、右左折、車線変更を行う際には、安全確認のため運転者は脇見と同様の振る舞いを行う場合が有るので、これを脇見と判定しないことが望ましいためである。
信号出力部3215は、運転者状態判定部3214での運転者状態の判定結果を示す運転者状態判定結果情報を、入出力インタフェースユニット31を介して判定結果出力装置50へ出力する。
(4)判定結果出力装置
判定結果出力装置50は、例えば、スピーカと警告灯表示器を有し、運転者状態判定装置30から出力された運転者状態判定結果情報を警告音や警告灯の点灯によって、運転者に出力する。判定結果出力装置50は、スピーカと警告灯表示器の一方で構成されてもよい。判定結果出力装置50は、車両が備えるナビゲーションシステムの音声出力機能や画像表示機能を利用して構成されてもよい。また、この判定結果出力装置50は、運転者状態判定装置30に含まれ、信号出力部3215によって制御されるように構成されていてもよい。
(動作)
次に、以上のように構成された運転者状態判定システムの動作を説明する。
図4は、図2に示した運転者状態判定システムにおける処理手順と処理内容の一例を示すフローチャートであり、図5は、図2に示した運転者状態判定システムにおける処理手順に従った学習内容と演算される個人差補正値の一例を示すタイムチャートである。
(1)センシングデータ取り込み
車両の駆動源がオンされると、運転者状態判定装置30と、運転者監視センサであるドライバカメラ41および車両状態センサである各センサ42〜46は、動作を開始する。運転者状態判定装置30は、ドライバカメラ41からのセンシングデータを監視データ取得部3211により取得し、監視データとして監視データ記憶部331に記憶していく。また、運転者状態判定装置30は、車速センサ42、ステアリングセンサ43、ウィンカセンサ44、ギアセレクタセンサ45およびパーキングブレーキセンサ46それぞれからのセンシングデータを車両情報取得部3212により取得し、車両情報として車両情報記憶部332に記憶してく。これらセンシングデータの取得並びに記憶は、車両の駆動源がオフされるまで、繰り返し実施される。
(2)統計情報学習
上記センシングデータの取り込み動作と並行して、運転者状態判定装置30は、ステップS11において、機会優先学習による統計情報の学習を開始すると共に、ステップS12において、精度優先学習による統計情報の学習を開始する。
すなわち、運転者状態判定装置30はまず、運転者状態判定部3214に、監視データ記憶部331に記憶された監視データに基づいて、運転者の顔または視線の方向を判定させる。そして、運転者状態判定装置30は、個人差学習装置3213に、その運転者の顔または視線の方向から、車両の正面方向に対して運転者が正面として顔または視線を保持する方向である保持方向の平均値および偏差量を演算させる。このとき、運転者状態判定装置30は、精度優先学習においては、第1の条件、例えば、車両の速度が80km/h以上かつ直線X秒以上継続で、ウィンカ無しであって、上記X秒間の上記特徴量の偏差量が所定値以内、例えば運転者の顔または視線の方向の偏差量がY°以内、を満たす場合に、統計情報を演算する。また、機会優先学習においては、上記第1の条件よりも緩い第2の条件、例えば、車両の速度が20km/h以上かつ直線X秒以上継続で、ウィンカ無しを満たす場合に、統計情報を演算するものとする。個人差学習装置3213は、これら機会優先学習および精度優先学習の演算結果を、学習データとして、学習データ記憶部333に記憶させる。
(3)個人差補正値算出、運転者状態判定
(3−1)精度優先学習不十分時
次に、運転者状態判定装置30は、運転者状態判定部3214に、運転者の状態の判定に使用するための個人差補正値を算出させる。
すなわち、個人差学習装置3213はまず、ステップS13において、学習データ記憶部333に記憶された学習データにおける精度優先学習回数が、所定のN回以上となっているか否かを判定する。ここで、Nは任意の整数であり、十分な精度の学習結果が得られる回数であればよい。
上記第1の条件と上記第2の条件とでは、第1の条件に比べて緩い条件である第2の条件の方が先に満たされる。よって、運転が開始された初期段階では、精度優先学習よりも機会優先学習の方が多く実行される。よって、上記ステップS13においては、精度優先学習回数が未だN回に達していないと判定される。この場合、個人差学習装置3213は、ステップS14において、学習データ記憶部333に記憶された学習データ、つまり機会優先学習結果と精度優先学習結果とに基づいて補正値を算出する。そして、個人差学習装置3213は、ステップS15において、上記算出した補正値を、個人差補正値として採用することを決定する。
なお、上記ステップS14における個人差の算出においては、例えば、次のような演算を行う。すなわち、精度優先学習値をLh、精度優先学習回数をNh、機会優先学習値をLl、機会優先学習回数をNl、重み付け定数をMとすると、補正値Lcを、
Lc=(Lh*Nh+Ll*(Nl/M))/(Nh+(Nl/M))
によって求める。ここで、重み付け定数Mは任意の整数である。つまり、機会優先学習値Llは、精度優先学習値Lhの1/Mしか重みが無く、M回分の機会優先学習値Llが1回分の精度優先学習値Lhと同等に扱われる。
なお、車両の駆動源は、車両が完全に停止したパーキング状態でオンされる。したがって、図5に示すように、車両の駆動源がオンされた時刻t0において、上記ステップS11およびステップS12で学習を開始しても、実際の統計情報の演算は行われない。そのため、精度優先学習値Lh、精度優先学習回数Nh、機会優先学習値Llおよび機会優先学習回数Nlはいずれも0であり、補正値Lcは0となる。なお、図5では、所定時間(X秒)の区切りを点線によって表し、また、精度優先学習および機会優先学習においてハッチングが付されていない部分は、実際の学習をしていないことを示す。
次に、運転者状態判定装置30は、運転者状態判定部3214により、ステップS16において、この個人差補正値による運転者の状態の判定を実施する。例えば、運転者状態判定部3214は、監視データ記憶部331に記憶されている監視データに基づいて判定した運転者の顔または視線の現在の方向を、上記個人差補正値によって補正することで、運転者の顔または視線の方向を校正する。そして、この校正した運転者の顔または視線の方向を、所定の基準方向と比較することで、校正した運転者の顔または視線の方向の基準方向からの乖離度に基づいて、例えば脇見状態であるか否かといった運転者状態を判定する。
但し、個人差補正値が0のときは、上記第1および第2の条件により、車両が停車しているとき、車両発進直後、カーブ走行時、右左折または車線変更時である確率が高いので、運転者状態判定部3214は、運転者の状態判定を実施しないことが望ましい。
そして、ステップS17において、運転者状態判定部3214は、信号出力部3215により、運転者状態の判定結果を示す運転者状態判定結果情報を判定結果出力装置50へ出力する。これにより、運転者状態判定結果情報が、判定結果出力装置50にて、警告音や警告灯の点灯として、運転者に呈示される。
その後、運転者状態判定装置30は、上記ステップS11から処理を繰り返す。
(3−2)精度優先学習十分時
こうして、ステップS11からステップS17を繰り返し、図5に示すように、時刻t1において、N回目の精度優先学習が行われると、上記ステップS13において、精度優先学習回数がN回以上となったと判定される。この場合、個人差学習装置3213は、ステップS18において、精度優先学習値Lhを、個人差補正値として採用することを決定する。
次に、運転者状態判定装置30は、運転者状態判定部3214により、ステップS19において、この個人差補正値による運転者の状態の判定を実施する。例えば、運転者状態判定部3214は、監視データ記憶部331に記憶されている監視データに基づいて判定した運転者の顔または視線の現在の方向を、上記個人差補正値によって補正することで、運転者の顔または視線の方向を校正する。そして、この校正した運転者の顔または視線の方向を、所定の基準方向と比較することで、校正した運転者の顔または視線の方向の基準方向からの乖離度に基づいて、例えば脇見状態であるか否かといった運転者状態を判定する。
そして、ステップS20において、運転者状態判定部3214は、信号出力部3215により、運転者状態の判定結果を示す運転者状態判定結果情報を判定結果出力装置50へ出力する。これにより、運転者状態判定結果情報が、判定結果出力装置50にて、警告音や警告灯の点灯として、運転者に呈示される。
その後、運転者状態判定装置30は、上記ステップS12から処理を繰り返す。すなわち、以降は、機会優先学習は行わず、精度優先学習のみを実施していく。
なおこの場合も、個人差補正値が0のときは、上記第1の条件により、車両が停車しているとき、車両発進直後、カーブ走行時、右左折または車線変更時である確率が高いので、運転者状態判定部3214は、運転者の状態判定を実施しないことが望ましい。
(第1実施形態の効果)
以上詳述したように第1実施形態では、運転者状態判定装置30においては、運転者状態判定部3214により、監視データ記憶部331に記憶した監視データに基づいて、運転者の顔または視線の方向を判定し、個人差学習装置3213によって、車両の正面方向に対して運転者が正面として顔または視線を保持する方向についての統計情報を繰り返し演算する。そして、この個人差学習装置3213において、この演算した統計情報に基づいて、車両の正面方向として設定された基準方向に対して判定された運転者の顔または視線の方向を校正する、または、基準方向を校正する。つまり、運転者が正面と認識している方向(その運転者にとっての0°)を、車両の正面方向として設定された基準方向である運転者状態判定装置上の正面方向(0°)に合わせるための校正を行う。この校正としては、第1のセンシングデータに基づく運転者の顔または視線の方向の判定値を補正するようにしてもよいし、車両の正面方向として設定された基準方向を補正してもよい。そして、運転者状態判定部3214によって、この校正した運転者の顔または視線の方向の基準方向からの乖離度に基づいて、または、判定された運転者の顔または視線の方向の校正された基準方向からの乖離度に基づいて、運転者の状態を判定して、判定結果出力装置50により、その判定結果を運転者に対して出力する。よって、例えば、運転者個々人によって異なる、その運転者の顔または視線の方向の0°を、運転者状態判定装置30の所定の基準方向である、例えば車両の正面方向0°に対して校正した上で、運転者の状態、例えば脇見状態か否かを判定することができる。すなわち、その運転者が正面と感じている方向が装置の0°と異なっていれば、その運転者の正面方向を装置の0°として扱う。これにより、例えば脇見運転の判定基準を運転者によって緩める必要が無くなり、運転者個々の個人差に依らず安全で精度の高い運転者状態判定を行うことが可能となる。
また、運転者状態判定装置30においては、運転者状態判定部3214は、車両の状態を表す車両情報に基づいて、運転者の状態を判定するかどうか、または、判定結果を判定結果出力装置50によって出力するか否かを決定する。つまり、車両の状態に応じて、運転者の状態を判定するかどうかを決定することができる。例えば、運転者の状態として脇見状態を判定する際に、カーブしている道路を走行しているときや、右左折、車線変更を行う際には、安全確認のため運転者は脇見と同様の振る舞いを行う場合が有るので、これを脇見と判定しないようにすることができる。また、車両が移動していない停車時には、運転者が脇見をしても問題とならない場合が多く、特には、車両を停車状態から発進させる際には、安全確認のために運転者は脇見と同様の振る舞いを行うので、車両停車状態のとき、および発進後所定時間の間または所定距離走行するまで、あるいは所定の車速に達するまでは、脇見判定を行わないようにしてもよい。また、運転者の状態の判定自体は行っても、その判定結果を出力しなければ、同様の効果が得られる。
また、運転者状態判定装置30においては、個人差学習装置3213において、誤学習要因を排除した第1の条件を満たす、精度は高いが回数が少ない精度優先学習に加えて、上記誤学習要因を含む第2の条件を満たす、精度は低いが回数が多い機会優先学習も並行して行うことで、運転者状態判定部3214では、車両の運転開始直後から早い段階で運転者の状態を判定することが可能になる。この場合、個人差学習装置3213では、精度の高い精度優先学習による統計情報よりも精度の低い機会優先学習による統計情報の重みを低くして校正を行うことで、校正結果について、或る程度以上の精度を持たせることが可能になる。
例えば特許文献1に開示されているような従来の技術では、或る程度の回数、脇見と判定されるまで、補正を実施することができない。普通の運転者であれば、そのような脇見と判定されるような運転者状態となる回数は限られている。したがって、精度の高い脇見判定を実施できるようになるまで、非常に時間がかかると想定される。一方、脇見運転を判定する脇見運転判定装置等の運転者状態判定装置を、運転支援装置や自動運転装置等の他の装置と組み合わせたシステムを構成する際、車両がどれだけ走行すれば運転者状態判定装置から精度良い結果が得られるか不明であるため、システム構築を行うことが非常に困難である。本第1実施形態では、機会優先学習により、運転開始直後の早い段階から、或る程度の精度を持った判定結果が得られるので、システム構築の面からも有利である。
また、運転者状態判定装置30においては、個人差学習装置3213にて精度優先学習による統計情報の演算が所定回数(N回)行われれば、十分な精度の統計情報が得られるので、機会優先学習は終了して精度優先学習による統計情報の演算のみとする。したがって、不要な演算を行う無駄を省くことができる。
また、運転者状態判定装置30においては、個人差学習装置3213は、統計情報として、例えば所定時間内の車両の正面方向に対して運転者が正面として顔または視線を保持する方向の平均値および偏差量を演算する。したがって、統計情報を容易に求めることができる。
[第2実施形態]
次に、この発明の第2実施形態を説明する。
(構成)
この発明の第2実施形態に係る運転者状態判定装置を備えた運転者状態判定システムの全体構成は、図2に示した第1実施形態における運転者状態判定システムと同様、運転者状態判定装置30と、各種のセンサ41〜46と、判定結果出力装置50とを備えている。以下、第1実施形態における運転者状態判定システムと同様の構成部分については、その説明を省略し、第1実施形態と異なる構成部分について説明する。
この第2実施形態に係る運転者状態判定装置30は、前記第1実施形態に係る運転者状態判定装置30と、以下の点が異なっている。
すなわち、本第2実施形態においては、記憶ユニットの学習データ記憶部333には、図6Aに示すような学習データを不揮発性に記憶する不揮発性学習値テーブル3331と、図6Bに示すような、学習データを揮発性に記憶する揮発性学習値テーブル3332とが構成されている。
ここで、不揮発性学習値テーブル3331は、図6Aに示すように、過去の精度優先学習によって得られた、運転者毎の精度優先学習値を記憶する。すなわち、運転者毎の、車両の正面方向に対して運転者が正面として顔または視線を保持する方向である保持方向についての、所定時間内の平均値および偏差量といった統計情報である、精度優先学習値を、運転者を表す識別子とともに記憶する。図6Aの例では、不揮発性学習値テーブル3331は、3名の運転者についての精度優先学習値を含んでいる。すなわち、車両の正面方向として設定された基準方向である運転者状態判定装置上の正面方向を0°としたとき、運転者番号1の識別子で特定される運転者の顔または視線の保持方向の平均値は−2.8°であり、運転者の顔または視線の保持方向の偏差量は1.8°である。運転者番号2の識別子で特定される運転者の顔または視線の保持方向の平均値は+5.0°、偏差量は1.0°であり、運転者番号3の識別子で特定される運転者の顔または視線の保持方向の平均値は+0.5°、偏差量は2.0°である。なお、ここでは、基準方向に対して左右向を+−方向として記憶する例を示しているが、基準方向に対して上下方向を+−方向として記憶してもよいし、両方とも記憶するようにしてもよい。さらには、頭の傾きなども記憶するようにしてもかまわない。
揮発性学習値テーブル3332は、図6Bに示すように、精度優先学習による統計情報である精度優先学習値およびその学習回数と、機会優先学習による統計情報である機会優先学習値およびその学習回数と、を記憶する。図6Bの例では、基準方向を0°としたとき、精度優先学習による運転者の顔または視線の保持方向の平均値は+5.1°であり、運転者の顔または視線の保持方向の偏差量は1.1°であって、学習回数は3回であることを示している。また、機会優先学習による運転者の顔または視線の保持方向の平均値は+4.8°であり、偏差量は1.3°であって、学習回数は8回であることを示している。ここで、+−方向については、不揮発性学習値テーブル3331に記憶される精度優先学習値と同様である。
また、個人差学習装置3213は、前記第1実施形態と同様に、精度優先学習と機会優先学習の2種類の学習を行うものであるが、本第2実施形態においては、さらに、機会優先学習によって演算された統計情報に近似する統計情報が不揮発性学習値テーブル3331に記憶されているときには、機会優先学習を終了する。そのため、個人差学習装置3213は、運転者交代の可能性が生じたとき、それまで精度優先学習によって演算した統計情報を、上記不揮発性学習値テーブル3331に記憶させた上で、機会優先学習および精度優先学習による統計情報の演算を新規に開始する。
なお、運転者交代可能性の有無は、運転者状態判定部3214によって、車両情報記憶部332に記憶された車両情報に基づいて判定されることができる。例えば、車両が完全に停止したことを、車速センサ42のセンシングデータにより判定し、パーキング状態となったことを、ギアセレクタセンサ45および/またはパーキングブレーキセンサ46のセンシングデータにより判定することで、運転者が交代した可能性があると判定することができる。あるいは、運転者状態判定部3214は、監視データ記憶部331に記憶された監視データに基づいて、運転者交代の可能性を判定することも可能である。例えば、運転者が監視画像中から一旦消えた後、再度監視画像中に出現した場合、または、監視データに基づく運転者の顔または視線の検出が一旦不能となった後、再度検出可能となった場合に、運転者が交代した可能性があると判定することができる。運転者状態判定部3214は、このように運転者が交代した可能性があると判定したとき、運転者交代トリガ信号を、個人差学習装置3213に出力する。
(動作)
次に、以上のように構成された運転者状態判定システムの動作を説明する。
図7は、本第2実施形態における運転者状態判定システムの処理手順と処理内容の一例を示すフローチャートであり、図8は、第2実施形態における処理手順に従った学習内容と演算される個人差補正値の一例を示すタイムチャートである。
(1)センシングデータ取り込み
車両の駆動源がオンされると、前記第1実施形態と同様、運転者状態判定装置30と、運転者監視センサであるドライバカメラ41および車両状態センサである各センサ42〜46は、動作を開始して、監視データを監視データ記憶部331に記憶し、車両情報を車両情報記憶部332に記憶してく。これらセンシングデータの取得並びに記憶は、車両の駆動源がオフされるまで、繰り返し実施される。
(2)統計情報学習
上記センシングデータの取り込み動作と並行して、運転者状態判定装置30は、ステップS11において、機会優先学習による統計情報の演算を開始すると共に、ステップS12において、精度優先学習による統計情報の演算を開始する。このステップS11およびS12は、前記第1実施形態で説明した通りである。個人差学習装置3213は、これら機会優先学習および精度優先学習の演算結果を、学習データとして、学習データ記憶部333の揮発性学習値テーブル3332に記憶させる。
(3)個人差補正値算出、運転者状態判定
(3−1)精度優先学習不十分時
(3−1−1)過去学習無しの場合
次に、運転者状態判定装置30は、運転者状態判定部3214に、運転者の状態の判定に使用するための個人差補正値を算出させる。
すなわち、個人差学習装置3213はまず、ステップS13において、学習データ記憶部333に記憶された学習データにおける精度優先学習回数が、所定のN回以上となっているか否かを判定する。そして、精度優先学習回数が未だN回に達していないと判定された場合、個人差学習装置3213は、ステップS21において、機会優先学習によって演算して学習データ記憶部333の揮発性学習値テーブル3332に記憶した機会優先学習値と、学習データ記憶部333の不揮発性学習値テーブル3331に記憶されている各運転者についての精度優先学習値とを比較する。そして、個人差学習装置3213は、ステップS22において、機会優先学習値に近似する精度優先学習値が有ったかどうか、つまり過去に学習されていたかどうかを判定する。この場合、例えば運転者の顔または視線の保持方向の平均値だけでなく、偏差量も用いることで、誤判定の確率を低くしている。
機会優先学習値に近似する精度優先学習値が無いと判定した場合、個人差学習装置3213は、前記第1実施形態と同様に、ステップS14において、揮発性学習値テーブル3332に記憶された学習データ、つまり機会優先学習結果と精度優先学習結果とに基づいて補正値を算出し、ステップS15において、この算出した補正値を、個人差補正値として採用することを決定する。次に、運転者状態判定装置30は、運転者状態判定部3214により、ステップS16において、この個人差補正値による運転者の状態の判定を実施する。そして、ステップS17において、運転者状態判定部3214は、信号出力部3215により、運転者状態の判定結果を示す運転者状態判定結果情報を判定結果出力装置50へ出力する。これにより、運転者状態判定結果情報が、判定結果出力装置50にて、警告音や警告灯の点灯として、運転者に呈示される。
その後、運転者状態判定装置30は、個人差学習装置3213により、ステップS23において、運転者交代トリガ信号が運転者状態判定部3214から入力されたか否かを判定する。そして運転者交代トリガ信号が入力されていなければ、運転者状態判定装置30は、上記ステップS11から処理を繰り返す。
よって、不揮発性学習値テーブル3331に、演算した機会優先学習値に近似する精度優先学習値が記憶されておらず、運転者交代トリガ信号も入力されなければ、運転者状態判定装置30は、前記第1実施形態と同様の動作を行うことになる。
なお、車両の駆動源は、車両が完全に停止したパーキング状態でオンされる。従って、図5に示すように、車両の駆動源がオンされた時刻t0において、運転者交代トリガ信号が入力される。しかし、この時刻t0においては、未だ上記ステップS11開始前であるので、このフローチャートに示す動作に影響は与えない。
一方、それ以降に所定時間毎に繰り返されるステップS11乃至S23の動作中、運転者交代トリガ信号が入力されると、個人差学習装置3213は、そのことをステップS23において判定する。この場合には、個人差学習装置3213は、ステップS24において、学習データ記憶部333の揮発性学習値テーブル3332に記憶された学習データ、つまり機会優先学習結果と精度優先学習結果とをリセットする。その後、運転者状態判定装置30は、上記ステップS11から処理を繰り返す。
(3−1−2)過去学習有りの場合
一方、例えば図6Bに示すように、上記演算した機会優先学習値(平均値+4.8°、偏差量1.3°)に近似する精度優先学習値(運転者番号2の識別子で特定される運転者に対応する平均値+5.0°、偏差量1.0°)が存在すると、図8の時刻t11において、上記ステップS22で近似精度優先学習値有りと判定される。この場合には、個人差学習装置3213は、その近似する精度優先学習値の運転者が、現在車両を運転している運転者であると判定する。この場合には、個人差学習装置3213は、ステップS18において、その近似する精度優先学習値を、個人差補正値として採用することを決定する。次に、運転者状態判定装置30は、運転者状態判定部3214により、ステップS19において、この個人差補正値による運転者の状態の判定を実施する。そして、ステップS20において、運転者状態判定部3214は、信号出力部3215により、運転者状態の判定結果を示す運転者状態判定結果情報を判定結果出力装置50へ出力する。これにより、運転者状態判定結果情報が、判定結果出力装置50にて、警告音や警告灯の点灯として、運転者に呈示される。
その後、運転者状態判定装置30は、個人差学習装置3213により、ステップS25において、運転者交代トリガ信号が運転者状態判定部3214から入力されたか否かを判定する。そして運転者交代トリガ信号が入力されていなければ、運転者状態判定装置30は、ステップS26において、個人差学習装置3213により、精度優先学習のみを行わせる。その後は、運転者状態判定装置30は、上記ステップS18から処理を繰り返す。
よって、不揮発性学習値テーブル3331に、演算した機会優先学習値に近似する精度優先学習値が記憶されていれば、運転者交代トリガ信号も入力されない限り、運転者状態判定装置30は、前記第1実施形態において精度優先学習回数が、所定のN回以上となった場合と同様の動作を行うことができる。
そして、それ以降に所定時間毎に繰り返されるステップS18乃至S20、S25およびS23の動作中、図8に時刻t12で示すように、運転者交代トリガ信号が入力されると、個人差学習装置3213は、そのことをステップS25において判定する。この場合には、個人差学習装置3213は、ステップS27において、学習データ記憶部333の揮発性学習値テーブル3332に記憶された学習データの内の精度優先学習値を、学習データ記憶部333の不揮発性学習値テーブル3331に更新記憶させる。そして、上記ステップS24において、揮発性学習値テーブル3332に記憶された学習データ、つまり機会優先学習結果と精度優先学習結果とをリセットした後、運転者状態判定装置30は、上記ステップS11から処理を繰り返す。
なお、上記ステップS27において揮発性学習値テーブル3332の精度優先学習値を不揮発性学習値テーブル3331に更新記憶させる際には、上記ステップS22で判定された、近似する精度優先学習値に上書き記憶させることで、当該運転者についての精度優先学習値を更新する。上記ステップS22で判定の際に、運転者を表す識別子を保存しておくことで、不揮発性学習値テーブル3331のどの精度優先学習値に上書きすればよいか判別できる。
(3−2)精度優先学習十分時
例えば、図8に示すように、時刻t12から開始された、ステップS11からステップS23の繰り返し動作において、時刻t13において、N回目の精度優先学習が行われると、学習データ記憶部333の揮発性学習値テーブル3332には、図6Cに示すように、精度優先学習回数N回が記憶される。これにより、上記ステップS13において、精度優先学習回数がN回以上となったと判定される。この場合、個人差学習装置3213は、ステップS28において、揮発性学習値テーブル3332の精度優先学習値を、図6Dに示すように、不揮発性学習値テーブル3331に新規に記憶させる。
その後は、上記ステップS18に進み、前述した通りの動作を行う。
なお、ステップS25において、運転者交代トリガ信号が入力されたと判定して、ステップS27において、揮発性学習値テーブル3332の精度優先学習値を不揮発性学習値テーブル3331に更新記憶させる際には、上記ステップS28で新規記憶させた精度優先学習値に上書き記憶させることで、当該運転者についての精度優先学習値を更新する。上記ステップS28での新規記憶の際に、運転者を表す識別子を保存しておくことで、不揮発性学習値テーブル3331のどの精度優先学習値に上書きすればよいか判別できる。
(第2実施形態の効果)
以上詳述したように第2実施形態では、運転者状態判定装置30においては、前記第1実施形態と同様の効果を奏することができる。
さらに、本第2実施形態では、運転者状態判定装置30においては、過去に演算された複数の運転者それぞれの精度優先学習値を不揮発性学習値テーブル3331に記憶しておき、個人差学習装置3213による機会優先学習で演算された機会優先学習値に近似する精度優先学習値が不揮発性学習値テーブル3331に記憶されているときには、個人差学習装置3213による機会優先学習を終了する。つまり、機会優先学習値に近似する精度優先学習値が過去に演算されていれば、それ以上は機会優先学習を行わない。したがって、車両を運転している現在の運転者が既に演算した運転者であれば、個人差学習装置3213による精度優先学習によって演算された統計情報は、未だ十分な精度が得られ回数に満たなくても、正しいものとすることで、精度優先学習のみとすることができる。
また、運転者状態判定装置30においては、運転者交代の可能性が生じたとき、個人差学習装置3213においてそれまで演算した精度優先学習値を不揮発性学習値テーブル3331に記憶させた上で、個人差学習装置3213における機会優先学習と精度優先学習とを新規に開始する。通常、車両の動力源がオフされる前に、車両が完全に停止したパーキング状態とされるので、これにより運転者交代可能性有りと判定されて、それまで精度優先学習によって演算した精度優先学習値が不揮発性学習値テーブル3331に記憶される。よって、演算した精度優先学習値を確実に不揮発性学習値テーブル3331に記憶させることができる。特に、新たな運転者についての精度優先学習の演算をはじめた場合に、その演算結果である精度優先学習値を確実に記憶させることができる。
また、運転者状態判定装置30においては、運転者状態判定部3214によって、監視データ記憶部331に記憶された監視データまたは車両情報記憶部332に記憶された車両情報に基づいて、運転者交代の可能性の有無を判定して、個人差学習装置3213に運転者交代トリガ信号を入力する。例えば、運転者状態判定部3214は、車両が完全に停止したことを、車両情報である車速センサのセンシングデータにより判定し、パーキング状態となったことを、車両情報であるギアセレクタセンサおよび/またはパーキングブレーキセンサのセンシングデータにより判定することで、運転者が交代した可能性があると判定する。また、例えば、運転者状態判定部3214は、監視データであるドライバカメラからの監視データに基づいて、運転者が監視画像中から一旦消えた後、再度監視画像中に出現したこと、あるいは、監視データに基づく運転者の顔または視線の検出が一旦不能となった後、再度検出可能となったことを検出した場合に、運転者が交代した可能性があると判定する。したがって、監視データまたは車両情報に基づいて、容易に運転者交代の可能性を判定できる。また、運転者状態判定部3214が上記運転者交代の可能性の有無を判定するために、顔認識等の複雑な個人認証処理は必要なく、あるいは、運転者が運転者交代を自己申請するような特別な操作を行わなくても、運転者交代の可能性を簡易に判定できるようになる。さらに、個人認証処理を行わないので、プログラムのセキュリティレベルを高くする必要がない。
[変形例]
以上、本発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
(1)例えば、前記第2実施形態では、機会優先学習によって得られた機会優先学習値を、学習データ記憶部333の不揮発性学習値テーブル3331に記憶された精度優先学習値と比較することで、近似する精度優先学習値が有るか否かを判定している。機会優先学習値ではなく、機会優先学習値と精度優先学習値とを用いて演算した補正値を、不揮発性学習値テーブル3331に記憶された精度優先学習値と比較することで、近似する精度優先学習値が有るか否かを判定するようにしてもよい。
図9は、この変形例における運転者状態判定システムの処理手順と処理内容の一例を示すフローチャートである。
この場合は、ステップS13において、精度優先学習回数が未だN回に達していないと判定された場合、個人差学習装置3213は、ステップS14において、揮発性学習値テーブル3332に記憶された学習データ、つまり機会優先学習結果と精度優先学習結果とに基づいて補正値を算出する。そして、ステップS29において、個人差学習装置3213は、この算出した補正値と、不揮発性学習値テーブル3331に記憶された精度優先学習値とを比較する。そして、個人差学習装置3213は、ステップS22において、補正値に近似する精度優先学習値が有ったかどうか、つまり過去に学習されていたかどうかを判定する。算出した補正値に近似する精度優先学習値が無いと判定した場合、個人差学習装置3213は、ステップS15において、この算出した補正値を、個人差補正値として採用することを決定する。これに対して、算出した補正値に近似する精度優先学習値が有ったと判定した場合には、個人差学習装置3213は、ステップS18において、その近似する精度優先学習値を、個人差補正値として採用することを決定する。
その他は、第2実施形態と同様である。
このようにしても、前記第2実施形態と同様の作用効果が得られる。さらには、機会優先学習値よりは補正値の方が精度がよいので、より正確な近似精度優先学習値を判定できる。
(2)また、前記第1および第2実施形態では、精度優先学習と機会優先学習の所定時間を同じにしているが、それらは互いに異なっていてもよい。
(3)また、前記第1および第2実施形態では、運転者状態の判定を行う際、監視データ記憶部331に記憶されている監視データに基づいて判定した運転者の顔または視線の現在の方向を、個人差補正値によって補正することで、運転者の顔または視線の方向を校正した上で、所定の基準方向と比較することで、校正した運転者の顔または視線の方向の基準方向からの乖離度に基づいて、例えば脇見状態であるか否かといった運転者状態を判定する例を説明した。つまり、基準方向を一定とし、運転者の顔または視線の現在の方向を個人差補正値に基づいて補正して、両者を比較することで運転者状態を判定している。前記第1および第2実施形態において簡単に記載したように、逆に、基準方向を個人差補正値に基づいて補正し、この補正した基準方向と運転者の顔または視線の現在の方向とを比較することで、運転者状態を判定するようにしてもよい。このようにしても、前記第1および第2実施形態と同様の作用効果が得られる。
(4)また、例えば、前記第2実施形態では、運転者交代可能性の有無を、運転者状態判定部3214によって判定するものとしているが、個人差学習装置3213において、監視データ記憶部331に記憶された監視データまたは車両情報記憶部332に記憶された車両情報に基づいて、判定するようにしても構わない。あるいは、専用の運転者交代可能性判定部を設けてもよい。このようにしても、前記第2実施形態と同様の作用効果が得られる。
また、運転者の顔または視線の方向についても、監視データ取得部3211によってドライバカメラ41からのセンシングデータに基づいて判定し、その判定結果を監視データ記憶部331に記憶しておくようにしてもかまわない。
要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
[付記]
前記実施形態の一部または全部は、以下の付記に示すように記載することが可能であるが、これに限られない。
(付記1)
第1のセンサ(21;41)から出力された、車両の運転者の画像を含む第1のセンシングデータに基づいて、前記運転者の顔または視線の方向を判定し、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向についての統計情報を繰り返し演算する演算部(14;3213)と、
前記演算部によって演算された前記統計情報に基づいて、前記車両の正面方向として設定された基準方向に対して前記演算部によって判定された前記運転者の顔または視線の方向を校正する、または、前記基準方向を校正する校正部(14;3213)と、
前記校正部によって校正された前記運転者の顔または視線の方向の前記基準方向からの乖離度に基づいて、または、前記演算部によって判定された前記運転者の顔または視線の方向の前記校正部によって校正された前記基準方向からの乖離度に基づいて、前記運転者の状態を判定する第1の判定部(15;3214)と、
前記第1の判定部の判定結果を、前記運転者に対して出力する出力部(16;3215,50)と、
を具備する運転者状態判定装置(10;30)。
(付記2)
車両の運転者の状態を判定する運転者状態判定装置(10;30)が実行する運転者状態判定方法であって、
前記運転者状態判定装置が、第1のセンサ(21;41)から出力された、車両の運転者の画像を含む第1のセンシングデータに基づいて、前記運転者の顔または視線の方向を判定し、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向である保持方向についての統計情報を繰り返し演算する過程と、
前記運転者状態判定装置が、前記演算された前記統計情報に基づいて、前記車両の正面方向として設定された基準方向に対して前記判定された前記運転者の顔または視線の方向を校正する、または、前記基準方向を校正する過程と、
前記運転者状態判定装置が、前記校正された前記運転者の顔または視線の方向の前記基準方向からの乖離度に基づいて、または、前記判定された前記運転者の顔または視線の方向の前記校正された前記基準方向からの乖離度に基づいて、前記運転者の状態を判定する過程と、
前記運転者状態判定装置が、前記運転者の状態の判定結果を、前記運転者に対して出力する過程と、
を具備する運転者状態判定方法。
(付記3)
ハードウェアプロセッサ(321)とメモリ(33)とを有する運転者状態判定装置(30)であって、
前記ハードウェアプロセッサが、
第1のセンサ(41)から出力された、車両の運転者の画像を含む第1のセンシングデータに基づいて、前記運転者の顔または視線の方向を判定し、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向である保持方向についての統計情報を繰り返し演算し、
前記演算された前記統計情報に基づいて、前記車両の正面方向として設定された基準方向に対して前記判定された前記運転者の顔または視線の方向を校正し、または、前記基準方向を校正し、
前記校正された前記運転者の顔または視線の方向の前記基準方向からの乖離度に基づいて、または、前記判定された前記運転者の顔または視線の方向の前記校正された前記基準方向からの乖離度に基づいて、前記運転者の状態を判定し、
前記運転者の状態の判定結果を、前記運転者に対して出力する、
運転者状態判定装置。
(付記4)
ハードウェアプロセッサ(321)とメモリ(33)とを有する装置が実行する運転者状態判定方法であって、
前記ハードウェアプロセッサが、第1のセンサ(41)から出力された、車両の運転者の画像を含む第1のセンシングデータに基づいて、前記運転者の顔または視線の方向を判定し、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向である保持方向についての統計情報を繰り返し演算する過程と、
前記ハードウェアプロセッサが、前記演算された前記統計情報に基づいて、前記車両の正面方向として設定された基準方向に対して前記判定された前記運転者の顔または視線の方向を校正する、または、前記基準方向を校正する過程と、
前記ハードウェアプロセッサが、前記校正された前記運転者の顔または視線の方向の前記基準方向からの乖離度に基づいて、または、前記判定された前記運転者の顔または視線の方向の前記校正された前記基準方向からの乖離度に基づいて、前記運転者の状態を判定する過程と、
前記ハードウェアプロセッサが、前記運転者の状態の判定結果を、前記運転者に対して出力する過程と、
を具備する運転者状態判定方法。
10…運転者状態判定装置、 11…監視データ取得部、 12…車両情報取得部、 13…取得情報記憶部、 14…統計演算部、 15…運転者状態判定部、 16…出力部、 17…統計記憶部、 18…運転者交代可能性判定部、 21…運転者監視センサ、 22…車両状態センサ、 30…運転者状態判定装置、 31…入出力インタフェースユニット、 32…制御ユニット、 33…記憶ユニット、 41…ドライバカメラ、 42…車速センサ、 43…ステアリングセンサ、 44…ウィンカセンサ、 45…ギアセレクタセンサ、 46…パーキングブレーキセンサ、 50…判定結果出力装置、 321…ハードウェアプロセッサ、 322…プログラムメモリ、 331…監視データ記憶部、 332…車両情報記憶部、 333…学習データ記憶部、 3211…監視データ取得部、 3212…車両情報取得部、 3213…個人差学習装置、 3214…運転者状態判定部、 3215…信号出力部、 3331…不揮発性学習値テーブル、 3332…揮発性学習値テーブル。

Claims (10)

  1. 第1のセンサから出力された、車両の運転者の画像を含む第1のセンシングデータに基づいて、前記運転者の顔または視線の方向を判定し、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向についての統計情報を繰り返し演算する演算部と、
    前記演算部によって演算された前記統計情報に基づいて、前記車両の正面方向として設定された基準方向に対して前記演算部によって判定された前記運転者の顔または視線の方向を校正する、または、前記基準方向を校正する校正部と、
    前記校正部によって校正された前記運転者の顔または視線の方向の前記基準方向からの乖離度に基づいて、または、前記演算部によって判定された前記運転者の顔または視線の方向の前記校正部によって校正された前記基準方向からの乖離度に基づいて、前記運転者の状態を判定する第1の判定部と、
    前記第1の判定部の判定結果を、前記運転者に対して出力する出力部と、
    を具備する運転者状態判定装置。
  2. 前記第1の判定部は、第2のセンサから出力された、車両の状態を表す第2のセンシングデータに基づいて、前記運転者の状態を判定するか否か、または、判定結果を前記出力部によって出力するか否かを決定する、
    請求項1に記載の運転者状態判定装置。
  3. 前記演算部は、
    誤学習要因を排除した第1の条件が満たされるときに、前記統計情報を繰り返し演算する第1の学習部と、
    前記誤学習要因を含む第2の条件が満たされるときに、前記統計情報を繰り返し演算する第2の学習部と、
    を備え、
    前記校正部は、前記第2の学習部によって演算された前記統計情報に、前記第1の学習部によって演算された前記統計情報よりも低い重み付けを行って、前記運転者の顔または視線の方向、または、前記基準方向を校正する、
    請求項2に記載の運転者状態判定装置。
  4. 前記演算部は、前記第1の学習部による前記統計情報の演算が所定回数行われたとき、前記第2の学習部による前記統計情報の演算を終了する、請求項3に記載の運転者状態判定装置。
  5. 過去に演算された複数の運転者それぞれの統計情報を記憶する記憶部をさらに具備し、
    前記演算部は、前記第2の学習部による前記統計情報の演算結果に近似する統計情報が前記記憶部に記憶されているとき、前記第2の学習部による前記統計情報の演算を終了する、
    請求項3または4に記載の運転者状態判定装置。
  6. 前記第1の学習部は、運転者交代の可能性が生じたとき、そのときまでに前記演算部が演算した前記統計情報を前記記憶部に記憶させ、
    前記演算部は、運転者交代の可能性が生じたとき、前記第1および第2の学習部による前記統計情報の演算を新規に開始する、
    請求項5に記載の運転者状態判定装置。
  7. 前記第1または第2のセンシングデータに基づいて、前記運転者交代の可能性の有無を判定する第2の判定部をさらに具備する、
    請求項6に記載の運転者状態判定装置。
  8. 前記統計情報は、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向の、所定時間内の平均値および偏差量を含む、
    請求項1乃至7のいずれかに記載の運転者状態判定装置。
  9. 車両の運転者の状態を判定する運転者状態判定装置が実行する運転者状態判定方法であって、
    前記運転者状態判定装置が、第1のセンサから出力された、車両の運転者の画像を含む第1のセンシングデータに基づいて、前記運転者の顔または視線の方向を判定し、車両の正面方向に対して前記運転者が正面として顔または視線を保持する方向である保持方向についての統計情報を繰り返し演算する過程と、
    前記運転者状態判定装置が、前記演算された前記統計情報に基づいて、前記車両の正面方向として設定された基準方向に対して前記判定された前記運転者の顔または視線の方向を校正する、または、前記基準方向を校正する過程と、
    前記運転者状態判定装置が、前記校正された前記運転者の顔または視線の方向の前記基準方向からの乖離度に基づいて、または、前記判定された前記運転者の顔または視線の方向の前記校正された前記基準方向からの乖離度に基づいて、前記運転者の状態を判定する過程と、
    前記運転者状態判定装置が、前記運転者の状態の判定結果を、前記運転者に対して出力する過程と、
    を具備する運転者状態判定方法。
  10. 請求項1乃至8のいずれかに記載の運転者状態判定装置が具備する各部としてコンピュータを機能させる運転者状態判定プログラム。
JP2017219876A 2017-11-15 2017-11-15 運転者状態判定装置とその方法およびプログラム Expired - Fee Related JP6720951B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017219876A JP6720951B2 (ja) 2017-11-15 2017-11-15 運転者状態判定装置とその方法およびプログラム
DE102018127163.8A DE102018127163B4 (de) 2017-11-15 2018-10-31 Vorrichtung, verfahren und programm zur fahrerzustandsbestimmung
CN201811300296.3A CN109784135A (zh) 2017-11-15 2018-11-02 驾驶员状态判断装置及其方法以及存储介质
US16/179,985 US11062158B2 (en) 2017-11-15 2018-11-04 Driver state determination apparatus, method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017219876A JP6720951B2 (ja) 2017-11-15 2017-11-15 運転者状態判定装置とその方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019091272A true JP2019091272A (ja) 2019-06-13
JP6720951B2 JP6720951B2 (ja) 2020-07-08

Family

ID=66335420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017219876A Expired - Fee Related JP6720951B2 (ja) 2017-11-15 2017-11-15 運転者状態判定装置とその方法およびプログラム

Country Status (4)

Country Link
US (1) US11062158B2 (ja)
JP (1) JP6720951B2 (ja)
CN (1) CN109784135A (ja)
DE (1) DE102018127163B4 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10849543B2 (en) * 2018-06-08 2020-12-01 Ford Global Technologies, Llc Focus-based tagging of sensor data
KR102703732B1 (ko) * 2018-11-16 2024-09-09 현대자동차주식회사 차량 주행 보조 제어 장치, 그를 포함한 시스템 및 그 방법
US11377114B2 (en) * 2019-03-14 2022-07-05 GM Global Technology Operations LLC Configuration of in-vehicle entertainment based on driver attention
JP7259957B2 (ja) * 2019-06-11 2023-04-18 日本電気株式会社 判定システム、処理方法、プログラム
JP7264789B2 (ja) * 2019-10-15 2023-04-25 トヨタ自動車株式会社 車両及び遠隔操作システム
CN110909718B (zh) * 2019-12-11 2024-04-19 深圳市锐明技术股份有限公司 驾驶状态识别方法、装置及车辆
KR102672095B1 (ko) * 2020-07-06 2024-06-04 주식회사 씽크아이 차량에 설치되는 인캐빈 안전센서 및 그 서비스 플랫폼 제공 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3319201B2 (ja) 1995-02-08 2002-08-26 トヨタ自動車株式会社 脇見運転判定装置
JP2002002325A (ja) 2000-06-27 2002-01-09 Nissan Motor Co Ltd 車両用警報装置
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
US7421114B1 (en) * 2004-11-22 2008-09-02 Adobe Systems Incorporated Accelerating the boosting approach to training classifiers
JP4894572B2 (ja) * 2006-03-14 2012-03-14 オムロン株式会社 検出装置および方法、記録媒体、並びに、プログラム
JP4858516B2 (ja) 2008-09-11 2012-01-18 トヨタ自動車株式会社 顔向き検出装置
WO2010071928A1 (en) * 2008-12-22 2010-07-01 Seeing Machines Limited Automatic calibration of a gaze direction algorithm from user behaviour
CN102510480B (zh) * 2011-11-04 2014-02-05 大连海事大学 驾驶员视线自动校准和跟踪系统
US9405982B2 (en) 2013-01-18 2016-08-02 GM Global Technology Operations LLC Driver gaze detection system
DE102014100352B4 (de) 2013-01-18 2020-07-23 Carnegie Mellon University Verfahren zum Detektieren einer Bedingung mit von der Straße abgewandten Augen
US10055013B2 (en) * 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
JP6364627B2 (ja) * 2013-11-01 2018-08-01 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法
CN106471556B (zh) * 2014-06-23 2021-11-16 株式会社电装 驾驶员的驾驶不能状态检测装置
DE102015214116A1 (de) 2015-07-27 2017-02-02 Robert Bosch Gmbh Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
DE102015215994A1 (de) 2015-08-21 2017-02-23 Bayerische Motoren Werke Aktiengesellschaft System zur Kalibrierung der Blickrichtungserfassung
US10140515B1 (en) * 2016-06-24 2018-11-27 A9.Com, Inc. Image recognition and classification techniques for selecting image and audio data
DE102017214546B4 (de) 2017-08-21 2023-02-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Fahrzeug und Assistenzsystem
US10572745B2 (en) * 2017-11-11 2020-02-25 Bendix Commercial Vehicle Systems Llc System and methods of monitoring driver behavior for vehicular fleet management in a fleet of vehicles using driver-facing imaging device

Also Published As

Publication number Publication date
US20190147274A1 (en) 2019-05-16
JP6720951B2 (ja) 2020-07-08
CN109784135A (zh) 2019-05-21
DE102018127163A1 (de) 2019-05-16
US11062158B2 (en) 2021-07-13
DE102018127163B4 (de) 2021-09-09

Similar Documents

Publication Publication Date Title
JP2019091272A (ja) 運転者状態判定装置とその方法およびプログラム
US9390337B2 (en) Alertness level detection apparatus and alertness level detection method
JP4622806B2 (ja) 駐車支援方法及び駐車支援装置
US10430677B2 (en) Method for classifying driver movements
US20150371542A1 (en) Warning device and travel control device
JP2007082594A (ja) 疲労検出装置
US20190143993A1 (en) Distracted driving determination apparatus, distracted driving determination method, and program
US20200042805A1 (en) Display control device, display control system, display control method, and non-transitory storage medium
JP6468306B2 (ja) 視認支援装置、方法およびプログラム
JP2020071537A (ja) 運転支援装置
CN103477380B (zh) 驾驶员状态判定装置
CN108189783B (zh) 车辆行驶状态监控方法、装置以及车辆
JP5853897B2 (ja) 操作制御装置、及び、操作制御プログラム
US20200273153A1 (en) Surroundings monitoring apparatus
JP5511987B2 (ja) 車両用物体衝突警報システムおよび車両用物体衝突警報方法
US11325609B2 (en) Vehicle driving assist system
JP6687006B2 (ja) 運転者判定装置とそれを備える運転者状態判定装置並びにそれらの方法およびプログラム
KR102135900B1 (ko) 주차 보조 장치 및 방법
JP2010039933A (ja) 脇見運転判定装置
CN113696897B (zh) 驾驶员分神预警方法和驾驶员分神预警系统
EP3462426A1 (en) Driving assistance apparatus and driving assistance method
US20240346834A1 (en) Reference value creating device, alertness level estimating device, and reference value creating method
US11685411B2 (en) Travel controller and method for travel control
JP7127282B2 (ja) 運転状態判定装置及び運転状態判定方法
US11501561B2 (en) Occupant monitoring device, occupant monitoring method, and occupant monitoring program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200601

R150 Certificate of patent or registration of utility model

Ref document number: 6720951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees