JP7302534B2 - 状態判定装置および状態判定方法 - Google Patents

状態判定装置および状態判定方法 Download PDF

Info

Publication number
JP7302534B2
JP7302534B2 JP2020095671A JP2020095671A JP7302534B2 JP 7302534 B2 JP7302534 B2 JP 7302534B2 JP 2020095671 A JP2020095671 A JP 2020095671A JP 2020095671 A JP2020095671 A JP 2020095671A JP 7302534 B2 JP7302534 B2 JP 7302534B2
Authority
JP
Japan
Prior art keywords
vehicle
predetermined range
driver
change rules
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020095671A
Other languages
English (en)
Other versions
JP2021189852A (ja
Inventor
航一郎 山内
俊一郎 澤井
拓也 坂田
匡駿 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020095671A priority Critical patent/JP7302534B2/ja
Priority to CN202110574853.6A priority patent/CN113753057A/zh
Priority to US17/331,724 priority patent/US11919522B2/en
Publication of JP2021189852A publication Critical patent/JP2021189852A/ja
Application granted granted Critical
Publication of JP7302534B2 publication Critical patent/JP7302534B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の運転者の状態を判定する状態判定装置および状態判定方法に関する。
車両の運転者が漫然運転状態にある場合、交通事故のリスクが高まる。運転者の視線方向または顔向きといった動作に基づいて、運転者が漫然運転状態にあるか否かを判定する技術が提案されている。
特許文献1には、車両の運転者の漫然運転状態を精度良く検出する漫然運転検出システムが記載されている。特許文献1に記載の漫然運転検出システムは、車両の運転者の顔の画像データに基づいて検出された運転者の顔の向きの変動と車両の運転シーンとに基づいて、運転者の漫然運転状態を判定する。
特開2017-151693号公報
運転者の動作は、道路状況によって相違する。そのため、単一の判定基準により漫然運転状態の判定を行うと、漫然運転を適切に検出できない場合がある。
本発明は、車両の運転者の運転状態を適切に判定することができる状態判定装置を提供することを目的とする。
本発明にかかる状態判定装置は、車両の運転者の視線方向または顔向きを示す動作対応値の分布する動作範囲が所定範囲に含まれる場合、運転者が漫然運転状態にあると判定する判定部と、車両の周囲の道路状況に応じて所定範囲を広げる範囲変更部と、を備える。
本発明にかかる状態判定装置において、範囲変更部は、車両の前方にカーブのある道路状況に応じて、カーブの向きに所定範囲を広げることが好ましい。
本発明にかかる状態判定装置において、範囲変更部は、カーブの曲率半径が小さいほど所定範囲を大きく広げることが好ましい。
本発明にかかる状態判定装置において、範囲変更部は、車両の前方で勾配が変化する道路状況に応じて、勾配が変化する向きに所定範囲を広げることが好ましい。
本発明にかかる状態判定装置において、範囲変更部は、車両の前方に設置物が検出される道路状況に応じて、運転者の位置から設置物が検出される位置に向けて所定範囲を広げることが好ましい。
本発明にかかる状態判定装置において、範囲変更部は、車両の車速が大きいほど所定範囲を大きく広げることが好ましい。
状態判定方法は、車両の運転者の視線方向または顔向きを示す動作対応値の分布する動作範囲が所定範囲に含まれる場合、運転者が漫然運転状態にあると判定し、車両の周囲の道路状況に応じて所定範囲を広げる、ことを含む。
本発明にかかる状態判定装置によれば、車両の運転者の運転状態を適切に判定することができる。
状態判定装置が実装される車両の概略構成図である。 ECUのハードウェア模式図である。 ECUが有するプロセッサの機能ブロック図である。 状態判定処理のフローチャートである。 状態判定処理の第1の例を示す図である。 状態判定処理の第2の例を示す図である。 状態判定処理の第3の例を示す図である。
以下、図面を参照して、車両の運転者の運転状態を適切に判定することができる状態判定装置について詳細に説明する。状態判定装置は、車両の運転者の視線方向または顔向きを示す動作対応値の分布する動作範囲が所定範囲に含まれる場合、運転者が漫然運転状態にあると判定する。そして、状態判定装置は、車両の周囲の道路状況に応じて所定範囲を広げる。
図1は、状態判定装置が実装される車両の概略構成図である。
車両1は、ドライバモニタカメラ2と、GNSS受信機3と、ストレージ装置4と、ECU5(Electronic Control Unit)とを有する。ドライバモニタカメラ2、GNSS受信機3およびストレージ装置4とECU5とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。
ドライバモニタカメラ2は、運転者の動作を検出するためのセンサの一例である。ドライバモニタカメラ2は、CCDあるいはC-MOSなど、赤外光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上の撮影対象となる領域の像を結像する結像光学系とを有する。また、ドライバモニタカメラ2は、赤外光を発する光源を有する。ドライバモニタカメラ2は、例えば車室内の前方上部に、運転者シートに着座する運転者の顔に向けて取り付けられる。ドライバモニタカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに運転者に赤外光を照射し、運転者の顔が写った画像を出力する。
GNSS受信機3は、所定の周期ごとにGNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信し、受信したGNSS信号に基づいて車両1の自己位置を測位する。GNSS受信機3は、所定の周期ごとに、GNSS信号に基づく車両1の自己位置の測位結果を表す測位信号を、車内ネットワークを介してECU5へ出力する。
ストレージ装置4は、記憶部の一例であり、例えば、ハードディスク装置、または不揮発性の半導体メモリを有する。ストレージ装置4は、位置に対応づけて道路状況を記憶する地図情報を保存する。ストレージ装置4は、ECU5からの道路状況の読出し要求に従って道路状況を読出し、車内ネットワークを介して読出した道路状況をECU5に渡す。
ECU5は、状態判定装置の一例であり、ドライバモニタカメラ2が生成する画像とGNSS受信機3が生成する測位信号とストレージ装置4に記憶された地図情報とを用いて、状態判定処理を実行する。
図2は、ECU5のハードウェア模式図である。ECU5は、通信インタフェース51と、メモリ52と、プロセッサ53とを備える。
通信インタフェース51は、通信部の一例であり、ECU5を車内ネットワークへ接続するための通信インタフェース回路を有する。通信インタフェース51は、受信したデータをプロセッサ53に供給する。また、通信インタフェース51は、プロセッサ53から供給されたデータを外部に出力する。
メモリ52は、揮発性の半導体メモリおよび不揮発性の半導体メモリを有する。メモリ52は、プロセッサ53による処理に用いられる各種データ、例えば動作対応値の分布する動作範囲に基づいて漫然運転状態にあるか否かを判定するための所定範囲を表す値、道路状況ごとに定められる所定範囲の変更ルール等を保存する。また、メモリ52は、各種アプリケーションプログラム、例えば状態判定処理を実行する状態判定プログラム等を保存する。
プロセッサ53は、制御部の一例であり、1以上のプロセッサおよびその周辺回路を有する。プロセッサ53は、論理演算ユニット、数値演算ユニット、またはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。
図3は、ECU5が有するプロセッサ53の機能ブロック図である。
ECU5のプロセッサ53は、機能ブロックとして、判定部531と、範囲変更部532とを有する。プロセッサ53が有するこれらの各部は、プロセッサ53上で実行されるプログラムによって実装される機能モジュールである。あるいは、プロセッサ53が有するこれらの各部は、独立した集積回路、マイクロプロセッサ、またはファームウェアとしてECU5に実装されてもよい。
判定部531は、ドライバモニタカメラ2が生成する画像を取得する。判定部531は、取得した画像から、運転者の視線方向を検出する。視線方向は、車両1の進行方向と運転者の視線との間の水平方向または鉛直方向の角度により表される。
判定部531は、取得した画像を、瞳孔および光源の角膜反射の位置を検出するように予め学習された識別器に入力することにより、運転者の顔が写った画像に含まれる運転者の目における瞳孔および角膜反射の位置を特定する。そして、判定部531は、瞳孔と角膜反射との位置関係に基づいて、視線方向を検出する。
識別器は、例えば、入力側から出力側に向けて直列に接続された複数の層を有する畳み込みニューラルネットワーク(CNN)とすることができる。予め瞳孔および角膜反射を含む顔画像を教師データとして用いてCNNに入力し、学習を行うことにより、CNNは瞳孔および角膜反射の位置を特定する識別器として動作する。
判定部531は、取得した画像を識別器に入力することにより、運転者の目における目頭および虹彩の位置を特定し、目頭と虹彩との位置関係に基づいて視線方向を検出してもよい。この場合、ドライバモニタカメラ2は、夜間の車室内の環境下においても運転者の顔が写った画像を適切に出力可能な、高感度可視光センサを有していてもよい。
判定部531は、ドライバモニタカメラ2の撮影周期ごとに視線方向を検出し、所定間隔(例えば15秒間)における視線方向の分布する動作範囲を求める。そして、動作範囲とメモリ52に記憶された所定範囲との比較を行い、動作範囲が所定範囲に含まれる場合、運転者が漫然運転状態にあると判定する。
範囲変更部532は、GNSS受信機3が生成する測位信号に表される車両1の現在位置に対応する車両1の周囲の道路状況をストレージ装置4から取得する。そして、車両1の周囲の道路状況が、変更ルールに関連づけてメモリ52に記憶される各道路状況に合致するかを判定し、車両1の周囲の道路状況に応じて所定範囲を広げる。
図4は、状態判定処理のフローチャートである。ECU5は、車両1が走行を行う間、状態判定処理を所定の周期で繰り返し実行する。
まず、範囲変更部532は、車両1の周囲の道路状況が、変更ルールに関連づけてメモリ52に記憶される各道路状況に合致するかを判定する(ステップS1)。車両1の周囲の道路状況が、変更ルールに関連づけられる各道路状況のいずれかに合致すると判定された場合(ステップS1:Y)、範囲変更部532は、道路状況に関連づけられた変更ルールに従って所定範囲を広げる(ステップS2)。車両1の周囲の道路状況が、変更ルールに関連づけられる各道路状況のいずれにも合致しないと判定された場合(ステップS1:N)、範囲変更部532は、所定範囲を変更せずに次の処理に進む。
次に、判定部531は、車両1の運転者の視線方向を示す動作対応値の分布する動作範囲を算出する(ステップS3)。続いて、判定部531は、動作範囲とメモリ52に記憶された所定範囲とを用いて、運転者が漫然運転状態にあるか否かを判定し(ステップS4)、状態判定処理を終了する。
プロセッサ53は、状態判定処理の判定結果に基づいて、漫然運転状態と判定された運転者に対する注意喚起処理を実行する。例えば、プロセッサ53は、車両1に搭載された不図示のディスプレイに所定の信号を出力することにより、運転への集中を促すメッセージを表示させる。また、プロセッサ53は、車両1に搭載された不図示のスピーカに所定の信号を出力することにより、運転への集中を促す音声を出力させてもよい。
図5は、状態判定処理の第1の例を説明する図である。
図5に示す第1の例において、車両1は位置P11から位置P12に走行している。位置P11における車両1の周囲の道路状況は、直線道路に該当する。位置P11において、運転者の視線方向ED111-ED113が検出されている。視線方向ED111-ED113の分布する動作範囲AR11において、視線方向ED111およびED112は所定範囲のRR11の内側にあり、視線方向ED113は所定範囲RR11の外側にある。すなわち、動作範囲AR11は所定範囲RR11に含まれない。
一方、位置P12における車両1の周囲の道路状況は、車両1の前方の位置P13にカーブのある道路状況である。メモリ52には、車両1の前方にカーブのある道路状況に対応づけて、カーブの向きに所定範囲を広げる変更ルールが記憶されている。そのため、範囲変更部532は、変更ルールに従って、所定範囲RR11をカーブの向き(図5の例では右)に所定範囲を広げる。
位置P12において、運転者の視線方向ED121-ED123が検出されている。視線方向ED121-ED123の分布する動作範囲AR12において、視線方向ED123は、広げられた所定範囲RR12の内側となる。そのため、動作範囲AR12は所定範囲RR12に含まれる。
図5の例では、車両1の運転者は、位置P11において漫然運転状態と判定されず、位置P12において漫然運転状態と判定される。
図6は、状態判定処理の第2の例を説明する図である。
図6に示す第2の例において、車両1は位置P21から位置P22に走行している。位置P21における車両1の周囲の道路状況は、直線道路に該当する。位置P21において、運転者の視線方向ED211-ED213が検出されている。視線方向ED211-ED213の分布する動作範囲AR21において、視線方向ED212およびED213は所定範囲のRR21の内側にあり、視線方向ED211は所定範囲RR21の外側にある。すなわち、動作範囲AR21は所定範囲RR21に含まれない。
一方、位置P22における車両1の周囲の道路状況は、車両1の前方の位置P23で勾配が変化し、登り坂となる道路状況である。ただし、位置P23を俯瞰した図6には勾配は図示されていない。メモリ52には、車両1の前方で勾配が変化する道路状況に対応づけて、勾配が変化する向きに所定範囲を広げる変更ルールが記憶されている。そのため、範囲変更部532は、変更ルールに従って、所定範囲RR21を勾配が変化する向き(図6の例では上)に所定範囲を広げる。
位置P22において、運転者の視線方向ED221-ED223が検出されている。視線方向ED221-ED223の分布する動作範囲AR22において、視線方向ED221は、広げられた所定範囲RR22の内側となる。そのため、動作範囲AR22は所定範囲RR22に含まれる。
図6の例では、車両1の運転者は、位置P21において漫然運転状態と判定されず、位置P22において漫然運転状態と判定される。
図7は、状態判定処理の第3の例を説明する図である。
図7に示す第3の例において、車両1は位置P31から位置P32に走行している。位置P31における車両1の周囲の道路状況は、直線道路に該当する。位置P31において、運転者の視線方向ED311-ED313が検出されている。視線方向ED311-ED313の分布する動作範囲AR31において、視線方向ED312およびED313は所定範囲のRR31の内側にあり、視線方向ED311は所定範囲RR31の外側にある。すなわち、動作範囲AR31は所定範囲RR31に含まれない。
一方、位置P32における車両1の周囲の道路状況は、車両1の前方の位置P33に設置物である道路標識RSが検出される道路状況である。メモリ52には、車両1の前方に設置物が検出される道路状況に対応づけて、設置物が検出される位置に向けて所定範囲を広げる変更ルールが記憶されている。そのため、範囲変更部532は、変更ルールに従って、所定範囲RR31を道路標識RSが検出される位置に向けて(図7の例では上向きに)に所定範囲を広げる。
位置P32において、運転者の視線方向ED321-ED323が検出されている。視線方向ED321-ED323の分布する動作範囲AR32において、視線方向ED321は、広げられた所定範囲RR32の内側となる。そのため、動作範囲AR32は所定範囲RR32に含まれる。
図7の例では、車両1の運転者は、位置P31において漫然運転状態と判定されず、位置P32において漫然運転状態と判定される。
以上のようにECU5が状態判定処理を実行することにより、ECU5は、車両の運転者の運転状態を適切に判定することができる。
変形例によれば、範囲変更部532は、車両1の前方にカーブのある道路状況に応じてカーブの向きに所定範囲を広げる場合、カーブの曲率半径が小さいほど所定範囲を大きく広げてもよい。カーブの曲率半径は、ストレージ装置4に地図情報として記憶される。
異なる変形例によれば、範囲変更部532は、車両1の周囲の道路状況に応じて所定範囲を広げる場合、車両1の車速が大きいほど所定範囲を大きく広げてもよい。車両1の車速は、車内ネットワークに接続された不図示の車速センサから取得することができる。
異なる変形例によれば、判定部531は、車両1の運転者の視線方向に代えて、または視線方向に加えて、ドライバモニタカメラ2が生成した画像から運転者の顔向きを検出してもよい。顔向きは、車両1の進行方向と運転者が顔を向けている方向との間の水平方向または鉛直方向の角度により表される。顔向きは、画像から検出された目や口といった顔の部位を標準的な顔の3次元モデルと照合することにより検出することができる。
当業者は、本発明の精神および範囲から外れることなく、種々の変更、置換および修正をこれに加えることが可能であることを理解されたい。
1 車両
5 ECU
531 判定部
532 範囲変更部

Claims (3)

  1. 車両の運転者の視線方向または顔向きを示す動作対応値の分布する動作範囲が所定範囲に含まれる場合、前記運転者が漫然運転状態にあると判定する判定部と、
    それぞれ異なる道路状況に関連づけてメモリに記憶され当該道路状況に応じて前記所定範囲に加えるべき変更をそれぞれ表す複数の変更ルールのうち、地図情報に表される、前記車両の自己位置における前記車両の周囲の道路状況に合致する道路状況に関連づけられた変更ルールに従って前記所定範囲を広げる範囲変更部と、
    を備え、
    前記複数の変更ルールは、前記車両の前方にカーブのある前記道路状況に関連づけて、前記カーブの向きに前記所定範囲を広げることを含み、または、
    前記複数の変更ルールは、前記車両の前方で勾配が変化する前記道路状況に関連づけて、前記勾配が変化する向きに前記所定範囲を広げることを含み、または、
    前記複数の変更ルールは、前記車両の前方に設置物が検出される前記道路状況に関連づけて、前記運転者の位置から前記設置物が検出される位置に向けて前記所定範囲を広げることを含み、または、
    前記範囲変更部は、前記車両の車速が大きいほど前記所定範囲を大きく広げる、
    状態判定装置。
  2. 前記複数の変更ルールが、前記車両の前方で勾配が変化する前記道路状況に関連づけて、前記勾配が変化する向きに前記所定範囲を広げることを含む場合において、前記複数の変更ルールは、前記車両の前方にカーブのある前記道路状況にさらに関連づけて、前記カーブの曲率半径が小さいほど前記所定範囲を大きく広げることをさらに含む、請求項に記載の状態判定装置。
  3. 車両の運転者の視線方向または顔向きを示す動作対応値の分布する動作範囲が所定範囲に含まれる場合、前記運転者が漫然運転状態にあると判定し、
    それぞれ異なる道路状況に関連づけてメモリに記憶され当該道路状況に応じて前記所定範囲に加えるべき変更をそれぞれ表す複数の変更ルールのうち、地図情報に表される、前記車両の自己位置における前記車両の周囲の道路状況に合致する道路状況に関連づけられた変更ルールに従って前記所定範囲を広げる、ことを含
    前記複数の変更ルールは、前記車両の前方にカーブのある前記道路状況に関連づけて、前記カーブの向きに前記所定範囲を広げることを含み、または、
    前記複数の変更ルールは、前記車両の前方で勾配が変化する前記道路状況に関連づけて、前記勾配が変化する向きに前記所定範囲を広げることを含み、または、
    前記複数の変更ルールは、前記車両の前方に設置物が検出される前記道路状況に関連づけて、前記運転者の位置から前記設置物が検出される位置に向けて前記所定範囲を広げることを含み、または、
    前記所定範囲の変更において、前記車両の車速が大きいほど前記所定範囲を大きく広げる、
    状態判定方法。
JP2020095671A 2020-06-01 2020-06-01 状態判定装置および状態判定方法 Active JP7302534B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020095671A JP7302534B2 (ja) 2020-06-01 2020-06-01 状態判定装置および状態判定方法
CN202110574853.6A CN113753057A (zh) 2020-06-01 2021-05-26 状态判定装置及状态判定方法
US17/331,724 US11919522B2 (en) 2020-06-01 2021-05-27 Apparatus and method for determining state

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020095671A JP7302534B2 (ja) 2020-06-01 2020-06-01 状態判定装置および状態判定方法

Publications (2)

Publication Number Publication Date
JP2021189852A JP2021189852A (ja) 2021-12-13
JP7302534B2 true JP7302534B2 (ja) 2023-07-04

Family

ID=78706646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020095671A Active JP7302534B2 (ja) 2020-06-01 2020-06-01 状態判定装置および状態判定方法

Country Status (3)

Country Link
US (1) US11919522B2 (ja)
JP (1) JP7302534B2 (ja)
CN (1) CN113753057A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922706B2 (en) * 2022-01-17 2024-03-05 Veoneer Us, Llc Systems and methods for dynamic attention area

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244959A (ja) 2008-03-28 2009-10-22 Toyota Motor Corp 運転支援装置、運転支援方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0796768A (ja) * 1993-09-27 1995-04-11 Nissan Motor Co Ltd 前方注視度検知装置
JP4186749B2 (ja) * 2003-08-11 2008-11-26 トヨタ自動車株式会社 脇見判定装置
JP5353416B2 (ja) * 2009-04-27 2013-11-27 トヨタ自動車株式会社 ドライバ状態監視装置及び車両制御装置
US9460601B2 (en) * 2009-09-20 2016-10-04 Tibet MIMAR Driver distraction and drowsiness warning and sleepiness reduction for accident avoidance
JP6047318B2 (ja) 2012-07-06 2016-12-21 矢崎総業株式会社 ドライバ状態検出装置及びドライバ状態報知装置
JP6617602B2 (ja) * 2016-02-24 2019-12-11 株式会社デンソー 漫然運転検出システム及び漫然運転検出方法
JP6915502B2 (ja) * 2017-11-09 2021-08-04 トヨタ自動車株式会社 ドライバ状態検出装置
JP6812952B2 (ja) * 2017-11-15 2021-01-13 オムロン株式会社 脇見判定装置、脇見判定方法、およびプログラム
CN110638474A (zh) * 2019-09-25 2020-01-03 中控智慧科技股份有限公司 一种驾驶状态检测的方法、系统、设备及可读存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244959A (ja) 2008-03-28 2009-10-22 Toyota Motor Corp 運転支援装置、運転支援方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
平嶋亮啓、堀口由貴男、中西弘明、椹木哲夫,光学流動を考慮した顕著性マップによるドライバ注視領域の推定,第33回ファジィシステムシンポジウム講演論文集,日本,日本知能情報ファジィ学会,2017年,第553-558頁,https://doi.org/10.14864/fss.33.0_553
石田眞二、松田泰明,カーブ区間における線形誘導標示板がドライバーの視線挙動に与える影響,交通工学論文集,2020年6巻1号,日本,一般社団法人交通工学研究会,2020年01月01日,第1-10頁,https://doi.org/10.14954/jste.6.1_1

Also Published As

Publication number Publication date
CN113753057A (zh) 2021-12-07
US11919522B2 (en) 2024-03-05
JP2021189852A (ja) 2021-12-13
US20210370956A1 (en) 2021-12-02

Similar Documents

Publication Publication Date Title
JP7052663B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP6933457B2 (ja) 認識結果提示装置、認識結果提示方法及び自律移動体
JP4173902B2 (ja) 車両周辺監視装置
AU2016397318B2 (en) Passenger counting device, system, method and program
EP3150961B1 (en) Stereo camera device and vehicle provided with stereo camera device
CN111507162B (zh) 基于车辆间通信的协作的盲点警告方法及装置
JP2009205191A (ja) 駐車スペース認識装置
JP7302534B2 (ja) 状態判定装置および状態判定方法
JP4270010B2 (ja) 物体危険判定装置
JP2018073275A (ja) 画像認識装置
JP5291524B2 (ja) 車両周辺監視装置
JP2004364112A (ja) 車両周辺表示装置
JP2023152109A (ja) 地物検出装置、地物検出方法及び地物検出用コンピュータプログラム
JP2023104680A (ja) ドライバモニタ装置、ドライバモニタ方法及びドライバモニタ用コンピュータプログラム
JP2022012829A (ja) ドライバモニタ装置及びドライバモニタ方法
JP7360304B2 (ja) 画像処理装置および画像処理方法
US20230394702A1 (en) Device, method, and computer program for estimating seat position
JP2024030017A (ja) 物体検出装置、物体検出方法、および物体検出用コンピュータプログラム
JP2004334784A (ja) 確認動作検出装置及び警報システム
JP2022125719A (ja) 物体検出装置
JP7478995B2 (ja) 携帯端末、ナビゲーション方法、及び、コンピュータプログラム
JP2023177049A (ja) 腕検出装置
CN117734719A (zh) 通知装置和通知方法
JP2022178541A (ja) 点灯状態検出装置
JP2010011311A (ja) 車両用撮影装置および撮影方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R151 Written notification of patent or utility model registration

Ref document number: 7302534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151