JP2019091205A - 車載警報装置 - Google Patents

車載警報装置 Download PDF

Info

Publication number
JP2019091205A
JP2019091205A JP2017219063A JP2017219063A JP2019091205A JP 2019091205 A JP2019091205 A JP 2019091205A JP 2017219063 A JP2017219063 A JP 2017219063A JP 2017219063 A JP2017219063 A JP 2017219063A JP 2019091205 A JP2019091205 A JP 2019091205A
Authority
JP
Japan
Prior art keywords
face detection
state
processing
vehicle
alarm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017219063A
Other languages
English (en)
Other versions
JP7073682B2 (ja
Inventor
晋 大須賀
Susumu Osuga
晋 大須賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2017219063A priority Critical patent/JP7073682B2/ja
Priority to PCT/JP2018/041168 priority patent/WO2019098091A1/ja
Publication of JP2019091205A publication Critical patent/JP2019091205A/ja
Application granted granted Critical
Publication of JP7073682B2 publication Critical patent/JP7073682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Developmental Disabilities (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】一例として、誤警報の発生を低減することが可能な車載警報装置を得る。【解決手段】実施形態に係る車載警報装置は、所定のフレームレートで入力される画像データそれぞれに対して第1の顔検出処理を実行する第1処理部と、画像データに対して第1の顔検出処理とは異なる第2の顔検出処理を実行する第2処理部と、警報を発する警報出力部と、所定の条件が満たされた場合、入力された画像データに対する顔検出処理を、第1処理部による第1の顔検出処理から第2処理部による第2の顔検出処理に切り替え、第2の顔検出処理の結果、入力された画像データから検出された人物の状態が不注意状態である場合、警報出力部を制御して警報を発する状態判定部とを備える。【選択図】図5

Description

本発明の実施形態は、車載警報装置に関する。
近年、撮像された静止画像または動画像に含まれる顔の位置および向き、並びに目および口等の顔部品の状態を検出する顔検出技術の開発が進められている。例えば、特許文献1には、運転者を撮像対象として随時取得される画像データに顔検出処理を実行することで、運転者が脇見状態や居眠り状態等にあるかを検出し、その状態が所定時間以上継続された場合には、運転者に対して警告を発する車載警報装置が開示されている。
特開2009−93674号公報
しかしながら、車載された警報装置のような、安全性の観点から警報に対するリアルタイム性が求められつつも、設置スペースや消費電力等の観点から画像処理に割り当てることができる処理資源(CPU(Central Processing Unit)リソース等)が制限される条件下では、十分な顔検出精度を得ることができない場合が存在する。そのような場合、一定以上の確率で、運転者の脇見や居眠り(閉眼)若しくは運転者の不在などの状態(以下、これらをまとめて不注意状態という)の誤検出が発生し、その結果、運転者や同乗者にとって誤警報が頻発する煩わしい警報装置となってしまう可能性が存在する。
そこで以下の実施形態では、誤警報の発生を低減することが可能な車載警報装置を提供することを目的とする。
本発明の実施形態に係る車載警報装置は、一例として、所定のフレームレートで入力される画像データそれぞれに対して第1の顔検出処理を実行する第1処理部と、画像データに対して前記第1の顔検出処理とは異なる第2の顔検出処理を実行する第2処理部と、警報を発する警報出力部と、所定の条件が満たされた場合、入力された画像データに対する顔検出処理を、前記第1処理部による前記第1の顔検出処理から前記第2処理部による前記第2の顔検出処理に切り替え、前記第2の顔検出処理の結果、前記入力された画像データから検出された人物の状態が不注意状態である場合、前記警報出力部を制御して前記警報を発する状態判定部とを備える。このような構成によれば、例えば、異なる顔検出処理の結果を総合的に判断したり、第2の顔検出処理に検出精度の高い顔検出処理を採用したりすることが可能となり、それにより、誤検出の発生を低減することが可能となる。その結果、誤警報の少ない車載警報装置を実現することが可能となる。
上記所定の条件は、前記所定のフレームレートで入力される画像データそれぞれから前記第1の顔検出処理によって検出された前記人物の不注意状態が所定時間以上継続していることである。このような構成によれば、例えば、平常時に実行される第1の顔検出処理を処理時間の短い処理としつつ、第1の顔検出処理によって運転者の不注意状態が検出された場合には、検出精度の高い第2の顔検出処理を実行するように構成することが可能となる。その結果、運転者の不注意状態に対する反応開始のタイミングを早めてリアルタイム性を維持しつつ、誤警報の少ない車載警報装置を実現することが可能となる。
上記所定の条件は、車両の自動制御において、前記車両が走行する車両通行帯を変更する制御の予定が発生したこと、若しくは、前記車両を右折又は左折する制御の予定が発生したことである。このような構成によれば、例えば、運転者の正常状態を確保する必要がある時に適宜、検出精度の高い第2の顔検出処理の結果に基づいて警報を発することが可能となるため、誤警報の少ない車載警報装置を実現することが可能となる。
上記第2の顔検出処理の顔検出精度は、前記第1の顔検出処理の顔検出精度よりも高い。このような構成によれば、例えば、検出精度の高い第2の顔検出処理の結果に基づいて警報を発することが可能となるため、誤警報の少ない車載警報装置を実現することが可能となる。
上記状態判定部は、前記第2の顔検出処理の結果、前記入力された画像データから検出された人物の状態が不注意状態である場合、新たに入力された画像データに対する顔検出処理を、前記第2処理部による前記第2の顔検出処理から再度、前記第1処理部による前記第1の顔検出処理に切り替え、前記第1の顔検出処理の結果、前記新たに入力された画像データから検出された前記人物の状態が前記不注意状態である場合、前記警報出力部を制御して前記警報を発する。このような構成によれば、例えば、第1の顔検出処理として処理時間の短い顔検出処理を採用することで、第2の顔検出処理の処理時間が長い場合であっても、直近の運転者の状態に基づいて警報を発することが可能となるため、誤警報の少ない車載警報装置を実現することが可能となる。
図1は、第1の実施形態に係る警報装置が搭載される車両の概略構成例を示す斜視図である。 図2は、第1の実施形態に係る車両のダッシュボードの概略構成例を示す図である。 図3は、第1の実施形態に係る撮像装置の取付け位置の例を示す図である。 図4は、第1の実施形態に係る制御システムの構成の一例を示すブロック図である。 図5は、第1の実施形態に係る車載警報装置の概略構成例を示す機能ブロック図である。 図6は、第1の実施形態に係る警報動作の概要を説明するための図である。 図7は、第1の実施形態に係る警報動作のメインフローの概略例を示すフローチャートである。 図8は、第1の実施形態に係る警報動作において実行される第1処理の例を示すフローチャートである。 図9は、第1の本実施形態に係る警報動作において実行される第2処理の例を示すフローチャートである。 図10は、第2の実施形態に係る第2処理実行要求を発行する際の流れの一例を示すフローチャートである。 図11は、第2の実施形態に係る警報動作のメインフローの概略例を示すフローチャートである。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、並びに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。
(第1の実施形態)
まず、第1の実施形態に係る車載警報装置について、図面を参照して詳細に説明する。図1は、第1の実施形態に係る警報装置が搭載される車両の概略構成例を示す斜視図である。図2は、第1の実施形態に係る車両のダッシュボードの概略構成例を示す図である。なお、本実施形態において、車両1は、例えば、ガソリンエンジン等の内燃機関を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(電気モータともいう)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができ、さらに、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。さらにまた、車両1における車輪(以下、前輪の符号を3Fとし、後輪の符号を3Rとし、それらを区別しない場合を車輪3とする)の駆動に関わる装置の方式や、数、レイアウト等は、適宜変更することが可能である。
図1及び図2に示されるように、車両1の車体2は、内部に運転者を含む乗員が乗車する車室2aを形成している。この車室2a内には、運転者の座席2bと向かい合う状態で、操舵部4、加速操作部5、制動操作部6、変速操作部7等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルである。制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルである。変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4や、加速操作部5、制動操作部6、変速操作部7等の構成は、種々変形することができる。
車室2a内のダッシュボード12の車幅方向、即ち運転者から見て左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置8や音声出力装置9(図4参照)が設けられている。表示装置8は、例えば、LCD(Liquid Crystal Display)やOELD(Organic Electroluminescent Display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、タッチパネル等、透明な操作入力部10(図4参照)で覆われていてもよい。乗員は、透明な操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置を手指等で触れたり押したり動かしたりして操作することで、操作入力部10に対する操作入力を実行することができる。
ダッシュボード12における座席2bと向かい合う部分には、計器盤部25が設けられている。計器盤部25には、車両1の移動速度を表示する速度表示部25aと、動力源である内燃機関や電動機等の出力軸の回転数を表示する回転数表示部25bとが設けられている。
車室2a内における座席2bと向かい合う位置には、車両1の前進方向を向いた状態で且つ座席2bに正しい姿勢(以下、正常状態という)で着座する運転者の顔を撮像することが可能な撮像装置201が設けられている。撮像装置201は、座席2bに正常状態で着座する運転者302の顔が撮影画角の中心に位置するように、その画角及び姿勢が調整されている。例えば、図3に示すように、撮像装置201は、車体2の天井部2cに設けられる。ただし、撮像装置201の設置位置は、天井部2cに限定されず、車体2のフロントガラス2d上部やハンドルコラム202など、座席2bに正常状態で着座した運転者302の顔の少なくとも両目を撮像することができる位置であれば、種々変更することが可能である。
この撮像装置201は、例えば、CCD(Charge Coupled Device)カメラ等である。撮像装置201は、例えば、車両1の走行中に、所定のフレームレートで運転者302の顔を撮影し、撮影により得た画像データを順次、ECU14へ出力する。
次に、本実施形態に係る車載警報装置を備えた車両1の制御システムについて説明する。図4は、本実施形態に係る制御システムの構成の一例を示すブロック図である。図4に例示されるように、制御システム100は、ECU(Engine Control Unit)14、モニタ装置11、操舵システム13、測距部16及び17の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21及び車輪速センサ22を備えている。ECU14、モニタ装置11、操舵システム13、測距部16及び17、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21及び車輪速センサ22は、電気通信回線としての車内ネットワーク23を介して相互に電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構築されている。
ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。操舵システム13は、例えば、ECU14から受信した制御信号に基づいてアクチュエータ13aを駆動して前輪3Fに舵角を与えることで、車両1の進行方向を制御する。この操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(Steer By Wire)システム等であってよい。ブレーキシステム18は、例えば、ECU14から受信した制御信号に基づいてアクチュエータ18aを駆動して不図示の制動装置を動作させることで、車両1の減速や停止等を実行する。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。
このECU14は、例えば、CPU(Central Processing Unit)14a、ROM(Read Only Memory)14b、RAM(Random Access Memory)14c、表示制御部14d、音声制御部14e、SSD(Solid State Drive、フラッシュメモリ)14f等を有している。CPU14aは、例えば、表示装置8で表示される画像に関連した画像処理や、車両1の移動目標位置(駐車目標位置、目標位置)の決定、車両1の誘導経路(駐車経路及び駐車誘導経路を含む)の演算、物体との干渉の有無の判断、車両1の自動制御、自動制御の解除等の、各種の演算処理および制御を実行することができる。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた画像データを用いた画像処理や、表示装置8で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。
なお、上記構成において、CPU14a、ROM14b、RAM14c等は、SoC(System-on-Chip)などのような単一チップで構成されてもよい。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等を用いた構成であってもよい。さらに、ECU14は、SSD14fに替えてHDD(Hard Disk Drive)が用いられた構成であってもよい。さらにまた、SSD14fやHDDは、ECU14に対して外付けされる構成であってもよい。
また、撮像部15並びに測距部16及び17は、ECU14が車両1の自動制御を実行するにあたって必要となるデータを取得するための構成である。例えば、撮像部15は、車両1が移動可能な路面や車両1が駐車可能な領域を含む車体2の周辺の外部の環境を逐次撮影し、この撮像により得られた画像データをECU14へ出力する。測距部16及び17は、例えば、超音波を発射してその反射波を捉えるソナーであり、車両1と車両1の周囲に存在する物体との距離を測定し、この測定により得られた距離情報をECU14へ出力する。
ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(Anti-lock Brake System)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(Brake By Wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。
舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。
アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。
シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。また、変速操作部7の可動部の位置には、例えば、車両1を前進させるドライブレンジ、車両1を後進させるリバースレンジ、車輪3に前進又は後進の動力を与えないニュートラルレンジ、車両1を停止させるパーキングレンジ等が含まれるものとする。
車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。なお、車輪速センサ22は、ブレーキシステム18に設けられている場合もある。その場合、ECU14は、車輪速センサ22の検出結果をブレーキシステム18を介して取得する。
なお、上述した各種センサやアクチュエータ等の構成、配置、電気的な接続形態等は単なる一例であって、必要に応じて種々変更することが可能である。
また、上記構成おいて、撮像装置201、ECU14及びモニタ装置11は、本実施形態に係る車載警報装置を構成する。以下に、本実施形態に係る車載警報装置の構成及び動作を、図面を参照して詳細に説明する。
車載警報装置における誤警報の発生を低減するための具体的な手法としては、例えば、運転者の不注意状態(脇見、居眠り(閉眼)、不在等)をより高精度に検出することが可能な顔検出処理を採用する手法や、異なる種類の顔検出処理の結果の論理積を取るなどして総合的に判断することで顔検出の精度を高める手法等が考えられる。そこで、本実施形態では、運転者の不注意状態をより高精度に検出することが可能な顔検出処理(以下、高精度顔検出処理という)が採用された場合を例に挙げて説明する。
高精度顔検出処理としては、例えば、ディープラーニングなどの機械学習を利用した顔検出処理が存在する。ただし、このような高精度顔検出処理は、一般的にはより多くの処理資源を必要とする。処理資源とは、例えば、処理時間に計算器の処理能力を乗算した値である。そのため、高精度顔検出処理のような処理時間の長い顔検出処理を採用した場合には、顔検出及びその結果に基づく警報のリアルタイム性を損なう可能性が存在する。
このように、顔検出処理の精度と顔検出処理のフレームレートとには、トレードオフの関係が存在する。そのため、車載される制御システム100のような、処理資源が限られた状況下では、高い顔検出精度と高いフレームレートとの両方を達成することが難しい場合が存在する。
そこで本実施形態では、ある所定の条件が満たされた場合に高精度顔検出処理が実行される構成とする。このような構成とした場合、例えば、運転者の不注意状態が検出されていない期間などの平常時には、処理時間の短い顔検出処理を実行しておくことが可能となる。それにより、高いフレームレート(短い処理時間)で顔検出処理を実行することが可能となるため、運転者の不注意状態に対する反応開始のタイミングを早めることが可能となる。その結果、リアルタイム性を損なうことなく、高精度の顔検出処理の結果に基づいた、誤警報の少ない車載警報装置を実現することが可能となる。
また、平常時にフレームレートの高い顔検出処理を実行できる構成とすることで、運転者の瞬きや視線移動や口動作などを高いフレームレートで検出することが可能となる。それにより、平常時の顔検出処理の結果を、眠気推定や注視点推定や読唇術など、高いフレームレートでの顔検出処理が要求される他のアプリケーションに応用することが可能になるというメリットも得られる。
なお、以下の説明において、実行に必要な処理資源が比較的大きく処理時間が比較的長い処理を「重い処理」とも称する。これに対し、実行に必要な処理資源が比較的小さく処理時間が比較的短い処理を「軽い処理」とも称する。また、「軽い処理」は処理時間が短い反面、顔検出精度が低いのに対し、「重い処理」は処理時間が長いものの、顔検出精度が高いという場合を想定するが、このような関係に限定されるものではない。
本実施形態における「軽い処理」には、例えば、画像データより抽出した特徴点を既存のテンプレート(顔モデル)と照合(顔モデルフィッティング)して顔検出を実行するパターンマッチング(テンプレートマッチングともいう)や、入力層と出力層との間の隠れ層の層数が数層程度の比較的浅いディープラーニングを利用した顔検出処理などを適用することが可能である。一方、本実施形態における「重い処理」には、隠れ層の層数が十数層以上の比較的深いディープラーニングなどの機械学習を利用した顔検出処理などを適用することができる。
例えば、「軽い処理」にパターンマッチングによる顔検出処理を採用した場合、「重い処理」にはディープラーニングを利用した顔検出処理を採用することができる。また、例えば、「軽い処理」に隠れ層の層数が数層程度の比較的浅いディープラーニングを利用した顔検出処理を採用した場合、「重い処理」には隠れ層の層数が十数層以上の比較的深いディープラーニングを利用した顔検出処理を採用することができる。
さらに、上述のような組合せの他にも、画像データに対する顔検出処理における演算の桁数を変更することで、「軽い処理」と「重い処理」との違いを持たせることも可能である。その場合、例えば、「軽い処理」では少数点以下の桁を捨てて演算に使用する桁数を削減することで処理時間を短縮し、「重い処理」では小数点以下の数桁まで演算の対象とすることで顔検出精度を向上するように構成されてもよい。
つづいて、本実施形態に係る車載警報装置の概略構成例について説明する。図5は、本実施形態に係る車載警報装置であって、撮像装置201、ECU14及びモニタ装置11によって構成される車載警報装置110の概略構成例を示す機能ブロック図である。図5に示すように、車載警報装置110は、状態判定部111と、第1処理部112と、第2処理部113と、タイマ114と、状態フラグメモリ115と、警報出力部116とを備える。
第1処理部112は、第1の顔検出処理(以下、第1処理という)を実行する構成であり、撮像装置201から状態判定部111を介して入力された画像データに対して第1処理を実行し、その結果を状態判定部111へ入力する。
ここで、第1処理は、例えば、処理時間が数10ms(ミリ秒)程度以下と比較的短い、いわゆる「軽い処理」である。また、第1処理は、例えば、撮像装置201から状態判定部111を介して所定のフレームレートで入力された画像データに対して、当該所定のフレームレートで顔検出処理を実行する。この第1処理は、例えば、1回の実行に所定の時間を要する処理が繰り返し実行されるループ処理や、所定の実行周期で繰り返し実行されるようにスケジューリングされた周期タスクなどであってよい。
第1処理部112は、第1処理の結果として、運転者が正常状態であるか、若しくは、脇見状態、閉眼状態又は不在/異常姿勢状態であるかを特定し、特定した状態に関する情報を状態判定部111に入力する。
第2処理部113は、第2の顔検出処理(以下、第2処理という)を実行する構成であり、撮像装置201から状態判定部111を介して入力された画像データに対して第2処理を実行し、その結果を状態判定部111へ入力する。本実施形態において、第2処理は、例えば、処理時間が100ms程度以上と比較的長い、いわゆる「重い処理」であり、第1処理よりも検出精度が高い高精度顔検出処理である。
第2処理部113も、第1処理部112と同様に、第2処理の結果として、運転者が正常状態であるか、若しくは、脇見状態、閉眼状態又は不在/異常姿勢状態であるかを特定し、特定した状態に関する情報を状態判定部111に入力する。
状態判定部111は、車載警報装置110内の各部を制御する。また、状態判定部111は、第1処理部112から入力された第1処理の結果が運転者の不注意状態を示していた場合など、所定の条件が満たされたことをトリガとして、第2処理部113による第2処理の実行を開始する。また、状態判定部111は、第2処理部113から入力された第2処理の結果に基づいて、運転者に対する警報の要否を判断し、要警報と判断した場合には、警報出力部116を駆動して運転者へ警報を発する。
なお、状態判定部111、第1処理部112及び第2処理部113は、例えばECU14のCPU14aがROM14b等から所定のプログラムを読み出して実行することでECU14内に実現されるソフトウエア構成であってもよいし、CPU14aとは別の専用のチップで実現されるハードウエア構成であってもよい。
タイマ114は、例えばECU14内に設けられたタイマであってよく、状態判定部111からの指示に基づいて、経過時間の計測、計測された経過時間の出力、及びリセットの動作を実行する。
状態フラグメモリ115は、例えばRAM14c内に確保された記憶領域であり、第1処理部112による顔検出処理の結果に基づいて運転者が正常状態であるか不注意状態であるかを保持する。例えば、状態フラグメモリ115は、運転者が、正常状態であるか、若しくは、脇見状態、閉眼状態又は不在/異常姿勢状態などの不注意状態であるかを、1ビット又は多ビットのフラグによって保持する。本実施形態では、状態フラグが脇見状態と閉眼状態と不在/異常姿勢状態とを区別して保持する場合を例示する。その場合、状態フラグには、正常状態と脇見状態と閉眼状態と不在/異常姿勢状態との4つの状態を区別して保持し得る2ビットフラグを用いることができる。ただし、脇見状態と閉眼状態と不在/異常姿勢状態とを区別しない場合には、状態フラグとして、正常状態と不注意状態との2つの状態を区別して保持し得る1ビットフラグを用いるなど、種々変形することができる。
警報出力部116は、例えば、ECU14内の表示制御部14d及び音声制御部14a並びにモニタ装置11内の音声出力装置9や表示装置8で構成され、状態判定部111を構成するCPU14aから入力された指示に従って、運転者に対する警報を発する。
次に、本実施形態において車載警報装置110が実行する警報動作の概要について、図6を用いて説明する。図6に示すように、車載警報装置110では、例えば制御システム100が立ち上がると、撮像装置201で取得された画像データが所定のフレームレートで状態判定部111に入力される。状態判定部111は、平常時には、入力された画像データを順次、第1処理部112に入力する。第1処理部112は、所定のフレームレートで入力された画像データに対し、第1処理を繰り返し実行する。1回の第1処理に要する処理時間t1は、例えば33msである。そして、第1処理の結果として、運転者の不注意状態(本例では脇見状態)が検出されると(タイミングT1)、状態判定部111は、状態フラグメモリ115における、検出された不注意状態(脇見状態)のフラグをセットするとともに、タイマ114による経過時間tの計測を開始する。
その後、状態フラグメモリ115にセットされたフラグに対応する不注意状態が繰り返される第1処理によって継続して検出される時間(継続時間)tが予め設定しておいた所定時間t2に達すると(タイミングT2)、状態判定部111は、第2処理部113を起動して第2処理を実行する。1回の第2処理に要する処理時間t3は、1回の第1処理に要する処理時間t1(例えば33ms)よりも長い、例えば500msである。また、所定時間t2は、例えば1500msである。なお、第2処理部113に入力される画像データは、例えばタイミングT2付近で撮像装置201から状態判定部111に入力された画像データであってよい。
そして、第2処理の結果として、運転者の不注意状態(脇見状態)が検出されると(タイミングT3)、状態判定部111は、例えば、再度、第1処理部112を起動して処理時間の短い第1処理を実行することで、運転者が直近まで継続して不注意状態(脇見状態)であるか否かを確認する。その後、状態判定部111は、運転者が直近まで継続して不注意状態(脇見状態)であると確認された場合には(タイミングT4)、警報出力部116を駆動することで、運転者に対して、音声や映像効果等による警報を発する。
以上のような構成によれば、上述の例のように、第1処理の処理時間t1を33msとし、所定時間t2を1500msとし、第2処理の処理時間t3を500msとした場合、車載警報装置110は、第1処理部112によって最初に運転者の不注意状態が検出されてから約2.033秒後に、運転者に対して警告を発することとなる。
ただし、第2処理の後に実行される第1処理、すなわち、タイミングT3で実行される第1処理は、省略することが可能である。その場合、状態判定部111は、タイミングT3の時点で警報出力部116を駆動することで、運転者に対して、音声や映像効果等による警報を発する。したがって、所定時間t2が1500msであって第2処理の処理時間t3が500msであれば、車載警報装置110は、第1処理部112によって最初に運転者の不注意状態が検出されてから約2秒後に、運転者に対して警告を発することとなる。
なお、上述した第1処理の処理時間t1(33ms)、及び、第2処理の処理時間t3(500ms)は単なる例にすぎず、第1処理及び第2処理として採用する顔検出処理に応じて変化する値である。また、所定時間t2(1500ms)は、任意に設定可能な値である。
つづいて、本実施形態に係る警報動作の流れについて、図面を参照して詳細に説明する。図7は、本実施形態に係る警報動作のメインフローの概略例を示すフローチャートである。図8は、本実施形態に係る警報動作において実行される第1処理の例を示すフローチャートである。図9は、本実施形態に係る警報動作において実行される第2処理の例を示すフローチャートである。なお、本動作の説明にあたって、ECU14には、制御システム100の電源投入後、撮像装置201から所定のフレームレートで画像データが入力されるものとする。
図7に示すように、本警報動作では、まず、状態判定部111は、状態フラグメモリ115内のそれぞれの状態に関する状態フラグ及びタイマ114をリセットする(ステップS101)。なお、リセットされた状態では、状態フラグメモリ115内の状態フラグは、運転者が正常状態であることを示している。
次に、状態判定部111は、シフトセンサ21から入力された変速操作部7の可動部の位置情報(以下、シフト位置情報という)に基づいて、可動部がドライブレンジに設定されているか否かを判定する(ステップS102)。ドライブレンジに設定されていない場合(ステップS102のNO)、例えば、変速操作部7がリバースレンジやニュートラルレンジやパーキングレンジに設定されている場合、状態判定部111は、本動作を終了するか否かを判定し(ステップS103)、終了する場合(ステップS103のYES)、本動作を終了する。一方、本動作を終了しない場合(ステップS103のNO)、ステップS102へリターンする。
一方、変速操作部7の可動部がドライブレンジに設定されている場合(ステップS102のYES)、状態判定部111は、第1処理部112を起動するとともに、撮像装置201から所定のフレームレートで入力された画像データを第1処理部112に順次入力するとともに、繰返し処理である第1処理の実行を開始する(ステップS104)。なお、第1処理部112の起動には、例えば第1処理部112に対するCPUリソース(CPU14a)などの処理資源の割当てが含まれているものとする。また、繰り返し実行される第1処理それぞれの結果は、随時、第1処理部112から状態判定部111に入力される。
次に、状態判定部111は、第1処理によって運転者の不注意状態(脇見状態、閉眼状態及び不在/異常姿勢状態のいずれか)が検出されたか否かを判定する(ステップS105)。不注意状態が検出されていない場合(ステップS105のNO)、状態判定部111は、ステップS101へリターンし、状態フラグメモリ115内の状態フラグ及びタイマ114をリセットして(ステップS101)、以降の動作を実行する。
一方、第1処理によって不注意状態が検出された場合(ステップS105のYES)、状態判定部111は、第1処理で検出された運転者の状態を状態フラグメモリ115内の状態フラグにセット済みであるか否かを判定し(ステップS106)、セット済みでない場合(ステップS106のNO)、状態フラグメモリ115内の状態フラグに第1処理で検出された運転者の状態をセットするとともに(ステップS107)、タイマ114による経過時間tの計測を開始し(ステップS108)、ステップS102へリターンする。
また、第1処理で検出された運転者の状態を状態フラグにセット済みである場合(ステップS106のYES)、状態判定部111は、タイマ114により計測されている経過時間tが予め設定しておいた所定時間t2以上となったか否か、すなわち、脇見状態、閉眼状態及び不在/異常姿勢状態のいずれかが所定時間t2以上継続しているか否かを判定し(ステップS109)、所定時間t2に達していなかった場合(ステップS109のNO)、ステップS102へリターンする。
また、経過時間tが所定時間t2以上となっていた場合(ステップS109のYES)、状態判定部111は、第2処理部113を起動するとともに撮像装置201から入力された画像データを第2処理部113に入力して、第2処理を実行する(ステップS110)。なお、第2処理部113の起動では、例えば、第1処理部112に割り当てられていた処理資源が開放されて第2処理部113へ割り当てられる。
次に、状態判定部111は、第2処理によって運転者の不注意状態が検出されたか否かを判定し(ステップS111)、不注意状態が検出されなかった場合(ステップS111のNO)、ステップS101へリターンし、状態フラグメモリ115内の状態フラグ及びタイマ114をリセットして(ステップS101)、以降の動作を実行する。
一方、第2処理によって運転者の不注意状態が検出された場合(ステップS111のYES)、状態判定部111は、確認のため、再度、第1処理部112を起動して第1処理を実行する(ステップS112)。つづいて、状態判定部111は、ステップS112で実行した第1処理によって継続して不注意状態が検出されたか否かを判定し(ステップS113)、不注意状態が検出された場合(ステップS113のYES)、警報出力部116を駆動して運転者へ警告を発する(ステップS114)。その後、状態判定部111は、ステップS110へリターンし、運転者の不注意状態が検出されなくなるまで(ステップS113のNO)、第2処理及び第1処理の実行(ステップS110、S112)を繰り返す。
一方、ステップS112の第1処理によって運転者の不注意状態が検出されなかった場合(ステップS113のNO)、状態判定部111は、ステップS101へリターンし、状態フラグメモリ115内の状態フラグ及びタイマ114をリセットして(ステップS101)、以降の動作を実行する。
なお、第2処理の実行後に確認のための第1処理を実行しない場合には、図7におけるステップS111〜S112が省略される。その場合、状態判定部111は、ステップS113において、第2処理によって運転者の不注意状態が検出された場合(ステップS113のYES)、警報出力部116を駆動して運転者へ警告を発し(ステップS114)、運転者の不注意状態が検出されなかった場合(ステップS113のNO)、ステップS101へリターンする。
つづいて、本実施形態に係る第1処理の流れの一例について説明する。図8に示すように、本実施形態に係る第1処理では、まず、第1処理部112は、撮像装置201が所定のフレームレートで取得した画像データを状態判定部111を介して入力する(ステップS121)。つづいて、第1処理部112は、入力された画像データから運転者の顔の特徴点を抽出し、抽出した特徴点に対してテンプレートを照合するテンプレートマッチング処理を実行する(ステップS122)。その結果、撮像された時点での運転者の状態が、正常状態であるか、若しくは、脇見状態、閉眼状態及び不在/異常姿勢状態のうちのいずれかであるかが検出される。
なお、第1処理部112は、例えば、画像データから運転者の片眼しか検出できなかった場合や、画像データから特定された運転者の目線が車両1の進行方向とは大きく異なっている場合などに、運転者が脇見状態にあると判断する。また、第1処理部112は、例えば、画像データから特定される運転者の両眼(片眼しか検出されなかった場合は片眼)が閉じている場合などに、運転者が閉眼状態(又は居眠り状態)にあると判断する。さらに、第1処理部112は、例えば、画像データから運転者の顔を検出できなかった場合や、検出された運転者の顔の位置が正常の位置である画像の中央付近から大きく外れている場合などに、運転者が不在/異常姿勢状態にあると判断する。
次に、第1処理部112は、ステップS122のテンプレートマッチング処理により検出された運転者の状態が脇見状態である場合(ステップS123のYES)、状態判定部111に対して運転者が脇見状態にあることを出力し(ステップS124)、本動作を終了する。
また、第1処理部112は、ステップS122のテンプレートマッチング処理により検出された運転者の状態が閉眼状態である場合(ステップS123のNO,S125のYES)、状態判定部111に対して運転者が閉眼状態にあることを出力し(ステップS126)、本動作を終了する。
さらに、第1処理部112は、ステップS122のテンプレートマッチング処理により検出された運転者の状態が不在又は異常姿勢状態である場合(ステップS123のNO,S125のNO,S127のYES)、状態判定部111に対して運転者が不在/異常姿勢状態にあることを出力し(ステップS128)、本動作を終了する。
一方、第1処理部112は、ステップS122のテンプレートマッチング処理により検出された運転者の状態が正常状態である場合(ステップS123のNO,S125のNO,S127のNO)、状態判定部111に対して運転者が正常状態にあることを出力し(ステップS129)、本動作を終了する。
なお、図8に示す動作は、ステップS124、S126、S128又はS129の実行後にステップS121へリターンする流れであってもよい。その場合、第1処理部112は、例えば、外部からの割込み処理によって図8に示す動作を終了する。
つづいて、本実施形態に係る第2処理の流れの一例について説明する。図9に示すように、本実施形態に係る第2処理では、まず、第2処理部113は、撮像装置201が所定のフレームレートで取得した画像データの1つを状態判定部111を介して入力する(ステップS141)。つづいて、第2処理部113は、例えばディープラーニングなどの機械学習を用いた高精度顔検出処理を実行する(ステップS142)。
なお、高精度顔検出処理とは、上述したように、例えば、隠れ層の数が十数層以上の比較的深いディープラーニングなどの機械学習を利用した顔検出処理などであってよい。その結果、撮像された時点での運転者の状態が、正常状態であるか、若しくは、脇見状態、閉眼状態及び不在/異常姿勢状態のうちのいずれかであるかが検出される。なお、第2処理において、運転者が正常状態、脇見状態、閉眼状態及び不在/異常姿勢状態のうちのいずれの状態であるかの判断基準は、上述の第1処理で用いた判断基準と同様であってよい。
また、高精度顔検出処理である第2処理は、運転者によるサングラスやマスクの着脱についても検出することができるとよい。例えばサングラスの着用がされた場合には、第2処理では、顔の向き及び傾きや鼻及び口の位置関係及び形状等に基づいて、運転者が正常状態であるか、又は、いずれかの不注意状態であるかが判定され得る。また、例えばマスクの着用がされた場合には、第2処理では、両眼の位置関係及び形状等に基づいて、運転者が正常状態であるか、又は、いずれかの不注意状態であるかが判定され得る。さらに、サングラスとマスクの両方が着用された場合には、第2処理では、顔の向き等に基づいて、運転者が正常状態であるか、又は、いずれかの不注意状態であるかが判定され得る。これにより、顔検出におけるロバスト性を高めることが可能となり、誤警報の発生をより抑制することが可能となる。
次に、第2処理部113は、図8のステップS123〜S129と同様に、ステップS142の高精度顔検出処理により検出された運転者の状態が脇見状態である場合(ステップS143のYES)、状態判定部111に対して運転者が脇見状態にあることを出力し(ステップS144)、閉眼状態である場合(ステップS143のNO,S145のYES)、閉眼状態にあることを出力し(ステップS146)、不在又は異常姿勢状態である場合(ステップS143のNO,S145のNO,S147のYES)、不在/異常姿勢状態にあることを出力する(ステップS148)。その後、第2処理部113は、本動作を終了する。一方、運転者の状態が正常状態である場合(ステップS143のNO,S145のNO,S147のNO)、第2処理部113は、状態判定部111に対して運転者が正常状態にあることを出力し(ステップS149)、本動作を終了する。
以上のように、本実施形態によれば、平常時には軽い処理である第1処理を実行することで、運転者の不注意状態に対する反応開始のタイミングを早め、第1処理によって運転者の不注意状態が検出された場合には、重い処理である第2処理を実行することで、高精度に運転者の不注意状態を検出することが可能となるため、誤警報の少ない車載警報装置を実現することが可能となる。
なお、上述した説明では、同一の不注意状態が継続して検出された経過時間tが所定時間t2以上となった場合に第2処理を実行する場合を例示したが、本実施形態は、このような構成に限定されるものではない。例えば、同一の不注意状態が連続して所定回数検出された場合に、第2処理を実行するように構成するなど、種々変形することが可能である。
また、上述した説明では、脇見状態、閉眼状態及び不在/異常姿勢状態それぞれの不注意状態の経過時間tを共通の所定時間t2と比較し、経過時間tが所定時間t2以上となった場合に第2処理を実行する場合を例示したが、これに限定されない。例えば、脇見状態、閉眼状態及び不在/異常姿勢状態それぞれに対し、異なる所定時間t2を設定してもよい。その際、不在/異常姿勢状態に対する所定時間t2を0秒としてもよい。その場合、第1処理により不在/異常姿勢状態が検出された場合には、即座に第2処理が実行され、その結果に応じて運転者へ警報が発せられる。
(第2の実施形態)
次に、第2の実施形態に係る車載警報装置について、図面を参照して詳細に説明する。第1の実施形態では、短い周期で繰り返し実行される第1処理によって所定時間以上継続して不注意状態が検出されたことをトリガとして、第1処理とは異なる顔検出処理である第2処理が実行される場合を例示した。しかしながら、第2処理を実行するためのトリガは、第1の実施形態で例示したような、運転者が不注意状態であることに限定されない。そこで第2の実施形態では、運転者が不注意状態であることとは別の条件が満足された場合にも、そのことをトリガとして第2処理が実行される場合について、例を挙げて説明する。
運転者が所定時間以上継続して不注意状態であることとは別の条件としては、例えば車両1の自動制御において、車両通行帯を変更する制御や、右折又は左折をする制御など、運転者が正常状態で着座していることを確保する必要がある制御イベントが発生することなどを例示することができる。そこで、第2の実施形態では、車両1の自動制御において、車両通行帯を変更する制御、及び、右折又は左折をする制御が発生することをトリガとして、第2処理を実行する場合について、例を挙げて説明する。
本実施形態に係る車両及び車両に搭載される制御システムは、第1の実施形態において例示した車両1及び制御システム100と同様であってよいため、ここではそれらを引用することで、重複する説明を省略する。
図10は、制御システム100が実行する自動制御において、ECU14のCPU14aが第2処理を実行するトリガとしての第2処理実行要求を発行する際の流れの一例を示すフローチャートである。図10に示すように、本動作では、まず、CPU14aは、車両1の自動制御が開始されるまで待機する(ステップS201のNO)。その後、例えば、運転者が操作入力部10や変速操作部7や操舵部4に設けられたスイッチ等を操作することで、ECU14による車両1の自動制御が開始されると(ステップS201のYES)、CPU14aは、自動制御において、車両通行帯を変更する制御の予定が発生したか否かを判定する(ステップS202)。また、CPU14aは、自動制御において、右折又は左折の制御の予定が発生したか否かを判定する(ステップS203)。車両通行帯変更の制御予定、及び、右折又は左折の制御予定のいずれも発生していない場合(ステップS202のNO、S203のNO)、CPU14aは、自動制御が終了されたか否かを判定し(ステップS206)、終了されていた場合(ステップS206のYES)、本動作を終了する。一方、自動制御が終了されていない場合(ステップS206のNO)、CPU14aは、ステップS202へリターンし、以降の動作を継続する。
一方、自動制御において、車両通行帯の変更制御予定が発生した場合(ステップS202のYES)、又は、右折又は左折の制御予定が発生した場合(ステップS203のYES)、CPU14aは、予定された車両通行帯を変更する制御若しくは予定された右折又は左折の制御において車両1の操舵を開始する予定時刻よりも所定時間前となるまで待機し(ステップS204のNO)、当該操舵開始の予定時刻よりも所定時間前となったタイミングで(ステップS204のYES)、第2処理の実行要求を発行する(ステップS205)。その後、CPU14aは、ステップS206へ進む。
以上のようにして発行された第2処理実行要求は、状態判定部111に入力される。状態判定部111は、警報動作の実行中に第2処理実行要求が入力されると、この第2処理実行要求の入力をトリガとして第2処理を実行する。ここで、図11に、本実施形態に係る警報動作の一例を示す。図11に示すように、本実施形態に係る警報動作は、第1の実施形態において図7を用いて説明した警報動作と同様の動作において、例えばステップS104の実行前にステップS211を実行するように構成されている。
ステップS211では、状態判定部111は、第2処理実行要求が入力されたか否かを判定し、入力されていない場合(ステップS211のNO)、ステップS104へ進んで第1処理を実行する。一方、第2処理実行要求が入力されていた場合(ステップS211のYES)、状態判定部111は、ステップS110へ進んで第2処理を実行する。
以上のように構成及び動作することで、第2の実施形態では、運転者が不注意状態であることに限らず、車両1の自動制御において運転者が正常状態で着座していることを確保する必要がある制御イベントが発生することをトリガとして、第2処理を実行するように構成することが可能となる。その結果、車両通行帯を変更する制御や、右折又は左折をする制御など、運転者が正常状態で着座していることを確保する必要がある制御イベントが発生した場合でも、高精度の顔検出処理の結果に基づいて運転者に警報を発することが可能となるため、誤警報の少ない車載警報装置を実現することが可能となる。
なお、その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
また、上述した実施形態では、第1処理を「軽い処理」とし、第2処理を「重い処理」とした場合を例示したが、このような構成に限定されない。例えば、異なる種類の顔検出処理の結果に基づくことで顔検出の精度を高める手法を用いることも可能である。その場合、例えば、第1処理として、数フレーム分の画像データを時系列情報として用いて顔検出処理を実行する、いわゆるRNN(Recurrent Neural Network)を利用した顔検出処理を採用し、第2処理として、1フレーム分の画像データを用いて顔検出処理を実行する、いわゆるCNN(Convolution Neural Network)を利用した顔検出処理を採用することができる。このような構成でも、上述した実施形態と同様に、平常時に実行された第1処理(例えばRNNを利用した顔検出処理)の結果に基づいて第2処理(例えばCNNを利用した顔検出処理)が実行される。RNNを利用した顔検出処理は数フレーム分の画像データを時系列情報として用いることから、RNNを第1処理に採用した場合には、各フレームから得られた顔検出結果の誤差が累積し、それにより、誤った顔検出結果が継続的に出力される可能性が存在する。そこで、運転者に対する警告の前に、単一フレーム分の画像データを用いるCNNを利用した顔検出処理を第2処理として実行することで、累積した誤差の影響を受けずに、運転者の状態を確定することができる。その結果、誤警報の少ない車載警報装置を実現することが可能となる。
以上、本発明の実施形態を例示したが、上記実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上記実施形態や変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、各実施形態や各変形例の構成や形状は、部分的に入れ替えて実施することも可能である。
1…車両、2…車体、2a…車室、2b…座席、2c…天井部、2d…フロントガラス、3…車輪、3F…前輪、3R…後輪、4…操舵部、5…加速操作部、6…制動操作部、7…変速操作部、8…表示装置、9…音声出力装置、10…操作入力部、11…モニタ装置、12…ダッシュボード、13…操舵システム、13a…アクチュエータ、13b…トルクセンサ、14…ECU、14a…CPU、14b…ROM、14c…RAM、14d…表示制御部、14e…音声制御部、14f…SSD、15…撮像部、16,17…測距部、18…ブレーキシステム、18a…アクチュエータ、18b…ブレーキセンサ、19…舵角センサ、20…アクセルセンサ、21…シフトセンサ、22…車輪速センサ、23…車内ネットワーク、25…計器盤部、25a…速度表示部、25b…回転数表示部、110…車載警報装置、111…状態判定部、112…第1処理部、113…第2処理部、114…タイマ、115…状態フラグメモリ、116…警報出力部、201…撮像装置、202…ハンドルコラム。

Claims (5)

  1. 所定のフレームレートで入力される画像データそれぞれに対して第1の顔検出処理を実行する第1処理部と、
    画像データに対して前記第1の顔検出処理とは異なる第2の顔検出処理を実行する第2処理部と、
    警報を発する警報出力部と、
    所定の条件が満たされた場合、入力された画像データに対する顔検出処理を、前記第1処理部による前記第1の顔検出処理から前記第2処理部による前記第2の顔検出処理に切り替え、前記第2の顔検出処理の結果、前記入力された画像データから検出された人物の状態が不注意状態である場合、前記警報出力部を制御して前記警報を発する状態判定部と、
    を備える車載警報装置。
  2. 前記所定の条件は、前記所定のフレームレートで入力される画像データそれぞれから前記第1の顔検出処理によって検出された前記人物の不注意状態が所定時間以上継続していることである請求項1に記載の車載警報装置。
  3. 前記所定の条件は、車両の自動制御において、前記車両が走行する車両通行帯を変更する制御の予定が発生したこと、若しくは、前記車両を右折又は左折する制御の予定が発生したことである請求項1又は2に記載の車載警報装置。
  4. 前記第2の顔検出処理の顔検出精度は、前記第1の顔検出処理の顔検出精度よりも高い請求項1に記載の車載警報装置。
  5. 前記状態判定部は、前記第2の顔検出処理の結果、前記入力された画像データから検出された人物の状態が不注意状態である場合、新たに入力された画像データに対する顔検出処理を、前記第2処理部による前記第2の顔検出処理から再度、前記第1処理部による前記第1の顔検出処理に切り替え、前記第1の顔検出処理の結果、前記新たに入力された画像データから検出された前記人物の状態が前記不注意状態である場合、前記警報出力部を制御して前記警報を発する請求項1に記載の車載警報装置。
JP2017219063A 2017-11-14 2017-11-14 車載警報装置 Active JP7073682B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017219063A JP7073682B2 (ja) 2017-11-14 2017-11-14 車載警報装置
PCT/JP2018/041168 WO2019098091A1 (ja) 2017-11-14 2018-11-06 車載警報装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017219063A JP7073682B2 (ja) 2017-11-14 2017-11-14 車載警報装置

Publications (2)

Publication Number Publication Date
JP2019091205A true JP2019091205A (ja) 2019-06-13
JP7073682B2 JP7073682B2 (ja) 2022-05-24

Family

ID=66539739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017219063A Active JP7073682B2 (ja) 2017-11-14 2017-11-14 車載警報装置

Country Status (2)

Country Link
JP (1) JP7073682B2 (ja)
WO (1) WO2019098091A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145131A1 (ja) * 2020-01-17 2021-07-22 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
JP2021149488A (ja) * 2020-03-19 2021-09-27 いすゞ自動車株式会社 画像記憶制御装置及び画像記憶制御方法
WO2024100814A1 (ja) * 2022-11-10 2024-05-16 三菱電機株式会社 異常姿勢検知装置、異常姿勢検知方法、および、車両制御システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03260900A (ja) * 1990-03-12 1991-11-20 Nissan Motor Co Ltd 先行車両接近警報装置
JP2005062911A (ja) * 2003-06-16 2005-03-10 Fujitsu Ten Ltd 車両制御装置
JP2008097446A (ja) * 2006-10-13 2008-04-24 Toyota Motor Corp 車載警告装置
JP2009251647A (ja) * 2008-04-01 2009-10-29 Toyota Motor Corp 運転者覚醒装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5109922B2 (ja) * 2008-10-16 2012-12-26 株式会社デンソー ドライバモニタリング装置およびドライバモニタリング装置用のプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03260900A (ja) * 1990-03-12 1991-11-20 Nissan Motor Co Ltd 先行車両接近警報装置
JP2005062911A (ja) * 2003-06-16 2005-03-10 Fujitsu Ten Ltd 車両制御装置
JP2008097446A (ja) * 2006-10-13 2008-04-24 Toyota Motor Corp 車載警告装置
JP2009251647A (ja) * 2008-04-01 2009-10-29 Toyota Motor Corp 運転者覚醒装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145131A1 (ja) * 2020-01-17 2021-07-22 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
CN114981854A (zh) * 2020-01-17 2022-08-30 索尼半导体解决方案公司 信息处理装置、信息处理系统、信息处理方法和信息处理程序
JP7560486B2 (ja) 2020-01-17 2024-10-02 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
JP2021149488A (ja) * 2020-03-19 2021-09-27 いすゞ自動車株式会社 画像記憶制御装置及び画像記憶制御方法
JP7392536B2 (ja) 2020-03-19 2023-12-06 いすゞ自動車株式会社 画像記憶制御装置及び画像記憶制御方法
WO2024100814A1 (ja) * 2022-11-10 2024-05-16 三菱電機株式会社 異常姿勢検知装置、異常姿勢検知方法、および、車両制御システム

Also Published As

Publication number Publication date
WO2019098091A1 (ja) 2019-05-23
JP7073682B2 (ja) 2022-05-24

Similar Documents

Publication Publication Date Title
CN107798895B (zh) 停止的车辆交通恢复警报
US9751562B2 (en) Park exit assist system
US8063754B2 (en) Vehicle state information transmission apparatus using tactile device
US20160075377A1 (en) Parking assist system, parking assist method and parking assist control program
JP6400215B2 (ja) 車両制御装置及び車両制御方法
JP5256911B2 (ja) 車両制御装置
WO2019098091A1 (ja) 車載警報装置
WO2014148025A1 (ja) 走行制御装置
JP6003854B2 (ja) 運転支援装置
JP4671242B2 (ja) 車両制御装置
JP2006256494A (ja) 車両用走行支援装置
US20200189653A1 (en) Parking support apparatus
JP2021017112A (ja) 運転支援装置
JP2017218043A (ja) 駐車評価装置
JP2018122647A (ja) 車両用警報装置
US10733438B2 (en) Eyeball information detection device, eyeball information detection method, and occupant monitoring device
JP2007038911A (ja) 車両用警報装置
CN114026001B (zh) 用于在单辙机动车辆中执行自主制动的方法和装置
JP2008149844A (ja) 車両の警報装置
JP6128026B2 (ja) 自動ブレーキシステム
JP2020117046A (ja) 車載用報知装置
JP2016061744A (ja) 車両用の情報出力制御装置
US20220092315A1 (en) Vehicle driving support device
JP6965563B2 (ja) 周辺監視装置
JP7351453B2 (ja) ペダル操作状態表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7073682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150