JP6698963B2 - 搭乗者状態検出装置、搭乗者状態検出システム及び搭乗者状態検出方法 - Google Patents

搭乗者状態検出装置、搭乗者状態検出システム及び搭乗者状態検出方法 Download PDF

Info

Publication number
JP6698963B2
JP6698963B2 JP2019569852A JP2019569852A JP6698963B2 JP 6698963 B2 JP6698963 B2 JP 6698963B2 JP 2019569852 A JP2019569852 A JP 2019569852A JP 2019569852 A JP2019569852 A JP 2019569852A JP 6698963 B2 JP6698963 B2 JP 6698963B2
Authority
JP
Japan
Prior art keywords
unit
correction
passenger
captured image
correction parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019569852A
Other languages
English (en)
Other versions
JPWO2019159364A1 (ja
Inventor
奈津季 田原
奈津季 田原
信太郎 渡邉
信太郎 渡邉
政信 大澤
政信 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6698963B2 publication Critical patent/JP6698963B2/ja
Publication of JPWO2019159364A1 publication Critical patent/JPWO2019159364A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Quality & Reliability (AREA)

Description

本発明は、搭乗者状態検出装置、搭乗者状態検出システム及び搭乗者状態検出方法に関する。
従来、カメラによる撮像画像における特徴量に基づき設定された補正パラメータを用いて、当該撮像画像を補正する技術が開発されている。例えば、特許文献1には、カメラによる撮像画像における輝度値に基づき設定された補正パラメータを用いて、当該撮像画像の階調を補正する技術が開示されている。
特開2013−55712号公報
従来、車室内撮像用のカメラによる撮像画像に対する画像認識処理を実行することにより、搭乗者の状態を検出する技術が開発されている。具体的には、例えば、搭乗者の視線、搭乗者の開口度、搭乗者の顔向き、搭乗者の顔色及び搭乗者の開眼度などを検出する技術が開発されている。すなわち、搭乗者の状態を検出する処理(以下「搭乗者状態検出処理」という。)は、複数個の検出項目(視線、開口度、顔向き、顔色及び開眼度など)を含むものである。
ここで、複数個の検出項目を含む搭乗者状態検出処理においては、検出項目毎に適切な補正パラメータが異なるものである。これに対して、特許文献1に記載されているような従来の画像補正技術(以下、単に「従来の画像補正技術」という。)は、搭乗者状態検出処理における検出項目毎に補正パラメータを設定するものではない。このため、搭乗者状態検出処理が複数個の検出項目を含むものである場合、仮に従来の画像補正技術を用いたとしても、搭乗者状態検出処理の精度を十分に向上することはできないという問題があった。
本発明は、上記のような課題を解決するためになされたものであり、複数個の検出項目を含む搭乗者状態検出処理の精度を向上することを目的とする。
本発明の搭乗者状態検出装置は、車室内撮像用のカメラによる撮像画像のうちの搭乗者の顔パーツに対応する顔パーツ領域における特徴量、又は、撮像画像のうちの車室内の構造物に対応する構造物領域における特徴量のうちの少なくとも一方を用いて、搭乗者状態検出処理における検出項目毎に、撮像画像に対する補正パラメータを設定する補正パラメータ設定部と、補正パラメータ設定部により設定された補正パラメータを用いて、搭乗者状態検出処理における検出項目毎に、撮像画像を補正する画像補正部とを備えるものである。
本発明によれば、上記のように構成したので、複数個の検出項目を含む搭乗者状態検出処理の精度を向上することができる。
実施の形態1に係る搭乗者状態検出装置を含む制御装置の要部を示すブロック図である。 図2Aは、視線検出処理用の撮像画像を補正する場合における、補正前の目領域における輝度値の一例を示す説明図である。図2Bは、視線検出処理用の撮像画像を補正する場合における、補正後の目領域における輝度値の一例を示す説明図である。 図3Aは、実施の形態1に係る搭乗者状態検出装置を含む制御装置のハードウェア構成を示すブロック図である。図3Bは、実施の形態1に係る搭乗者状態検出装置を含む制御装置の他のハードウェア構成を示すブロック図である。 実施の形態1に係る搭乗者状態検出装置を含む制御装置の動作を示すフローチャートである。 実施の形態1に係る搭乗者状態検出装置を含む制御装置の他の動作を示すフローチャートである。 実施の形態1に係る搭乗者状態検出装置を含む制御装置の他の動作を示すフローチャートである。 実施の形態1に係る搭乗者状態検出装置を含む制御装置の他の動作を示すフローチャートである。 図5Aは、撮像画像と撮像画像における輝度値の分布を示すヒストグラムとの一例を示す説明図である。図5Bは、参照画像と参照画像における輝度値の分布を示すヒストグラムとの一例を示す説明図である。 実施の形態1に係る搭乗者状態検出システムを含む制御システムの要部を示すブロック図である。 図7Aは、実施の形態1に係る搭乗者状態検出システムを含む制御システムのシステム構成を示すブロック図である。図7Bは、実施の形態1に係る搭乗者状態検出システムを含む制御システムの他のシステム構成を示すブロック図である。図7Cは、実施の形態1に係る搭乗者状態検出システムを含む制御システムの他のシステム構成を示すブロック図である。図7Dは、実施の形態1に係る搭乗者状態検出システムを含む制御システムの他のシステム構成を示すブロック図である。 実施の形態1に係る他の搭乗者状態検出装置を含む制御装置の要部を示すブロック図である。 実施の形態1に係る他の搭乗者状態検出システムを含む制御システムの要部を示すブロック図である。 実施の形態2に係る搭乗者状態検出装置を含む制御装置の要部を示すブロック図である。 図11Aは、搭乗者の顔色が正常状態であるときの黒目領域及び肌領域の各々における基準色特徴量、補正前の色特徴量及び補正後の色特徴量の一例を示す説明図である。図11Bは、搭乗者の顔色が異常状態であるときの黒目領域及び肌領域の各々における基準色特徴量、補正前の色特徴量及び補正後の色特徴量の一例を示す説明図である。 実施の形態2に係る搭乗者状態検出装置を含む制御装置の動作を示すフローチャートである。 実施の形態2に係る搭乗者状態検出装置を含む制御装置の他の動作を示すフローチャートである。 実施の形態2に係る搭乗者状態検出装置を含む制御装置の他の動作を示すフローチャートである。 実施の形態2に係る搭乗者状態検出装置を含む制御装置の他の動作を示すフローチャートである。 実施の形態2に係る搭乗者状態検出装置を含む制御装置の他の動作を示すフローチャートである。 実施の形態2に係る搭乗者状態検出システムを含む制御システムの要部を示すブロック図である。 実施の形態3に係る搭乗者状態検出装置を含む制御装置の要部を示すブロック図である。 図15Aは、口領域にて白とびが発生している状態の一例を示す説明図である。図15Bは、図15Aに示す状態にて補正パラメータの設定に用いられる領域の一例を示す説明図である。 実施の形態3に係る搭乗者状態検出装置を含む制御装置の動作を示すフローチャートである。 実施の形態3に係る搭乗者状態検出システムを含む制御システムの要部を示すブロック図である。 実施の形態4に係る搭乗者状態検出装置を含む制御装置の要部を示すブロック図である。 実施の形態4に係る搭乗者状態検出装置を含む制御装置の動作を示すフローチャートである。 実施の形態4に係る搭乗者状態検出システムを含む制御システムの要部を示すブロック図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る搭乗者状態検出装置を含む制御装置の要部を示すブロック図である。図1を参照して、実施の形態1の搭乗者状態検出装置100について、車両1内の制御装置200に設けられている例を中心に説明する。
車両1は、車室内撮像用のカメラ2を有している。カメラ2は、車両1の車室内前方部に配置されており、車両1の搭乗者(例えば車両1の運転者)の顔を含む範囲を前方から撮像するものである。以下、車両1の搭乗者を単に「搭乗者」という。
カメラ2は、例えば、1個の可視光カメラ、複数個の可視光カメラ、1個の赤外線カメラ又は複数個の赤外線カメラにより構成されている。カメラ2が赤外線カメラにより構成されている場合、搭乗者の顔を含む範囲に対して撮像用の赤外線を照射する光源(不図示)が設けられている。この光源は、例えば、LED(Light Emitting Diode)により構成されている。
画像データ取得部11は、カメラ2による撮像画像(以下、単に「撮像画像」という。)を示す画像データ(以下「撮像画像データ」という。)をカメラ2から取得するものである。画像データ取得部11は、当該取得された撮像画像データを顔領域検出部12及び構造物領域検出部14に出力するものである。
顔領域検出部12は、画像データ取得部11により出力された撮像画像データを用いて、撮像画像のうちの搭乗者の顔に対応する領域(以下「顔領域」という。)を検出するものである。具体的には、例えば、顔領域検出部12は、Haar−like検出器にAdaBoost又はCascadeなどを組み合わせてなる識別器により構成されており、これらのアルゴリズムにより顔領域を検出する。顔領域検出部12は、当該検出された顔領域に対応する画像データ(以下「顔画像データ」という。)を顔パーツ領域検出部13に出力するものである。
顔パーツ領域検出部13は、顔領域検出部12により出力された顔画像データを用いて、顔領域のうちの搭乗者の顔パーツに対応する領域(以下「顔パーツ領域」という。)を検出するものである。顔パーツ領域は、複数個の顔パーツに対応する複数個の領域を含むものである。
例えば、顔パーツ領域は、搭乗者の目に対応する領域、搭乗者の鼻に対応する領域、搭乗者の口に対応する領域、搭乗者の頬に対応する領域、搭乗者の顎に対応する領域及び搭乗者の額に対応する領域などを含むものである。搭乗者の目に対応する領域は、例えば、搭乗者の黒目に対応する領域、搭乗者の目尻に対応する領域、搭乗者の目頭に対応する領域及び搭乗者のまぶたに対応する領域などを含むものである。搭乗者の口に対応する領域は、例えば、搭乗者の口角に対応する領域及び搭乗者の唇に対応する領域などを含むものである。これらの領域のうち、搭乗者の鼻に対応する領域、搭乗者の頬に対応する領域、搭乗者の顎に対応する領域、搭乗者の額に対応する領域及び搭乗者のまぶたに対応する領域などは、搭乗者の肌に対応する領域でもある。
顔パーツ領域の検出には、例えば、モデルフィッティング又はEBGM(Elastic Bunch Graph Matching)などのアルゴリズムが用いられる。顔パーツ領域検出部13は、当該検出された顔パーツ領域に対応する画像データ(以下「顔パーツ画像データ」という。)を特徴量検出部15に出力するものである。
構造物領域検出部14は、画像データ取得部11により出力された撮像画像データを用いて、撮像画像のうちの車両1の車室内の構造物(以下、単に「構造物」という。)に対応する領域(以下「構造物領域」という。)を検出するものである。具体的には、例えば、構造物領域検出部14は、車両1の天井に対応する領域又は車両1のピラーに対応する領域などを検出する。構造物領域検出部14は、当該検出された構造物領域に対応する画像データ(以下「構造物画像データ」という。)を特徴量検出部15に出力するものである。
特徴量検出部15は、顔パーツ領域検出部13により出力された顔パーツ画像データを用いて、顔パーツ領域における特徴量を検出するものである。具体的には、例えば、特徴量検出部15は、顔パーツ領域に含まれる複数個の領域の各々における輝度値の平均値、最大値又はピクセル差分値などを算出することにより、輝度に基づく特徴量(以下「輝度特徴量」という。)を検出する。
また、特徴量検出部15は、構造物領域検出部14により出力された構造物画像データを用いて、構造物領域における特徴量を検出するものである。具体的には、例えば、特徴量検出部15は、構造物領域における輝度値の平均値、最大値又はピクセル差分値などを算出することにより、輝度特徴量を検出する。
画像データ取得部11、顔領域検出部12、顔パーツ領域検出部13、構造物領域検出部14及び特徴量検出部15により、第1制御部10が構成されている。第1制御部10は、撮像画像データ、顔画像データ、顔パーツ領域データ、構造物画像データ及び特徴量検出部15により検出された特徴量を示す情報(以下「特徴量情報」という。)の各々を、第2制御部60内の各部に適宜出力する機能を有している。第2制御部60は、これらの画像データ及び特徴量情報を用いて、以下の処理を実行するようになっている。
第1補正要否判定部21は、特徴量検出部15により検出された特徴量を用いて、搭乗者の視線を検出する処理(以下「視線検出処理」という。)における撮像画像の補正の要否を判定するものである。
具体的には、例えば、第1補正要否判定部21は、顔パーツ領域における輝度特徴量を用いて撮像画像の補正の要否を判定する。すなわち、第1補正要否判定部21は、特徴量情報を用いて、搭乗者の黒目に対応する領域(以下「黒目領域」という。)における輝度値と搭乗者のまぶたに対応する領域(以下「まぶた領域」という。)における輝度値との差分値を算出する。第1補正要否判定部21は、当該算出された差分値と所定の基準値Lref1との差分値ΔL1を算出する。基準値Lref1は、視線検出処理を適切に実行するために必要な黒目領域とまぶた領域間の輝度差に基づき設定された値である。
一例として、黒目領域における輝度値が10であり、かつ、まぶた領域における輝度値が50である場合、これらの輝度値間の差分値は40となる。このとき、基準値Lref1が100に設定されている場合、差分値ΔL1は60となる。
第1補正要否判定部21は、当該算出された差分値ΔL1と所定の閾値Lth1とを比較する。差分値ΔL1が閾値Lth1以上である場合、第1補正要否判定部21は、視線検出処理における撮像画像の補正が必要であると判定する。他方、差分値ΔL1が閾値Lth1未満である場合、第1補正要否判定部21は、視線検出処理における撮像画像の補正が不要であると判定する。
または、例えば、第1補正要否判定部21は、構造物領域における輝度特徴量を用いて撮像画像の補正の要否を判定する。すなわち、第1補正要否判定部21は、特徴量情報を用いて、車両1の天井に対応する領域(以下「天井領域」という。)における輝度値と所定の基準値Lref2との差分値ΔL2を算出する。基準値Lref2は、視線検出処理に適した天井領域の輝度、すなわち搭乗者の目に対応する領域(以下「目領域」という。)の画像が安定するときの天井領域の輝度に基づき設定された値である。基準値Lref2は、例えば80に設定されている。
第1補正要否判定部21は、当該算出された差分値ΔL2と所定の閾値Lth2とを比較する。差分値ΔL2が閾値Lth2以上である場合、第1補正要否判定部21は、視線検出処理における撮像画像の補正が必要であると判定する。他方、差分値ΔL2が閾値Lth2未満である場合、第1補正要否判定部21は、視線検出処理における撮像画像の補正が不要であると判定する。
第1補正パラメータ設定部31は、第1補正要否判定部21により撮像画像の補正が必要であると判定された場合、特徴量検出部15により検出された特徴量を用いて、視線検出処理用の補正パラメータを設定するものである。第1画像補正部41は、第1補正パラメータ設定部31により設定された補正パラメータを用いて、撮像画像データが示す撮像画像を補正するものである。
具体的には、例えば、基準値Lref1が100に設定されている状態にて、特徴量情報が示す黒目領域A1における輝度値が10であり、かつ、特徴量情報が示すまぶた領域A2における輝度値が50であるものとする(図2A参照)。この場合、撮像画像における輝度値を2.5倍にすることにより、黒目領域A1における輝度値が25となり、かつ、まぶた領域A2における輝度値が125となるため、これらの輝度値間の差分値が100となる(図2B参照)。すなわち、黒目領域A1とまぶた領域A2間の輝度差が基準値Lref1と同等の状態となる。
そこで、第1補正パラメータ設定部31は、補正パラメータを「2.5」に設定する。第1画像補正部41は、撮像画像における輝度値を2.5倍にする補正を行う。これにより、黒目領域とまぶた領域間の輝度差を視線検出処理に適した状態にすることができる。
または、例えば、基準値Lref2が80に設定されている状態にて、特徴量情報が示す天井領域における輝度値が40であるものとする。この場合、撮像画像における輝度値を2.0倍にすることにより、天井領域における輝度値が80となる。すなわち、天井領域における輝度値が基準値Lref2と同等の状態となる。
そこで、第1補正パラメータ設定部31は、補正パラメータを「2.0」に設定する。第1画像補正部41は、撮像画像における輝度値を2.0倍にする補正を行う。これにより、目領域の画像が安定した状態にすることができる。
視線検出部51は、第1補正要否判定部21により撮像画像の補正が不要であると判定された場合、撮像画像データが示す撮像画像(すなわち未補正の撮像画像)を用いて、視線検出処理を実行するものである。また、視線検出部51は、第1補正要否判定部21により撮像画像の補正が必要であると判定された場合、第1画像補正部41による補正後の撮像画像を用いて、視線検出処理を実行するものである。
視線検出処理は、例えば、目領域における基準点(例えば目頭又は目尻などに対応する点)と当該基準点に対する動点(例えば虹彩又は瞳孔などに対応する点)との位置関係に基づき搭乗者の視線角度を算出する方法によるものである。または、例えば、視線検出処理は、目領域における基準点(例えば角膜反射像又は強膜反射像などに対応する点)と当該基準点に対する動点(例えば虹彩又は瞳孔などに対応する点)との位置関係に基づき搭乗者の視線角度を算出する方法、すなわち角膜反射法又は強膜反射法によるものである。
第2補正要否判定部22は、特徴量検出部15により検出された特徴量を用いて、搭乗者の開口度を検出する処理(以下「開口度検出処理」という。)における撮像画像の補正の要否を判定するものである。
具体的には、例えば、第2補正要否判定部22は、顔パーツ領域における輝度特徴量を用いて撮像画像の補正の要否を判定する。すなわち、第2補正要否判定部22は、特徴量情報を用いて、搭乗者の唇に対応する領域(以下「唇領域」という。)における輝度値と搭乗者の顎に対応する領域(以下「顎領域」という。)における輝度値との差分値を算出する。第2補正要否判定部22は、当該算出された差分値と所定の基準値Lref3との差分値ΔL3を算出する。基準値Lref3は、開口度検出処理を適切に実行するために必要な唇領域と顎領域間の輝度差に基づき設定された値である。基準値Lref3は、例えば80に設定されている。
第2補正要否判定部22は、当該算出された差分値ΔL3と所定の閾値Lth3とを比較する。差分値ΔL3が閾値Lth3以上である場合、第2補正要否判定部22は、開口度検出処理における撮像画像の補正が必要であると判定する。他方、差分値ΔL3が閾値Lth3未満である場合、第2補正要否判定部22は、開口度検出処理における撮像画像の補正が不要であると判定する。
または、例えば、第2補正要否判定部22は、構造物領域における輝度特徴量を用いて撮像画像の補正の要否を判定する。すなわち、第2補正要否判定部22は、特徴量情報を用いて、天井領域における輝度値と所定の基準値Lref4との差分値ΔL4を算出する。基準値Lref4は、開口度検出処理に適した天井領域の輝度、すなわち顔領域の画像が安定するときの天井領域の輝度に基づき設定された値である。基準値Lref4は、例えば90に設定されている。
第2補正要否判定部22は、当該算出された差分値ΔL4と所定の閾値Lth4とを比較する。差分値ΔL4が閾値Lth4以上である場合、第2補正要否判定部22は、開口度検出処理における撮像画像の補正が必要であると判定する。他方、差分値ΔL4が閾値Lth4未満である場合、第2補正要否判定部22は、開口度検出処理における撮像画像の補正が不要であると判定する。
第2補正パラメータ設定部32は、第2補正要否判定部22により撮像画像の補正が必要であると判定された場合、特徴量検出部15により検出された特徴量を用いて、開口度検出処理用の補正パラメータを設定するものである。具体的には、例えば、第2補正パラメータ設定部32は、顔パーツ領域における輝度特徴量又は構造物領域における輝度特徴量を用いて補正パラメータを設定する。第2補正パラメータ設定部32による補正パラメータの設定方法は、第1補正パラメータ設定部31による補正パラメータの設定方法と同様であるため、詳細な説明は省略する。
第2画像補正部42は、第2補正パラメータ設定部32により設定された補正パラメータを用いて、撮像画像データが示す撮像画像を補正するものである。第2画像補正部42による撮像画像の補正方法は、第1画像補正部41による撮像画像の補正方法と同様であるため、詳細な説明は省略する。
開口度検出部52は、第2補正要否判定部22により撮像画像の補正が不要であると判定された場合、撮像画像データが示す撮像画像(すなわち未補正の撮像画像)を用いて、開口度検出処理を実行するものである。また、開口度検出部52は、第2補正要否判定部22により撮像画像の補正が必要であると判定された場合、第2画像補正部42による補正後の撮像画像を用いて、開口度検出処理を実行するものである。
開口度検出処理は、例えば、複数個の顔パーツ(例えば口角、唇、鼻及び目など)の位置関係に基づき搭乗者の口の開き度合を算出する方法によるものである。または、例えば、開口度検出処理は、唇領域におけるエッジを検出する方法によるものである。または、例えば、開口度検出処理は、機械学習の結果を用いる方法によるものである。
第3補正要否判定部23は、特徴量検出部15により検出された特徴量を用いて、搭乗者の顔向きを検出する処理(以下「顔向き検出処理」という。)における撮像画像の補正の要否を判定するものである。具体的には、例えば、第3補正要否判定部23は、顔パーツ領域における輝度特徴量又は構造物領域における輝度特徴量を用いて撮像画像の補正の要否を判定する。第3補正要否判定部23による判定方法は、第1補正要否判定部21による判定方法及び第2補正要否判定部22による判定方法と同様であるため、詳細な説明は省略する。
第3補正パラメータ設定部33は、第3補正要否判定部23により撮像画像の補正が必要であると判定された場合、特徴量検出部15により検出された特徴量を用いて、顔向き検出処理用の補正パラメータを設定するものである。具体的には、例えば、第3補正パラメータ設定部33は、顔パーツ領域における輝度特徴量又は構造物領域における輝度特徴量を用いて補正パラメータを設定する。第3補正パラメータ設定部33による補正パラメータの設定方法は、第1補正パラメータ設定部31による補正パラメータの設定方法及び第2補正パラメータ設定部32による補正パラメータの設定方法と同様であるため、詳細な説明は省略する。
第3画像補正部43は、第3補正パラメータ設定部33により設定された補正パラメータを用いて、撮像画像データが示す撮像画像を補正するものである。第3画像補正部43による撮像画像の補正方法は、第1画像補正部41による撮像画像の補正方法及び第2画像補正部42による撮像画像の補正方法と同様であるため、詳細な説明は省略する。
顔向き検出部53は、第3補正要否判定部23により撮像画像の補正が不要であると判定された場合、撮像画像データが示す撮像画像(すなわち未補正の撮像画像)を用いて、顔向き検出処理を実行するものである。また、顔向き検出部53は、第3補正要否判定部23により撮像画像の補正が必要であると判定された場合、第3画像補正部43による補正後の撮像画像を用いて、顔向き検出処理を実行するものである。
顔向き検出処理は、例えば、複数個の顔パーツ(例えば目、鼻及び口など)の位置関係に基づき顔向き角度を算出する方法によるものである。または、例えば、顔向き検出処理は、機械学習の結果を用いる方法によるものである。
第1補正要否判定部21、第2補正要否判定部22及び第3補正要否判定部23により、補正要否判定部20が構成されている。第1補正パラメータ設定部31、第2補正パラメータ設定部32及び第3補正パラメータ設定部33により、補正パラメータ設定部30が構成されている。第1画像補正部41、第2画像補正部42及び第3画像補正部43により、画像補正部40が構成されている。視線検出部51、開口度検出部52及び顔向き検出部53により、搭乗者状態検出部50が構成されている。補正要否判定部20、補正パラメータ設定部30、画像補正部40及び搭乗者状態検出部50により、第2制御部60が構成されている。
視線検出処理、開口度検出処理及び顔向き検出処理は、いずれも搭乗者の状態を検出する処理である。すなわち、搭乗者状態検出部50は搭乗者状態検出処理を実行するものであり、搭乗者状態検出部50による搭乗者状態検出処理は3個の検出項目(視線、開口度及び顔向き)を含むものである。補正要否判定部20は、当該3個の検出項目毎に撮像画像の補正の要否を判定するものである。補正パラメータ設定部30は、当該3個の検出項目毎に補正パラメータを設定するものである。画像補正部40は、当該3個の検出項目毎に撮像画像を補正するものである。搭乗者状態検出部50は、当該3個の検出項目毎に搭乗者状態検出処理を実行するものである。
運転者状態監視部70は、視線検出部51による視線検出処理、開口度検出部52による開口度検出処理及び顔向き検出部53による顔向き検出処理の結果を用いて、車両1の運転者(以下、単に「運転者」という。)が居眠り運転状態であるか否かを判定する処理及び運転者が脇見運転状態であるか否かを判定する処理などを実行するものである。すなわち、運転者状態監視部70は、搭乗者状態検出部50による搭乗者状態検出処理の結果を用いて、いわゆる「ドライバーモニタリング」を実現するものである。
補正パラメータ設定部30、画像補正部40及び搭乗者状態検出部50により、搭乗者状態検出装置100の要部が構成されている。また、第1制御部10、第2制御部60及び運転者状態監視部70により、制御装置200の要部が構成されている。
次に、図3を参照して、制御装置200の要部のハードウェア構成について説明する。
図3Aに示す如く、制御装置200はコンピュータにより構成されており、当該コンピュータはプロセッサ81及びメモリ82を有している。メモリ82には、当該コンピュータを第1制御部10、第2制御部60及び運転者状態監視部70として機能させるためのプログラムが記憶されている。メモリ82に記憶されているプログラムをプロセッサ81が読み出して実行することにより、第1制御部10、第2制御部60及び運転者状態監視部70の機能が実現される。
プロセッサ81は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)などを用いたものである。メモリ82は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)若しくはEEPROM(Electrically Erasable Programmable Read−Only Memory)などの半導体メモリ、磁気ディスク、光ディスク又は光磁気ディスクなどを用いたものである。
または、図3Bに示す如く、第1制御部10、第2制御部60及び運転者状態監視部70の機能が専用の処理回路83により実現されるものであっても良い。処理回路83は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、SoC(System−on−a−Chip)又はシステムLSI(Large−Scale Integration)などを用いたものである。
または、制御装置200はプロセッサ81、メモリ82及び処理回路83を有するものであっても良い。この場合、第1制御部10、第2制御部60及び運転者状態監視部70の機能のうちの一部の機能がプロセッサ81及びメモリ82により実現されて、残余の機能が処理回路83により実現されるものであっても良い。
次に、図4Aのフローチャートを参照して、制御装置200の動作について、第1制御部10の動作を中心に説明する。図4Aに示す処理は、制御装置200の電源がオンされている状態にて、例えば所定の時間間隔にて繰り返し実行される。
まず、ステップST1にて、画像データ取得部11は、撮像画像データをカメラ2から取得する。画像データ取得部11は、当該取得された撮像画像データを顔領域検出部12及び構造物領域検出部14に出力する。
次いで、ステップST2にて、顔領域検出部12は、ステップST1で画像データ取得部11により出力された撮像画像データを用いて、撮像画像のうちの顔領域を検出する。顔領域検出部12は、当該検出された顔領域に対応する画像データ、すなわち顔画像データを顔パーツ領域検出部13に出力する。
次いで、ステップST3にて、顔パーツ領域検出部13は、ステップST2で顔領域検出部12により出力された顔画像データを用いて、顔領域のうちの顔パーツ領域を検出する。顔パーツ領域検出部13は、当該検出された顔パーツ領域に対応する画像データ、すなわち顔パーツ画像データを特徴量検出部15に出力する。
また、ステップST4にて、構造物領域検出部14は、ステップST1で画像データ取得部11により出力された撮像画像データを用いて、撮像画像のうちの構造物領域を検出する。構造物領域検出部14は、当該検出された構造物領域に対応する画像データ、すなわち構造物画像データを特徴量検出部15に出力する。
次いで、ステップST5にて、特徴量検出部15は、ステップST3で顔パーツ領域検出部13により出力された顔パーツ画像データを用いて、顔パーツ領域における輝度特徴量を検出する。また、特徴量検出部15は、ステップST4で構造物領域検出部14により出力された構造物画像データを用いて、構造物領域における輝度特徴量を検出する。
次に、図4B〜図4Dのフローチャートを参照して、制御装置200の動作について、第2制御部60の動作を中心に説明する。制御装置200は、図4Aに示す処理に次いで、図4B〜図4Dの各々に示す処理を実行するようになっている。
まず、ステップST11にて、第1補正要否判定部21は、ステップST5で特徴量検出部15により検出された輝度特徴量を用いて、視線検出処理における撮像画像の補正の要否を判定する。第1補正要否判定部21による判定方法の具体例は既に説明したとおりであるため、再度の説明は省略する。
第1補正要否判定部21により撮像画像の補正が必要であると判定された場合(ステップST11“YES”)、ステップST12にて、第1補正パラメータ設定部31は、ステップST5で特徴量検出部15により検出された輝度特徴量を用いて、視線検出処理用の補正パラメータを設定する。次いで、ステップST13にて、第1画像補正部41は、ステップST12で第1補正パラメータ設定部31により設定された補正パラメータを用いて、撮像画像データが示す撮像画像を補正する。次いで、ステップST14にて、視線検出部51は、ステップST13における第1画像補正部41による補正後の撮像画像を用いて視線検出処理を実行する。
他方、第1補正要否判定部21により撮像画像の補正が不要であると判定された場合(ステップST11“NO”)、ステップST14にて、視線検出部51は、撮像画像データが示す撮像画像(すなわち未補正の撮像画像)を用いて視線検出処理を実行する。
第1補正要否判定部21による判定方法の具体例は既に説明したとおりであるため、再度の説明は省略する。第1補正パラメータ設定部31による補正パラメータの設定方法の具体例は既に説明したとおりであるため、再度の説明は省略する。視線検出処理の具体例は既に説明したとおりであるため、再度の説明は省略する。
また、ステップST21にて、第2補正要否判定部22は、ステップST5で特徴量検出部15により検出された輝度特徴量を用いて、開口度検出処理における撮像画像の補正の要否を判定する。第2補正要否判定部22による判定方法の具体例は既に説明したとおりであるため、再度の説明は省略する。
第2補正要否判定部22により撮像画像の補正が必要であると判定された場合(ステップST21“YES”)、ステップST22にて、第2補正パラメータ設定部32は、ステップST5で特徴量検出部15により検出された輝度特徴量を用いて、開口度検出処理用の補正パラメータを設定する。次いで、ステップST23にて、第2画像補正部42は、ステップST22で第2補正パラメータ設定部32により設定された補正パラメータを用いて、撮像画像データが示す撮像画像を補正する。次いで、ステップST24にて、開口度検出部52は、ステップST23における第2画像補正部42による補正後の撮像画像を用いて開口度検出処理を実行する。
他方、第2補正要否判定部22により撮像画像の補正が不要であると判定された場合(ステップST21“NO”)、ステップST24にて、開口度検出部52は、撮像画像データが示す撮像画像(すなわち未補正の撮像画像)を用いて開口度検出処理を実行する。
第2補正パラメータ設定部32による補正パラメータの設定方法は、第1補正パラメータ設定部31による補正パラメータの設定方法と同様であるため、詳細な説明は省略する。第2画像補正部42による撮像画像の補正方法は、第1画像補正部41による撮像画像の補正方法と同様であるため、詳細な説明は省略する。開口度検出処理の具体例は既に説明したとおりであるため、再度の説明は省略する。
また、ステップST31にて、第3補正要否判定部23は、ステップST5で特徴量検出部15により検出された輝度特徴量を用いて、顔向き検出処理における撮像画像の補正の要否を判定する。第3補正要否判定部23による判定方法は、第1補正要否判定部21による判定方法及び第2補正要否判定部22による判定方法と同様であるため、詳細な説明は省略する。
第3補正要否判定部23により撮像画像の補正が必要であると判定された場合(ステップST31“YES”)、ステップST32にて、第3補正パラメータ設定部33は、ステップST5で特徴量検出部15により検出された輝度特徴量を用いて、顔向き検出処理用の補正パラメータを設定する。次いで、ステップST33にて、第3画像補正部43は、ステップST32で第3補正パラメータ設定部33により設定された補正パラメータを用いて、撮像画像データが示す撮像画像を補正する。次いで、ステップST34にて、顔向き検出部53は、ステップST33における第3画像補正部43による補正後の撮像画像を用いて顔向き検出処理を実行する。
他方、第3補正要否判定部23により撮像画像の補正が不要であると判定された場合(ステップST31“NO”)、ステップST34にて、顔向き検出部53は、撮像画像データが示す撮像画像(すなわち未補正の撮像画像)を用いて顔向き検出処理を実行する。
第3補正パラメータ設定部33による補正パラメータの設定方法は、第1補正パラメータ設定部31による補正パラメータの設定方法及び第2補正パラメータ設定部32による補正パラメータの設定方法と同様であるため、詳細な説明は省略する。第3画像補正部43による撮像画像の補正方法は、第1画像補正部41による撮像画像の補正方法及び第2画像補正部42による撮像画像の補正方法と同様であるため、詳細な説明は省略する。顔向き検出処理の具体例は既に説明したとおりであるため、再度の説明は省略する。
このように、搭乗者状態検出装置100は、複数個の検出項目を含む搭乗者状態検出処理における検出項目毎に補正パラメータを設定して、当該検出項目毎に撮像画像を補正する。これにより、複数個の検出項目を含む搭乗者状態検出処理の精度を向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を向上することができる。
特に、輝度特徴量を用いることにより、視線検出処理、開口度検出処理及び顔向き検出処理の精度を向上することができる。この結果、運転者が居眠り状態であるか否かを判定する処理及び運転者が脇見運転状態であるか否かを判定する処理の精度を向上することができる。
また、輝度値の平均値又は最大値などを輝度特徴量に用いることにより、撮像画像における輝度値が視線検出処理に適した輝度値に比して低い場合(すなわち撮像画像が暗い場合)、第1補正要否判定部21により撮像画像の補正が必要であると判定されて、第1画像補正部41により輝度値を高くする補正が行われる。撮像画像における輝度値が開口度検出処理に適した輝度値に比して低い場合(すなわち撮像画像が暗い場合)、第2補正要否判定部22により撮像画像の補正が必要であると判定されて、第2画像補正部42により輝度値を高くする補正が行われる。撮像画像における輝度値が顔向き検出処理に適した輝度値に比して低い場合(すなわち撮像画像が暗い場合)、第3補正要否判定部23により撮像画像の補正が必要であると判定されて、第3画像補正部43により輝度値を高くする補正が行われる。このため、カメラ2が赤外線カメラにより構成されている場合、撮像用の赤外線を照射する光源の発光量を増やすことなく(すなわち当該光源における通電電流を増やすことなく)撮像画像の明るさを確保することができる。このため、ドライバーモニタリングを実現するための消費電力を低減することができる。
なお、顔向き検出部53による顔向き検出処理が機械学習の結果を用いる方法によるものである場合、特徴量検出部15は、撮像画像における輝度特徴量と撮像画像に対する比較対象となる画像群(以下「参照画像群」という。)における輝度特徴量とを検出するものであっても良い。
すなわち、この場合、制御装置200には辞書データが記憶されている。この辞書データは、複数の顔向きと一対一に対応する複数の画像(以下「参照画像」という。)による参照画像群を含むものである。この辞書データは、機械学習の結果を用いて生成されたものである。
特徴量検出部15は、撮像画像のうちの全領域又は顔領域における輝度値の平均値、中央値又は標準偏差などを算出することにより、撮像画像における輝度特徴量を検出する。また、特徴量検出部15は、個々の参照画像のうちの全領域又は顔領域における輝度値の平均値、中央値又は標準偏差などを算出することにより、参照画像群における輝度特徴量を検出する。
第3補正要否判定部23は、撮像画像における輝度特徴量と参照画像群における輝度特徴量との差分値を算出する。第3補正要否判定部23は、当該算出された差分値が所定値以上である場合、撮像画像の補正が必要であると判定する。他方、当該算出された差分値が所定値未満である場合、第3補正要否判定部23は、撮像画像の補正が不要であると判定する。
第3補正パラメータ設定部33は、第3補正要否判定部23により撮像画像の補正が必要であると判定された場合、第3画像補正部43による撮像画像の補正が撮像画像における輝度特徴量を参照画像群における輝度特徴量に近づけるものとなるように補正パラメータを設定する。第3画像補正部43は、第3補正パラメータ設定部33により設定された補正パラメータを用いて、撮像画像における輝度特徴量を参照画像群における輝度特徴量に近づける補正を行う。
具体的には、例えば、撮像画像における輝度値の平均値が60であり、かつ、参照画像群における輝度値の平均値が90であるものとする。この場合、撮像画像における輝度値を1.5倍にすることにより、撮像画像における輝度値の平均値が90となる。そこで、第3補正パラメータ設定部33は、補正パラメータを「1.5」に設定する。第1画像補正部41は、撮像画像における輝度値を1.5倍にする補正を行う。
顔向き検出部53は、第3補正要否判定部23により撮像画像の補正が不要であると判定された場合、撮像画像データが示す撮像画像(すなわち未補正の撮像画像)を用いて顔向き検出処理を実行する。すなわち、顔向き検出部53は、未補正の撮像画像を複数の参照画像の各々と比較して、複数の参照画像のうちの未補正の撮像画像に対する類似度が最も高い参照画像を判定することにより、搭乗者の顔向きを検出する。
他方、第3補正要否判定部23により撮像画像の補正が必要であると判定された場合、顔向き検出部53は、第3画像補正部43による補正後の撮像画像を用いて顔向き検出処理を実行する。すなわち、顔向き検出部53は、補正後の撮像画像を複数の参照画像の各々と比較して、複数の参照画像のうちの補正後の撮像画像に対する類似度が最も高い参照画像を判定することにより、搭乗者の顔向きを検出する。
図5Aは、撮像画像I1と、撮像画像I1における輝度値の分布を示すヒストグラムH1との一例を示している。図5Bは、参照画像I2と、参照画像I2における輝度値の分布を示すヒストグラムH2との一例を示している。図5に示す例において、第3補正パラメータ設定部33が上記のように補正パラメータを設定して、第3画像補正部43が上記のように撮像画像を補正することにより、ヒストグラムH1がヒストグラムH2に近づく方向に(すなわち撮像画像が明るくなる方向に)シフトする。これにより、撮像画像の明るさを参照画像の明るさに近づけることができる。この結果、撮像画像を個々の参照画像と比較する処理の精度を向上することができるため、顔向き検出処理の精度を向上することができる。
また、顔パーツ領域検出部13により検出される顔パーツ領域は、搭乗者状態検出部50による搭乗者状態処理における検出項目に応じたものであれば良く、上記の具体例に限定されるものではない。例えば、顔パーツ領域検出部13は、目領域、搭乗者の鼻に対応する小域(以下「鼻領域」という。)、搭乗者の口に対応する領域(以下「口領域」という。)又は搭乗者の頬に対応する領域のうちの少なくとも一つを検出するものであっても良い。
また、構造物領域検出部14により検出される構造物領域は、天井領域又は車両1のピラーに対応する領域(以下「ピラー領域」という。)に限定されるものではない。ただし、カメラ2に対する位置関係が一定である構造物(例えば天井又はピラーなど)を検出対象とするのが好適であり、カメラ2に対する位置関係が変化し得る構造物(例えば搭乗者が着座している座席のシート又はヘッドレストなど)を検出対象とするのは好適でない。
すなわち、前者の構造物に対応する構造物領域は、撮像画像における位置が一定である。また、前者の構造物は、外光などの環境又は車両1におけるカメラ2の位置などが変化しない限り、撮像画像において常に同じ明るさ、同じ形状及び同じ大きさにて撮像される。このため、後者の構造物に比して構造物領域における特徴量が変動し難い。したがって、後者の構造物に対応する構造物領域における特徴量よりも、前者の構造物に対応する構造物領域における特徴量の方が、補正パラメータの設定に用いるのに適している。
また、第1補正要否判定部21、第2補正要否判定部22及び第3補正要否判定部23の各々において、顔パーツ領域における特徴量又は構造物領域における特徴量のうちのいずれを用いるかは、予め設定されているものであっても良く、又は時間帯に応じて切り替わるものであっても良い。また、第1補正パラメータ設定部31、第2補正パラメータ設定部32及び第3補正パラメータ設定部33の各々において、顔パーツ領域における特徴量又は構造物領域における特徴量のうちのいずれを用いるかは、予め設定されているものであっても良く、又は時間帯に応じて切り替わるものであっても良い。
例えば、朝方及び昼間の時間帯は、車外の明るさなどの環境により、構造物領域における特徴量が安定して検出される状態である蓋然性が高い。これに対して、夕方及び夜間の時間帯は、構造物領域における特徴量を安定して検出することが困難な状態である蓋然性が高い。そこで、朝方及び昼間の時間帯は構造物領域における特徴量を用いる一方、夕方及び夜間の時間帯は顔パーツ領域における特徴量を用いるものであっても良い。
ここで、第1補正要否判定部21、第2補正要否判定部22及び第3補正要否判定部23がいずれも顔パーツ領域における特徴量を用いるものであり、かつ、第1補正パラメータ設定部31、第2補正パラメータ設定部32及び第3補正パラメータ設定部33がいずれも顔パーツ領域における特徴量を用いるものである場合、特徴量検出部15は構造物領域における特徴量を検出しないものであっても良い。他方、第1補正要否判定部21、第2補正要否判定部22及び第3補正要否判定部23がいずれも構造物領域における特徴量を用いるものであり、かつ、第1補正パラメータ設定部31、第2補正パラメータ設定部32及び第3補正パラメータ設定部33がいずれも構造物領域における特徴量を用いるものである場合、特徴量検出部15は顔パーツ領域における特徴量を検出しないものであっても良い。
すなわち、特徴量検出部15は、顔パーツ領域における特徴量又は構造物領域における特徴量のうちの少なくとも一方を検出するものであれば良い。補正要否判定部20は、顔パーツ領域における特徴量又は構造物領域における特徴量のうちの少なくとも一方を用いて撮像画像の補正の要否を判定するものであれば良い。補正パラメータ設定部30は、顔パーツ領域における特徴量又は構造物領域における特徴量のうちの少なくとも一方を用いて補正パラメータを設定するものであれば良い。
また、補正要否判定部20は、特徴量検出部15により検出された特徴量を用いて、搭乗者状態検出処理における検出項目毎に撮像画像の補正の要否を判定するものであれば良い。すなわち、第1補正要否判定部21、第2補正要否判定部22及び第3補正要否判定部23の各々による判定方法は、上記の具体例に限定されるものではない。
また、補正パラメータ設定部30は、特徴量検出部15により検出された特徴量を用いて、搭乗者状態検出処理における検出項目毎に補正パラメータを設定するものであれば良い。すなわち、第1補正パラメータ設定部31、第2補正パラメータ設定部32及び第3補正パラメータ設定部33の各々による補正パラメータの設定方法は、上記の具体例に限定されるものではない。
また、画像補正部40は、補正パラメータ設定部30により設定された補正パラメータを用いて、搭乗者状態検出処理における検出項目毎に撮像画像を補正するものであれば良い。すなわち、第1画像補正部41、第2画像補正部42及び第3画像補正部43の各々による撮像画像の補正方法は、上記の具体例に限定されるものではない。第1画像補正部41、第2画像補正部42及び第3画像補正部43の各々は、撮像画像に対して、明暗の補正(例えばコントラスト補正又はガンマ補正など)、ぼかしの補正(例えばガウシアンフィルタ又はメディアンフィルタなど)又はエッジの補正(例えばソーベルフィルタ又はラプラシアンフィルタなど)などの如何なる補正を行うものであっても良い。
また、第1画像補正部41、第2画像補正部42及び第3画像補正部43の各々は、撮像画像のうちの全領域を補正するものであっても良く、又は撮像画像のうちの一部の領域のみを補正するものであっても良い。例えば、第1画像補正部41は、撮像画像のうちの視線検出処理に用いられる領域(例えば目領域)のみを補正するものであっても良い。第2画像補正部42は、撮像画像のうちの開口度検出処理に用いられる領域(例えば顔領域)のみを補正するものであっても良い。第3画像補正部43は、撮像画像のうちの顔向き検出処理に用いられる領域(例えば顔領域)のみを補正するものであっても良い。
また、搭乗者状態検出部50による搭乗者状態検出処理における検出項目は、搭乗者の視線、搭乗者の開口度及び搭乗者の顔向きに限定されるものではない。例えば、搭乗者状態検出部50は、搭乗者の顔色を検出する処理(以下「顔色検出処理」という。)を実行するものであっても良い。また、例えば、搭乗者状態検出部50は、搭乗者の開眼度を検出する処理(以下「開眼度検出処理」という。)を実行するものであっても良い。すなわち、搭乗者状態検出部50による搭乗者状態検出処理は、複数個の検出項目を含むものであれば良い。当該複数個の検出項目は、搭乗者の視線、搭乗者の開口度、搭乗者の顔向き、搭乗者の顔色又は搭乗者の開眼度のうちの少なくとも一つを含むものであっても良い。
また、特徴量検出部15により検出される特徴量は、輝度特徴量に限定されるものではない。例えば、特徴量検出部15は、顔パーツ領域又は構造物領域のうちの少なくとも一方における色値(例えばRGB値)を検出することにより、色に基づく特徴量(以下「色特徴量」という。)を検出するものであっても良い。また、例えば、特徴量検出部15は、顔パーツ領域又は構造物領域のうちの少なくも一方におけるHOG(Histogram of Oriented Gradients)又はEOH(Edge Orientation Histogram)などを検出することにより、エッジに基づく特徴量(以下「エッジ特徴量」という。)を検出するものであっても良い。
すなわち、特徴量検出部15は、輝度特徴量、色特徴量又はエッジ特徴量のうちの少なくとも一つを検出するものであっても良い。補正要否判定部20は、輝度特徴量、色特徴量又はエッジ特徴量のうちの少なくとも一つを用いて撮像画像の補正の要否を判定するものであっても良い。補正パラメータ設定部30は、輝度特徴量、色特徴量又はエッジ特徴量のうちの少なくとも一つを用いて補正パラメータを設定するものであっても良い。
また、通常、撮像画像は時間的に連続する複数のフレームにより構成されている。補正要否判定部20による要否判定(すなわちステップST11,ST21,ST31の処理)は、毎フレーム実行されるものであっても良く、又は所定数のフレームおきに実行されるものであっても良い。要否判定が所定数のフレームおきに実行されるものである場合、要否判定が実行されないフレームに対する補正は、最新の要否判定の結果(及び最新の補正パラメータ)に基づくものとなる。例えば、要否判定が3フレームおきに実行されるものである場合において、第1フレームに対する要否判定により補正が必要であると判定されて補正パラメータが「2.5」に設定された場合、第1フレームに対して「2.5」の補正がなされるのはもちろんのこと、第2フレーム及び第3フレームに対しても「2.5」の補正がなされる。その後、第4フレームに対する要否判定により補正が必要であると判定されて補正パラメータが「2.1」に設定された場合、第4フレームに対して「2.1」の補正がなされるのはもちろんのこと、第6フレーム及び第7フレームに対しても「2.1」の補正がなされる。
また、運転者状態監視部70は、搭乗者状態検出部50による検出結果を用いてドライバーモニタリングを実現するものであれば良い。運転者状態監視部70による判定項目は、運転者が居眠り運転状態であるか否かの判定及び運転者が脇見運転状態であるか否かの判定に限定されるものではない。例えば、搭乗者状態検出部50が顔色検出処理を実行するものである場合、運転者状態監視部70は、搭乗者状態検出部50による顔色検出処理の結果を用いて、運転者が運転不能状態(いわゆる「デッドマン」)であるか否かを判定する処理を実行するものであっても良い。
すなわち、運転者状態監視部70は、搭乗者状態検出部50による搭乗者状態検出処理の結果を用いて、運転者が居眠り運転状態であるか否かを判定する処理、運転者が脇見運転状態であるか否かを判定する処理又は運転者が運転不能状態であるか否かを判定する処理のうちの少なくとも一つを実行するものであっても良い。
また、図6に示す如く、補正パラメータ設定部30、画像補正部40及び搭乗者状態検出部50により搭乗者状態検出システム300の要部が構成されているものであっても良い。また、第1制御部10、第2制御部60及び運転者状態監視部70により制御システム400の要部が構成されているものであっても良い。
図7A〜図7Dの各々は、制御システム400の要部のシステム構成を示している。図7に示す如く、制御システム400は、車両1に搭載自在な車載情報機器91、車両1に持ち込み自在なスマートフォンなどの携帯情報端末92、又は、車載情報機器91若しくは携帯情報端末92と通信自在なサーバ装置93のうちのいずれか二以上により構成されている。車載情報機器91、携帯情報端末92又はサーバ装置93のうちのいずれか二以上が連携することにより、第1制御部10、第2制御部60及び運転者状態監視部70の機能が実現されるものであれば良い。
また、図8に示す如く、補正パラメータ設定部30及び画像補正部40により搭乗者状態検出装置100の要部が構成されているものであっても良い。また、図9に示す如く、補正パラメータ設定部30及び画像補正部40により搭乗者状態検出システム300の要部が構成されているものであっても良い。
また、制御装置200及び制御システム400は、車両1と異なる移動体にも用いることができる。すなわち、搭乗者状態検出装置100及び搭乗者状態検出システム300は、自動車はもちろんのこと、鉄道車両、船舶又は航空機などの移動体における搭乗者状態検出処理にも用いることができる。
以上のように、実施の形態1の搭乗者状態検出装置100は、車室内撮像用のカメラ2による撮像画像のうちの搭乗者の顔パーツに対応する顔パーツ領域における特徴量、又は、撮像画像のうちの車室内の構造物に対応する構造物領域における特徴量のうちの少なくとも一方を用いて、複数個の検出項目を含む搭乗者状態検出処理における検出項目毎に、撮像画像に対する補正パラメータを設定する補正パラメータ設定部30と、補正パラメータ設定部30により設定された補正パラメータを用いて、搭乗者状態検出処理における検出項目毎に、撮像画像を補正する画像補正部40とを備える。これにより、複数個の検出項目を含む搭乗者状態検出処理の精度を向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を向上することができる。
また、搭乗者状態検出装置100は、画像補正部40による補正後の撮像画像を用いて、検出項目毎に搭乗者状態検出処理を実行する搭乗者状態検出部50を備える。これにより、例えば、視線検出処理、開口度検出処理及び顔向き検出処理の精度を向上することができる。この結果、例えば、運転者が居眠り運転状態であるか否かを判定する処理及び運転者が脇見運転状態であるか否かを判定する処理の精度を向上することができる。
また、実施の形態1の搭乗者状態検出システム300は、車室内撮像用のカメラ2による撮像画像のうちの搭乗者の顔パーツに対応する顔パーツ領域における特徴量、又は、撮像画像のうちの車室内の構造物に対応する構造物領域における特徴量のうちの少なくとも一方を用いて、複数個の検出項目を含む搭乗者状態検出処理における検出項目毎に、撮像画像に対する補正パラメータを設定する補正パラメータ設定部30と、補正パラメータ設定部30により設定された補正パラメータを用いて、搭乗者状態検出処理における検出項目毎に、撮像画像を補正する画像補正部40とを備える。これにより、搭乗者状態検出装置100による上記効果と同様の効果を得ることができる。
また、実施の形態1の搭乗者状態検出方法は、補正パラメータ設定部30が、車室内撮像用のカメラ2による撮像画像のうちの搭乗者の顔パーツに対応する顔パーツ領域における特徴量、又は、撮像画像のうちの車室内の構造物に対応する構造物領域における特徴量のうちの少なくとも一方を用いて、複数個の検出項目を含む搭乗者状態検出処理における検出項目毎に、撮像画像に対する補正パラメータを設定するステップST12,ST22,ST32と、画像補正部40が、補正パラメータ設定部30により設定された補正パラメータを用いて、搭乗者状態検出処理における検出項目毎に、撮像画像を補正するステップST13,ST23,ST33とを備える。これにより、搭乗者状態検出装置100による上記効果と同様の効果を得ることができる。
実施の形態2.
図10は、実施の形態2に係る搭乗者状態検出装置を含む制御装置の要部を示すブロック図である。図10を参照して、実施の形態2の搭乗者状態検出装置100aについて、車両1内の制御装置200aに設けられている例を中心に説明する。なお、図10において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。
カメラ2aは、1個又は複数個の可視光カメラにより構成されている。より具体的には、カメラ2aは、1個又は複数個のカラーカメラにより構成されている。
特徴量検出部15aは、顔パーツ領域検出部13により出力された顔パーツ画像データを用いて、顔パーツ領域における輝度特徴量を検出するものである。また、特徴量検出部15aは、構造物領域検出部14により出力された構造物画像データを用いて、構造物領域における輝度特徴量を検出するものである。特徴量検出部15aによる輝度特徴量の検出方法は、図1に示す特徴量検出部15による輝度特徴量の検出方法と同様であるため、詳細な説明は省略する。
これに加えて、特徴量検出部15aは、顔パーツ領域検出部13により出力された顔パーツ画像データを用いて、顔パーツ領域における色特徴量を検出するものである。具体的には、例えば、特徴量検出部15aは、顔パーツ領域に含まれる複数個の領域の各々における色値(例えばRGB値)を検出する。
また、特徴量検出部15aは、構造物領域検出部14により出力された構造物画像データを用いて、構造物領域における色特徴量を検出するものである。具体的には、例えば、特徴量検出部15aは、構造物領域における色値(例えばRGB値)を検出する。
画像データ取得部11、顔領域検出部12、顔パーツ領域検出部13、構造物領域検出部14及び特徴量検出部15aにより、第1制御部10aが構成されている。
第4補正要否判定部24は、特徴量検出部15aにより検出された特徴量を用いて、顔色検出処理における撮像画像の補正の要否を判定するものである。
具体的には、例えば、第4補正要否判定部24は、顔パーツ領域における色特徴量と、これらの色特徴量に対する比較対象となる色特徴量(以下「基準色特徴量」という。)とを用いて撮像画像の補正の要否を判定する。すなわち、基準色特徴量には、黒目領域のRGB値に対する比較対象となるRGB値(以下「第1基準RGB値」という。)と、搭乗者の肌に対応する領域(以下「肌領域」という。)のRGB値に対する比較対象となるRGB値(以下「第2基準RGB値」という。)とが含まれている。第4補正要否判定部24は、特徴量情報を用いて、黒目領域のRGB値を第1基準RGB値と比較するとともに、肌領域のRGB値を第2基準RBG値と比較する。第4補正要否判定部24は、これらの比較結果を用いて、いわゆる「色かぶり」の発生の有無を判定する。
ここで、色かぶりとは、撮像画像の全領域における色調が特定の色に偏っている状態をいう。例えば、車両1がトンネル内を走行中であり、当該トンネル内に設置されている照明による黄色の光が車両1に照射されている場合、撮像画像の全領域における色調が黄色に偏る。または、例えば、車両1が夕方の時間帯に走行中であり、夕焼けによる赤色の光が車両1に照射されている場合、撮像画像の全領域における色調が赤色に偏る。
一例として、第1基準RGB値が(30,30,30)に設定されており、かつ、第2基準RGB値が(255,226,196)に設定されている状態にて、黒目領域のRGB値が(30,22,22)であり、かつ、肌領域のRGB値が(255,170,147)であるものとする。この場合、基準RGB値に対してGreen値及びBlue値が低下しているため、黄色〜橙色の色かぶりが発生していることになる。
第4補正要否判定部24は、第1基準RGB値に対する黒目領域のRGB値の差分値を算出するとともに、第2基準RGB値に対する肌領域のRGB値の差分値を算出する。第4補正要否判定部24は、これらの差分値が所定値以上である場合、色かぶりが発生していると判定する。他方、これらの差分値が所定値未満である場合、第4補正要否判定部24は、色かぶりが発生していないと判定する。
第4補正要否判定部24は、色かぶりが発生していると判定された場合、顔色検出処理における撮像画像の補正が必要であると判定する。他方、色かぶりが発生していないと判定された場合、第4補正要否判定部24は、顔色検出処理における撮像画像の補正が不要であると判定する。
ここで、顔パーツ領域に係る基準色特徴量の設定方法について説明する。制御装置200aの電源がオンされてから(又は車両1のエンジンが起動してから)所定時間が経過するまでの間、第1制御部10aは、撮像画像データを取得する処理、顔領域を検出する処理、顔パーツ領域(例えば、黒目領域、まぶた領域、唇領域、鼻領域及び肌領域など)を検出する処理及び当該顔パーツ領域における色特徴量を検出する処理を所定の時間間隔にて繰り返し実行する。第4補正要否判定部24は、これらの処理により検出された色特徴量に基づき基準色特徴量を設定する。
なお、制御装置200aが搭乗者に対する個人認証処理を実行する機能を有するものである場合、個人認証処理用のデータベースには、搭乗者の顔が撮像された画像を示す画像データが登録されている。この場合、第4補正要否判定部24は、当該登録されている画像データにおける色特徴量に基づき基準色特徴量を設定するものであっても良い。
または、例えば、第4補正要否判定部24は、構造物領域における色特徴量と、この色特徴量に対する比較対象となる基準色特徴量とを用いて撮像画像の補正の要否を判定する。すなわち、基準色特徴量には、天井領域のRGB値に対する比較対象となるRGB値(以下「第3基準RGB値」という。)が含まれている。第4補正要否判定部24は、特徴量情報を用いて、天井領域のRGB値を第3基準RGB値と比較する。第4補正要否判定部24は、この比較結果を用いて、色かぶりの発生の有無を判定する。
一例として、第3基準RGB値が(128,128,128)に設定されている状態にて、天井領域のRGB値が(76,128,128)であるものとする。この場合、基準RGB値に対してRed値が低下しているため、赤色の色かぶりが発生していることになる。
第4補正要否判定部24は、第3基準RGB値に対する天井領域のRGB値の差分値を算出する。第4補正要否判定部24は、当該算出された差分値が所定値以上である場合、色かぶりが発生していると判定する。他方、当該算出された差分値が所定値未満である場合、第4補正要否判定部24は、色かぶりが発生していないと判定する。
第4補正要否判定部24は、色かぶりが発生していると判定された場合、顔色検出処理における撮像画像の補正が必要であると判定する。他方、色かぶりが発生していないと判定された場合、第4補正要否判定部24は、顔色検出処理における撮像画像の補正が不要であると判定する。
ここで、構造物領域に係る基準色特徴量の設定方法について説明する。制御装置200aの電源がオンされてから(又は車両1のエンジンが起動してから)所定時間が経過するまでの間、第1制御部10aは、撮像画像データを取得する処理、構造物領域(例えば天井領域又はピラー領域など)を検出する処理及び当該構造物領域における色特徴量を検出する処理を所定の時間間隔にて繰り返し実行する。第4補正要否判定部24は、これらの処理により検出された色特徴量に基づき基準色特徴量を設定する。
なお、基準色特徴量が第4補正要否判定部24に予め記憶されており、第4補正要否判定部24は当該予め記憶されている基準色特徴量を用いるものであっても良い。この場合、基準色特徴量は固定値である。
第4補正パラメータ設定部34は、第4補正要否判定部24により撮像画像の補正が必要であると判定された場合、特徴量検出部15aにより検出された特徴量を用いて、顔色検出処理用の補正パラメータを設定するものである。第4画像補正部44は、第4補正パラメータ設定部34により設定された補正パラメータを用いて、撮像画像データが示す撮像画像を補正するものである。
具体的には、例えば、第1基準RGB値が(30,30,30)に設定されている状態にて、特徴量情報が示す黒目領域のRGB値が(30,22,22)であるものとする。この場合、黒目領域のRGB値は、第1基準RGB値に対して、Red値が同等であり、かつ、Green値が略0.75倍であり、かつ、Blue値が略0.75倍である。
そこで、第4補正パラメータ設定部34は、1÷0.75≒1.3により、Green値及びBlue値に対する補正パラメータを「1.3」に設定する。第4画像補正部44は、撮像画像におけるGreen値及びBlue値を1.3倍にする補正を行う。これにより、黄色〜橙色の色かぶりを補正して、撮像画像のホワイトバランスを顔色検出処理に適した状態にすることができる。
または、例えば、第3基準RGB値が(128,128,128)に設定されている状態にて、特徴量情報が示す天井領域のRGB値が(76,128,128)であるものとする。この場合、天井領域のRGB値は、第3基準RGB値に対して、Red値が略0.6倍であり、かつ、Green値が同等であり、かつ、Blue値が同等である。
そこで、第4補正パラメータ設定部34は、1÷0.6≒1.7により、Red値に対する補正パラメータを「1.7」に設定する。第4画像補正部44は、撮像画像におけるRed値を1.7倍にする補正を行う。これにより、赤色の色かぶりを補正して、撮像画像のホワイトバランスを顔色検出処理に適した状態にすることができる。
顔色検出部54は、第4補正要否判定部24により撮像画像の補正が不要であると判定された場合、撮像画像データが示す撮像画像(すなわち未補正の撮像画像)を用いて、顔色検出処理を実行するものである。また、顔色検出部54は、第4補正要否判定部24により撮像画像の補正が必要であると判定された場合、第4画像補正部44による補正後の撮像画像を用いて、顔色検出処理を実行するものである。
具体的には、例えば、顔色検出部54は、第2基準RGB値と未補正の撮像画像又は補正後の撮像画像のうちの肌領域におけるRGB値との差分値を算出する。顔色検出部54は、当該算出された差分値が所定の閾値以上である場合、搭乗者の顔色が異常状態であると判定する。他方、当該算出された差分値が閾値未満である場合、顔色検出部54は、搭乗者の顔色が正常状態であると判定する。
一例として、図11A及び図11Bの各々に示す如く、第1基準RGB値が(30,30,30)に設定されている状態にて、特徴量情報が示す黒目領域のRGB値が(30,22,22)であることにより、Green値及びBlue値を1.3倍にする補正が行われたものとする。
図11Aに示す例においては、補正前の撮像画像における肌領域のRGB値が(255,170,147)であるため、補正後の撮像画像における肌領域のRGB値は(255,221,191)となる。この場合、補正後の撮像画像における肌領域のRGB値(255,221,191)は、第2基準RGB値(255,226,196)と略同等である。このため、搭乗者の顔色が正常状態であると判定される。
他方、図11Bに示す例においては、補正前の撮像画像における肌領域のRGB値が(255,153,132)であるため、補正後の撮像画像における肌領域のRGB値は(255,199,172)となる。この場合、補正後の撮像画像における肌領域のRGB値(255,199,172)は、第2基準RGB値(255,226,196)に対してGreen値及びBlue値が低下している。このため、搭乗者の顔色が異常状態であると判定される。より具体的には、搭乗者の顔色が通常時の顔色に比して赤色〜橙色に変化していると判定される。
なお、仮に第4補正要否判定部24による判定及び第4補正パラメータ設定部34による補正パラメータの設定に構造物領域における色特徴量が用いられた場合であっても、顔色検出部54による顔色検出処理には顔パーツ領域(より具体的には肌領域)における色特徴量が用いられる。すなわち、この場合においても、顔色検出部54は上記の具体例と同様の顔色検出処理を実行する。
第1補正要否判定部21、第2補正要否判定部22、第3補正要否判定部23及び第4補正要否判定部24により、補正要否判定部20aが構成されている。第1補正パラメータ設定部31、第2補正パラメータ設定部32、第3補正パラメータ設定部33及び第4補正パラメータ設定部34により、補正パラメータ設定部30aが構成されている。第1画像補正部41、第2画像補正部42、第3画像補正部43及び第4画像補正部44により、画像補正部40aが構成されている。視線検出部51、開口度検出部52、顔向き検出部53及び顔色検出部54により、搭乗者状態検出部50aが構成されている。補正要否判定部20a、補正パラメータ設定部30a、画像補正部40a及び搭乗者状態検出部50aにより、第2制御部60aが構成されている。
運転者状態監視部70aは、視線検出部51による視線検出処理、開口度検出部52による開口度検出処理及び顔向き検出部53による顔向き検出処理の結果を用いて、運転者が居眠り運転状態であるか否かを判定する処理及び運転者が脇見運転状態であるか否かを判定する処理などを実行するものである。また、運転者状態監視部70aは、顔色検出部54による顔色検出処理の結果を用いて、運転者が運転不能状態であるか否かを判定する処理などを実行するものである。
補正パラメータ設定部30a、画像補正部40a及び搭乗者状態検出部50aにより、搭乗者状態検出装置100aの要部が構成されている。また、第1制御部10a、第2制御部60a及び運転者状態監視部70aにより、制御装置200aの要部が構成されている。
制御装置200aの要部のハードウェア構成は、実施の形態1にて図3を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、第1制御部10a、第2制御部60a及び運転者状態監視部70aの機能は、プロセッサ81及びメモリ82により実現されるものであっても良く、又は処理回路83により実現されるものであっても良い。
次に、図12Aのフローチャートを参照して、制御装置200aの動作について、第1制御部10aの動作を中心に説明する。
まず、画像データ取得部11がステップST1の処理を実行する。次いで、顔領域検出部12がステップST2の処理を実行して、顔パーツ領域検出部13がステップST3の処理を実行する。また、構造物領域検出部14がステップST4の処理を実行する。ステップST1〜ST4の処理内容は、実施の形態1にて図4Aを参照して説明したものと同様であるため、詳細な説明は省略する。
次いで、ステップST5aにて、特徴量検出部15aは、ステップST3で顔パーツ領域検出部13により出力された顔パーツ画像データを用いて、顔パーツ領域における輝度特徴量及び色特徴量を検出する。また、特徴量検出部15aは、ステップST4で構造物領域検出部14により出力された構造物画像データを用いて、構造物領域における輝度特徴量及び色特徴量を検出する。
次に、図12B〜図12Eのフローチャートを参照して、制御装置200aの動作について、第2制御部60aの動作を中心に説明する。制御装置200aは、図12Aに示す処理に次いで、図12B〜図12Eの各々に示す処理を実行するようになっている。
なお、図12Bに示すステップST11〜ST14の処理内容は、実施の形態1にて図4Bを参照して説明したものと同様であるため、詳細な説明は省略する。図12Cに示すステップST21〜ST24の処理内容は、実施の形態1にて図4Cを参照して説明したものと同様であるため、詳細な説明は省略する。図12Dに示すステップST31〜ST34の処理内容は、実施の形態1にて図4Dを参照して説明したものと同様であるため、詳細な説明は省略する。
ステップST41にて、第4補正要否判定部24は、ステップST5aで特徴量検出部15aにより検出された色特徴量を用いて、顔色検出処理における撮像画像の補正の要否を判定する。第4補正要否判定部24による判定方法の具体例は既に説明したとおりであるため、再度の説明は省略する。
第4補正要否判定部24により撮像画像の補正が必要であると判定された場合(ステップST41“YES”)、ステップST42にて、第4補正パラメータ設定部34は、ステップST5aで特徴量検出部15aにより検出された色特徴量を用いて、顔色検出処理用の補正パラメータを設定する。次いで、ステップST43にて、第4画像補正部44は、ステップST42で第4補正パラメータ設定部34により設定された補正パラメータを用いて、撮像画像データが示す撮像画像を補正する。次いで、ステップST44にて、顔色検出部54は、ステップST43における第4画像補正部44による補正後の撮像画像を用いて顔色検出処理を実行する。
他方、第4補正要否判定部24により撮像画像の補正が不要であると判定された場合(ステップST41“NO”)、ステップST44にて、顔色検出部54は、撮像画像データが示す撮像画像(すなわち未補正の撮像画像)を用いて顔色検出処理を実行する。
第4画像補正部44による撮像画像の補正方法の具体例は既に説明したとおりであるため、再度の説明は省略する。第4補正パラメータ設定部34による補正パラメータの設定方法の具体例は既に説明したとおりであるため、再度の説明は省略する。顔色検出処理の具体例は既に説明したとおりであるため、再度の説明は省略する。
このように、搭乗者状態検出装置100aは、複数個の検出項目を含む搭乗者状態検出処理における検出項目毎に補正パラメータを設定して、当該検出項目毎に撮像画像を補正する。これにより、複数個の検出項目を含む搭乗者状態検出処理の精度を向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を向上することができる。
特に、色特徴量を用いることにより、顔色検出処理の精度を向上することができる。この結果、運転者が運転不能状態であるか否かを判定する処理の精度を向上することができる。
なお、第4補正要否判定部24による判定方法は、上記の具体例に限定されるものではない。第4補正パラメータ設定部34による補正パラメータの設定方法は、上記の具体例に限定されるものではない。第4画像補正部44による撮像画像の補正方法は、上記の具体例に限定されるものではない。
また、第4補正要否判定部24による要否判定(すなわちステップST41の処理)は、毎フレーム実行されるものであっても良く、又は所定数のフレームおきに実行されるものであっても良い。要否判定が所定数のフレームおきに実行されるものである場合、要否判定が実行されないフレームに対する補正は、最新の要否判定の結果(及び最新の補正パラメータ)に基づくものとなる。
また、図13に示す如く、補正パラメータ設定部30a、画像補正部40a及び搭乗者状態検出部50aにより搭乗者状態検出システム300aの要部が構成されているものであっても良い。また、第1制御部10a、第2制御部60a及び運転者状態監視部70aにより制御システム400aの要部が構成されているものであっても良い。
制御システム400aの要部のシステム構成は、実施の形態1にて図7を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、車載情報機器91、携帯情報端末92又はサーバ装置93のうちのいずれか二以上が連携することにより、第1制御部10a、第2制御部60a及び運転者状態監視部70aの機能が実現されるものであれば良い。
また、図8に示す例と同様に、補正パラメータ設定部30a及び画像補正部40aにより搭乗者状態検出装置100aの要部が構成されているものであっても良い。また、図9に示す例と同様に、補正パラメータ設定部30a及び画像補正部40aにより搭乗者状態検出システム300aの要部が構成されているものであっても良い。
そのほか、制御装置200aは、実施の形態1にて説明したものと同様の種々の変形例、すなわち制御装置200と同様の種々の変形例を採用することができる。また、制御システム400aは、実施の形態1にて説明したものと同様の種々の変形例、すなわち制御システム400と同様の種々の変形例を採用することができる。
以上のように、実施の形態2の搭乗者状態検出装置100aは、車室内撮像用のカメラ2aによる撮像画像のうちの搭乗者の顔パーツに対応する顔パーツ領域における特徴量、又は、撮像画像のうちの車室内の構造物に対応する構造物領域における特徴量のうちの少なくとも一方を用いて、複数個の検出項目を含む搭乗者状態検出処理における検出項目毎に、撮像画像に対する補正パラメータを設定する補正パラメータ設定部30aと、補正パラメータ設定部30aにより設定された補正パラメータを用いて、搭乗者状態検出処理における検出項目毎に、撮像画像を補正する画像補正部40aとを備える。これにより、複数個の検出項目を含む搭乗者状態検出処理の精度を向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を向上することができる。
また、搭乗者状態検出装置100aは、画像補正部40aによる補正後の撮像画像を用いて、検出項目毎に搭乗者状態検出処理を実行する搭乗者状態検出部50aを備える。これにより、例えば、顔色検出処理の精度を向上することができる。この結果、例えば、運転者が運転不能状態であるか否かを判定する処理の精度を向上することができる。
実施の形態3.
図14は、実施の形態3に係る搭乗者状態検出装置を含む制御装置の要部を示すブロック図である。図14を参照して、実施の形態3の搭乗者状態検出装置100bについて、車両1内の制御装置200bに設けられている例を中心に説明する。なお、図14において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。
顔パーツ領域検出部13bは、顔領域検出部12により出力された顔画像データを用いて、撮像画像における顔パーツ領域を検出するものである。顔パーツ領域検出部13bによる顔パーツ領域の検出方法は、図1に示す顔パーツ領域検出部13による顔パーツ領域の検出方法と同様であるため、詳細な説明は省略する。
ここで、実施の形態1にて説明したとおり、顔パーツ領域は複数個の顔パーツに対応する複数個の領域(以下、単に「複数個の領域」という。)を含むものである。顔パーツ領域検出部13bは、複数個の領域のうちの検出に失敗した領域(以下「検出失敗領域」という。)を示す情報を除外対象領域設定部16に出力するものである。
また、顔パーツ領域検出部13bは、複数個の領域のうちの検出に成功した領域の各々について、当該検出の信頼度(以下、単に「信頼度」という。)を算出する機能を有している。顔パーツ領域検出部13bは、複数個の領域のうちの信頼度が所定値よりも低い領域(以下「低信頼度領域」という。)を示す情報を除外対象領域設定部16に出力するものである。
具体的には、例えば、顔パーツ領域検出部13bは、モデルフィッティング又はEBGMなどのアルゴリズムにおけるスコアマップを生成する。顔パーツ領域検出部13bは、当該生成されたスコアマップを用いてマッチングスコアを算出する。顔パーツ領域検出部13bは、当該算出されたマッチングスコアの値を信頼度に用いる。
例えば、撮像画像において遮蔽物(例えば搭乗者の手など)により遮蔽されている顔パーツが存在する場合、複数個の領域のうちの当該遮蔽されている顔パーツに対応する領域は、検出失敗領域又は低信頼度領域となる蓋然性が高い。以下、当該遮蔽されている領域を「遮蔽領域」という。
また、例えば、カメラ2が赤外線カメラにより構成されている場合において、複数個の領域のうちのいわゆる「白とび」が発生している領域は、検出失敗領域又は低信頼度領域となる蓋然性が高い。なお、撮像画像において搭乗者の手により遮蔽されている顔パーツが存在することに起因して、当該遮蔽されている顔パーツに対応する領域(すなわち遮蔽領域)にて白とびが発生することもある。以下、白とびが発生している領域を「白とび領域」という。
また、例えば、カメラ2がカラーカメラにより構成されている場合において、複数個の領域のうちのいわゆる「黒つぶれ」が発生している領域は、検出失敗領域又は低信頼度領域となる蓋然性が高い。なお、撮像画像において搭乗者の手により遮蔽されている顔パーツが存在することに起因して、当該遮蔽されている顔パーツに対応する領域(すなわち遮蔽領域)にて黒つぶれが発生することもある。以下、黒つぶれが発生している領域を「黒つぶれ領域」という。
除外対象領域設定部16は、顔パーツ領域検出部13bにより出力された情報を用いて、複数個の領域のうち、その特徴量が補正パラメータ設定部30bによる補正パラメータの設定から除外される領域(以下「除外対象領域」という。)を設定するものである。具体的には、例えば、除外対象領域設定部16は、顔パーツ領域検出部13bにより出力された情報が示す検出失敗領域及び低信頼度領域を除外対象領域に設定する。
画像データ取得部11、顔領域検出部12、顔パーツ領域検出部13b、構造物領域検出部14、特徴量検出部15及び除外対象領域設定部16により、第1制御部10bが構成されている。
第1補正パラメータ設定部31bは、第1補正要否判定部21により撮像画像の補正が必要であると判定された場合、特徴量検出部15により検出された特徴量を用いて、視線検出処理用の補正パラメータを設定するものである。第1補正パラメータ設定部31bによる補正パラメータの設定方法は、図1に示す第1補正パラメータ設定部31による補正パラメータの設定方法と同様であるため、詳細な説明は省略する。ただし、第1補正パラメータ設定部31bは、複数個の領域のうちの除外対象領域と異なる領域における特徴量を用いて補正パラメータを設定するようになっている。
第2補正パラメータ設定部32bは、第2補正要否判定部22により撮像画像の補正が必要であると判定された場合、特徴量検出部15により検出された特徴量を用いて、開口度検出処理用の補正パラメータを設定するものである。第2補正パラメータ設定部32bによる補正パラメータの設定方法は、図1に示す第2補正パラメータ設定部32による補正パラメータの設定方法と同様であるため、詳細な説明は省略する。ただし、第2補正パラメータ設定部32bは、複数個の領域のうちの除外対象領域と異なる領域における特徴量を用いて補正パラメータを設定するようになっている。
第3補正パラメータ設定部33bは、第3補正要否判定部23により撮像画像の補正が必要であると判定された場合、特徴量検出部15により検出された特徴量を用いて、顔向き検出処理用の補正パラメータを設定するものである。第3補正パラメータ設定部33bによる補正パラメータの設定方法は、図1に示す第3補正パラメータ設定部33による補正パラメータの設定方法と同様であるため、詳細な説明は省略する。ただし、第3補正パラメータ設定部33bは、複数個の領域のうちの除外対象領域と異なる領域における特徴量を用いて補正パラメータを設定するようになっている。
例えば、図15Aに示す如く、撮像画像I3において搭乗者の口が搭乗者の手により遮蔽されているものとする。また、これに起因して、口領域にて白とびが発生しているものとする。この場合、口領域は検出失敗領域又は低信頼度領域となる。除外対象領域設定部16は、口領域を除外対象領域に設定する。
そこで、第1補正パラメータ設定部31b、第2補正パラメータ設定部32b及び第3補正パラメータ設定部33bの各々は、図15Bに示す如く、口領域と異なる領域A3における特徴量を用いて補正パラメータを設定する。図15Bに示す例において、この領域A3には、目領域、鼻領域及び搭乗者の額に対応する領域などが含まれている。
第1補正パラメータ設定部31b、第2補正パラメータ設定部32b及び第3補正パラメータ設定部33bにより、補正パラメータ設定部30bが構成されている。補正要否判定部20、補正パラメータ設定部30b、画像補正部40及び搭乗者状態検出部50により、第2制御部60bが構成されている。
補正パラメータ設定部30b、画像補正部40及び搭乗者状態検出部50により、搭乗者状態検出装置100bの要部が構成されている。また、第1制御部10b、第2制御部60b及び運転者状態監視部70により、制御装置200bの要部が構成されている。
制御装置200bの要部のハードウェア構成は、実施の形態1にて図3を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、第1制御部10b、第2制御部60b及び運転者状態監視部70の機能は、プロセッサ81及びメモリ82により実現されるものであっても良く、又は処理回路83により実現されるものであっても良い。
次に、図16のフローチャートを参照して、制御装置200bの動作について、第1制御部10bの動作を中心に説明する。
まず、画像データ取得部11がステップST1の処理を実行する。次いで、顔領域検出部12がステップST2の処理を実行して、顔パーツ領域検出部13がステップST3の処理を実行する。また、構造物領域検出部14がステップST4の処理を実行する。次いで、特徴量検出部15がステップST5の処理を実行する。ステップST1〜ST5の処理内容は、実施の形態1にて図4Aを参照して説明したものと同様であるため、詳細な説明は省略する。
次いで、ステップST6にて、除外対象領域設定部16は、顔パーツ領域検出部13bにより出力された情報を用いて、除外対象領域を設定する。具体的には、例えば、除外対象領域設定部16は、顔パーツ領域検出部13bにより出力された情報が示す検出失敗領域及び低信頼度領域を除外対象領域に設定する。
第2制御部60bの動作は、実施の形態1にて図4B〜図4Dを参照して説明したものと同様であるため、図示及び説明を省略する。ただし、補正パラメータ設定部30bが補正パラメータを設定するとき(すなわちステップST12,ST22,ST32の各々にて)、複数個の領域のうちの除外対象領域と異なる領域における特徴量が用いられる。この除外対象領域は、ステップST6で除外対象領域設定部16により設定されたものである。
このように、搭乗者状態検出装置100bにおいては、検出失敗領域及び低信頼度領域における特徴量が補正パラメータ設定部30bによる補正パラメータの設定から除外される。これにより、遮蔽領域、白とび領域又は黒つぶれ領域などにおける特徴量に基づき補正パラメータが設定されるのを回避することができる。この結果、搭乗者状態検出処理の精度を更に向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を更に向上することができる。
特に、輝度特徴量を用いることにより、視線検出処理、開口度検出処理及び顔向き検出処理の精度を更に向上することができる。この結果、運転者が居眠り状態であるか否かを判定する処理及び運転者が脇見運転状態であるか否かを判定する処理の精度を更に向上することができる。
なお、除外対象領域設定部16による除外対象領域の設定方法は、上記の具体例に限定されるものではない。
例えば、カメラ2が赤外線カメラにより構成されており、かつ、特徴量検出部15が輝度特徴量を検出するものである場合、除外対象領域設定部16は、特徴量情報が示す輝度値を用いて、複数個の領域のうちの白とび領域を検出するものであっても良い。特徴量検出部15は、当該検出された白とび領域を除外対象領域に設定するものであっても良い。または、特徴量検出部15は、当該検出された白とび領域のうちの検出失敗領域及び低信頼度領域が遮蔽領域であると判定して、当該遮蔽領域であると判定された領域を除外対象領域に設定するものであっても良い。
また、例えば、カメラ2がカラーカメラにより構成されており、かつ、特徴量検出部15が色特徴量を検出するものである場合、除外対象領域設定部16は、特徴量情報が示す色値を用いて、複数個の領域のうちの黒つぶれ領域を検出するものであっても良い。特徴量検出部15は、当該検出された黒つぶれ領域を除外対象領域に設定するものであっても良い。または、特徴量検出部15は、当該検出された黒つぶれ領域のうちの検出失敗領域及び低信頼度領域が遮蔽領域であると判定して、当該遮蔽領域であると判定された領域を除外対象領域に設定するものであっても良い。
また、例えば、除外対象領域設定部16は、検出失敗領域又は低信頼度領域のうちの少なくとも一方を除外対象領域に設定するものであっても良い。
また、図17に示す如く、補正パラメータ設定部30b、画像補正部40及び搭乗者状態検出部50により搭乗者状態検出システム300bの要部が構成されているものであっても良い。また、第1制御部10b、第2制御部60b及び運転者状態監視部70により制御システム400bの要部が構成されているものであっても良い。
制御システム400bの要部のシステム構成は、実施の形態1にて図7を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、車載情報機器91、携帯情報端末92又はサーバ装置93のうちのいずれか二以上が連携することにより、第1制御部10b、第2制御部60b及び運転者状態監視部70の機能が実現されるものであれば良い。
また、図8に示す例と同様に、補正パラメータ設定部30b及び画像補正部40により搭乗者状態検出装置100bの要部が構成されているものであっても良い。また、図9に示す例と同様に、補正パラメータ設定部30b及び画像補正部40により搭乗者状態検出システム300bの要部が構成されているものであっても良い。
そのほか、制御装置200bは、実施の形態1にて説明したものと同様の種々の変形例、すなわち制御装置200と同様の種々の変形例を採用することができる。また、制御システム400bは、実施の形態1にて説明したものと同様の種々の変形例、すなわち制御システム400と同様の種々の変形例を採用することができる。
以上のように、実施の形態3の搭乗者状態検出装置100bにおいて、顔パーツ領域は、複数個の顔パーツに対応する複数個の領域を含むものであり、補正パラメータ設定部30bは、複数個の領域のうちの検出失敗領域と異なる領域における特徴量を用いて撮像画像に対する補正パラメータを設定する。これにより、搭乗者状態検出処理の精度を更に向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を更に向上することができる。
また、搭乗者状態検出装置100bにおいて、顔パーツ領域は、複数個の顔パーツに対応する複数個の領域を含むものであり、補正パラメータ設定部30bは、複数個の領域のうちの低信頼度領域と異なる領域における特徴量を用いて撮像画像に対する補正パラメータを設定する。これにより、搭乗者状態検出処理の精度を更に向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を更に向上することができる。
実施の形態4.
図18は、実施の形態4に係る搭乗者状態検出装置を含む制御装置の要部を示すブロック図である。図18を参照して、実施の形態4の搭乗者状態検出装置100cについて、車両1内の制御装置200cに設けられている例を中心に説明する。
なお、図18において、図10に示すブロックと同様のブロックには同一符号を付して説明を省略する。また、図18において、図14に示すブロックと同様のブロックには同一符号を付して説明を省略する。
図18に示す如く、画像データ取得部11、顔領域検出部12、顔パーツ領域検出部13b、構造物領域検出部14、特徴量検出部15a及び除外対象領域設定部16により、第1制御部10cが構成されている。
第4補正パラメータ設定部34cは、第4補正要否判定部24により撮像画像の補正が必要であると判定された場合、特徴量検出部15aにより検出された特徴量を用いて、顔色検出処理用の補正パラメータを設定するものである。第4補正パラメータ設定部34cによる補正パラメータの設定方法は、図10に示す第4補正パラメータ設定部34による補正パラメータの設定方法と同様であるため、詳細な説明は省略する。ただし、第4補正パラメータ設定部34cは、複数個の領域のうちの除外対象領域と異なる領域における特徴量を用いて補正パラメータを設定するようになっている。この除外対象領域は、除外対象領域設定部16により設定されたものである。
第1補正パラメータ設定部31b、第2補正パラメータ設定部32b、第3補正パラメータ設定部33b及び第4補正パラメータ設定部34cにより、補正パラメータ設定部30cが構成されている。補正要否判定部20a、補正パラメータ設定部30c、画像補正部40a及び搭乗者状態検出部50aにより、第2制御部60cが構成されている。
補正パラメータ設定部30c、画像補正部40a及び搭乗者状態検出部50aにより、搭乗者状態検出装置100cの要部が構成されている。また、第1制御部10c、第2制御部60c及び運転者状態監視部70aにより、制御装置200cの要部が構成されている。
制御装置200cの要部のハードウェア構成は、実施の形態1にて図3を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、第1制御部10c、第2制御部60c及び運転者状態監視部70aの機能は、プロセッサ81及びメモリ82により実現されるものであっても良く、又は処理回路83により実現されるものであっても良い。
図19のフローチャートは、第1制御部10cの動作を示している。ステップST1〜ST4の処理内容は、実施の形態1にて図4Aを参照して説明したものと同様であるため、詳細な説明は省略する。ステップST5aの処理内容は、実施の形態2にて図12Aを参照して説明したものと同様であるため、詳細な説明は省略する。ステップST6の処理内容は、実施の形態3にて図16を参照して説明したものと同様であるため、詳細な説明は省略する。
第2制御部60cの動作は、実施の形態2にて図12B〜図12Eを参照して説明したものと同様であるため、図示及び説明を省略する。ただし、補正パラメータ設定部30cが補正パラメータを設定するとき(すなわちステップST12,ST22,ST32,ST42の各々にて)、複数個の領域のうちの除外対象領域と異なる領域における特徴量が用いられる。この除外対象領域は、ステップST6で除外対象領域設定部16により設定されたものである。
このように、搭乗者状態検出装置100cにおいては、検出失敗領域及び低信頼度領域における特徴量が補正パラメータ設定部30cによる補正パラメータの設定から除外される。これにより、遮蔽領域、白とび領域又は黒つぶれ領域などにおける特徴量に基づき補正パラメータが設定されるのを回避することができる。この結果、搭乗者状態検出処理の精度を更に向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を更に向上することができる。
特に、色特徴量を用いることにより、顔色検出処理の精度を更に向上することができる。この結果、運転者が運転不能状態であるか否かを判定する処理の精度を更に向上することができる。
なお、図20に示す如く、補正パラメータ設定部30c、画像補正部40a及び搭乗者状態検出部50aにより搭乗者状態検出システム300cの要部が構成されているものであっても良い。また、第1制御部10c、第2制御部60c及び運転者状態監視部70aにより制御システム400cの要部が構成されているものであっても良い。
制御システム400cの要部のシステム構成は、実施の形態1にて図7を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、車載情報機器91、携帯情報端末92又はサーバ装置93のうちのいずれか二以上が連携することにより、第1制御部10c、第2制御部60c及び運転者状態監視部70aの機能が実現されるものであれば良い。
また、図8に示す例と同様に、補正パラメータ設定部30c及び画像補正部40aにより搭乗者状態検出装置100cの要部が構成されているものであっても良い。また、図9に示す例と同様に、補正パラメータ設定部30c及び画像補正部40aにより搭乗者状態検出システム300cの要部が構成されているものであっても良い。
そのほか、制御装置200cは、実施の形態1〜3にて説明したものと同様の種々の変形例、すなわち制御装置200,200a,200bと同様の種々の変形例を採用することができる。また、制御システム400cは、実施の形態1〜3にて説明したものと同様の種々の変形例、すなわち制御システム400,400a,400bと同様の種々の変形例を採用することができる。
以上のように、実施の形態4の搭乗者状態検出装置100cにおいて、顔パーツ領域は、複数個の顔パーツに対応する複数個の領域を含むものであり、補正パラメータ設定部30cは、複数個の領域のうちの検出失敗領域と異なる領域における特徴量を用いて撮像画像に対する補正パラメータを設定する。これにより、搭乗者状態検出処理の精度を更に向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を更に向上することができる。
また、搭乗者状態検出装置100cにおいて、顔パーツ領域は、複数個の顔パーツに対応する複数個の領域を含むものであり、補正パラメータ設定部30cは、複数個の領域のうちの低信頼度領域と異なる領域における特徴量を用いて撮像画像に対する補正パラメータを設定する。これにより、搭乗者状態検出処理の精度を更に向上することができる。また、搭乗者状態検出処理の結果を用いたドライバーモニタリングの精度を更に向上することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
本発明の搭乗者状態検出装置は、例えば、ドライバーモニタリングに用いることができる。
1 車両、2,2a カメラ、10,10a,10b,10c 第1制御部、11 画像データ取得部、12 顔領域検出部、13,13b 顔パーツ領域検出部、14 構造物領域検出部、15,15a 特徴量検出部、16 除外対象領域設定部、20,20a 補正要否判定部、21 第1補正要否判定部、22 第2補正要否判定部、23 第3補正要否判定部、24 第4補正要否判定部、30,30a,30b,30c 補正パラメータ設定部、31,31b 第1補正パラメータ設定部、32,32b 第2補正パラメータ設定部、33,33b 第3補正パラメータ設定部、34,34c 第4補正パラメータ設定部、40,40a 画像補正部、41 第1画像補正部、42 第2画像補正部、43 第3画像補正部、44 第4画像補正部、50,50a 搭乗者状態検出部、51 視線検出部、52 開口度検出部、53 顔向き検出部、54 顔色検出部、60,60a,60b,60c 第2制御部、70,70a 運転者状態監視部、81 プロセッサ、82 メモリ、83 処理回路、91 車載情報機器、92 携帯情報端末、93 サーバ装置、100,100a,100b,100c 搭乗者状態検出装置、200,200a,200b,200c 制御装置、300,300a,300b,300c 搭乗者状態検出システム、400,400a,400b,400c 制御システム。

Claims (10)

  1. 車室内撮像用のカメラによる撮像画像のうちの搭乗者の顔パーツに対応する顔パーツ領域における特徴量、又は、前記撮像画像のうちの車室内の構造物に対応する構造物領域における特徴量のうちの少なくとも一方を用いて、複数個の検出項目を含む搭乗者状態検出処理における検出項目毎に、前記撮像画像に対する補正パラメータを設定する補正パラメータ設定部と、
    前記補正パラメータ設定部により設定された補正パラメータを用いて、前記搭乗者状態検出処理における検出項目毎に、前記撮像画像を補正する画像補正部と、
    を備える搭乗者状態検出装置。
  2. 前記搭乗者状態検出処理における検出項目は、前記搭乗者の視線、前記搭乗者の開口度、前記搭乗者の顔向き、前記搭乗者の顔色又は前記搭乗者の開眼度のうちの少なくとも一つを含むものであることを特徴とする請求項1記載の搭乗者状態検出装置。
  3. 前記顔パーツ領域は、前記搭乗者の目に対応する領域、前記搭乗者の鼻に対応する領域、前記搭乗者の口に対応する領域又は前記搭乗者の頬に対応する領域のうちの少なくとも一つを含むものであることを特徴とする請求項1記載の搭乗者状態検出装置。
  4. 前記補正パラメータ設定部による補正パラメータの設定に用いられる特徴量は、輝度特徴量又は色特徴量のうちの少なくとも一方を含むものであることを特徴とする請求項1記載の搭乗者状態検出装置。
  5. 前記顔パーツ領域は、複数個の顔パーツに対応する複数個の領域を含むものであり、
    前記補正パラメータ設定部は、前記複数個の領域のうちの検出失敗領域と異なる領域における特徴量を用いて前記撮像画像に対する補正パラメータを設定する
    ことを特徴とする請求項1記載の搭乗者状態検出装置。
  6. 前記顔パーツ領域は、複数個の顔パーツに対応する複数個の領域を含むものであり、
    前記補正パラメータ設定部は、前記複数個の領域のうちの低信頼度領域と異なる領域における特徴量を用いて前記撮像画像に対する補正パラメータを設定する
    ことを特徴とする請求項1記載の搭乗者状態検出装置。
  7. 前記画像補正部による補正後の前記撮像画像を用いて、検出項目毎に前記搭乗者状態検出処理を実行する搭乗者状態検出部を備えることを特徴とする請求項2記載の搭乗者状態検出装置。
  8. 前記搭乗者は運転者を含むものであり、
    前記搭乗者状態検出処理の結果は、前記運転者が居眠り運転状態であるか否かを判定する処理、前記運転者が脇見運転状態であるか否かを判定する処理又は前記運転者が運転不能状態であるか否かを判定する処理のうちの少なくとも一つに用いられるものである
    ことを特徴とする請求項7記載の搭乗者状態検出装置。
  9. 車室内撮像用のカメラによる撮像画像のうちの搭乗者の顔パーツに対応する顔パーツ領域における特徴量、又は、前記撮像画像のうちの車室内の構造物に対応する構造物領域における特徴量のうちの少なくとも一方を用いて、複数個の検出項目を含む搭乗者状態検出処理における検出項目毎に、前記撮像画像に対する補正パラメータを設定する補正パラメータ設定部と、
    前記補正パラメータ設定部により設定された補正パラメータを用いて、前記搭乗者状態検出処理における検出項目毎に、前記撮像画像を補正する画像補正部と、
    を備える搭乗者状態検出システム。
  10. 補正パラメータ設定部が、車室内撮像用のカメラによる撮像画像のうちの搭乗者の顔パーツに対応する顔パーツ領域における特徴量、又は、前記撮像画像のうちの車室内の構造物に対応する構造物領域における特徴量のうちの少なくとも一方を用いて、複数個の検出項目を含む搭乗者状態検出処理における検出項目毎に、前記撮像画像に対する補正パラメータを設定するステップと、
    画像補正部が、前記補正パラメータ設定部により設定された補正パラメータを用いて、前記搭乗者状態検出処理における検出項目毎に、前記撮像画像を補正するステップと、
    を備える搭乗者状態検出方法。
JP2019569852A 2018-02-19 2018-02-19 搭乗者状態検出装置、搭乗者状態検出システム及び搭乗者状態検出方法 Active JP6698963B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/005766 WO2019159364A1 (ja) 2018-02-19 2018-02-19 搭乗者状態検出装置、搭乗者状態検出システム及び搭乗者状態検出方法

Publications (2)

Publication Number Publication Date
JP6698963B2 true JP6698963B2 (ja) 2020-05-27
JPWO2019159364A1 JPWO2019159364A1 (ja) 2020-05-28

Family

ID=67618593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019569852A Active JP6698963B2 (ja) 2018-02-19 2018-02-19 搭乗者状態検出装置、搭乗者状態検出システム及び搭乗者状態検出方法

Country Status (5)

Country Link
US (1) US11361560B2 (ja)
JP (1) JP6698963B2 (ja)
CN (1) CN111712852B (ja)
DE (1) DE112018006886T5 (ja)
WO (1) WO2019159364A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7327301B2 (ja) * 2020-07-02 2023-08-16 トヨタ自動車株式会社 運転者監視装置
JP2022018231A (ja) * 2020-07-15 2022-01-27 株式会社Jvcケンウッド 映像処理装置および映像処理方法
DE102020215122A1 (de) * 2020-12-01 2022-06-02 Continental Automotive Gmbh Verfahren zum Trainieren eines künstlichen neuronalen Netzes, Bildverarbeitungssystem und Verwendung
JP7452402B2 (ja) * 2020-12-18 2024-03-19 トヨタ自動車株式会社 車両ドア寄り掛かり検出システム
JP2022138647A (ja) * 2021-03-10 2022-09-26 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、情報処理システム、および画像取得方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4072071B2 (ja) * 2003-02-13 2008-04-02 富士フイルム株式会社 顔画像補正方法および装置、並びに顔画像補正プログラム
JP2004318205A (ja) * 2003-04-10 2004-11-11 Sony Corp 画像処理装置、画像処理方法及び撮影装置
US7894637B2 (en) * 2004-05-21 2011-02-22 Asahi Kasei Corporation Device, program, and method for classifying behavior content of an object person
EP1965348A4 (en) 2005-12-21 2014-06-18 Nec Corp GRAY SCALE CORRECTION METHOD, GRAY SCALE CORRECTION DEVICE, GRAY SCALE CORRECTION PROGRAM, AND IMAGE DEVICE
DE102008006973B4 (de) * 2007-02-02 2017-03-02 Denso Corporation Projektor und Bildaufnahmevorrichtung
JP2009070099A (ja) * 2007-09-12 2009-04-02 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2009116611A (ja) * 2007-11-06 2009-05-28 Ricoh Co Ltd 画像処理装置、画像処理方法、画像処理プログラム及び記憶媒体
JP5089405B2 (ja) * 2008-01-17 2012-12-05 キヤノン株式会社 画像処理装置及び画像処理方法並びに撮像装置
JP2010049491A (ja) 2008-08-21 2010-03-04 Toyota Motor Corp 運転状態監視装置
JP2010182150A (ja) * 2009-02-06 2010-08-19 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
US9460601B2 (en) * 2009-09-20 2016-10-04 Tibet MIMAR Driver distraction and drowsiness warning and sleepiness reduction for accident avoidance
JP5587068B2 (ja) * 2010-07-09 2014-09-10 沖電気工業株式会社 運転支援装置及び方法
JP5729110B2 (ja) 2011-04-26 2015-06-03 日産自動車株式会社 画像処理装置及び画像処理方法
JP5129377B1 (ja) * 2011-08-31 2013-01-30 株式会社東芝 映像処理装置
US8744642B2 (en) * 2011-09-16 2014-06-03 Lytx, Inc. Driver identification based on face data
JP2013196294A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 人物画像処理装置、及び人物画像処理方法
JP6157165B2 (ja) * 2013-03-22 2017-07-05 キヤノン株式会社 視線検出装置及び撮像装置
US9672414B2 (en) * 2015-11-11 2017-06-06 Adobe Systems Incorporated Enhancement of skin, including faces, in photographs
JP6892231B2 (ja) * 2016-07-29 2021-06-23 アルパイン株式会社 瞼開閉検出装置および瞼開閉検出方法
WO2018158809A1 (ja) * 2017-02-28 2018-09-07 三菱電機株式会社 車両用撮像制御装置、ドライバモニタリング装置、及び、車両用撮像制御方法
JP2019074791A (ja) * 2017-10-12 2019-05-16 株式会社デンソー 車両用運転支援装置
JP6735955B2 (ja) * 2018-05-10 2020-08-05 三菱電機株式会社 乗員監視装置及び乗員監視方法
WO2019229938A1 (ja) * 2018-05-31 2019-12-05 三菱電機株式会社 画像処理装置、画像処理方法及び画像処理システム
JP7263734B2 (ja) * 2018-10-29 2023-04-25 株式会社アイシン 視認対象判定装置

Also Published As

Publication number Publication date
US20210034887A1 (en) 2021-02-04
US11361560B2 (en) 2022-06-14
WO2019159364A1 (ja) 2019-08-22
DE112018006886T5 (de) 2020-09-24
CN111712852B (zh) 2023-08-11
CN111712852A (zh) 2020-09-25
JPWO2019159364A1 (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
JP6698963B2 (ja) 搭乗者状態検出装置、搭乗者状態検出システム及び搭乗者状態検出方法
US11386709B2 (en) System and method for improving signal to noise ratio in object tracking under poor light conditions
US10521683B2 (en) Glare reduction
US10372972B2 (en) Face detection apparatus, face detection method, and program
US9495579B2 (en) Face detection apparatus, face detection method, and program
EP2288287B1 (en) Driver imaging apparatus and driver imaging method
CN107113408B (zh) 图像处理装置、图像处理方法、程序和系统
US8810642B2 (en) Pupil detection device and pupil detection method
US11046327B2 (en) System for performing eye detection and/or tracking
US20210014402A1 (en) Flicker mitigation via image signal processing
US20200169678A1 (en) Driver's eye position detecting device and method, imaging device having image sensor with rolling shutter driving system, and illumination control method thereof
CN110168610B (zh) 眼睑检测装置、瞌睡判定装置、及眼睑检测方法
US11763598B2 (en) Image processing device, image processing method, and storage medium
US10129458B2 (en) Method and system for dynamically adjusting parameters of camera settings for image enhancement
US20220377223A1 (en) High performance bright pupil eye tracking
US20240220014A1 (en) Information processing device, information processing method, and program
KR20190119291A (ko) 차량용 모니터링 방법 및 장치
US10872229B2 (en) Image processing device, image processing method, and recording medium
WO2020121650A1 (ja) 眼の開閉検出装置、乗員監視装置
JP2008209969A (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP7557389B2 (ja) 視線検出装置、視線検出システム、及び視線検出方法
JP2022128697A (ja) 視線検出装置
CN116645931A (zh) 用于自动地调整车辆内部的显示屏的显示参数的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191216

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200428

R150 Certificate of patent or registration of utility model

Ref document number: 6698963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250