JP7183420B2 - 車載用画像処理装置、および、車載用画像処理方法 - Google Patents

車載用画像処理装置、および、車載用画像処理方法 Download PDF

Info

Publication number
JP7183420B2
JP7183420B2 JP2021529614A JP2021529614A JP7183420B2 JP 7183420 B2 JP7183420 B2 JP 7183420B2 JP 2021529614 A JP2021529614 A JP 2021529614A JP 2021529614 A JP2021529614 A JP 2021529614A JP 7183420 B2 JP7183420 B2 JP 7183420B2
Authority
JP
Japan
Prior art keywords
face
driver
unit
determination
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021529614A
Other languages
English (en)
Other versions
JPWO2021001944A1 (ja
Inventor
太郎 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021001944A1 publication Critical patent/JPWO2021001944A1/ja
Application granted granted Critical
Publication of JP7183420B2 publication Critical patent/JP7183420B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、画像に基づき運転者の顔を検出する車載用画像処理装置、および、車載用画像処理方法に関する。
従来、撮像装置から取得した、運転者の顔が撮像された画像に基づき、運転者の顔を検出し、その検出結果に基づいて、様々な制御を行う技術が知られている。運転者の顔の検出結果に基づく制御は、例えば、露出制御等の撮像装置の光学設定の制御、または、運転者に対して警告を行う制御である。
例えば、特許文献1には、カメラから受信した画像から運転者の顔領域を検出し、検出した顔領域で最適な明度の画像になるような露光時間を算出してCCDコントローラに指示する機能、および、顔画像を解析して運転者の脇見運転、居眠り運転などを検出して警報を鳴らす機能を有する車載用画像処理装置が開示されている。
特開2009-116742号公報
特許文献1に開示されているような従来の車載用画像処理装置では、画像に運転者以外の乗員の顔が撮像されている可能性を考慮できていないという課題があった
この発明は上記のような課題を解決するためになされたもので、運転者以外の乗員の顔を撮像し得ることを考慮して画像から運転者の顔を検出することを目的とする。
この発明に係る車載用画像処理装置は、撮像装置から、運転席に着座している運転者の顔が存在すべき範囲を含む車両内の範囲が撮像された画像を取得する画像取得部と、画像取得部が取得した画像に基づき、当該画像上の運転者の顔および当該運転者の顔領域を検出する顔検出部と、顔検出部が検出した運転者の顔に関する情報が顔誤検出条件を満たすか否かによって、顔検出部が運転者以外の乗員の顔を運転者として誤検出したか否かの誤検出判定を行う誤検出判定部と、誤検出判定部が、顔検出部が運転者の顔を誤検出していないと判定した場合誤検出判定部を備え、顔誤検出条件には、顔検出部が検出した運転者の顔領域の位置の変化が第1判定条件を満たすか否か、顔検出部が検出した運転者の顔領域の枠の大きさの変化が第2判定条件を満たすか否か、顔検出部が検出した運転者の顔情報に基づく運転者の顔の特徴の変化が第3判定条件を満たすか否か、または、第1判定条件と第2判定条件と第3判定条件のうちの2つ以上の組み合わせを満たすか否か、が含まれることを特徴とするものである。
この発明によれば、運転者以外の乗員の顔を撮像し得ることを考慮して画像から運転者の顔を検出することができる。
実施の形態1に係る車載用画像処理装置の構成例を示す図である。 図2Aおよび図2Bは、実施の形態1において、撮像装置の設置位置および撮像範囲のイメージの一例を説明する図である。 実施の形態1において、顔検出部が運転者の顔を決定する方法のイメージを説明するための図である。 実施の形態1において、顔検出部が運転者の顔を誤検出する場合の、車両内の状態の一例のイメージを説明するための図である。 実施の形態1において、助手席の乗員が撮像され得る、撮像装置のレイアウトの一例を説明するための図である。 図6A,図6Bは、実施の形態1において、領域縮小部が縮小させた顔検出範囲の一例のイメージを説明するための図である。 実施の形態1に係る車載用画像処理装置の動作を説明するためのフローチャートである。 図8Aは、実施の形態1において、顔誤検出条件を、「運転者の顔領域の位置の変化が第1判定条件を満たすか否か」とした場合の、誤検出判定部による誤検出判定の動作の一例の詳細を説明するフローチャートであり、図8Bは、顔誤検出条件を、「運転者の顔領域の位置の変化が第1判定条件を満たすか否か」と、「運転者の顔領域の枠の大きさの変化が第2判定条件を満たすか否か」の組み合わせとした場合の、誤検出判定部による誤検出判定の動作の一例の詳細を説明するフローチャートであり、図8Cは、顔誤検出条件を、「運転者の顔領域の枠の大きさの変化が第2判定条件を満たすか否か」と、「運転者の顔の特徴量の変化が第3判定条件を満たすか否か」の組み合わせとした場合の、誤検出判定部による誤検出判定の動作の一例の詳細を説明するフローチャートである。 実施の形態1において、光学設定制御部が、図7のステップST707にて輝度算出部が算出した運転者顔領域画素の平均輝度に応じて、撮像装置の光学設定の制御を行う動作を説明するためのフローチャートである。 実施の形態2に係る車載用画像処理装置の構成例を示す図である。 図11A,図11Bは、実施の形態1および実施の形態2に係る車載用画像処理装置のハードウェア構成の一例を示す図である。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る車載用画像処理装置10の構成例を示す図である。
車載用画像処理装置10は、車両(図示省略)に搭載される。
車載用画像処理装置10は、撮像装置20および照明装置30と接続される。
実施の形態1では、撮像装置20は、車両内の運転者の状態を監視するために車両に搭載される、いわゆる「ドライバモニタリングシステム」が有する撮像装置と共用のものを想定している。なお、これは一例に過ぎず、撮像装置20は、車両内をモニタリングすることを目的に車両に設置されたカメラ等であり、少なくとも、運転席に着座している運転者の顔が存在すべき範囲を含む車両内の範囲を撮像可能に設置されているものであればよい。運転席に着座している運転者の顔が存在すべき範囲とは、例えば、運転席のヘッドレストの前方付近の空間に相当する範囲である。撮像装置20は、例えば、可視光カメラであっても、赤外線カメラであってもよい。
図2Aおよび図2Bは、実施の形態1において、撮像装置20の設置位置および撮像範囲のイメージの一例を説明する図である。なお、図2Aおよび図2Bは、車両の車室内部を上から見たイメージを示す図としている。実施の形態1では、図2Aおよび図2Bに示すように、車両内には、運転者以外の乗員も乗車しているものとし、図2Aおよび図2Bにおいて、運転者を21a、後部座席の乗員を21b、助手席の乗員を21cで示している。
実施の形態1において、撮像装置20は、例えば、図2Aに示すように、車両のインストルメントパネル(以下「インパネ」という。)の中央に設置され、インパネの中央から運転席側を撮像するものを想定している。
また、実施の形態1において、撮像装置20は、例えば、図2Bに示すように、車両のインパネの中央に設置され、インパネの中央から、運転席および助手席を撮像するものを想定している。
以下の説明では、撮像装置20は、図2Aに示すような設置位置および撮像範囲になるように設置されているものとする。
照明装置30は、LED(Light Emitting Diode)等、照明光を発光する発光器である。照明装置30は、撮像装置20付近に設置される。実施の形態1では、照明装置30は、撮像装置20に搭載されているものとする。なお、図2Aおよび図2Bでは、照明装置30の図示は省略されている。
車載用画像処理装置10は、撮像装置20から画像を取得するとともに、当該画像上の運転者の顔および運転者の顔領域を検出する。その際、車載用画像処理装置10は、運転者の顔を誤検出していないかの誤検出判定を行う。車載用画像処理装置10は、誤検出判定の結果、運転者の顔が誤検出されていないと判定した場合に、当該運転者の顔領域内の画素の平均輝度に応じて、撮像装置20の光学設定の制御を行う。顔領域は、運転者の顔のパーツの画像上の検出位置に基づいて設定される、画像上の所定の領域である。顔領域の詳細、および、撮像装置20の光学設定の制御の詳細については後述する。また、車載用画像処理装置10は、検出した運転者の顔に基づいて運転者の状態を監視し、運転者の状態に応じて、警報を出力する等の制御を行う。
車載用画像処理装置10は、上記誤検出判定において、運転者の顔を誤検出したと判定した場合は、撮像装置20の光学設定の制御は行わず、顔検出用領域を縮小した上で、運転者の顔の再検出を行う。これにより、車載用画像処理装置10は、運転者以外の乗員の顔を含む顔領域の画素の平均輝度に合わせた撮像装置20の光学設定の制御、または、運転者の状態に依るものではない警報の出力、を行わないようにする。顔検出用領域の詳細、および、顔検出領域を縮小する処理の詳細については後述する。
車載用画像処理装置10は、図1に示すように、画像取得部101、顔検出部102、運転者監視部103、誤検出判定部104、領域縮小部105、再検出指示部106、輝度算出部107、輝度判定部108、および、光学設定制御部109を備える。
光学設定制御部109は、露出制御部1091および画像処理部1092を備える。
画像取得部101は、撮像装置20から、運転席に着座している運転者の顔が存在すべき範囲を含む車両内の範囲が撮像された画像を取得する。
撮像装置20は、車両内から取得した光を電気信号に変換し、当該電気信号に基づき画像データを生成する。撮像装置20は、生成した画像データを画像取得部101に出力する。画像取得部101は、撮像装置20から出力された画像データを取得する。
または、撮像装置20は、車両内から取得した光を電気信号に変換して画像取得部101に出力するものであってもよい。この場合、画像取得部101は、撮像装置20から出力された電気信号を変換して、画像データを取得する。
ここでは、例えば、上記のように、画像取得部101が撮像装置20から出力された画像データを取得すること、または、画像取得部101が撮像装置20から出力された電気信号を変換して画像データを取得することを含め、画像取得部101が「撮像装置20から画像を取得する」という。
画像取得部101は、取得した画像を、顔検出部102および輝度算出部107に出力する。
顔検出部102は、画像取得部101が取得した画像に基づき、当該画像上の運転者の顔および運転者の顔領域を検出する。具体的には、例えば、顔検出部102は、画像上に設定された顔検出用領域内において、顔のパーツを検出することで、運転者の顔を検出する。顔検出部102は、既知の画像認識の技術を用いて、顔のパーツを検出すればよい。なお、顔検出用領域とは、画像上で、顔検出部102が、運転者の顔を検出する対象とする領域であり、当該顔検出用領域の初期値は、予め、例えばユーザによって設定されている。そして、顔検出用領域に関する情報が、記憶部(図示省略)に記憶されている。顔検出用領域に関する情報では、顔検出用領域が定義されており、当該顔検出用領域に関する情報には、例えば、画像上での、顔検出用領域を示す枠を特定するための座標等、顔検出用領域が特定できる情報が含まれる。顔検出部102は、記憶部を参照して、顔検出用領域を特定し、運転者の顔を検出する。
顔検出部102は、運転者の顔領域も検出する。実施の形態1において、顔領域は、例えば、顔のパーツのうち、眉の位置を顔の上端、口の位置を顔の下端、左右の眼の目尻側の端部をそれぞれ顔の左端および右端とし、顔の上端、顔の下端、顔の左端、および、顔の右端を通る矩形として設定される。また、顔領域は、上記のような、顔の上端、顔の下端、顔の左端、および、顔の右端を通る矩形を、予め設定された比率等で広げた矩形として設定されてもよい。
以下の説明において、顔検出部102が運転者の顔を検出する、というとき、当該運転者の顔を検出する、には、運転者の顔領域を検出することも含まれているものとする。
顔検出部102は、顔検出用領域内において、複数の顔を検出した場合、検出した顔の信頼度に基づき、最も信頼度が高い顔を、運転者の顔に決定する。
実施の形態1において、顔検出部102は、例えば、顔領域が最も大きい顔を、最も信頼度が高い顔とする。
ここで、図3は、実施の形態1において、顔検出部102が運転者の顔を決定する方法のイメージを説明するための図である。
図3において、画像取得部101が取得した画像を200、画像上の顔検出用領域を201で示している。
今、画像200上の顔検出用領域201において、顔検出部102は、第1の顔202aおよび第2の顔202bの2つの顔を検出したとする。また、顔検出部102は、第1の顔202aの顔領域(以下「第1の顔領域203a」という。)、および、第2の顔202bの顔領域(以下「第2の顔領域203b」という。)を検出したとする。
この場合、顔検出部102は、第1の顔領域203aおよび第2の顔領域203bのうち、大きい方の、第1の顔領域203aに対応する第1の顔202aを、最も信頼度が高い顔と判断し、運転者の顔に決定する。すなわち、顔検出部102は、検出された第1の顔202aおよび第2の顔202bのうち、第1の顔202aを運転者の顔として検出する。
例えば、運転者の顔が種々の位置に動いたとしても運転者の顔が検出できる程度に、顔検出用領域が広く設定されると、当該顔検出用領域には、例えば、図3に示すように、後部座席に座っている乗員の顔も含まれることがある。顔検出用領域に後部座席に座っている乗員の顔が含まれる場合、顔検出部102は、当該後部座席に座っている乗員の顔である第2の顔202bを、運転者の顔である第1の顔202aと合わせて検出することがある。
通常は、運転者の方が撮像装置20の近くに座っており、画像には運転者の顔の方が大きくうつる。したがって、顔検出部102が、乗員の顔である第2の顔202bと、運転者の顔である第1の顔202aの両方を検出したとしても、顔検出部102は、顔領域が大きい方の第1の顔202aを、最も信頼度が高い顔と判断し、当該第1の顔202aを運転者の顔に決定する。
なお、ここでは、一例として、顔検出部102は、顔領域の大きさに基づき、検出した顔の信頼度を判断するものとしたが、これは一例に過ぎない。顔検出部102は、例えば、検出した顔のパーツの信頼度の高さに応じて、顔の信頼度を判断するものであってもよい。顔のパーツの信頼度とは、例えば、目がどれぐらい目らしいか、または、鼻がどれぐらい鼻らしいかを示す度合いをいう。顔検出部102は、既知のパターンマッチング等の画像認識の技術を用いて、顔のパーツの信頼度を算出すればよい。
顔検出部102は、検出した運転者の顔に関する情報(以下「顔情報」という。)を、運転者監視部103、誤検出判定部104、および、輝度算出部107に出力する。運転者の顔情報には、運転者の顔のパーツに関する情報、および、運転者の顔領域に関する情報が含まれる。より具体的には、運転者の顔のパーツに関する情報とは、例えば、運転者の顔のパーツを示す情報が、当該パーツの位置を示す、画像上での座標と対応付けられた情報である。また、運転者の顔領域に関する情報とは、例えば、運転者の顔領域を示す枠を特定するための画像上での座標である。顔検出部102は、画像取得部101から出力された画像を合わせて、運転者監視部103、誤検出判定部104、および、輝度算出部107に出力するものであってもよい。
また、顔検出部102は、検出した運転者の顔情報を、記憶部に記憶させる。
図1の説明に戻る。
運転者監視部103は、誤検出判定部104から顔検出有情報が出力されると、顔検出部102から出力された顔情報に基づき、運転者の状態を監視する。一方、運転者監視部103は、誤検出判定部104から顔検出有情報が出力されない場合は、顔検出部102から出力された顔情報に基づく運転者の状態の監視を行わない。実施の形態1において、運転者監視部103が監視する運転者の状態は、居眠りまたは脇見等、運転に集中しておらず、運転に支障をきたし得る、運転者の状態をいう。なお、誤検出判定部104については、後述する。
運転者監視部103は、例えば、運転者の開眼率または鼻筋の角度に基づき、運転者が居眠りまたは脇見等をしていないか監視する。顔のパーツに関する情報に基づいて、開眼率または鼻筋の角度等を算出する技術は、既知の技術であるため、詳細な説明を省略する。運転者監視部103は、運転者が運転に支障をきたし得る状態になっているかを監視するものであればよい。
運転者監視部103は、運転者が運転に支障をきたし得る状態になっていると判断すると、警報出力指示情報を、警報出力制御部(図示省略)に出力する。
警報出力制御部は、運転者監視部103から警報出力指示情報が出力されると、出力装置(図示省略)に対して、警報を出力させる。出力装置は、例えば、車両に備えられた音声出力装置であり、車載用画像処理装置10と接続されている。警報出力制御部は、出力装置に対して、例えば、警報音を出力させる。
誤検出判定部104は、顔検出部102が運転者の顔を誤検出したか否かの誤検出判定を行う。具体的には、誤検出判定部104は、顔検出部102から出力された顔情報に基づき、顔検出部102が検出した運転者の顔情報が、顔誤検出条件を満たすか否かを判定する。誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たす場合、顔検出部102が運転者の顔を誤検出したと判定する。すなわち、実施の形態1において、顔誤検出条件とは、顔検出部102が運転者の顔を誤検出したか否かを判定するための条件である。
誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たす場合、顔検出部102が運転者の顔を誤検出したと判定する。一方、誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たさない場合、顔検出部102が運転者の顔を誤検出していないと判定する。
ここで、図4は、実施の形態1において、顔検出部102が運転者の顔を誤検出する場合の、車両内の状態の一例のイメージを説明するための図である。
例えば、車両内の乗員が、図3に示した画像に撮像されているような状態である場合、顔検出部102は第1の顔202aを運転者の顔として検出する。実際に、第1の顔202aは、運転者の顔であるので、顔検出部102は、正しく運転者の顔を検出できている。
その後、図3に示した画像に撮像されているような状態から、運転者が、撮像装置20からみて運転者の顔の手前となる位置に手を移動させたとする。
そうすると、図4に示すように、顔検出用領域201内において検出される顔は、後部座席の乗員の顔である第2の顔202bのみとなる。顔検出部102は、それまで検出できていた運転者の顔である第1の顔202aのパーツを検出できなくなるが、画像200上の顔検出用領域201内において、顔検出部102は、第2の顔202bの顔のパーツは検出できる。したがって、顔検出部102は、第2の顔202bを、運転者の顔として検出する。このように、顔検出部102は、運転者の顔を誤検出し得る。
誤検出判定部104は、図4で示したように、顔検出部102が、運転者以外の乗員の顔を運転者の顔として検出する可能性があることを考慮し、顔検出部102が検出した運転者の顔情報が、顔誤検出条件を満たすか否かを判定することで、顔検出部102が運転者の顔を誤検出したか否かを判定する。
顔誤検出条件は、例えば、「運転者の顔領域の位置の変化が、予め設定された条件(以下「第1判定条件」という。)を満たすか否か」である。
具体的には、誤検出判定部104は、顔検出部102から出力された顔情報に基づく運転者の顔領域を示す枠(以下「現顔枠」という。)の座標(以下「現顔枠座標」という。)と、記憶部に記憶されている、顔検出部102から出力された顔情報よりも時系列でみて1つ前の顔情報に基づく運転者の顔領域を示す枠(以下「直前顔枠」という。)の座標(以下「直前顔枠座標」という。)を取得する。そして、誤検出判定部104は、直前顔枠座標と、現顔枠座標とを比較し、座標の差が、第1判定条件を満たすか否かを判定する。
第1判定条件は、例えば、座標の差が予め設定された値(以下「第1の閾値」という。)以上であるか否かである。
誤検出判定部104は、例えば、直前顔枠の中心の座標と現顔枠の中心の座標との差の絶対値を座標の差として算出する。誤検出判定部104は、当該座標の差が、第1の閾値以上である場合に、顔検出部102が運転者の顔を誤検出したと判定する。
または、誤検出判定部104は、例えば、直前顔枠の四隅を示す4つの直前顔枠座標と、現顔枠の四隅を示す4つの現顔枠座標とを、それぞれ比較して差を4つ算出し、算出された4つの差の平均値の絶対値を、座標の差として算出する。誤検出判定部104は、当該座標の差が、第1の閾値以上である場合に、顔検出部102が運転者の顔を誤検出したと判定する。
または、誤検出判定部104は、例えば、直前顔枠の四隅を示す4つの直前顔枠座標と、現顔枠の四隅を示す4つの現顔枠座標とを、それぞれ比較して差を4つ算出し、算出された4つの差の絶対値のうち、少なくとも1つが第1の閾値以上である場合に、顔検出部102が運転者の顔を誤検出したと判定する。
例えば、車両内の乗員の状態が、図3に示した画像に撮像されているような状態から、図4に示す画像に撮像されているような状態となった場合、顔検出部102が検出する運転者の顔領域を示す枠は、第1の顔領域203aを示す枠から、第2の顔領域203bを示す枠に変化する。なお、第2の顔領域203bと対応する第2の顔202bは、運転者の顔と誤検出された後部座席の乗員の顔である。
そうすると、画像上でみた場合、それまで運転者の顔として、画像200上で検出していた顔領域を示す枠の位置は、左から右へ、一瞬で移動することになる。顔領域を示す枠が大きく移動した場合、検出された顔が、それまで検出していた顔から別人の顔へと変わった可能性がある。よって、誤検出判定部104は、例えば、運転者の顔領域の位置の変化が第1の判定条件を満たすか否かによって、顔検出部102が運転者の顔を誤検出したか否かを判定する。誤検出判定部104は、運転者の顔領域の位置の変化が第1の判定条件を満たす場合、顔誤検出条件を満たすとし、顔検出部102が運転者の顔を誤検出したと判定する。
また、顔誤検出条件は、例えば、「運転者の顔領域を示す枠の大きさの変化が、予め設定された条件(以下「第2判定条件」という。)を満たすか否か」としてもよい。
具体的には、誤検出判定部104は、直前顔枠と現顔枠の大きさを比較し、直前顔枠の大きさに対する、現顔枠の大きさの変化が、第2判定条件を満たすか否かを判定する。第2判定条件は、例えば、直前顔枠に対する現顔枠の比率が、予め設定された値(以下「第2の閾値」)以下であるか否かである。誤検出判定部104は、例えば、直前顔枠の面積と現顔枠の面積を算出し、当該2つの面積の比を直前顔枠に対する現顔枠の比率とする。または、誤検出判定部104は、例えば、直前顔枠の周囲の長さと現顔枠の周囲の長さを算出し、当該2つの周囲の長さの比を直前顔枠に対する現顔枠の比率とする。
例えば、車両内の乗員の状態が、図3に示した画像に撮像されているような状態から、図4に示す画像に撮像されているような状態となった場合、顔検出部102が検出する運転者の顔領域を示す枠は、第1の顔領域203aを示す枠から、第2の顔領域203bを示す枠に変化する。なお、第2の顔領域203bと対応する第2の顔202bは、運転者の顔と誤検出された後部座席の乗員の顔である。このとき、後部座席の乗員は、撮像装置20からは、運転者よりも遠い場所にいるため、画像上の後部座席の乗員の顔の大きさは、運転者の顔の大きさより小さくなる。
そうすると、画像上でみた場合、それまで運転者の顔として、画像200上で検出していた顔領域を示す枠の大きさは、小さくなると考えられる。顔領域を示す枠の大きさが変化した場合、検出された顔が、それまで検出していた顔から別人の顔へと変わった可能性がある。よって、誤検出判定部104は、例えば、運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否かによって、顔検出部102が正しく運転者の顔を誤検出したか否かを判定する。誤検出判定部104は、運転者の顔領域の枠の大きさの変化が第2の判定条件を満たす場合、顔誤検出条件を満たすとし、顔検出部102が運転者の顔を誤検出したと判定する。
また、顔誤検出条件は、例えば、「運転者の顔の特徴量の変化が、予め設定された条件(以下「第3判定条件」という。)を満たすか否か」としてもよい。
具体的には、誤検出判定部104は、顔検出部102から出力された顔情報に基づく、運転者の顔の特徴量(以下「現顔特徴量」という。)と、記憶部に記憶されている、顔検出部102から出力された顔情報よりも時系列でみて1つ前の顔情報に基づく、運転者の顔の特徴量(以下「直前顔特徴量」という。)を数値化する。顔の特徴量とは、例えば、両眼間の距離、または、両眼の大きさの比率である。これに限らず、顔の特徴量とは、例えば、鼻および口間の距離、または、鼻および口の大きさの比率としてもよいし、両眼、鼻、および、口間の距離としてもよいし、両眼、鼻、および、口の比率としてもよい。そして、誤検出判定部104は、直前顔特徴量と、現顔特徴量とを比較し、特徴量の差が、第3判定条件を満たすか否かを判定する。第3判定条件は、例えば、予め設定された値(以下「第3の閾値」という。)以上の差があるか否か、としてもよいし、特徴量が異なるか否か、としてもよい。
例えば、車両内の乗員の状態が、図3に示した画像に撮像されているような状態から、図4に示す画像に撮像されているような状態となった場合、顔検出部102が、顔検出部102が運転者の顔として検出する顔は、第1の顔202aから、第2の顔202bに変化する。なお、第2の顔202bは、運転者の顔と誤検出された後部座席の乗員の顔である。このとき、それまで運転者の顔として検出されていた第1の顔202aの顔の特徴量と、新たに検出された第2の顔202bの顔の特徴量は、変化すると考えられる。顔の特徴量が変化した場合、検出された顔が、それまで検出していた顔から別人の顔へと変わった可能性がある。よって、誤検出判定部104は、例えば、運転者の顔の特徴量の変化が第3判定条件を満たすか否かによって、顔検出部102が正しく運転者の顔を検出できたか否かを判定する。
誤検出判定部104は、運転者の顔の特徴量の変化が第3の判定条件を満たす場合、顔誤検出条件を満たすとし、顔検出部102が運転者の顔を誤検出したと判定する。
誤検出判定部104は、上述したような複数の顔誤検出条件のうち、任意の2つ以上を組み合わせて、顔検出部102が検出した運転者の顔情報が、顔誤検出条件を満たすか否かを判定するようにしてもよい。
例えば、誤検出判定部104は、「運転者の顔領域の位置の変化が第1判定条件を満たすか否か」を判定し、さらに、「運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否か」を判定するようにしてもよい。誤検出判定部104は、運転者の顔領域の位置の変化が第1判定条件を満たし、かつ、運転者の顔領域の枠の大きさの変化が第2判定条件を満たす場合、顔検出部102が運転者の顔を誤検出したと判定する。
誤検出判定部104が、「運転者の顔領域の変化が第1判定条件を満たすか否か」の顔誤検出条件のみで、顔検出部102が運転者の顔を誤検出したか否かを判定すると、顔検出部102が運転者の顔を誤検出していないにもかかわらず、顔検出部102は運転者の顔を誤検出したと判定する可能性がある。
例えば、図3に示した画像200に撮像されているような状態から、運転者が、車両の中央に向かって顔を大きく横移動させた場合、画像200上、第1の顔領域203aを示す枠の位置は、第2の顔領域203bを示す枠のほうへ、大きく変化する。このように運転者の顔領域の位置は大きく変化した場合も、画像200上で、第1の顔領域203aの大きさはほぼ変らないこともありうる。このとき、顔検出部102は、第1の顔領域203aを運転者の顔として検出する。つまり、顔検出部102は、正しく運転者の顔を検出できており、誤検出はしていない。
しかし、誤検出判定部104が、「運転者の顔領域の位置の変化が第1判定条件を満たすか否か」の顔誤検出条件のみで、誤検出判定を行うと、誤検出判定部104は、顔検出部102が運転者の顔を誤検出したと判定してしまう。
そこで、誤検出判定部104は、さらに、「運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否か」を判定することで、上述したように運転者が顔を移動させた場合に、顔検出部102が運転者の顔を誤検出したと判定することを防ぐことができ、誤検出判定の精度を向上させることができる。
また、例えば、誤検出判定部104は、「運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否か」を判定し、さらに、「運転者の顔の特徴量の変化が第3判定条件を満たすか否か」を判定するようにしてもよい。誤検出判定部104は、運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たし、かつ、運転者の顔の特徴量の変化が第3判定条件を満たす場合、顔検出部102が運転者の顔を誤検出したと判定する。
例えば、図3に示した画像200に撮像されているような状態から、運転者が、撮像装置20からみて運転者の顔の手前となる位置に手を移動させ、かつ、後部座席の乗員が、運転席のほうに身を乗り出したとする。後部座席の乗員が身を乗り出しているため、画像200上で、後部座席の乗員の顔である第2の顔202bの大きさは、運転者の顔である第1の顔202aの大きさとほぼ変らない。第1の顔202aは、手によって隠されているため、顔検出部102は、第2の顔202bを運転者の顔として検出する。
この場合、誤検出判定部104が、「運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否か」の顔誤検出条件のみで、運転者の顔の誤検出判定を行うと、誤検出判定部104は、第1の顔領域203aは大きく変化していないと判定する。すなわち、顔検出部102が運転者の顔を誤検出していないと判定してしまう。
そこで、誤検出判定部104は、さらに、「運転者の顔の特徴量の変化が第3判定条件を満たすか否か」を判定することで、上述したような、後部座席の乗員が、撮像装置20からの距離が運転者と同じ程度の距離となる位置まで顔を移動させた場合に、顔検出部102が運転者の顔を誤検出したにも関わらず、運転者の顔を誤検出していないと判定することを防ぐことができ、誤検出判定の精度を向上させることができる。
なお、ここでは、後部座席の乗員が身を乗り出すケースについて説明したが、これは一例に過ぎない。例えば、仮に、撮像装置20が、図2Bに示すような設置位置および撮像範囲になるように設置されている場合であって、助手席の乗員が撮像され得る場合に(図5参照)、誤検出判定部104は、顔検出部102が助手席の乗員の顔を運転者の顔と誤検出することを防ぐことができ、誤検出判定の精度を向上させることができる。
誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たすと判定した場合、顔検出部102が運転者の顔を誤検出したと判定し、顔検出用領域を縮小させる領域縮小指示を、領域縮小部105に出力する。
また、誤検出判定部104が、顔検出部102が運転者の顔を誤検出したと判定した場合、光学設定制御部109は、撮像装置20の光学設定を現在のまま維持する制御を行う。具体的には、誤検出判定部104は、現在の光学設定と同じ光学設定を指示する指令を撮像装置20に出力する。または、誤検出判定部104は、撮像装置20に対して、何も新たな指令を出力しない。「撮像装置20の光学設定を現在のまま維持する制御を行う」とは、上記のように、現在の光学設定と同じ光学設定を指示する指令を撮像装置20に出力すること、または、撮像装置20に対して何も新たな指令を出力しないことを含む制御である。
また、「撮像装置20の光学設定を現在のまま維持する制御を行う」とは、誤検出判定部104が、顔検出部102が運転者の顔を誤検出したと判定した場合、光学設定制御部109が、光学設定を、デフォルトの光学設定とする制御も含む。具体的には、光学設定制御部109の露出制御部1091は、撮像装置20の露出時間、または、露出時間および点灯時間を、予め設定された初期値とした露出制御を行う。露出時間の初期値、および、点灯時間の初期値には、予め、運転者の顔を鮮明に撮像するのに十分と想定される露光時間および点灯時間が設定されている。また、光学設定制御部109の画像処理部1092は、撮像装置20のゲイン値を、予め設定された初期値としたゲイン調整を行う。ゲイン値の初期値には、予め、運転者の顔を鮮明に撮像するのに十分と想定されるゲイン値が設定されている。
一方、誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たさないと判定した場合、顔検出部102が運転者の顔を誤検出していないと判定し、顔検出有情報を、運転者監視部103および輝度算出部107に出力する。
領域縮小部105は、誤検出判定部104から範囲縮小指示が出力されると、顔検出用領域を縮小させる。このとき、領域縮小部105は、顔検出部102が誤検出した運転者の顔領域を含まない領域となるよう、顔検出用領域を縮小させる。領域縮小部105は、誤検出判定部104経由で、顔検出部102が出力した顔情報を取得し、取得した顔情報から、顔検出部102が誤検出した、運転者の顔領域を特定すればよい。
図6Aおよび図6Bは、実施の形態1において、領域縮小部105が縮小させた顔検出用領域の一例のイメージを説明するための図である。なお、図6Aおよび図6Bで示す画像200は、図4に示すように画像が撮像された状態から、再び、運転者の顔である第1の顔202aのパーツが撮像される状態へと戻ったものとしている。
領域縮小部105は、例えば、顔検出用領域を示す矩形の右側の一辺を、左方向へ移動させ、顔検出用領域を狭める。その際、領域縮小部105は、顔検出部102が検出した運転者の顔領域を含まない領域となるまで、顔検出用領域を狭める(図6A参照)。
また、例えば、領域縮小部105は、顔検出用領域を示す矩形の右下の頂点を、左上の頂点方向へ、顔検出用領域の縦横比を維持したまま、当該顔検出用領域を狭める。その際、領域縮小部105は、顔検出部102が検出した運転者の顔領域を含まない領域となるまで、顔検出用領域を狭める(図6B参照)。
領域縮小部105は、例えば、記憶部に記憶されている顔検出用領域に関する情報で定義されている顔検出用領域を、縮小後の顔検出用領域に更新する。
そして、領域縮小部105は、顔検出用領域を縮小した旨の情報を、再検出指示部106に出力する。
再検出指示部106は、領域縮小部105から、顔検出用領域を縮小した旨の情報が出力されると、顔検出部102に対して、領域縮小部105が縮小した後の顔検出用領域内において、運転者の顔を再検出させる。
輝度算出部107は、誤検出判定部104から顔検出有情報が出力された場合、画像取得部101が取得した画像において、顔検出部102が検出した運転者の顔領域内の画素(以下「運転者顔領域画素」という。)の平均輝度を算出する。
輝度算出部107は、算出した、運転者顔領域画素の平均輝度に関する情報(以下「顔領域輝度情報」という。)を輝度判定部108に出力する。
輝度判定部108は、輝度算出部107から出力された顔領域輝度情報に基づき、運転者顔領域画素の平均輝度が閾値(以下「輝度判定用閾値」という。)以上であるか否かを判定する。なお、輝度判定用閾値には、例えば、製品出荷時等に、予め、標準的な光のもとで撮像された画像から、運転者の顔を適切に検出した場合に想定される、当該運転者の顔領域の画素の平均輝度を元に、例えば、運転者の顔領域の画素の平均輝度として想定され得る最低の平均輝度値が設定されている。
輝度判定部108は、運転者顔領域画素の平均輝度が、輝度判定用閾値未満である場合、運転者顔領域画素の平均輝度が輝度判定用閾値未満である旨の情報を、光学設定制御部109の露出制御部1091、または、光学設定制御部109の画像処理部1092に出力する。
具体的には、輝度判定部108は、まず、露出制御部1091に対して、運転者顔領域画素の平均輝度が輝度判定用閾値未満である旨の情報を出力する。これを受け、露出制御部1091は、露出制御を行う。なお、露出制御部1091の詳細は後述する。露出制御部1091が露出制御を行うと、輝度判定部108は、露出制御後の運転者顔領域画素の平均輝度が輝度判定用閾値以上であるか否かを判定する。輝度判定部108は、露出制御後の運転者領域画素の平均輝度を、輝度算出部107に対して算出させることで取得するようにすればよい。
輝度判定部108は、露出制御後の運転者顔領域画素の平均輝度が、輝度判定用閾値未満である場合、運転者顔領域画素の平均輝度が輝度判定用閾値未満である旨の情報を、画像処理部1092に出力する。画像処理部1092は、ゲイン調整を行う。なお、画像処理部1092の詳細は後述する。画像処理部1092がゲイン調整を行うと、輝度判定部108は、ゲイン調整後の運転者顔領域画素の平均輝度が輝度判定用閾値以上であるか否かを判定する。輝度判定部108は、ゲイン調整後の運転者領域画素の平均輝度を、輝度算出部107に対して算出させることで取得するようにすればよい。
このように、輝度判定部108は、露出制御部1091、画像処理部1092の順番で光学設定の変更が行われるようにする。
なお、輝度判定部108は、運転者顔領域画素の平均輝度が輝度判定用閾値以上であると判定した場合は、光学設定制御部109に対して、運転者顔領域画素の平均輝度が輝度判定用閾値未満である旨の情報を出力しない。
光学設定制御部109は、輝度判定部108が、運転者顔領域画素の平均輝度が輝度判定用閾値未満であると判定した場合、輝度算出部107が算出した運転者顔領域画素の平均輝度に応じて、撮像装置20の光学設定の制御を行う。
光学設定制御部109の露出制御部1091は、輝度判定部108から、運転者顔領域画素の平均輝度が輝度判定用閾値未満である旨の情報が出力されると、露出制御を実施する。具体的には、露出制御部1091は、撮像装置20の露出時間を長く変更する。また、露出制御部1091は、必要に応じて、変更した露出時間に合わせて、照明装置30の点灯時間を長く変更する。露出制御部1091が露出時間または点灯時間をどの程度長く変更するかは、運転者顔領域画素の平均輝度に応じて、予め決められているものとする。
光学設定制御部109の画像処理部1092は、輝度判定部108から、露出制御後の運転者顔領域画素の平均輝度が輝度判定用閾値未満である旨の情報が出力されると、ゲイン調整を行う。具体的には、画像処理部1092は、撮像装置20のゲイン値を引き上げ、画像を明るくする。画像処理部1092がゲイン値をどの程度引き上げるかは、運転者顔領域画素の平均輝度に応じて、予め決められているものとする。
実施の形態1に係る車載用画像処理装置10は、以上で説明した構成を有する。
なお、仮に、車載用画像処理装置10が、誤検出判定部104を備えず、車載用画像処理装置10は、顔検出部102が運転者の顔を誤検出したか否かを判定する機能を有しないものであったとする。すなわち、上述した従来技術のように、画像から検出された顔が、運転者以外の顔である可能性があることが考慮されないとする。
その場合、上述の図4の画像で示した状態のように、例えば、何らかの外乱によって、一時的に運転者の顔のパーツを検出できないという状態が生じてしまうと、顔検出部102は、運転者以外の乗員の顔を運転者の顔として検出し得る。そして、顔検出部102から、運転者以外の乗員の顔を運転者の顔とした、当該運転者以外の乗員の顔に関する顔情報が、運転者監視部103および輝度算出部107に出力される。
その後、例えば、運転者監視部103によって、上記運転者以外の乗員が居眠り状態であると判断されれば、出力装置から警報が出力されることになる。これは、実際には、運転者が居眠り状態であることに対する警報ではないため、無用な警報になり得る。
また、通常、後部座席へは、運転席よりも、例えば照明装置30の光が届きにくいため、後部座席の乗員は、画像において、暗く撮像される。よって、顔検出部102が後部座席の乗員の顔を運転者の顔と誤検出すると、輝度算出部107が算出した、運転者顔領域画素の平均輝度は、運転者顔領域画素の平均輝度として想定されている平均輝度より大幅に小さくなり、光学設定制御部109は、後部座席の乗員の顔領域に合わせて光学設定の制御を実施することになり得る。その結果、例えば、一時的に運転者の顔のパーツを検出できないという状態から、運転者の顔のパーツを検出できる状態(図3参照)に戻ったとしても、画像上、運転者の顔領域の画素の輝度が適正化されていないことにより、顔検出部102は、当該運転者の顔を顔として再検出しにくくなる。具体的には、後部座席より照明装置30等の光が届きやすい運転席付近は明るくなり過ぎて、画像上、例えば、いわゆる「白とび」が発生してしまい、デフォルト状態の光学設定で撮像された画像よりも、運転者の顔を顔として検出しにくくなる。そうすると、顔検出部102は、後部座席の乗員の顔を、運転者の顔として検出し続け、運転者監視部103は、当該後部座席の乗員の顔に対して、状態の監視を行い続けることになってしまう。
これに対し、実施の形態1に係る車載用画像処理装置10では、上述のとおり、誤検出判定部104を備える。誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たすか否かを判定することで、運転者の顔が誤検出されたか否かを判定するようにした。そして、誤検出判定部104が、運転者の顔が誤検出されていないと判定した場合に、光学設定制御部109は、運転者顔領域画素の平均輝度に応じた光学設定の制御を行うようにした。一方、誤検出判定部104が、運転者の顔を誤検出したと判定した場合には、光学設定制御部109は、光学設定を現在のまま維持する制御を行うようにした。
また、誤検出判定部104が、運転者の顔が誤検出されていないと判定した場合、運転者監視部103は、顔検出部102が検出した運転者の顔に基づく監視を行わないものとした。
このように、車載用画像処理装置10は、画像から運転者の顔を検出した際、当該運転者の顔を誤検出していない場合、運転者の顔領域の平均輝度に応じて、運転者の顔を鮮明に撮像するための光学設定の制御を行うことで、撮像装置20が運転者以外の乗員の顔を撮像し得ることを考慮して画像から運転者の顔を検出することを可能としている。
また、車載用画像処理装置10は、画像から運転者の顔を検出した際に、当該運転者の顔を誤検出した場合、運転者の顔を検出するための顔検出用領域を縮小することで、撮像装置20が運転者以外の乗員の顔を撮像し得ることを考慮して画像から運転者の顔を検出することを可能としている。
実施の形態1に係る車載用画像処理装置10の動作について説明する。
図7は、実施の形態1に係る車載用画像処理装置10の動作を説明するためのフローチャートである。
なお、車載用画像処理装置10は、図7のフローチャートで示す動作を、車両が走行中、繰り返す。
画像取得部101は、撮像装置20から画像を取得する(ステップST701)。
画像取得部101は、取得した画像を、顔検出部102および輝度算出部107に出力する。
顔検出部102は、ステップST701にて画像取得部101が取得した画像に基づき、当該画像上に設定された顔検出用領域内において、運転者の顔を検出する(ステップST702の“YES”の場合)。
顔検出部102は、検出した運転者の顔情報を、運転者監視部103、誤検出判定部104、および、輝度算出部107に出力する。また、顔検出部102は、検出した運転者の顔情報を、記憶部に記憶させる。
顔検出部102が、顔検出用領域内において、運転者の顔を検出できない場合(ステップST702の“NO”の場合)は、車載用画像処理装置10による処理は、ステップST701に戻る。
誤検出判定部104は、誤検出判定を行う(ステップST703)。
誤検出判定部104は、顔検出部102が運転者の顔を誤検出したと判定した場合(ステップST704の“YES”の場合)、顔検出用領域を縮小させる範囲縮小指示を、領域縮小部105に出力する。なお、このとき、光学設定制御部109は、光学設定を現在のまま維持する制御を行う。
領域縮小部105は、ステップST703にて誤検出判定部104から範囲縮小指示が出力されると、顔検出用領域を縮小させる(ステップST705)。
そして、領域縮小部105は、顔検出用領域を縮小した旨の情報を、再検出指示部106に出力する。
再検出指示部106は、ステップST705にて、領域縮小部105から、顔検出用領域を縮小した旨の情報が出力されると、顔検出部102に対して、領域縮小部105が縮小した後の顔検出用領域内において、運転者の顔を再検出させる(ステップST706)。
車載用画像処理装置10は、ステップST701に戻り、顔検出部102は、ステップST701にて画像取得部101が取得した画像に基づき、ステップST705にて領域縮小部105が縮小した後の顔検出用領域内において、運転者の顔を再検出する。
一方、誤検出判定部104は、顔検出部102が運転者の顔を誤検出していないと判定した場合(ステップST704の“NO”の場合)、顔検出有情報を、運転者監視部103および輝度算出部107に出力する。運転者監視部103は、顔検出部102から出力された顔情報に基づき、運転者の状態を監視する。
輝度算出部107は、ステップST704にて誤検出判定部104から顔検出有情報が出力された場合、ステップST701にて画像取得部101が取得した画像において、運転者顔領域画素の平均輝度を算出する(ステップST707)。
輝度算出部107は、顔領域輝度情報を輝度判定部108に出力する。
輝度判定部108は、ステップST707にて輝度算出部107が算出した、運転者顔領域画素の平均輝度が、輝度判定用閾値以上であるか否かを判定する(ステップST708)。
ステップST708において、輝度判定部108は、運転者顔領域画素の平均輝度が、輝度判定用閾値未満であると判定した場合(ステップST708の“NO”の場合)、運転者顔領域画素の平均輝度が輝度判定用閾値未満である旨の情報を、光学設定制御部109に出力する。
ステップST708において、輝度判定部108は、運転者顔領域画素の平均輝度が、輝度判定用閾値以上であると判定した場合(ステップST708の“YES”の場合)、ステップST709をスキップし、車載用画像処理装置10は、処理を終了する。
光学設定制御部109は、ステップST708にて輝度算出部107が算出した運転者顔領域画素の平均輝度に応じて、撮像装置20の光学設定の制御を行う(ステップST709)。
ここで、図8A、図8B、および、図8Cは、図7のステップST703~ステップST704における、誤検出判定部104による誤検出判定の動作の一例の詳細を説明するためのフローチャートである。
図8Aは、顔誤検出条件を、「運転者の顔領域の位置の変化が第1判定条件を満たすか否か」とした場合の、誤検出判定部104による誤検出判定の動作の一例の詳細を説明するフローチャートである。図8Bは、顔誤検出条件を、「運転者の顔領域の位置の変化が第1判定条件を満たすか否か」と、「運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否か」の組み合わせとした場合の、誤検出判定部104による誤検出判定の動作の一例の詳細を説明するフローチャートである。図8Cは、顔誤検出条件を、「運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否か」と、「運転者の顔の特徴量の変化が第3判定条件を満たすか否か」の組み合わせとした場合の、誤検出判定部104による誤検出判定の動作の一例の詳細を説明するフローチャートである。
顔誤検出条件を、「運転者の顔領域の位置の変化が第1判定条件を満たすか否か」とした場合、図8Aに示すように、誤検出判定部104は、運転者の顔領域の位置の変化が第1判定条件を満たすか否かを判定する(ステップST801)。
ステップST801において、運転者の顔領域の位置の変化が第1判定条件を満たすと判定した場合(ステップST801の“YES”の場合)、誤検出判定部104は、顔検出部102が運転者の顔を誤検出したと判定し、顔検出用領域を縮小させる範囲縮小指示を、領域縮小部105に出力する。また、光学設定制御部109は、光学設定を現在のまま維持する制御を行う。
ステップST801において、運転者の顔領域の位置の変化が第1判定条件を満たさないと判定した場合(ステップST801の“NO”の場合)、車載用画像処理装置10による処理は、図7のステップST707へ進む。
顔誤検出条件を、「運転者の顔領域の位置の変化が第1判定条件を満たすか否か」と、「運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否か」の組み合わせとした場合、図8Bに示すように、誤検出判定部104は、まず、運転者の顔領域の位置の変化が第1判定条件を満たすか否かを判定する(ステップST801a)。
ステップST801aにおいて、運転者の顔領域の位置の変化が第1判定条件を満たすと判定した場合(ステップST801aの“YES”の場合)、誤検出判定部104は、運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否かを判定する(ステップST8011)。
ステップST8011において、運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすと判定した場合(ステップST8011の“YES”の場合)、誤検出判定部104は、ステップST802aへ進む。
ステップST8011において、運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たさないと判定した場合(ステップST8011の“NO”の場合)、車載用画像処理装置10による処理は、図7のステップST707へ進む。
ステップST802aの具体的な動作は、図8AのステップST802の具体的な動作と同様であるため、重複した説明を省略する。
ステップST801aの“NO”の場合の具体的な動作は、図8AのステップST801の“NO”の場合の具体的な動作と同様であるため、重複した説明を省略する。
顔誤検出条件を、「運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否か」と、「運転者の顔の特徴量の変化が第3判定条件を満たすか否か」の組み合わせとした場合、図8Cに示すように、誤検出判定部104は、まず、運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすか否かを判定する(ステップST8011a)。
ステップST8011aにおいて、運転者の顔領域を示す枠の大きさの変化が第2判定条件を満たすと判定した場合(ステップST8011aの“YES”の場合)、誤検出判定部104は、運転者の顔の特徴量の変化が第3判定条件を満たすか否かを判定する(ステップST8012)。
ステップST8012において、運転者の顔の特徴量の変化が第3判定条件を満たすと判定した場合(ステップST8012の“YES”の場合)、誤検出判定部104は、ステップST802bへ進む。
ステップST8012において、運転者の顔の特徴量の変化が第3判定条件を満たさないと判定した場合(ステップST8012の“NO”の場合)、車載用画像処理装置10による処理は、図7のステップST707へ進む。
ステップST802bの具体的な動作は、図8AのステップST802の具体的な動作と同様であるため、重複した説明を省略する。
ステップST8011aの“NO”の具体的な動作も、説明済みであるため、詳細な説明を省略する。
図9は、実施の形態1において、光学設定制御部109が、図7のステップST707にて輝度算出部107が算出した運転者顔領域画素の平均輝度に応じて、撮像装置20の光学設定の制御を行う動作を説明するためのフローチャートである。
図7のステップST707にて輝度算出部107が運転者顔領域画素の平均輝度を算出すると、輝度判定部108は、運転者顔領域画素の平均輝度が、輝度判定用閾値以上であるか否かを判定する(ステップST708)。当該ステップST708の動作は、図7を用いて説明済みの動作である。
ステップST708において、輝度判定部108は、運転者顔領域画素の平均輝度が、輝度判定用閾値未満であると判定した場合(ステップST708の“NO”の場合)、露出制御部1091は、撮像装置20の露出制御を行う(ステップST901)。
輝度判定部108は、再度、運転者顔領域画素の平均輝度が、輝度判定用閾値以上であるか否かを判定する(ステップST902)。
ステップST902において、輝度判定部108は、運転者顔領域画素の平均輝度が、輝度判定用閾値未満であると判定した場合(ステップST902の“NO”の場合)、画像処理部1092は、撮像装置20のゲイン調整を行う(ステップST903)。その後、車載用画像処理装置10は、ステップST708に戻る。
一方、ステップST708にて、輝度判定部108が運転者顔領域画素の平均輝度は輝度判定用閾値以上と判定した場合(ステップST708の“YES”の場合)、または、ステップST902において、輝度判定部108が運転者顔領域画素の平均輝度は輝度判定用閾値以上と判定した場合(ステップST902の“YES”の場合)、車載用画像処理装置10は、処理を終了する。なお、車載用画像処理装置10が処理を終了する際、領域縮小部105は、顔検出用領域を縮小させていた場合(図7のステップST705参照)、記憶部に記憶されている顔検出用領域に関する情報において、顔検出用領域を、初期値に戻す。
また、図7~図9を用いて説明した、車載用画像処理装置10の動作について、領域縮小部105は、顔検出用領域を縮小させた場合、顔検出用領域を縮小させてから一定時間が経過しても、顔検出部102が運転者の顔を検出しない場合(図7のステップST702参照)、顔検出用領域を初期値に戻すようにしてもよい。なお、その場合、領域縮小部105は、例えば、顔検出部102から、運転者の顔を検出したか否かの情報を取得するようにする。
なお、以上の実施の形態1では、画像上には、顔検出用領域が設定されることを前提としたが、これに限らず、画像上に顔検出用領域が設定されていることは必須ではない。
以上のように、実施の形態1に係る車載用画像処理装置10は、撮像装置20から、運転席に着座している運転者の顔が存在すべき範囲を含む車両内の範囲が撮像された画像を取得する画像取得部101と、画像取得部101が取得した画像に基づき、当該画像上の運転者の顔および当該運転者の顔領域を検出する顔検出部102と、顔検出部102が検出した運転者の顔に関する情報が顔誤検出条件を満たすか否かによって、顔検出部102が運転者の顔を誤検出したか否かの誤検出判定を行う誤検出判定部104と、誤検出判定部104が、顔検出部102が運転者の顔を誤検出していないと判定した場合、運転者の顔領域内の画素の平均輝度に応じた光学設定の制御を行い、誤検出判定部104が、顔検出部102は運転者の顔を誤検出したと判定した場合、光学設定を維持する制御を行う光学設定制御部109を備えるように構成した。車載用画像処理装置10は、誤検出された運転者の顔に基づく不適切な光学設定の制御を防止することができる。
また、実施の形態1に係る車載用画像処理装置10において、顔検出部102は、画像取得部101が取得した画像に基づき、当該画像上に設定された顔検出用領域内において、運転者の顔および当該運転者の顔領域を検出し、誤検出判定部104が、顔検出部102が運転者の顔を誤検出したと判定した場合、顔検出用領域を縮小させる領域縮小部105と、顔検出部102に対して、領域縮小部105が縮小した後の顔検出用領域内において、運転者の顔および運転者の顔領域を再検出させる再検出指示部106を備えるように構成した。車載用画像処理装置10は、画像から運転者の顔を検出した際に、当該運転者の顔を誤検出した場合、運転者の顔を検出するための顔検出用領域を縮小するので、画像に運転者以外の乗員の顔が撮像されている可能性があることを考慮して、当該画像から運転者の顔を検出することができる。
実施の形態2.
実施の形態2では、シートベルトの引き出し量を考慮することで、誤検出判定の精度を向上させることができる実施の形態について説明する。
図10は、実施の形態2に係る車載用画像処理装置10aの構成例を示す図である。
図10において、実施の形態1において図1を用いて説明した車載用画像処理装置10と同様の構成については、同じ符号を付して重複した説明を省略する。
実施の形態2に係る車載用画像処理装置10aは、実施の形態1に係る車載用画像処理装置10と比べ、引き出し量検出部110を備えた点が異なる。
引き出し量検出部110は、車両の座席に設置されたシートベルトの引き出し量を検出する。
引き出し量検出部110は、例えば、画像取得部101が取得した画像に基づき、当該画像上での、シートベルトに付されたマークの位置の移動量からシートベルトの引き出し量を検出する。シートベルトには、予め、マークが付されているものとする。マークは、撮像装置20により検出可能なものである。例えば、撮像装置20が赤外線カメラであれば、マークは、赤外線カメラにより検出可能なものとする。
また、引き出し量検出部110は、例えば、各座席に設置されたシートベルト近傍に設置され、シートベルトの移動量に応じて回転する部位を有する巻取りセンサ(図示省略)が検知した回転量から、シートベルトの引き出し量を算出することで、シートベルトの引き出し量を検出するものであってもよい。
引き出し量検出部110が検出するシートベルトの引き出し量は、例えば、不使用の状態のシートベルトを基準とした引き出し量(以下「不使用状態基準の引き出し量」という。)である。
また、引き出し量検出部110が検出するシートベルトの引き出し量は、例えば、乗員が通常の着座姿勢でシートベルトを着用した状態のシートベルトを基準とした引き出し量(以下、「使用状態基準の引き出し量」という。)でもよい。乗員が通常の着座姿勢から、何らかの目的で姿勢を変化させた場合、シートベルトの引き出し量も変化し得る。引き出し量検出部110が使用状態基準の引き出し量を検出する場合、不使用状態基準の引き出し量を検出するよりも、乗員の体格差を考慮した、より正確な、乗員の姿勢の変化に応じたシートベルトの引き出し量を算出することができる。
引き出し量検出部110は、算出した引き出し量を、誤検出判定部104に出力する。このとき、引き出し量検出部110は、どの座席のシートベルトの引き出し量であるかが特定できる情報を付与して、シートベルトの引き出し量を出力するようにする。
引き出し量検出部110は、少なくとも顔検出部102が検出動作を行うタイミングと同様のタイミングで検出動作を繰り返し行う。そして、検出された引き出し量は、顔情報と対応付けられて記憶部に記憶されるものとする。例えば、顔検出部102は、顔情報を記憶部に記憶させる際、引き出し量検出部110から引き出し量に関する情報を取得し、顔情報と対応付けて記憶部に記憶させる。
誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たし、かつ、引き出し量検出部110が検出した運転席のシートベルトの引き出し量が閾値(以下「第1引き出し量判定用閾値」という。)以下であるか否かを判定する。
誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たし、かつ、引き出し量検出部110が検出した運転席のシートベルトの引き出し量が第1の引き出し量判定用閾値以下である場合に、顔検出部102は運転者の顔を誤検出したと判定する。
例えば、顔誤検出条件が、「運転者の顔領域の位置の変化が、設定された第1判定条件を満たすか否か」であったとする。
この場合、実施の形態1では、誤検出判定部104は、直前顔枠座標と現顔枠座標との差が大きい場合、顔検出部102が運転者の顔を誤検出したと判定していた。
しかし、直前顔枠座標と現顔枠座標との差が大きい場合、実際に、運転者が顔を大きく移動させた可能性もある。逆に言うと、運転者が顔を大きく移動させていないにも関わらず、直前顔枠座標と現顔枠座標との差が大きい場合、顔検出部102が運転者の顔を誤検出した可能性が高いと言える。
そこで、実施の形態2では、誤検出判定部104は、顔誤検出条件に加え、運転席のシートベルトの引き出し量を考慮して、誤検出判定を行う。運転者が通常の着座姿勢における顔の位置から顔を大きく移動させた場合、運転者は身体ごと移動することになり、その際、運転席のシートベルトは引き出される方向に移動する。
実施の形態2に係る車載用画像処理装置10aの動作は、実施の形態1において、図7を用いて説明した車載用画像処理装置10の動作において、ステップST703の具体的な動作が異なる。
ステップST703において、誤検出判定部104は、顔誤検出条件を満たし、かつ、引き出し量検出部110が検出した運転席のシートベルトの引き出し量が第1引き出し量判定用閾値以下であるか否かを判定することで、誤検出判定を行う。
このように、実施の形態2に係る車載用画像処理装置10aは、運転席のシートベルトの引き出し量を考慮して、誤検出判定を行うようにした。そのため、誤検出判定の精度を向上させることができる。
なお、以上の説明では、誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たし、かつ、引き出し量検出部110が検出した運転席のシートベルトの引き出し量が第1引き出し量判定用閾値以下であるか否かによって、誤検出判定を行うものとした。
しかし、これに限らず、誤検出判定部104は、顔検出部102が検出した運転者の顔情報が顔誤検出条件を満たし、かつ、引き出し量検出部110が検出した運転席以外の座席のシートベルトの引き出し量が閾値(以下「第2引き出し量判定用閾値」という。)以上であるか否かによって、誤検出判定を行うようにしてもよい。
例えば、運転席の後部の座席のシートベルトの引き出し量が第2引き出し量判定用閾値以上であれば、後部座席の乗員が運転席のヘッドレスト付近まで乗り出して顔を運転者の方に近づけている状態である可能性があり、そのために顔検出部102が運転者の顔を誤検出した可能性が高いと言える。
そこで、誤検出判定部104は、顔誤検出条件に加え、運転席以外の座席のシートベルトの引き出し量を考慮して、誤検出判定するようにしてもよい。このように判定しても、誤検出判定部104は、顔誤検出条件に加え、運転席のシートベルトの引出し量を考慮して、誤検出判定を行う場合と同様に、誤検出判定の精度を向上させることができる。
以上のように、実施の形態2に係る車載用画像処理装置10aは、実施の形態1に係る車載用画像処理装置10の構成に加え、車両の座席に設置されたシートベルトの引き出し量を検出する引き出し量検出部110を備え、誤検出判定部104は、顔検出部102が検出した運転者の顔に関する情報が顔誤検出条件を満たし、かつ、引き出し量検出部110が検出した運転席のシートベルトの引き出し量が、第1引き出し量判定用閾値以下であるか否によって、誤検出判定を行うように構成した。あるいは、誤検出判定部104は、顔検出部102が検出した運転者の顔に関する情報が顔誤検出条件を満たし、かつ、引き出し量検出部110が検出した運転席以外の座席のシートベルトの引き出し量が、第2引き出し量判定用閾値以上であるか否かによって、誤検出判定を行うように構成した。
そのため、車載用画像処理装置10aは、画像から運転者の顔を検出した際に、当該運転者の顔を誤検出していない場合に、運転者の顔領域の平均輝度に応じて光学設定の制御を行うので、画像に運転者以外の乗員の顔が撮像されている可能性があることを考慮して、当該画像から運転者の顔を検出することができるとともに、運転者の顔を誤検出していないかの誤検出判定を行う際に、運転席のシートベルトの引出し量を加味するようにすることで、当該誤検出判定の精度を向上させることができる。
また、車載用画像処理装置10aは、画像から運転者の顔を検出した際に、当該運転者の顔を誤検出した場合、運転者の顔を検出するための顔検出用領域を縮小するので、画像に運転者以外の乗員の顔が撮像されている可能性があることを考慮して、当該画像から運転者の顔を検出することができるとともに、運転者の顔を誤検出していないかの誤検出判定を行う際に、運転席のシートベルトの引出し量を加味するようにすることで、当該誤検出判定の精度を向上させることができる。
図11A,図11Bは、実施の形態1および実施の形態2に係る車載用画像処理装置10,10aのハードウェア構成の一例を示す図である。
実施の形態1または実施の形態2において、画像取得部101と、顔検出部102と、運転者監視部103と、誤検出判定部104と、領域縮小部105と、再検出指示部106と、輝度算出部107と、輝度判定部108と、光学設定制御部109と、引き出し量検出部110の機能は、処理回路1101により実現される。すなわち、車載用画像処理装置10,10aは、運転者の顔を誤検出していないかの誤検出判定を行い、当該誤検出判定の結果に基づいて、撮像装置20の光学設定の制御を行うための処理回路1101を備える。
処理回路1101は、図11Aに示すように専用のハードウェアであっても、図11Bに示すようにメモリ1106に格納されるプログラムを実行するCPU(Central Processing Unit)1105であってもよい。
処理回路1101が専用のハードウェアである場合、処理回路1101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路1101がCPU1105の場合、画像取得部101と、顔検出部102と、運転者監視部103と、誤検出判定部104と、領域縮小部105と、再検出指示部106と、輝度算出部107と、輝度判定部108と、光学設定制御部109と、引き出し量検出部110の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、画像取得部101と、顔検出部102と、運転者監視部103と、誤検出判定部104と、領域縮小部105と、再検出指示部106と、輝度算出部107と、輝度判定部108と、光学設定制御部109と、引き出し量検出部110は、HDD(Hard Disk Drive)1102、メモリ1106等に記憶されたプログラムを実行するCPU1105、システムLSI(Large-Scale Integration)等の処理回路により実現される。また、HDD1102、メモリ1106等に記憶されたプログラムは、画像取得部101と、顔検出部102と、運転者監視部103と、誤検出判定部104と、領域縮小部105と、再検出指示部106と、輝度算出部107と、輝度判定部108と、光学設定制御部109と、引き出し量検出部110の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1106とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、画像取得部101と、顔検出部102と、運転者監視部103と、誤検出判定部104と、領域縮小部105と、再検出指示部106と、輝度算出部107と、輝度判定部108と、光学設定制御部109と、引き出し量検出部110の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、画像取得部101および引き出し量検出部110については専用のハードウェアとしての処理回路1101でその機能を実現し、顔検出部102と、運転者監視部103と、誤検出判定部104と、領域縮小部105と、再検出指示部106と、輝度算出部107と、輝度判定部108と、光学設定制御部109については処理回路がメモリ1106に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、車載用画像処理装置10,10aは、撮像装置20または照明装置30等の装置と、有線通信または無線通信を行う入力インタフェース装置1103および出力インタフェース装置1104を備える。
なお、以上の実施の形態1および実施の形態2では、車載用画像処理装置10,10aは、車両に搭載されるものとしたが、これは一例に過ぎない。
例えば、図1または図10を用いて説明したような車載用画像処理装置10,10aの構成部の一部または全部が、サーバに備えられるものとしてもよい。
また、以上の実施の形態1および実施の形態2では、車載用画像処理装置10,10aにおいて、光学設定制御部109は、光学設定の制御として、露出制御およびゲイン調整のいずれも行うことが可能であるものとしたが、これは一例に過ぎない。光学設定制御部109は、光学設定の制御として、露出制御、または、ゲイン調整のいずれか一方のみを行うものであってもよい。
また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る車載用画像処理装置は、誤検出された運転者の顔に基づく不適切な光学設定の制御を防止するように構成したため、車両内の乗員が撮像された画像に基づき、車両の運転者の顔を検出する車載用画像処理装置に適用することができる。
10,10a 車載用画像処理装置、101 画像取得部、102 顔検出部、103 運転者監視部、104 誤検出判定部、105 領域縮小部、106 再検出指示部、107 輝度算出部、108 輝度判定部、109 光学設定制御部、1091 露出制御部、1092 画像処理部、110 引き出し量検出部、20 撮像装置、30 照明装置、1101 処理回路、1102 HDD、1103 入力インタフェース装置、1104 出力インタフェース装置、1105 CPU、1106 メモリ。

Claims (12)

  1. 撮像装置から、運転席に着座している運転者の顔が存在すべき範囲を含む車両内の範囲が撮像された画像を取得する画像取得部と、
    前記画像取得部が取得した前記画像に基づき、当該画像上の前記運転者の顔および当該運転者の顔領域を検出する顔検出部と、
    前記顔検出部が検出した前記運転者の顔に関する情報が顔誤検出条件を満たすか否かによって、前記顔検出部が前記運転者以外の乗員の顔を前記運転者として誤検出したか否かの誤検出判定を行う誤検出判定部とを備え、
    前記顔誤検出条件には、
    前記顔検出部が検出した前記運転者の顔領域の位置の変化が第1判定条件を満たすか否か、前記顔検出部が検出した前記運転者の顔領域の枠の大きさの変化が第2判定条件を満たすか否か、前記顔検出部が検出した前記運転者の顔情報に基づく前記運転者の顔の特徴の変化が第3判定条件を満たすか否か、または、前記第1判定条件と前記第2判定条件と前記第3判定条件のうちの2つ以上の組み合わせを満たすか否か、が含まれる
    ことを特徴とする車載用画像処理装置。
  2. 前記誤検出判定部が、前記顔検出部が前記運転者以外の乗員の顔を前記運転者として誤検出していないと判定した場合、前記運転者の顔領域内の画素の平均輝度に応じた光学設定の制御を行い、前記誤検出判定部が、前記顔検出部は前記運転者の顔を誤検出したと判定した場合、前記光学設定を維持する制御を行う光学設定制御部
    を備えた請求項1記載の車載用画像処理装置。
  3. 前記誤検出判定部が、前記顔検出部が前記運転者の顔を誤検出していないと判定した場合に、前記顔検出部が検出した前記運転者の顔領域内の画素の前記平均輝度を算出する輝度算出部と、
    前記輝度算出部が算出した前記平均輝度が輝度判定用閾値以上であるか否かを判定する輝度判定部を備え、
    前記光学設定制御部は、
    前記輝度判定部が、前記輝度算出部が算出した前記平均輝度が前記輝度判定用閾値未満であると判定した場合に、前記輝度算出部が算出した前記平均輝度に応じて、前記撮像装置の前記光学設定の制御を行う
    ことを特徴とした請求項2記載の車載用画像処理装置。
  4. 撮像装置から、運転席に着座している運転者の顔が存在すべき範囲を含む車両内の範囲が撮像された画像を取得する画像取得部と、
    前記画像取得部が取得した前記画像に基づき、当該画像上の前記運転者の顔および当該運転者の顔領域を検出する顔検出部と、
    前記顔検出部が検出した前記運転者の顔に関する情報が顔誤検出条件を満たすか否かによって、前記顔検出部が前記運転者以外の乗員の顔を前記運転者として誤検出したか否かの誤検出判定を行う誤検出判定部と、
    前記誤検出判定部が、前記顔検出部が前記運転者以外の乗員の顔を前記運転者として誤検出していないと判定した場合、前記運転者の顔領域内の画素の平均輝度に応じた光学設定の制御を行い、前記誤検出判定部が、前記顔検出部は前記運転者の顔を誤検出したと判定した場合、前記光学設定を維持する制御を行う光学設定制御部
    を備えた車載用画像処理装置。
  5. 前記誤検出判定部が、前記顔検出部が前記運転者の顔を誤検出していないと判定した場合に、前記顔検出部が検出した前記運転者の顔領域内の画素の前記平均輝度を算出する輝度算出部と、
    前記輝度算出部が算出した前記平均輝度が輝度判定用閾値以上であるか否かを判定する輝度判定部を備え、
    前記光学設定制御部は、
    前記輝度判定部が、前記輝度算出部が算出した前記平均輝度が前記輝度判定用閾値未満であると判定した場合に、前記輝度算出部が算出した前記平均輝度に応じて、前記撮像装置の前記光学設定の制御を行う
    ことを特徴とした請求項記載の車載用画像処理装置。
  6. 前記顔検出部は、前記画像取得部が取得した前記画像に基づき、当該画像上に設定された顔検出用領域内において、前記運転者の顔および当該運転者の顔領域を検出し、
    前記誤検出判定部が、前記顔検出部が前記運転者の顔を誤検出したと判定した場合、前記顔検出用領域を縮小させる領域縮小部と、
    前記顔検出部に対して、前記領域縮小部が縮小した後の前記顔検出用領域内において、前記運転者の顔および前記運転者の顔領域を再検出させる再検出指示部
    を備えた請求項1から請求項のうちのいずれか1項記載の車載用画像処理装置。
  7. 前記顔誤検出条件には、
    前記顔検出部が検出した前記運転者の顔領域の位置の変化が第1判定条件を満たすか否かが含まれる
    ことを特徴とする請求項または請求項記載の車載用画像処理装置。
  8. 前記顔誤検出条件には、
    前記顔検出部が検出した前記運転者の顔領域の枠の大きさの変化が第2判定条件を満たすか否かが含まれる
    ことを特徴とする請求項または請求項記載の車載用画像処理装置。
  9. 前記顔誤検出条件には、
    前記顔検出部が検出した前記運転者の顔情報に基づく前記運転者の顔の特徴の変化が第3判定条件を満たすか否かが含まれる
    ことを特徴とする請求項または請求項記載の車載用画像処理装置。
  10. 前記車両の座席に設置されたシートベルトの引き出し量を検出する引き出し量検出部を備え、
    前記誤検出判定部は、
    前記顔検出部が検出した前記運転者の顔に関する情報が前記顔誤検出条件を満たし、かつ、前記引き出し量検出部が検出した前記運転席のシートベルトの引き出し量が、第1引き出し量判定用閾値以下であるか否によって、前記誤検出判定を行う
    ことを特徴とする請求項1から請求項9のうちのいずれか1項記載の車載用画像処理装置。
  11. 前記車両の座席に設置されたシートベルトの引き出し量を検出する引き出し量検出部を備え、
    前記誤検出判定部は、
    前記顔検出部が検出した前記運転者の顔に関する情報が前記顔誤検出条件を満たし、かつ、前記引き出し量検出部が検出した前記運転席以外の座席のシートベルトの引き出し量が、第2引き出し量判定用閾値以上であるか否かによって、前記誤検出判定を行う
    ことを特徴とする請求項1から請求項9のうちのいずれか1項記載の車載用画像処理装置。
  12. 画像取得部が、撮像装置から、運転席に着座している運転者の顔が存在すべき範囲を含む車両内の範囲が撮像された画像を取得するステップと、
    顔検出部が、前記画像取得部が取得した前記画像に基づき、当該画像上の前記運転者の顔および当該運転者の顔領域を検出するステップと、
    誤検出判定部が、前記顔検出部が検出した前記運転者の顔に関する情報が顔誤検出条件を満たすか否かによって、前記顔検出部が前記運転者以外の乗員の顔を前記運転者として誤検出したか否かの誤検出判定を行うステップとを備え、
    前記顔誤検出条件には、
    前記顔検出部が検出した前記運転者の顔領域の位置の変化が第1判定条件を満たすか否か、前記顔検出部が検出した前記運転者の顔領域の枠の大きさの変化が第2判定条件を満たすか否か、前記顔検出部が検出した前記運転者の顔情報に基づく前記運転者の顔の特徴の変化が第3判定条件を満たすか否か、または、前記第1判定条件と前記第2判定条件と前記第3判定条件のうちの2つ以上の組み合わせを満たすか否か、が含まれる
    ことを特徴とする車載用画像処理方法。
JP2021529614A 2019-07-02 2019-07-02 車載用画像処理装置、および、車載用画像処理方法 Active JP7183420B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/026376 WO2021001944A1 (ja) 2019-07-02 2019-07-02 車載用画像処理装置、および、車載用画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2021001944A1 JPWO2021001944A1 (ja) 2021-11-04
JP7183420B2 true JP7183420B2 (ja) 2022-12-05

Family

ID=74100754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021529614A Active JP7183420B2 (ja) 2019-07-02 2019-07-02 車載用画像処理装置、および、車載用画像処理方法

Country Status (3)

Country Link
JP (1) JP7183420B2 (ja)
DE (1) DE112019007522T5 (ja)
WO (1) WO2021001944A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005108033A (ja) 2003-09-30 2005-04-21 Toshiba Corp 運転者状況判定装置および運転者状況判定方法
JP2009116742A (ja) 2007-11-08 2009-05-28 Aisin Seiki Co Ltd 車載用画像処理装置、画像処理方法、および、プログラム
WO2018150485A1 (ja) 2017-02-15 2018-08-23 三菱電機株式会社 運転状態判定装置および運転状態判定方法
WO2018225176A1 (ja) 2017-06-07 2018-12-13 三菱電機株式会社 状態判定装置および状態判定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005108033A (ja) 2003-09-30 2005-04-21 Toshiba Corp 運転者状況判定装置および運転者状況判定方法
JP2009116742A (ja) 2007-11-08 2009-05-28 Aisin Seiki Co Ltd 車載用画像処理装置、画像処理方法、および、プログラム
WO2018150485A1 (ja) 2017-02-15 2018-08-23 三菱電機株式会社 運転状態判定装置および運転状態判定方法
WO2018225176A1 (ja) 2017-06-07 2018-12-13 三菱電機株式会社 状態判定装置および状態判定方法

Also Published As

Publication number Publication date
WO2021001944A1 (ja) 2021-01-07
JPWO2021001944A1 (ja) 2021-11-04
DE112019007522T5 (de) 2022-05-05

Similar Documents

Publication Publication Date Title
US20090141147A1 (en) Auto zoom display system and method
JP2009046026A (ja) 運転席調整システム
JP5753509B2 (ja) 被測定物情報取得装置
JP2006308375A (ja) 赤外線利用型目位置検出装置
EP1703480B1 (en) System and method to determine awareness
US11034305B2 (en) Image processing device, image display system, and image processing method
JP2005323180A (ja) 撮像制御装置及びプログラム
US20160107574A1 (en) Control unit for a motor vehicle having a camera for the driver's face, and method for imaging the face of a vehicle occupant
JP2008243031A (ja) 漫然運転判定装置
JP4397415B2 (ja) 画像処理方法、画像処理システム、画像処理装置及びコンピュータプログラム
US11915495B2 (en) Information processing apparatus, and recording medium
JP6945775B2 (ja) 車載用画像処理装置、および、車載用画像処理方法
JP7183420B2 (ja) 車載用画像処理装置、および、車載用画像処理方法
US11161470B2 (en) Occupant observation device
JP2009125518A (ja) ドライバの瞬き検知方法及びドライバの覚醒度判断方法並びに装置
JP2007253821A (ja) 乗員撮像装置
JP4840638B2 (ja) 車両の乗員監視装置
CN114041174A (zh) 用于在车辆内确定车辆使用者的眼睛图像数据、眼睛位置和/或视向的装置和方法
JP6594595B2 (ja) 運転不能状態判定装置および運転不能状態判定方法
US20190156133A1 (en) Vehicle driving support apparatus and vehicle driving support program
JP5617678B2 (ja) 車両用表示装置
JP7003332B2 (ja) 運転者監視装置及び運転者監視方法
JP2009096323A (ja) カメラ照明制御装置
JP2008166926A (ja) 逆光判定装置、及び被写体撮像方法
JP2019008400A (ja) 操作制御装置、操作制御システムおよびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221122

R150 Certificate of patent or registration of utility model

Ref document number: 7183420

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150