JP2016115118A - 下方視判定装置および下方視判定方法 - Google Patents

下方視判定装置および下方視判定方法 Download PDF

Info

Publication number
JP2016115118A
JP2016115118A JP2014252941A JP2014252941A JP2016115118A JP 2016115118 A JP2016115118 A JP 2016115118A JP 2014252941 A JP2014252941 A JP 2014252941A JP 2014252941 A JP2014252941 A JP 2014252941A JP 2016115118 A JP2016115118 A JP 2016115118A
Authority
JP
Japan
Prior art keywords
downward
driver
change
eye
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014252941A
Other languages
English (en)
Other versions
JP6572538B2 (ja
Inventor
晋 大須賀
Susumu Osuga
晋 大須賀
加藤 隆志
Takashi Kato
隆志 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2014252941A priority Critical patent/JP6572538B2/ja
Publication of JP2016115118A publication Critical patent/JP2016115118A/ja
Application granted granted Critical
Publication of JP6572538B2 publication Critical patent/JP6572538B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】より正確な運転者の下方視判定を行うこと。【解決手段】下方視判定装置は、被験者の三次元顔形状と、被験者の目の位置とが登録された三次元顔モデルを記憶する記憶部と、撮像装置で運転者を撮像するごとに、撮像された運転者の撮像画像を、逐次、三次元顔形状と照合して、顔の向きを特定する照合部と、顔の向きの下方への変化と、運転者の視線方向の下方への変化とが同期しているか否かを判断し、同期している場合に、運転者は下方視状態であると判定する下方視判定部と、を備えた。【選択図】図4

Description

本発明は、下方視判定装置および下方視判定方法に関する。
近年、撮像された静止画像または動画像に含まれる顔の位置および向き、ならびに眼および口等の顔部品の状態を検出する顔検出技術の開発が進められている。例えば、運転者の目の位置と開閉眼の状態とを検出し、目の位置と開閉眼の状態とから、運転中の運転者の左右方向と下方向の脇見を検出して、障害物が接近しているときには、脇見警報を出力する技術が知られている(例えば、特許文献1参照)。
特許第3855790号公報
しかしながら、従来技術では、開閉眼の状態を上下瞼間の距離で判断し、この開閉眼の状態で下方視か否かを判断しているが、上下瞼間の距離が小さくなるのは、下方視以外の場合もある。このため、従来技術では、正確な下方視判定を行うことが困難である。
そこで、本発明の課題の一つは、より正確な運転者の下方視判定を行うことができる下方視判定装置および下方視判定方法を提供することである。
本発明の下方視判定装置は、被験者の三次元顔形状と、被験者の目の位置とが登録された三次元顔モデルを記憶する記憶部と、撮像装置で運転者を撮像するごとに、撮像された前記運転者の撮像画像を、逐次、前記三次元顔形状と照合して、顔の向きを特定する照合部と、前記顔の向きの下方への変化と、前記運転者の視線方向の下方への変化とが同期しているか否かを判断し、同期している場合に、前記運転者は下方視状態であると判定する下方視判定部と、を備えた。上記構成により、より正確な下方視判断を行うことができる。また、上記構成により、下方視の誤判断に伴う警報の出力を防止することができる。
また、本発明の下方視判定装置は、前記運転者を撮像するごとに、前記撮像画像における前記目の開眼の状態を示す開眼度を算出する開眼度算出部を更に備え、前記下方視判定部は、前記顔の向きの下方への変化と、前記運転者の前記視線方向としての前記開眼度の減少の変化とが同期しているか否かを判断し、同期している場合に、前記運転者は下方視状態であると判定する。上記構成により、より正確な下方視判断を行うことができる。
また、本発明の下方視判定装置において、前記三次元顔モデルは、さらに、前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報とが登録され、前記三次元顔モデルにおける前記目の形状の変化の状態は、前記目の標準の状態から前記被験者の下方視の状態までの変化を示し、前記下方視判定装置は、前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定する形状パラメータ判定部、をさらに備え、前記下方視判定部は、前記顔の向きの下方への変化と前記開眼度の減少の変化とが同期している場合に、特定された前記形状パラメータが下方視を示す範囲内であるか否かまたは特定された前記形状パラメータの時系列変化が下方視側へ所定量を超える変化であるか否かを判定し、前記形状パラメータが下方視を示す範囲内である場合または前記形状パラメータの時系列変化が下方視側へ所定量を超える変化である場合に、前記運転者は下方視状態であると判定する。上記構成により、より一層正確な下方視判断を行うことができる。
また、本発明の下方視判定装置は、前記運転者が下方視状態であると判定された場合には、警報を出力する処理部、をさらに備えた。上記構成により、運転者の脇見運転を防止することができる。
また、本発明の下方視判定装置は、前記被験者の撮像画像に基づいて、前記三次元顔形状と前記目の位置とを含む三次元顔構造データと、前記目の形状の変化の状態と前記形状パラメータとが対応付けられた前記変化情報と、を求める計測部と、計測された前記三次元顔構造データと前記変化情報とを、前記三次元顔モデルとして前記記憶部に登録するモデル生成部と、をさらに備えた。上記構成により、より一層正確な下方視判断を行うことができる。
また、本発明の下方視判定方法は、下方視判定装置で実行される下方視判定方法であって、前記下方視判定装置は、被験者の三次元顔形状と、被験者の目の位置とが登録された三次元顔モデルを記憶する記憶部、を備え、運転者を撮像するごとに、撮像された前記運転者の撮像画像を、逐次、前記三次元顔形状と照合して、顔の向きを特定し、前記顔の向きの下方への変化と、前記運転者の視線方向の下方への変化とが同期しているか否かを判断し、同期している場合に、前記運転者は下方視状態であると判定する。上記構成により、より正確な下方視判断を行うことができる。また、上記構成により、下方視の誤判断に伴う警報の出力を防止することができる。
図1は、本実施形態にかかる車両の車室の一部が透視された状態が示された斜視図である。 図2は、本実施形態にかかる撮像装置の配置の一例を示す図である。 図3は、本実施形態にかかる下方視判定システムの一例を示すブロック図である。 図4は、本実施形態のECUの機能的構成を示すブロック図である。 図5は、本実施形態の三次元顔モデルの一例を説明するための模式図である。 図6は、本実施形態の三次元顔モデルに登録された変化情報の一例を示す模式図である。 図7は、本実施形態における三次元顔モデルの生成処理の手順の一例を示すフローチャートである。 図8は、本実施形態にかかる下方視判定処理の手順の一例を示すフローチャートである。 図9は、本実施形態にかかる下方視判定処理の手順の一例を示すフローチャート(図8の続き)である。 図10は、本実施形態における三次元顔モデルにおける顔のモデルMについて作成されるテンプレートTを示す模式図である。 図11は、本実施形態における顔の向き、開眼度、下方視の形状パラメータのそれぞれの経時的変化を示す図である。
以下、本実施形態の下方視判定装置を車両1に搭載した例をあげて説明する。
本実施形態では、車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
図1に示されるように、車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。
また、図1に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。
また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置や音声出力装置が設けられている。表示装置は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置は、例えば、スピーカである。また、表示装置は、例えば、タッチパネル等、透明な操作入力部で覆われている。乗員は、操作入力部を介して表示装置の表示画面に表示される画像を視認することができる。また、乗員は、表示装置の表示画面に表示される画像に対応した位置において手指等で操作入力部を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。
また、図2に示すように、ハンドルコラム202には、撮像装置201が設置されている。この撮像装置201は、例えば、CCD(Charge Coupled Device)カメラ等である。撮像装置201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角及び姿勢が調整されている。この撮像装置201は、運転者302の顔を順次撮影し、撮影により得た画像についての画像データを順次出力する。
次に、本実施形態にかかる車両1における下方視判定装置を有する下方視判定システムについて説明する。図3は、本実施形態にかかる下方視判定システム100の構成の一例を示すブロック図である。図3に例示されるように、下方視判定システム100では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部等の操作信号等を、受け取ることができる。ここで、ECU14は、下方視判定装置の一例である。
ECU14は、例えば、CPU14a(Central Processing Unit)や、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)、表示制御部14d、音声制御部14e、SSD14f(Solid State Drive、フラッシュメモリ)等を有している。CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行できる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた画像データを用いた画像処理や、表示装置で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
図4は、本実施形態のECU14の機能的構成を示すブロック図である。図4に示されるように、ECU14は、入力部401と、顔データ計測部402と、モデル生成部403と、照合部404と、形状パラメータ判定部405と、開眼度算出部406と、下方視判定部407と、処理部408と、三次元顔モデル410と、第1バッファ420と、第2バッファ430と、第3バッファ440と、を主に備えている。図4に示される、入力部401、顔データ計測部402、モデル生成部403、照合部404、形状パラメータ判定部405、開眼度算出部406、下方視判定部407、処理部408の各構成は、ECU14として構成されたCPU14aが、ROM14b内に格納されたプログラムを実行することで実現される。なお、これらの構成をハードウェアで実現するように構成しても良い。
第1バッファ420、第2バッファ430、第3バッファ440はデータを一時的に保存するメモリ領域であり、RAM14cやSSD14f等の記憶媒体に確保される。本実施形態では、後述するとおり、第1バッファ420には時系列に運転者の顔の向き、第2バッファ430には時系列に運転者の開眼度、第3バッファ440には時系列に運転者の目の形状の形状パラメータがそれぞれ一時的に保存される。
三次元顔モデル410は、SSD14f等の記憶媒体に保存されている。三次元顔モデル410は、統計的顔形状モデルであり、平均的な被験者の三次元顔形状と、被験者の目や口、鼻等の顔部品の位置と、被験者の目の形状の変化情報とが登録されている。三次元顔モデル410は、一例として、CLM(Constrained Local Model),AAM(Active Appearance Model),ASM(Active Shape Model)を用いることができるが、これらに限定されるものではない。
本実施形態のECU14は、この三次元顔モデル410を用いて、運転者の顔をトラッキングしながら、運転者の顔の向きと、運転者の視線方向としての開眼度(例えば、目の上下瞼間距離)とを逐次検出し、顔の向きが下方に向く動作と開眼度が低下する状態とが時間的に同期した場合に、すなわち、運転者の顔の向きの下方への変化と運転者の目の開眼度の減少の変化とが時間的に同期している場合に、運転者が下方視の状態であると判断する。
これは、運転者が前方を向いている状態から下方へ顔を下げて下方視の状態になる動作の際に、視線方向も同期して下方に下がっていくこと、すなわち、運転者の顔の向きの下方へ変化と、運転者の目の視線方向の下方の変化とが同期している場合に、運転者が下方視を行おうとしていることが過去の実験データ等から得られたことに基づいている(図11(a),(b)参照)。本実施形態のECU14は、視線方向そのものではなく、開眼度を用い、運転者の顔の向きの下方への変化と開眼度の減少の変化とが時間的に同期するか否かで、運転者が下方視を行おうとしているか否かを判断している。すなわち、視線が下方に向かうと、それに伴って目の上下瞼間距離(開眼度)も小さくなっていくことから、本実施形態のECU14は、開眼度を視線方向と同等に捉えて、顔の向きとの同期の有無を判断している。以下、詳細を説明する。
図5は、本実施形態の三次元顔モデル410の一例を説明するための模式図である。図5では、例示的な顔のモデルMを示している。モデルMは、例えば100人の被験者から得られた顔形状から平均的な顔の立体的形状を示し、それぞれ所定の顔部品を表す複数の特徴点Pを含んでいる。特徴点Pは、任意の点を原点とした座標により表される。図5に示す例では、眉、目、鼻、口および輪郭を表す特徴点Pを示しているが、モデルMはより図5に示したものは異なる特徴点Pを含んでもよい。
三次元顔モデル410には、さらに、変化情報が登録されている。変化情報は、運転者の顔の表情や動作の変化に伴う運転者の目の形状の段階的な変化と、段階ごとの形状パラメータとが対応付けられたデータである。具体的には、変化状態として、顔が無表情で正面を向いて目が開いている状態を標準の状態とし、この標準の状態から表情が笑顔になるまでの目の形状の段階的な変化、標準の状態から目を閉じるまでの目の形状の段階的な変化、標準の状態から下を向く(下方視)までの目の形状の段階的な変化等の各状態が形状パラメータと対応付けられて三次元顔モデル410に登録されている。
図6は、本実施形態の三次元顔モデル410に登録された変化情報の一例を示す模式図である。図6に示す例では、標準の目の状態から目を閉じるまでの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ1と対応付けられている。また、標準の目の状態から笑顔になるまでの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ2と対応付けられている。さらに、標準の目の状態から下方視までの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ3と対応付けられている。それぞれの形状パラメータ1,2,3は、いずれも標準の目の状態から変化後の目の形状の状態に向かうに従って、値が段階的に小さくなる。
但し、これに限定されるものではなく、変化後の状態に向かうに従って、値が大きくなるように形状パラメータを構成してもよい。または、変化の種類に応じて、値が大きくなったり小さくなったり等異なる変化となるように、形状パラメータを構成してもよい。
なお、変化情報として登録される目の形状の変化は、図6に示す例に限定されるものではなく、他に、標準の目の状態からあくびをしたときまでの目の形状の段階的な変化、標準の目の状態から目を凝らす状態までの目の形状の段階的な変化、標準の目の状態から目を見開いた状態までの目の形状の段階的な変化を、段階ごとに形状パラメータと対応付けて三次元顔モデル410に登録するように構成することができる。
三次元顔モデル410の生成は、図4に示す、入力部401、顔データ計測部402、モデル生成部403により、以下のように行われる。図7は、本実施形態における三次元顔モデル410の生成処理の手順の一例を示すフローチャートである。
まず、管理者等は、3Dスキャナ等で例えば100人の被験者の顔を撮像する(S11)。また、S11では、上記多数の被験者のそれぞれに対し、標準の顔の状態から、笑顔や、目を閉じた状態、下向きの状態等の種々の変化の動作を行わせて、3Dスキャナ等で撮像する。なお、被験者の人数は100人に限定されるものではない。
入力部401は、かかる撮像画像を入力する。そして、顔データ計測部402は、入力された撮像画像から、複数人の被験者の顔形状、目や口等の顔部品の特徴点を抽出して、平均的な顔形状、顔部品の位置等の三次元顔構造データを計測する(S12)。ここで、顔データ計測部402は、計測部の一例である。
さらに、S12では、顔データ計測部402は、S11で撮像した被験者の種々の変化の動作の撮像画像から、例えば、非特許文献「Active Appearance Model 探索による目領域構造の自動抽出 森山 剛 金出 武雄 Jeffrey F. Cohn 小沢 慎治『画像の認識・理解シンポジウム(MIRU2006)』」に示されるような三次元顔モデル作成の手順に従って、主成分分析等の統計的データ解析手法により、目の形状の段階的な変化の状態に対応する形状パラメータを抽出する。
具体的には、撮像画像中の目の輪郭を構成する各点の座標を並べたベクトルをxで表すと、xは形状を表す。顔データ計測部402は、これを標準の目の状態から変化後の状態までの全ての撮像画像について平均し、平均形状xavを求める。顔データ計測部402は、標準の目の状態から変化後の状態までの各xのxavとの偏差を主成分分析して、固有ベクトルPsを求める。このとき、xは次の(1)式で表される。
x=xav+Pss・・・(1)
ここで、bsは主成分得点ベクトルであり、これを形状パラメータと呼ぶ。すなわち、顔データ計測部402は、(1)式から形状パラメータbsを求める。
そして、顔データ計測部402は、目の形状の段階的な変化の状態と形状パラメータとを対応付けて図6に示したような変化情報を生成する。
モデル生成部403は、計測された三次元顔構造データである平均的な顔形状、顔部品の位置、および上記変化情報を、三次元顔モデル410として生成する(S13)。これにより、平均的な顔のモデルが三次元顔モデル410に登録されて生成されることになる。
次に、本実施形態の下方視判定処理について説明する。図8、図9は、本実施形態にかかる下方視判定処理の手順の一例を示すフローチャートである。図8,9のフローチャートは、一定時間間隔で実行される。まず、撮像装置201が運転者を撮像する(S31)。撮像された運転者の撮像画像は、照合部404へ入力される。
照合部404は、運転者の二次元の撮像画像と、三次元顔モデル410を構成する三次元顔構造データに適合させる(S32)。すなわち、照合部404は、モデルフィッティングとモデルのトラッキングを行う。これにより、照合部404は、運転者の顔の向きを特定(推定)する。照合部404は、さらに、三次元顔モデル410上での目の位置の検索を行い特定(推定)する。そして、照合部404は、特定された顔の向きを、第1バッファ420に保存する(S33)。ここで、図8、9の処理は、一定時間ごとに繰り返し実行されるため、実行ごとにS31で運転者の顔が逐次(周期的に)撮像され、顔の向きが逐次特定されるが、照合部404は、逐次特定される顔の向きを、特定されるごとに時系列に第1バッファ420に保存する。
ここで、本実施形態において、モデルフィッティングは、統計的顔形状モデルである三次元顔モデル410に図7の手順で作成された平均的な顔のモデルを初期状態として用い、該モデルの特徴点Pを撮像画像の顔の各部分に位置させることによって、該顔に近似したモデルMを生成する。
また、本実施形態において、モデルのトラッキングでは、モデルフィッティングにおいてモデルMが生成された後に、S31で周期的に撮像される運転者の撮像画像中の顔に合うようにモデルMを継続的に適合させる。本実施形態では、テンプレートを用いることによってモデルのトラッキングを行っている。
図10は、本実施形態における三次元顔モデル410における顔のモデルMについて作成されるテンプレートTを示す模式図である。テンプレートTは、画像中のモデルMの特徴点Pを含む所定範囲の領域を有する。例えば、テンプレートTは、眉を表す特徴点Pを含む領域、目を表す特徴点Pを含む領域、鼻を表す特徴点Pを含む領域、口を表す特徴点Pを含む領域および輪郭を表す特徴点Pを含む領域を有する。テンプレートTの各領域は、1または2以上の特徴点と対応しており、該特徴点の座標と紐付けられている。すなわち、テンプレートTが有する領域の画像中の位置が決まれば、該領域に対応する特徴点Pの座標を算出することができる。
本実施形態に係るモデルのトラッキングでは、テンプレートTが有する各領域の画像中の位置を決定し、該各領域の位置を用いてモデルMの該画像中の角度、位置および大きさを決定する。そして、モデルMに対してこれらの決定された角度、位置および大きさを適用することによって、モデルMを該画像に適合させることができる。テンプレートTが有する領域の位置および数は、モデルのトラッキングが可能である限り任意に選択され得る。
図8に戻り、開眼度算出部406は、撮像画像における運転者の開眼度を算出する(S34)。開眼度は、運転者の開眼の状態を示すものであり、本実施形態では、上下瞼間の距離である。開眼度算出部406による開眼度の算出手法としては、撮像画像の画素から算出する等の公知の手法を用いる。なお、本実施形態では、開眼度として上下瞼間の距離を用いているが、開眼の状態を示すものであれば、これに限定されるものではない。
そして、開眼度算出部406は、算出した開眼度を、第2バッファ430に保存する(S35)。ここで、図8、9の処理は、一定時間ごとに繰り返し実行されるため、開眼度は、実行ごとに逐次算出されるが、開眼度算出部406は、逐次算出される開眼度を、算出するごとに時系列に第2バッファ430に保存する。
S32により適合された三次元顔モデルにより、目の位置が特定されるため、形状パラメータ判定部405は、三次元眼モデルを作成する。そして、形状パラメータ判定部405は、二次元の撮像画像を三次元眼モデルに適合させる(S36)。すなわち、形状パラメータ判定部405は、形状パラメータを変化させ、形状パラメータに対応する目の形状と撮像画像の目の形状とを照合する。そして、形状パラメータ判定部405は、撮像画像中の目の形状に対応する形状パラメータを三次元顔モデル410から特定する。そして、形状パラメータ判定部405は、特定した形状パラメータを第3バッファ440に保存する(S37)。ここで、図8、9の処理は、一定時間ごとに繰り返し実行されるため、形状パラメータは、実行ごとに逐次特定されるが、形状パラメータ判定部405は、逐次特定される形状パラメータを、特定するごとに時系列に第3バッファ440に保存する。
このようにして、第1バッファ420には運転者の顔の向きが、第2バッファ430には運転者の開眼度が、第3バッファ440には運転者の目の形状の形状パラメータが、それぞれ時系列に保存されていく。
次に、下方視判定部407は、第1バッファ420から、現時点から所定時間遡った時刻までの第1区間の複数の顔の向きを取得する(S40)。また、下方視判定部407は、第1バッファ420から、現時点から遡った上記第1区間の複数の開眼度を取得する(S41)。
そして、下方視判定部407は、当該第1区間の間で、顔の向きの下方への変化と開眼度の減少の変化が時間的に同期しているか否かを判断する(S42)。具体的には、下方視判定部407は、第1区間の間で、顔の向きが下方へ変化しており、かつ、開眼度も減少しており、かつ顔の向きの下方への変化と開眼度の減少の変化のタイミングが一致しているか否かにより同期しているか否かを判断する。このような同期の判断を行う下方視判定部407を、例えば、カルマンフィルタ等で構成することができるが、これに限定されるものではない。図11は、本実施形態における顔の向き、開眼度、下方視の形状パラメータのそれぞれの経時的変化を示す図である。図11(a)が顔の向きの経時的変化、図11(b)が開眼度の経時的変化、図11(c)が形状パラメータの経時的変化を示している。図11(a)、(b)に示しように、顔の向きの下方への変化と開眼度の減少の変化とは、点線で囲まれる区間T1で同期している。このため、この区間T1で、運転者は顔を下方向に向けにいく状態をしていると考えられる。なお、下方視判定部407は、第1区間の間にで、顔の向きの下方への変化と開眼度の減少変化が所定量を超えている場合に、下方視であると判定してもよい。
そして、両者が同期していない場合には(S42:No)、処理は終了する。一方、両者が同期している場合には(S42:Yes)、下方視判定部407は、第3バッファ440から、上記第1区間の複数の形状パラメータを取得する(S43)。そして、下方視判定部407は、当該第1区間の最新の形状パラメータが所定の下方視閾値以下であるか否かを判断する(S44)。
ここで、上述したとおり、運転者の顔の向きの下方へ変化と、運転者の視線方向として目の開眼度の減少の変化とが同期している場合に、運転者が下方視を行おうとしていることが過去の実験データ等から得られた。このため、S42で、下方視判定部407は、両者が同期していると判断される場合には、運転者が下方視を行おうとしている状態、あるいは下方視の状態であるとの判定を確定してもよい。しかしながら、本実施形態では、下方視の判断の正確性をより向上させるために、S44のように、下方視判定部407は、さらに形状パラメータによる判断を加えて下方視判定を行っている。
ここで、下方視閾値は、運転者が下方視をしているときの目の形状の形状パラメータの最大値である。従って、形状パラメータが下方視閾値以下の範囲である場合には、目の形状が下方視のときの目の形状の範囲であることを意味する。下方視閾値は予め定められており、ROM14bやSSD14f等に記憶されている。
なお、本実施形態では、形状パラメータが下方視閾値以下の場合に目の形状が下方視の範囲としているが、これは、図6を用いて上述したとおり、標準の目の形状が下方視に近づくに従って、本実施形態の形状パラメータが小さくなるように設定されているからである。従って、形状パラメータの設定の仕方によっては、下方視の範囲の境界となる下方視閾値の定め方は異なってくる。
S44で、形状パラメータが下方視閾値以下の場合には(S44:Yes)、下方視判定部407は、運転者が下方視を行っていると判断する(S45)。すなわち、S42の判断で、顔の向きの下方への変化と開眼度の減少の変化とが同期しており、さらに形状パラメータが下方視の範囲であることから、下方視判定部407は、運転者が下方視の状態であるという、顔の向きの下方への変化と開眼度の減少の変化の同期による推定を確定している。すなわち、図11(c)に示すように、下方視判定部407は、形状パラメータの減少の変化も、顔の向きの下方への変化、開眼度の減少の変化と同期しているときに、運転者の顔が下方視に向かっていると判断することができる。しかし、下方視判定部407は、目の形状の形状パラメータが下方視閾値以下となったときに、運転者の顔が下方視の状態であるとの判断を確定すれば、下方視の判断がより正確なものとなる。なお、形状パラメータが、第1区間の間で、所定量変化した場合に、すなわち、形状パラメータの時系列変化が下方視側へ所定量を超える変化である場合に、運転者は下方視状態であると判断するように下方視判定部407を構成してもよい。
この場合、運転者は開眼状態ではあるが、運転中に前方を見ずに、スマートフォン等の操作等で下方をみていることが考えられる。このため、処理部408は、前方を向かせるための警報を、モニタ装置11の音声出力装置から出力させる(S46)。そして、処理は終了する。
なお、本実施形態では、下方視と判定された場合に警報を出力しているが、これに限定されるものではない。例えば、運転者に警告を促して脇見運転をやめて前方を向かせるような動作であれば、いずれの動作を行うように処理部408を構成することができる。
一方、S44で、形状パラメータが下方視閾値より大きい場合には(S44:No)、下方視判定部407は、下方視の状態と判定せずに、処理は終了する。
なお、本実施形態では、図8,9のフローチャートが実行される度に、S40からS46までの処理、すなわち、各バッファから逐次蓄積されたデータ(顔の向き、開眼度、形状パラメータ)を読み出して下方視を判定する処理をおこなっているが、これに限定されるものではない。例えば、図8,9のフローチャートが実行される度に各バッファに顔の向き、開眼度、形状パラメータを保存しておき、一定の期間ごとにのみ、S40からS46までの下方視判定を行うように下方視判定部407を構成してもよい。
このように本実施形態では、下方視判定部407は、運転者の顔の向きと開眼度とを検出して、顔の向きの下方への変化と開眼度の減少の変化とが時間的に同期したときに、運転者が下方視に向かっていると判断しているので、より正確な下方視判断を行うことができる。これにより、本実施形態によれば、下方視の誤判断に伴う警報の出力を防止することができる。
また、本実施形態では、三次元顔モデル410に、目の形状の変化に対応した形状パラメータを登録している。そして、下方視判定部407は、運転者の顔の向きと開眼度とを検出して、顔の向きの下方への変化と開眼度の減少の変化とが時間的に同期したときに、さらに目の形状を示す形状パラメータが下方視の範囲にあるか否かを判断して、形状パラメータが下方視の範囲にある場合に、下方視の推定を確定している。このため、本実施形態によれば、運転者の下方視判断をより一層正確に行うことができる。
また、本実施形態では、運転者の顔の目の形状を、二次元の撮像画像だけでなく、三次元の顔モデルを用いて推定(特定)しているので、撮像装置201に対する垂直方向の相対的な顔の位置および顔の向きの影響を受けることが少ない。このため、本実施形態によれば、より正確に目の形状を推定することができ、これにより、より正確に運転者の下方視を判定することができる。
また、本実施形態では、運転者が下方視であると判定された場合には、処理部408は、運転者に警告を促す動作の一例として警報を、モニタ装置11の音声出力装置から出力させるので、運転者の脇見運転を防止することができる。
なお、本実施形態では、視線方向の下方への変化の一例として、開眼度の減少の変化を用いているが、公知の手法で視線方向を直接検知して、顔の向きの下方への変化との同期を判断するように、下方視判定部407を構成してもよい。
また、本実施形態では、運転者の顔の向きの下方への変化と開眼度の減少の変化との時間的な同期と形状パラメータの値とにより運転者の下方視の判断を行っているが、形状パラメータを用いずに、運転者の顔の向きの下方への変化と開眼度の減少の変化とが時間的に同期した場合には、運転者が下方視の状態にあるとの判断を確定するように下方視判断部407を構成してもよい。
本実施形態では、三次元顔モデル410に、標準の目の状態から下方視に至るまでの目の形状の変化を形状パラメータとともに登録して、下方視の判定を行っているが、さらに、下方視以外の判定を行うように、三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成してもよい。
例えば、三次元顔モデル410に、さらに、標準の目の状態からあくびをしたときまでの目の形状の段階的な変化を形状パラメータとともに登録し、あくびの判定を行うように三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成することができる。
また、三次元顔モデル410に、さらに、標準の目の状態から目を凝らす状態までの目の形状の段階的な変化までの目の形状の段階的な変化を形状パラメータとともに登録し、まぶしくて目を細めたことを判定するように、三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成してもよい。
また、形状パラメータを、上記非特許文献「Active Appearance Model 探索による目領域構造の自動抽出 森山 剛 金出 武雄 Jeffrey F. Cohn 小沢 慎治『画像の認識・理解シンポジウム(MIRU2006)』」や非特許文献「Costen, N., Cootes, T.F., Taylor, C.J.: Compensating for ensemble-specificity effects when building facial models. Image and Vision Computing 20, 673−682」に示されているように、個人内差と個人間差とに分類して登録されるように三次元顔モデル410を構成してもよい。
また、本実施形態では、運転者の脇見運転の判断を行うために、下方視の判定を行っているが、これに限定されるものではない、インタフェースとの対話等、人間的なやり取りにおいて、本実施形態の手法の下方視の検出を用いるように、三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
1 車両
14 ECU
201 撮像装置
401 入力部
402 顔データ計測部
403 モデル生成部
404 照合部
405 形状パラメータ判定部
406 開眼度算出部
407 下方視判定部
408 処理部
410 三次元顔モデル

Claims (6)

  1. 被験者の三次元顔形状と、被験者の目の位置とが登録された三次元顔モデルを記憶する記憶部と、
    撮像装置で運転者を撮像するごとに、撮像された前記運転者の撮像画像を、逐次、前記三次元顔形状と照合して、顔の向きを特定する照合部と、
    前記顔の向きの下方への変化と、前記運転者の視線方向の下方への変化とが同期しているか否かを判断し、同期している場合に、前記運転者は下方視状態であると判定する下方視判定部と、
    を備えた下方視判定装置。
  2. 前記運転者を撮像するごとに、前記撮像画像における前記目の開眼の状態を示す開眼度を算出する開眼度算出部を更に備え、
    前記下方視判定部は、前記顔の向きの下方への変化と、前記運転者の前記視線方向としての前記開眼度の減少の変化とが同期しているか否かを判断し、同期している場合に、前記運転者は下方視状態であると判定する、
    請求項1に記載の下方視判定装置。
  3. 前記三次元顔モデルは、さらに、前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報とが登録され、
    前記三次元顔モデルにおける前記目の形状の変化の状態は、前記目の標準の状態から前記被験者の下方視の状態までの変化を示し、
    前記下方視判定装置は、
    前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定する形状パラメータ判定部、をさらに備え、
    前記下方視判定部は、前記顔の向きの下方への変化と前記開眼度の減少の変化とが同期している場合に、特定された前記形状パラメータが下方視を示す範囲内であるか否かまたは特定された前記形状パラメータの時系列変化が下方視側へ所定量を超える変化であるか否かを判定し、前記形状パラメータが下方視を示す範囲内である場合または前記形状パラメータの時系列変化が下方視側へ所定量を超える変化である場合に、前記運転者は下方視状態であると判定する、
    請求項2に記載の下方視判定装置。
  4. 前記運転者が下方視状態であると判定された場合には、警報を出力する処理部、
    をさらに備えた請求項1〜3のいずれか一つに記載の下方視判定装置。
  5. 前記被験者の撮像画像に基づいて、前記三次元顔形状と前記目の位置とを含む三次元顔構造データと、前記目の形状の変化の状態と前記形状パラメータとが対応付けられた前記変化情報と、を求める計測部と、
    計測された前記三次元顔構造データと前記変化情報とを、前記三次元顔モデルとして前記記憶部に登録するモデル生成部と、
    をさらに備えた請求項3または4に記載の下方視判定装置。
  6. 下方視判定装置で実行される下方視判定方法であって、
    前記下方視判定装置は、被験者の三次元顔形状と、被験者の目の位置とが登録された三次元顔モデルを記憶する記憶部、を備え、
    運転者を撮像するごとに、撮像された前記運転者の撮像画像を、逐次、前記三次元顔形状と照合して、顔の向きを特定し、
    前記顔の向きの下方への変化と、前記運転者の視線方向の下方への変化とが同期しているか否かを判断し、同期している場合に、前記運転者は下方視状態であると判定する、
    ことを含む下方視判定方法。
JP2014252941A 2014-12-15 2014-12-15 下方視判定装置および下方視判定方法 Active JP6572538B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014252941A JP6572538B2 (ja) 2014-12-15 2014-12-15 下方視判定装置および下方視判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014252941A JP6572538B2 (ja) 2014-12-15 2014-12-15 下方視判定装置および下方視判定方法

Publications (2)

Publication Number Publication Date
JP2016115118A true JP2016115118A (ja) 2016-06-23
JP6572538B2 JP6572538B2 (ja) 2019-09-11

Family

ID=56141890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014252941A Active JP6572538B2 (ja) 2014-12-15 2014-12-15 下方視判定装置および下方視判定方法

Country Status (1)

Country Link
JP (1) JP6572538B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018526045A (ja) * 2015-06-22 2018-09-13 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 目開幅を利用してまばたき事象と計器視線とを区別する方法および装置
DE102018123114A1 (de) 2017-11-20 2019-05-23 Toyota Jidosha Kabushiki Kaisha Bediengerät
JP2021535499A (ja) * 2018-08-27 2021-12-16 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 顔姿勢推定/3次元顔再構築方法、装置、及び電子デバイス
WO2023017595A1 (ja) * 2021-08-12 2023-02-16 三菱電機株式会社 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233803A (ja) * 2002-02-12 2003-08-22 Nissan Motor Co Ltd 運転者の状態検出装置
JP2008171065A (ja) * 2007-01-09 2008-07-24 Denso Corp 眠気検知装置
JP2008167806A (ja) * 2007-01-09 2008-07-24 Denso Corp 眠気検知装置
JP2009015549A (ja) * 2007-07-04 2009-01-22 Omron Corp 脇見検出装置および方法、並びに、プログラム
JP2011048531A (ja) * 2009-08-26 2011-03-10 Aisin Seiki Co Ltd 眠気検出装置、眠気検出方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233803A (ja) * 2002-02-12 2003-08-22 Nissan Motor Co Ltd 運転者の状態検出装置
JP2008171065A (ja) * 2007-01-09 2008-07-24 Denso Corp 眠気検知装置
JP2008167806A (ja) * 2007-01-09 2008-07-24 Denso Corp 眠気検知装置
JP2009015549A (ja) * 2007-07-04 2009-01-22 Omron Corp 脇見検出装置および方法、並びに、プログラム
JP2011048531A (ja) * 2009-08-26 2011-03-10 Aisin Seiki Co Ltd 眠気検出装置、眠気検出方法、及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018526045A (ja) * 2015-06-22 2018-09-13 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 目開幅を利用してまばたき事象と計器視線とを区別する方法および装置
DE102018123114A1 (de) 2017-11-20 2019-05-23 Toyota Jidosha Kabushiki Kaisha Bediengerät
US10890980B2 (en) 2017-11-20 2021-01-12 Toyota Jidosha Kabushiki Kaisha Operating apparatus for estimating an operation intention intended by a face direction
JP2021535499A (ja) * 2018-08-27 2021-12-16 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 顔姿勢推定/3次元顔再構築方法、装置、及び電子デバイス
JP7203954B2 (ja) 2018-08-27 2023-01-13 アリババ・グループ・ホールディング・リミテッド 顔姿勢推定/3次元顔再構築方法、装置、及び電子デバイス
US11941753B2 (en) 2018-08-27 2024-03-26 Alibaba Group Holding Limited Face pose estimation/three-dimensional face reconstruction method, apparatus, and electronic device
WO2023017595A1 (ja) * 2021-08-12 2023-02-16 三菱電機株式会社 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム
JPWO2023017595A1 (ja) * 2021-08-12 2023-02-16
JP7378681B2 (ja) 2021-08-12 2023-11-13 三菱電機株式会社 乗員状態判定装置、乗員状態判定方法、および、乗員状態判定システム

Also Published As

Publication number Publication date
JP6572538B2 (ja) 2019-09-11

Similar Documents

Publication Publication Date Title
EP3033999B1 (en) Apparatus and method for determining the state of a driver
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
JP2016115117A (ja) 判定装置および判定方法
CN112590794A (zh) 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
US9606623B2 (en) Gaze detecting apparatus and method
CN111665513B (zh) 面部特征部检测装置、面部特征部检测方法
CN110765807A (zh) 驾驶行为分析、处理方法、装置、设备和存储介质
JP7290930B2 (ja) 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム
JP6572538B2 (ja) 下方視判定装置および下方視判定方法
JP2020126638A (ja) 運転者の状態に応じて特化型のキャリブレーションのために運転者補助装置を自動で調整する方法及び装置
JP2016115120A (ja) 開閉眼判定装置および開閉眼判定方法
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
JP2017199302A (ja) 判定装置、判定方法、判定プログラム及び記録媒体
JPWO2019163124A1 (ja) 三次元位置推定装置及び三次元位置推定方法
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
JP2016192177A (ja) 車両検出システム、車両検出装置、車両検出方法、及び車両検出プログラム
WO2017173480A1 (en) Method and system of distinguishing between a glance event and an eye closure event
CN113906442A (zh) 活动识别方法和设备
JP6459856B2 (ja) 車両運転支援装置、車両運転支援方法、およびプログラム
WO2017217044A1 (ja) 視認方向推定装置
JPWO2019123582A1 (ja) 物体情報生成装置及び物体情報生成プログラム
JP2019175210A (ja) 口形状検出装置
KR102486161B1 (ko) 차량, 차량의 제어 방법 및 영상 탐색 장치
JP7348005B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190729

R151 Written notification of patent or utility model registration

Ref document number: 6572538

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151