JP6597467B2 - 顔向き計測装置 - Google Patents

顔向き計測装置 Download PDF

Info

Publication number
JP6597467B2
JP6597467B2 JP2016084684A JP2016084684A JP6597467B2 JP 6597467 B2 JP6597467 B2 JP 6597467B2 JP 2016084684 A JP2016084684 A JP 2016084684A JP 2016084684 A JP2016084684 A JP 2016084684A JP 6597467 B2 JP6597467 B2 JP 6597467B2
Authority
JP
Japan
Prior art keywords
unit
distance
face
angle
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016084684A
Other languages
English (en)
Other versions
JP2017194345A (ja
Inventor
佳行 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016084684A priority Critical patent/JP6597467B2/ja
Publication of JP2017194345A publication Critical patent/JP2017194345A/ja
Application granted granted Critical
Publication of JP6597467B2 publication Critical patent/JP6597467B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、カメラで撮影した画像から顔向きを計測する技術に関する。
従来、車両の運転者の状態をモニタするために、カメラで撮像した画像から目・鼻などの顔を構成する器官を検出し、それらの配置から顔の向きを計測する技術が知られている。そして、運転者がサングラスを着用することで目が隠れているような場合でも、顔向きを計測できるようにする技術の一つとして、特許文献1には、以下の従来技術が開示されている。
この従来技術では、運転者に向けて光を照射した状態で取得した顔画像から、サングラスの左右のレンズ上の一対の反射点および顔の左右両端位置を検出し、一対の反射点間の中心位置から顔の中心位置を求める。更に、顔を円筒で近似した顔モデルと、顔の中心位置および顔の左右端位置とから顔向きを求めている。
特許第5396287号公報
しかしながら、従来技術では、顔向きが正面でない場合、一対の反射点間の中心位置と顔の中心位置とにずれが生じるため、検出精度が劣化するという問題があった。また、従来技術では、円筒で近似した顔モデルを用いるため、左右方向の顔向きを計測することができるが、縦方向の顔向きを計測することができないという問題もあった。
本開示の一局面は、こうした問題に鑑みてなされたものであり、サングラスを着用している場合でも左右上下方向の顔向き計測を実現する技術を提供することを目的としている。
本開示の一態様は、顔向き計測装置であって、カメラ(2)と、着用判定部(S140、S150)と、反射点抽出部(S210〜S240、S245)と、半径演算部(S270、S280、S275、S285)と、顔向き演算部(S290〜S330、S292、S294、S335)とを備える。
カメラは、被験者に向けて光を照射する一つ以上の光源を有する照射部(22)を備え、被験者の顔を撮影する。着用判定部は、被験者がサングラスを着用しているか否かを判定する。反射点抽出部は、着用判定部にて着用ありと判定された場合、カメラから得られる撮影画像から、サングラスを構成する一対のレンズ上で検出される照射部から照射された光の反射点を抽出する。半径演算部は、光源、およびレンズ、反射点抽出にて抽出された反射点の間で成立する幾何学的な関係を示した関係式を用いて、レンズの曲率半径を求める。顔向き演算部は、半径演算部にて算出された曲率半径と、レンズ上に設定される基準点に対する反射点の相対位置とを用いて、被験者の顔向きを求める。
このような構成によれば、光源とカメラとレンズ上の反射点との位置関係からレンズの曲率半径、即ちレンズの形状を求め、サングラス上の基準点と反射点との位置関係と、レンズの形状とから、特別な顔モデルを用いることなく直接的に顔向きを求めている。このため、左右方向に限らず、上下方向の顔向きも計測することができる。
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
顔向き計測装置の構成を示すブロック図である。 メイン処理のフローチャートである。 第1実施形態におけるサングラスなし顔向き計測処理のフローチャートである。 サングラス領域の抽出方法を示す説明図である。 反射領域に関する説明図である。 光源,カメラ、反射点、レンズの曲率中心の幾何学的な関係を示す説明図である。 レンズ中心、反射点、レンズの曲率中心の関係を示す。 第2実施形態におけるサングラスなし顔向き計測処理のフローチャートである。 光源,カメラ、反射点、レンズの曲率中心の幾何学的な関係を示す説明図である。 第3実施形態におけるサングラスなし顔向き計測処理のフローチャートである。 反射光の見切れに関する説明図である。
以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す顔向き計測装置1は、例えば、自動車の安全な走行または乗員の快適な運転環境を実現するために車両に搭載されるドライバモニタリングシステムの一部を構成する。
顔向き計測装置1は、カメラ2と、フレームメモリ3と、センサ群4と、演算処理部5と、指示入力部6、報知部7と、通信部8とを備える。
カメラ2は、いわゆる単眼カメラであり、撮像部21と、照射部22と、画像取得部23と、露出制御部24と、コントローラ25とを備える。カメラ2は、例えば、ステアリングコラムの上部に設置され、車両のドライバシートに着座した乗員の顔面を撮影する。
撮像部21は、光学素子部211とイメージセンサ212を備える。光学素子部211は、光を集める集光レンズや、予め定められた光の成分(たとえば、近赤外領域の波長)を透過する光学フィルタを少なくとも備える。イメージセンサ212は、CCDまたはCMOS素子を二次元的に配列することで構成された周知のものであり、光学素子部211を介して入射した光の強度に応じた信号を出力する。
照射部22は、上記光学フィルタを透過する成分を含んだ光を照射する一つ以上の光源を備える。本実施形態では、光源は、撮像部21の下方または上方に一つだけ配置されているものとする。なお、光源として、例えば、発光ダイオードを用いることができる。
画像取得部23は、イメージセンサ212から信号を取得し、その信号レベルをデジタルデータに変換して出力する周知の電子回路を備える。
露出制御部24は、撮像部21や照射部22の特性を表す各種パラメータに従い、画像取得部23にて取得される信号(以下、画像信号)の平均的な信号強度が、予め設定されたダイナミックレンジの真ん中付近となるように、照射部22による照射光の輝度(以下、光源輝度)や、イメージセンサ212のシャッター時間(即ち、露出時間)を設定する。
コントローラ25は、露出制御部24での設定に従って光源輝度やシャッター時間を制御し、画像信号の生成を行なう。また、コントローラ25は、照射部22を構成する光源の駆動を、撮像部21での撮像タイミングに合わせて制御する。
フレームメモリ3は、画像取得部23で取得される画像信号を一時的に記憶するメモリであり、複数画面分の記憶容量を有する。
センサ群4は、車両に搭載され、車両の挙動を検出する各種センサであり、車速センサ41、舵角センサ42を少なくとも備える。車速センサ41は、顔向き計測装置1を搭載した車両(以下、自車)の速度を検出する周知のものである。舵角センサ42は、自車のステアリング角度を検出する周知のものである。
指示入力部6は、ドライバによる指示入力を受け付けて、演算処理部5に対してその旨を示す指令を出力する。なお、指示入力の入力方法としては、例えば、所定のスイッチを押下する操作であってもよいし、ドライバが操作可能な既存の操作部材(例えば、ステアリングやブレーキペダル)に対して行う、予め設定された手順に従った操作であってもよい。
報知部7は、演算処理部5からの指示に従って、演算処理部5での処理結果等をドライバに対して通知する。具体的には、顔向きの計測値や計測不能であった場合のエラー通知などを車両の乗員に通知する。
通信部8は、演算処理部5からの指示に従って、車載LANを介して、他の車載装置との通信を行う。少なくとも、演算処理部5での処理結果である顔向きの計測値を、その計測値を利用したアプリケーションを実施する車載装置に送信する。
演算処理部5は、CPU51と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ52)とを有する周知のマイクロコンピュータを中心に構成される。演算処理部5の各種機能は、CPU51が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ52が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、演算処理部5を構成するマイクロコンピュータの数は1つでも複数でもよい。
以下では、演算処理部5のCPU51がプログラムを実行することで実現される機能について、図2および図3のフローチャートを用いて説明する。なお、本機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。
メモリ52には、プログラムの他、処理の実行に必要な情報として、撮影距離D、目間距離Eが記憶されている。図6に示すように、撮影距離Dは、カメラ2の設置位置からドライバシートに着席したドライバまでの平面距離である。目間距離Eは、ドライバの左目の中心と右目の中心との間の距離である。撮影距離Dおよび目間距離Eは、いずれも多くの人について予め実測した値を、統計的に処理することで得られた値を用いる。なお、平面距離とは、車幅方向をX方向、車高方向をY方向、車長方向をZ方向として、X−Z平面内での距離を表すものとする。
[1−2.処理]
CPU51は、メイン処理を繰り返し実行する。
メイン処理が起動すると、図2に示すように、CPU51は、まず、S110にて、カメラ2から画像信号を取得し、フレームメモリ3に保存する。以下では画像信号によって表される画像を撮像画像という。
S120では、S110にて取得した撮像画像から顔面が写っている領域である顔領域を検出する。顔領域の検出には、例えば、パターン認識等を利用した公知の手法を用いることができる。
S130では、S120にて顔領域を検出できたか否かを判断し、検出できた場合は、S140に移行し、検出できなかった場合はS180に移行する。
S180では、顔を検出できなかった旨を表すエラー通知の一つである顔なし通知を行って、本処理を一旦終了する。
S140では、検出された顔領域から目が写っている領域である目領域を検出する。目領域の検出には、顔領域の検出と同様に、例えば、パターン認識等を利用した公知の手法を用いることができる。
S150では、S140にて目領域を検出できたか否かを判断し、検出できた場合はS160に移行し、検出できなかった場合はS170に移行する。
S160では、検出された目領域から得られる情報を利用して顔向きを計測する処理を実行して、本処理を一旦終了する。なお、この処理は、公知であるため説明を省略する。
S170では、後述するサングラスあり顔向き計測処理を実行して、本処理を一旦終了する。
次に、S170で実行するサングラスあり顔向き計測処理の詳細を、図3のフローチャートに沿って説明する。
まず、S210では、顔領域からサングラスが写っている領域の候補となる候補領域を検出する。具体的には、図4に示すように、顔領域のX方向の各位置においてY方向に沿って画素の輝度を積算することで横ヒストグラムを作成する。同様に、顔領域のY方向の各位置においてX方向に沿って画素の輝度を積算することで縦ヒストグラムを作成する。そして、各ヒストグラムにおいて、積算輝度が予め設定された候補抽出閾値より小さくなる領域を候補領域として抽出する。即ち、サングラスが写っている領域の画素は輝度が小さいため、上述のように輝度の積算値を求めることで候補領域を検出することができる。
S220では、S210にて検出された候補領域はサングラスが写っているサングラス領域であるか否かを判断する。具体的には、候補領域の大きさがサングラスの大きさに相当するサイズを有しており、且つ、横ヒストグラム中に、サングラスを構成する左右のレンズに対応して、領域を二つに分ける輝度の高い部位が存在するか等を判断する。候補領域がサングラス領域ではないと判断した場合はS340に移行し、顔向き計測ができない旨を表すエラー通知を行って、本処理を終了する。候補領域がサングラス領域であると判断した場合はS230に移行する。
S230では、サングラス領域から、光を反射している領域である反射領域を検出し、そのうち、光源からの照射光を反射していると推定される反射領域について、その反射領域の中心を反射点として抽出する。なお、反射領域は、例えば、図5に示すように、予め設定された反射抽出閾値より大きな輝度を有する領域を抽出する。そして、その反射領域の大きさが予め設定された許容範囲内にあり、かつ予め設定された扁平率以内の楕円形を有したものを、光源からの照射光に基づく反射領域とする。これにより、光源からの照射光以外の光(即ち、外乱光)に基づく反射領域を除去している。
S240では、サングラス領域のうち、左右のレンズに対応した二つのレンズ領域のそれぞれにて、反射点が抽出されたか否かを判断する。少なくとも一方のレンズ領域で反射点が抽出されていなければ、S340に移行し、顔向き計測ができない旨を表すエラー通知を行って本処理を終了する。二つのレンズ領域のそれぞれで反射点が抽出されていればS250に移行する。
S250では、サングラス領域の画像から、中心点ずれ量ΔPを算出する。具体的には、図5に示すように、各レンズ領域の中心である基準点PRf,PLfの中間点を基準中間点Pof、二つのレンズ領域のそれぞれで検出された二つの反射点PRr,PLrの中間点を反射中間点Porとして、基準中間点Pofから反射中間点Porまでの距離を中間点ずれ量ΔPとして算出する。なお、ここでの各点の位置はX方向における位置を表すものとする。なお、中間点ずれ量ΔPは、一般的に、ドライバの顔向きが正面である場合はほぼゼロとなり、顔向きが正面から離れるほど大きな値をとる。
S260では、S250にて算出された中間点ずれ量ΔPが予め設定された閾値THpより小さいか否かを判断する。中間点ずれ量ΔPが閾値THp以上であれば、ドライバが大きく横を向いており、顔向きを正確に計測することができないものとして、S340に移行しエラー通知を行って本処理を終了する。中間点ずれ量ΔPが閾値THpより小さければ、顔向きの計測が可能であるものとして、S270に移行する。
S270では、水平面(即ち、X−Z平面)内における反射点PRr,PLr間の距離である反射点間距離Hを算出する。
S280では、水平面内での光源の位置、レンズの曲率中心の位置、反射点PLf,PRfの位置の間の幾何学的な関係から成立する関係式である(1)式を用いて、レンズの曲率半径Rを算出する。なお、ここでは、レンズの曲率半径Rはレンズの全体に渡って一様であるものと仮定している。また、撮影距離Dおよび目間距離Eは、メモリ52に予め記憶されている既知の値を用いる。
Figure 0006597467
但し、図6に示すように、水平面内での距離を水平距離として、撮影距離Dとは、カメラ2からドライバ、ひいてはサングラスまでの水平距離であり、目間距離Eとは、サングラスを構成する一対のレンズの曲率中心間の水平距離のことである。また、各レンズの曲率中心から各レンズの基準点PRf,PLfを見た方向を基準として、各レンズの曲率中心から反射点PRr,PLr、ひいてはカメラ2を見た向を表す角度を反射点方位角θR、θLとする。そして、図から(2)式が成立し、D>>Eであることから(3)式に示す近似が成立する。更に、(2)式をRについて解いた式に(3)式を代入することで(1)式が得られる。但し、(3)式において、反射点方位角θR,θLは、水平面内での角度を表すものとする。
S290では、左レンズ領域の基準点PLfと反射点PLrとの距離である左反射点距離LL、右レンズ領域の基準点PRfと反射点PRrとの距離である右反射点距離LRを求める。なお、反射点距離LL,LRは、水平距離をLLh,LRh、Y−Z平面内での距離である垂直距離をLLv,LRvで表すものとする。また、左右レンズ領域のいずれかを区別しないで表すときには、反射点距離をLで表し、その水平距離をLh、垂直距離をLvとも表記する。
S300では、レンズ毎に、S290で求めた反射点距離Lh,LvとS280で求めた曲率半径Rとに基づき、(4)(5)式を用いて、水平面内での反射点方位角θhおよび垂直面内での反射点方位角θvを算出する。図7に示すように、水平面および垂直面の反射点方位角θh,θvは、いずれも同様の考え方で求めることができる。
Figure 0006597467
S310では、ドライバが正面方向を向いている可能性が高いか否かを判別するために予め設定された正面条件が成立するか否かを判断する。正面条件が成立していればS300に移行し、正面条件が成立していなければ、S300をスキップしてS310に移行する。例えば、正面条件として、車速センサ41から得られる車速が、予め設定された速度閾値以上であり、且つ、舵角センサ42から得られる舵角の絶対値が、直進とみなせる予め設定された舵角閾値以下である場合を用いることができる。これは、車両がある程度以上の速度で直進している場合には、ドライバは運転に集中するために正面方向を向いている可能性が高いと考えられるからである。
S320では、S300で求められた反射点方位角θh,θvを用いて、ドライバが正面方向を向いている時の反射点方位角を推定し、これを基準角度θoh,θovに設定して、S310に進む。具体的には、正面条件が成立している時に求められた反射点方位角θh,θvを蓄積し、反射点方位角θh,θvのそれぞれについて角度の出現頻度を表すヒストグラムを作成する。なお、水平面での反射点方位角θhは、左右レンズで個別にヒストグラムを作成する必要があるが、垂直面での反射点方位角θvは、左右レンズで区別する必要はない。そして、作成されたヒストグラム中で最大頻度となる角度、即ち、標準的な角度を、基準角度θoh,θovに設定する。つまり、水平面での基準角度θohは、右レンズと左レンズのそれぞれについて設定され、垂直面での基準角度θovは、両レンズで共通に一つだけ設定される。
S330では、水平面および垂直面のそれぞれについて、S320にて設定された基準角度θoh,θovと、S300にて算出された反射点方位角θh,θvとの差分を求めることで、水平面内での顔向き角度および垂直面内での顔向き角度を求めて、本処理を終了する。
[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)本実施形態では、サングラス上の基準点Pfと反射点Prとの位置関係から求められる反射点距離L(即ち、Lh,Lv)と、レンズの形状を表す曲率半径Rとを用いて反射点方位角θh,θvを求めることで、直接的に顔向きを求めている。このため、円筒状の顔モデルを用いる従来技術とは異なり、左右方向に限らず、上下方向の顔向きも計測することができる。
(1b)本実施形態では、中間点ずれ量ΔPが閾値THpより小さい場合、即ち、ドライバが正面に近い方向を向いている場合にだけ顔向き計測を行うため、精度のよい計測結果を得ることができる。
(1c)本実施形態では、正面条件が成立するときに計測された反射点方位角θh,θvを蓄積し、頻度が高い角度を基準角度θoh,θovとしている。このため、顔向きを求める際の基準となる基準角度θoh,θovを、自動的に設定することができる。
(1d)本実施形態では、一つの光源からの照射光に基づき、サングラスを構成する左右レンズのそれぞれで検出される反射点PRr,PLr間の反射点間距離Hと、既知の撮影距離Dおよび目間距離Eを用いてレンズの曲率半径Rを求めている。このため、顔向きの計測に必要な情報を、ドライバに特別な操作を強いることなく得ることができる。
[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第1実施形態では、レンズの曲率半径を求めるのに、一つの光源からの照射光に対して左右レンズのそれぞれで検出される一対の反射点を利用している。これに対し、第2実施形態では、二つの光源からの照射光に対して左右いずれかのレンズで検出される一対の反射点を利用する点で、第1実施形態と相違する。
具体的には、画像取得時の照射部22の構成、メモリ25に記憶されている情報、およびサングラスなし顔向き計測処理の内容が異なるだけであるため、この点を中心に説明する。
[2−2.構成]
照射部22は、Y方向において、撮像部21を挟んだ両側に配置された一対の光源を有する。照射部22は、その一対の光源を、撮像部21が撮像画像を取得する際に同時に発光させる。
メモリ52には、CPU51が実行する処理のプログラムの他、撮影距離D、光源間距離Bが少なくとも記憶されている。撮影距離Dは、カメラ2の設置位置からドライバシートに着席したドライバまでの距離である。光源間距離Bは、照射部22を構成する一対の光源間の距離である。なお、撮影距離Dおよび光源間距離Bは、Y−Z面内での距離で表される。
[2−3.処理]
次に、本実施形態における演算処理部5が、図3に示した処理に代えて実行する処理、即ち、サングラスなし顔向き計測処理について、図8のフローチャートを用いて説明する。なお、処理内容が同じステップには同じステップ番号を付して説明を省略する。つまり、図8に示す処理では、図3に示した処理からS250、S260を省略し、S240、S270、S280の代わりに、S245、S275、S285を実行するように変更されている。
CPU51は、S210〜S230の処理に続くS245では、右レンズ領域または左レンズ領域の少なくとも一方で、二つの光源に基づく二つの反射点が抽出されたか否かを判断する。肯定判断された場合はS275に移行する。一方、否定判断された場合はS340に移行しエラー通知をして、本処理を終了する。
S275では、同一レンズ領域で検出された二つの反射点Pr1,Pr2間の距離である反射点間距離Hを算出する。この反射点間距離Hは、図9に示すように、Y−Z面(以下、垂直面)内での距離を表す。
S285では、垂直面内での二つの光源の位置、二つの反射点Pr1,Pr2が検出されたレンズの曲率中心の位置、二つの反射点Pr1,Pr2の位置の間の幾何学的な関係から成立する関係式である(6)式を用いて、レンズの曲率半径Rを算出する。なお、ここでは、第1実施形態の場合と同様に、レンズの曲率半径Rはレンズの全体に渡って一様であるものと仮定している。
Figure 0006597467
但し、図9に示すように、垂直面内において、レンズの曲率中心から見た二つの光源の方向が成す角度をφ、レンズの曲率中心から見た二つの反射点Pr1,Pr2の方向が成す角度をθとする。そして、図から(7)〜(9)式が成立するため、(7)式をRについて解いた式に(8)および(9)式を変形した式を代入することで(6)式が得られる。なお、撮影距離Dおよび光源間距離Bは、既知の値として設定されメモリ52に予め記憶された値を用いる。
以下、S290〜S340は第1実施形態の場合と同様である。
[2−4.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1a)(1c)と同様の効果だけでなく、次の効果が得られる。
(2a)本実施形態では、一対の光源からの照射光に基づき、サングラスを構成する左右レンズのいずれか一方で検出される一対の反射点Pr1,Pr2間の反射点間距離Hと、既知の撮影距離Dおよび光源間距離Bを用いてレンズの曲率半径Rを求めている。このため、顔向きの計測に必要な情報を、ドライバに特別な操作を強いることなく得ることができる。
なお、本実施形態では、画像取得時に二つの光源を同時に発光させているが、一つずつ順番に発光させて、サングラス上の反射点を一つずつ検出するように構成してもよい。また、一対の光源は、撮像部21の上下方向(即ち、Y方向)に限らず、左右方向(即ち、X方向)に配置されていてもよい。
[3.第3実施形態]
[3−1.第1実施形態との相違点]
第3実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第1実施形態では、撮像画像から得られる情報を用いて曲率半径Rの算出および基準角度θoの設定を行っているが、基準角度θoは既知とし、この基準角度θoを利用して曲率半径Rの算出を行う点で、第1実施形態と相違する。
具体的には、メモリ25に記憶されている情報、およびサングラスなし顔向き計測処理の内容が異なるだけであるため、この点を中心に説明する。
[3−2.構成]
メモリ52には、撮影距離D、目間距離Eに加えて基準角度θoが記憶されている。つまり、メモリ52が角度記憶部に相当する。基準角度θoは、水平面での角度θohと、垂直面での角度θovとで構成され、更に水平面での角度θohは、右レンズ用と左レンズ用とで構成されている。
[3−3.処理]
次に、本実施形態における演算処理部5が、図3に示した処理に代えて実行する処理、即ち、サングラスなし顔向き計測処理について、図10のフローチャートを用いて説明する。なお、処理内容が同じステップには同じステップ番号を付して説明を省略する。つまり、図10に示す処理では、図3に示した処理からS270〜S280、S310、S320が省略され、S292,S294が追加されていると共に、S330がS335に置換されている。
CPU51は、S210〜S260を実行して、S260にて肯定判断されると、S290に移行し、反射点距離Lh,Lvを算出する。
続くS292では、ドライバが予め設定された指定方向を向いているときに、ドライバに入力させるよう予め決められた指示入力が、指示入力部6を介して行われたか否かを判断する。なお、指示入力は、例えば、ドライバがドライバシートに着席した時に、音声案内等によって、ドライバに指示方向を向かせ、その状態でドライバに所定のスイッチを押下させることによって入力される。指示入力が行なわれていれば、S294に移行し、指示入力が行なわれていなければ、S294をスキップしてS300に移行する。
S294では、S290で算出した反射点距離Lh、Lvを用い、(10)(11)式に従って、レンズの曲率半径Rを算出してS300に進む。なお、基準角度θoh,θovは、メモリ25に記憶されているものを使用する。
Figure 0006597467
なお、算出された曲率半径Rは、(10)(11)式での算出値のいずれか一方をそのまま使用してもよいが、両者の平均値を用いてもよい。
以下、S300、S340の処理は、第1実施形態と同様である。
但し、S300に続くS335では、水平面および垂直面のそれぞれについて、メモリ52に記憶された基準角度θoh,θovと、S300にて算出された反射点方位角θh,θvとの差分を求めることで、水平面内での顔向き角度および垂直面内での顔向き角度を求めて、本処理を終了する。
[3−.効果]
以上詳述した第3実施形態によれば、前述した第1実施形態の効果(1a)と同様の効果だけでなく、次の効果が得られる。
(3a)本実施形態では、ドライバが所定方向を向いた時の反射点方位角である基準角度θoを既知として、ドライバに所定方向を向かせたときに検出される反射点距離Lを用いて、レンズの曲率半径Rを求めている。これにより、曲率半径Rを求める処理を簡略化することができる。
[4.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
(4a)上記実施形態では、撮影距離Dとして一定の値を用いているが、これに限定されるものではない。例えば、ドライバシートのシート位置に応じて変化する可変値を用いてもよい。
(4b)上記第3実施形態では、基準角度θoを既知として、ドライバに所定方向を向かせたときに検出される反射点距離Lを用いてレンズの曲率半径Rを求める技術を、一つの光源からの照射光の反射点を利用する第1実施形態の装置に適用したが、二つの光源からの照射光の反射点を利用する第2実施形態の装置に適用してもよい。
(4c)上記実施形態では、照射部22を構成する光源が撮像部21の上下方向(即ち、Y方向)に一つまたは二つある場合について説明したが、光源は三つ以上あってもよい。なお、複数の光源は、上下方向および左右方向(即ち、X方向)のいずれに複数配列されていてもよく、また、その両方向に二次元的に配列されていてもよい。そして、図11に示すように、ドライバの顔向きが極端である場合、光源の位置によっては、撮像画像に反射領域が検出されない、いわゆる見切れが発生する場合があるが、複数の光源を順次切り替えて使用することで、このような見切れの発生を抑制することができる。
(4d)照射部22を構成する光源が複数存在する場合、各光源は、互いに異なる波長の光を照射するように構成してもよい。この場合、光源を一度に発光させても、撮像部21にて波長毎に異なる画像を生成することで、サングラス上に現れる複数の反射領域のそれぞれが、どの光源に基づくものかを簡単に判別することができる。
(4e)上記実施形態では、車両のドライバシートに着座するドライバを被験者として顔向きを測定する場合を例示したが、被験者はドライバに限定されるものではない。
(4f)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(4g)本開示は、上述した顔向き計測装置の他、当該顔向き計測装置を構成要素とするシステム、当該顔向き計測装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、顔向き計測方法など、種々の形態で本発明を実現することもできる。
1…計測装置、2…カメラ、3…フレームメモリ、4…センサ群、5…演算処理部、6…指示入力部、7…報知部、8…通信部、21…撮像部、22…照射部、23…画像取得部、24…露出制御部、25…コントローラ、41…車速センサ、42…舵角センサ、51…CPU、52…メモリ、211…光学素子部、212…イメージセンサ。

Claims (12)

  1. 被験者に向けて光を照射する一つ以上の光源を有する照射部(22)を備え、前記被験者の顔を撮影するカメラ(2)と、
    前記被験者がサングラスを着用しているか否かを判定する着用判定部(S140、S150)と、
    前記着用判定部にて着用ありと判定された場合、前記カメラから得られる撮影画像から、前記サングラスを構成する一対のレンズ上で検出される前記照射部から照射された光の反射点を抽出する反射点抽出部(S210〜S240,S245)と、
    前記光源、および前記レンズ、前記反射点抽出にて抽出された反射点の間で成立する幾何学的な関係を示した関係式を用いて、前記レンズの曲率半径を求める半径演算部(S270、S280、S275、S285)と、
    前記半径演算部にて算出された曲率半径と、前記レンズ上に設定される基準点に対する前記反射点の相対位置とを用いて、前記被験者の顔向きを求める顔向き演算部(S290〜S330、S292、S294、S335)と、
    を備える顔向き計測装置。
  2. 請求項1に記載の顔向き計測装置であって、
    前記反射点抽出部(S210〜S240)は、前記照射部を構成する一つの光源からの照射光により生じる前記反射点を、前記一対のレンズから一つずつ抽出し、
    前記半径演算部は、
    前記反射点抽出部にて抽出された一対の反射点間の距離である反射点間距離を計測する距離計測部(S270)と、
    前記照射部から前記サングラスまでの距離を撮影距離、前記レンズの曲率中心間の距離を目間距離とし、前記撮影距離および前記目間距離を既知として、前記撮影距離と、前記目間距離と、前記反射点間距離と、前記レンズの曲率半径との間で成立する関係式を用いて前記レンズの曲率半径を求める演算実行部(S280)と、
    を備える、顔向き計測装置。
  3. 請求項2に記載の顔向き計測装置であって、
    前記一対のレンズに設定された一対の基準点間の中心と、前記一対の反射点間の中心との水平距離を求め、該水平距離が予め設定された閾値より小さい場合に、前記半径演算部での処理を許可する許可部(S250、S260)を更に備える、顔向き計測装置。
  4. 請求項1に記載の顔向き計測装置であって、
    前記反射点抽出部(S210〜S230,S245)は、前記照射部を構成する二つの光源からの照射光により、前記一対のレンズのいずれか一方で検出される二つの反射点を抽出し、
    前記半径演算部は、
    前記反射点抽出部にて抽出された一対の反射点間の距離である反射点間距離を計測する距離計測部(S275)と、
    前記照射部から前記サングラスまでの距離を撮影距離、前記二つの光源間の距離を光源間距離とし、前記撮影距離および前記光源間距離を既知として、前記撮影距離と、前記光源間距離と、前記レンズの曲率半径との間で成立する関係式を用いて前記レンズの曲率半径を求める演算実行部(S285)と、
    を備える、顔向き計測装置。
  5. 請求項1ないし請求項4のいずれか1項に記載の顔向き計測装置であって、
    前記顔向き演算部は、
    前記レンズの曲率中心からみた前記基準点の方向に対する前記反射点の方向を表す角度を求める角度演算部(S290)と、
    前記被験者が予め決められた指定方向に顔を向けている時に、前記角度演算部にて求められる角度を基準角度として設定する基準設定部(S310、S320)と、
    前記基準設定部にて設定された基準角度に対する前記角度演算部にて求められた角度の相対値を、前記被験者の顔向きを表す顔向き角度として求める相対値演算部(S330)と、
    を備える顔向き計測装置。
  6. 請求項5に記載の顔向き計測装置であって、
    前記基準設定部は、前記角度演算部での演算結果を蓄積し、最大頻度で現れる角度を前記基準角度とする、顔向き計測装置。
  7. 請求項6に記載の顔向き計測装置であって、
    前記被験者は車両のドライバであり、
    前記車両の挙動を検出するセンサ群(4)を更に備え、
    前記基準設定部は、前記センサ群にて検出される車両の挙動が、予め設定された速度閾値以上の速度で直進していることを表している場合に、前記角度演算部での演算結果を蓄積する、顔向き計測装置。
  8. 請求項1に記載の顔向き計測装置であって、
    前記被験者からの指示が入力される指示入力部(6)と、
    前記被験者が予め決められた指定方向に顔を向けている状態を指定状態として、該指定状態にある時に検出される前記反射点の標準的な位置を標準反射点とし、前記レンズの曲率中心からみた前記基準点に対する前記標準反射点の方向を表すものとして予め設定された基準角度を記憶する角度記憶部(52)と、
    を更に備え、
    前記半径演算部は、
    前記一対のレンズの少なくとも一方を用いて、前記基準点と前記反射点抽出部にて抽出された反射点との距離である反射点距離を計測する距離計測部(S290)と、
    前記指定状態にある時に前記被験者に入力させるよう予め決められた指示が、前記指示入力部を介して入力された時に、前記距離計測部にて計測された反射点距離と、前記角度記憶部に記憶された基準角度と、前記レンズの曲率半径との間で成立する関係式を用いて前記レンズの曲率半径を求める演算実行部(S292、S294)と、
    を備える、顔向き計測装置。
  9. 請求項8に記載の顔向き計測装置であって、
    前記顔向き演算部は、
    前記レンズの曲率中心からみた前記基準点に対する前記反射点の方向を表す角度を求める角度演算部(S300)と、
    前記角度記憶部に記憶された基準角度に対する前記角度演算部にて求められた角度の相対値を、前記被験者の顔向きを表す顔向き角度として求める相対値演算部(S335)と、
    を備える、顔向き計測装置。
  10. 請求項1ないし請求項9のいずれか1項に記載の顔向き計測装置であって、
    前記照射部は、前記カメラの上下方向および左右方向のうち少なくとも一方の方向に沿って複数の光源が配置されている、顔向き計測装置。
  11. 請求項10に記載の顔向き計測装置であって、
    前記照射部を構成する複数の光源は、一つずつ順番に光を照射する、顔向き計測装置。
  12. 請求項11に記載の顔向き計測装置であって、
    前記照射部を構成する複数の光源は、互いに異なる波長の光を照射する、顔向き計測装置。
JP2016084684A 2016-04-20 2016-04-20 顔向き計測装置 Expired - Fee Related JP6597467B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016084684A JP6597467B2 (ja) 2016-04-20 2016-04-20 顔向き計測装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016084684A JP6597467B2 (ja) 2016-04-20 2016-04-20 顔向き計測装置

Publications (2)

Publication Number Publication Date
JP2017194345A JP2017194345A (ja) 2017-10-26
JP6597467B2 true JP6597467B2 (ja) 2019-10-30

Family

ID=60154819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016084684A Expired - Fee Related JP6597467B2 (ja) 2016-04-20 2016-04-20 顔向き計測装置

Country Status (1)

Country Link
JP (1) JP6597467B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11694449B2 (en) 2020-07-02 2023-07-04 Toyota Jidosha Kabushiki Kaisha Driver monitor and method for monitoring driver

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4825473B2 (ja) * 2005-09-05 2011-11-30 アイシン精機株式会社 顔向き判別装置
JP4811259B2 (ja) * 2006-12-11 2011-11-09 日産自動車株式会社 視線方向推定装置及び視線方向推定方法
JP5396287B2 (ja) * 2010-01-14 2014-01-22 本田技研工業株式会社 顔向き検知装置
DE112016005939B4 (de) * 2016-02-18 2020-02-27 Mitsubishi Electric Corporation Fahrgasterkennungsvorrichtung, Fahrgasterkennungssystem und Fahrgasterkennungsverfahren

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11694449B2 (en) 2020-07-02 2023-07-04 Toyota Jidosha Kabushiki Kaisha Driver monitor and method for monitoring driver

Also Published As

Publication number Publication date
JP2017194345A (ja) 2017-10-26

Similar Documents

Publication Publication Date Title
US9626767B2 (en) Surface normal information producing apparatus, image capturing apparatus, surface normal information producing method, and storage medium storing surface normal information producing program
JP6013884B2 (ja) 物体検出装置及び物体検出方法
US20200210733A1 (en) Enhanced video-based driver monitoring using phase detect sensors
WO2010100842A1 (ja) 撮像装置、運転者監視装置、顔部測距方法およびプログラム
JP2015194884A (ja) 運転者監視システム
US20130120712A1 (en) Method and device for determining the eye position
JP6737212B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP7283841B2 (ja) 視線計測装置
JP6555707B2 (ja) 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
JP6597467B2 (ja) 顔向き計測装置
JP2016051317A (ja) 視線検出装置
KR20150098035A (ko) 객체의 3차원 형상을 산출하는 장치 및 방법
JP2009287936A (ja) 運転者眼球位置検出装置
JP6551269B2 (ja) 距離計測装置
JP7028814B2 (ja) 外形認識装置、外形認識システム及び外形認識方法
JP5004099B2 (ja) カーソル移動制御方法及びカーソル移動制御装置
JP6630118B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6169446B2 (ja) 視線検出装置
JP2017049179A (ja) 計測装置
JP5024161B2 (ja) 顔位置推定装置
JP4260715B2 (ja) 視線測定方法および視線測定装置
US11790600B2 (en) Image processing device, imaging apparatus, image processing method, and recording medium
US12062199B2 (en) Distance determination between an image sensor and a target area
JP5981353B2 (ja) 3次元計測装置
JP6611872B2 (ja) 計測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R151 Written notification of patent or utility model registration

Ref document number: 6597467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees