JP6946993B2 - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP6946993B2 JP6946993B2 JP2017236683A JP2017236683A JP6946993B2 JP 6946993 B2 JP6946993 B2 JP 6946993B2 JP 2017236683 A JP2017236683 A JP 2017236683A JP 2017236683 A JP2017236683 A JP 2017236683A JP 6946993 B2 JP6946993 B2 JP 6946993B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- driver
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
第2の態様によれば、周辺光の影響を低減して濃淡のバラツキのない高品質の第1の顔画像を得ることが可能となる。
第3の態様によれば、近赤外光により顔が照明されるので、運転者に対する防眩性を維持すると共に、サングラスを着用した運転者についても顔画像を取得することができる。また、偏光フィルタを通して照明することで、運転者が仮に眼鏡を着用していたとしても、眼鏡により近赤外光が反射されることなく、良好な第1の顔画像を得ることができる。
第4の態様によれば、周辺光の影響を低減して光学パターンによる画像成分を精度良く抽出することができ、これにより第2の顔画像として高精度の三次元画像を得ることが可能となる。
第5の態様によれば、別々に得られる第1の顔画像と第2の顔画像が同一の画素位置同士で対応付けられることで、同一位置にある目の三次元位置とその瞳孔の二次元位置とをそれぞれ検出することが可能となる。
第6の態様によれば、運転者の目の位置に対する瞳孔の位置により視線の方向を算出する際に、カメラに対する目の奥行き方向の位置も考慮されるので、運転者の視線の方向を正確に検出することができる。
先ず、この発明の一実施形態に係る画像処理装置の一適用例について説明する。
図1は、この発明に係る画像処理装置の一適用例を説明するブロック図である。画像処理装置は、カメラヘッド1と、顔画像検出処理ユニット2とを備えている。
(構成例)
図2は、この発明の一実施形態に係る画像処理装置を搭載した車両3の構成の一例を示すブロック図である。本実施形態に係る画像処理装置は、例えば、カメラヘッド10と、顔画像検出処理ユニット20とを備えている。
カメラヘッド10は、例えば、ダッシュボードの運転者4と正対する位置に設置される。図3はカメラヘッド10の内部構造の一例を示す正面図である。
図4はその構成を示す斜視図である。すなわち、プロジェクタ基板31には、例えば近赤外光を発光する発光素子32が装着されている。またプロジェクタ基板31上には、上記発光素子32の光軸方向に、例えば円筒形状をなすプロジェクタ光学系33が配置されている。プロジェクタ光学系33は、マスクホルダと、レンズホルダとおよび投影レンズを有する。マスクホルダには、上記格子状の光学パターンを生成するためのマスクが内蔵されている。投影レンズは、上記マスクにより生成される光学パターンを所定の倍率で運転者の顔に投影する。なお、光学パターンは、格子状に限らず、他に縞状や市松模様のようなパターンでもよい。
顔画像検出処理ユニット20は、上記カメラヘッド10を制御して、運転者4の顔の二次元画像データおよび三次元画像データを取得する。そして、この取得された二次元画像データおよび三次元画像データをもとに運転者4の目の三次元位置および当該目の瞳孔の二次元位置を検出し、さらにこれらの検出結果をもとに運転者4の視線を検出する処理を行う。
図5は、顔画像検出処理ユニット20のハードウェア構成の一例を示すブロック図である。
顔画像検出処理ユニット20は、ハードウェアとして、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサ21Aを有し、このハードウェアプロセッサ21Aに、プログラムメモリ21B、データメモリ25、カメラヘッドインタフェース(カメラヘッドI/F)23、外部インタフェース(外部I/F)24を、バス22を介して接続したものとなっている。
図6は、図5に示した顔画像検出処理ユニット20のハードウェア構成に、さらにソフトウェア構成を追加して示したブロック図である。
データメモリ25の記憶領域には、二次元画像記憶部251と、三次元画像記憶部252と、検出結果記憶部253が設けられている。二次元画像記憶部251および三次元画像記憶部252は、それぞれ制御ユニット21により取得された二次元画像データおよび三次元画像データを記憶するために用いられる。検出結果記憶部253は、制御ユニット21により検出される、目の三次元位置および当該目の瞳孔の二次元位置を表す情報を記憶するために使用される。
(1) 上記検出周期ごとに、上記二次元画像記憶部251および上記三次元画像記憶部252から、同一の検出周期内に取得された二次元画像データおよび三次元画像データを読み出し、この二次元画像データと三次元画像データとを同一の画素位置同士で対応付ける処理。
次に、以上のように構成された画像処理装置の動作例を説明する。
図7は顔画像検出処理ユニット20の処理手順と処理内容の一例を示すフローチャートである。
顔画像検出処理ユニット20の制御ユニット21は、カメラヘッド制御部211の制御の下、ステップS11において着座センサ40から出力される着座検出信号の入力を監視している。この状態で、運転者が座席に着座すると着座センサ40から着座検出信号が出力される。この着座検出信号は、外部I/F24を介して制御ユニット21に入力される。制御ユニット21は、上記着座検出信号の入力をステップS11で検出すると、先ず運転者の顔の二次元画像データを取得するための制御を以下の手順で実行する。
上記二次元画像データの取得処理を終了すると、次に制御ユニット21は、カメラヘッド制御部211の制御の下、ステップS19において、カメラヘッドI/F23からカメラヘッド10に対しパターン投影信号を出力する。カメラヘッド10は、上記パターン投影信号を受信するとパターン投影プロジェクタ10bが点灯する。これにより運転者の顔には格子状のパターンが投影される。
上記三次元差分画像データVbが取得されると、続いて制御ユニット21は画像処理部214の制御の下、ステップS23において、上記二次元画像記憶部251に記憶された二次元差分画像データVaと、上記三次元画像記憶部252に記憶された三次元差分画像データVbを読み出す。そして、この読み出された二次元差分画像データVaと三次元差分画像データVbとを、画素位置が同一のもの同士で対応付ける。この対応付け処理は、上記二次元差分画像データVaと三次元差分画像データVbがいずれも1個の同一のカメラ10aにより得られた画像をもとに生成されたものであるため、フレームを重ねるだけで簡単かつ精度良く行うことができる。
次に制御ユニット21は、画像処理部214の制御の下、ステップS24において運転者4の瞳孔の二次元位置を例えば以下のように検出する。
すなわち、上記二次元画像記憶部251から二次元差分画像データVaを読み出し、この二次元差分画像データVaから運転者4の目を認識する。目の認識は、例えばパターンマッチング等の既存の画像認識技術を用いることで実現できる。そして、上記認識した目の画像から図8に例示するように瞳孔41を認識し、この瞳孔41の二次元位置を検出する。この瞳孔41の二次元位置は、二次元画像のフレームを二次元平面(X−Y座標平面)と定義するとき、この二次元平面のX−Y座標により表される。画像処理部214は、上記検出された瞳孔41の二次元位置を表す情報を検出結果記憶部253に記憶させる。
続いて制御ユニット21は、画像処理部214の制御の下、ステップS25により運転者4の目(眼球)の輝点の三次元位置を例えば以下のように検出する。
すなわち、画像処理部214は、先ず三次元画像記憶部252から三次元差分画像データVbを読み出し、この三次元差分画像データVbから運転者4の目を認識する。ここでの目の認識も、例えばパターンマッチング等の既存の画像認識技術を適用することで実現できる。
上記瞳孔の二次元位置の検出処理および目の三次元位置の検出処理が終了すると、制御ユニット21は、視線検出部215の制御の下、ステップS27において運転者4の視線方向の検出処理を実行する。
以上詳述したように一実施形態では、カメラヘッド10に1個のカメラ10aを設け、この1個のカメラ10aにより、運転者4の顔の二次元画像データと、格子状の光学パターンを投影した状態で撮像した運転者4の顔の三次元画像データとをそれぞれ取得している。そして、上記取得された二次元画像データと三次元画像データとを画素位置が同一のもの同士で対応付け、これにより運転者4の同一の目を対象として、上記二次元画像データから瞳孔の二次元位置を検出すると共に、上記三次元画像データから目の三次元位置を検出するようにしている。
前記一実施形態では、カメラヘッド10において、カメラ10a、パターン投影プロジェクタ10bおよび照明部10c,10dを一例に配置した構成とした場合について例示したが、1個のカメラ10aを囲むようにパターン投影プロジェクタ10bおよび照明部10c,10dを円形または円弧状に配置するようにしてもよい。
上記実施形態の一部または全部は、特許請求の範囲のほか以下の付記に示すように記載することも可能であるが、これに限定されない。
(付記1)
ハードウェアプロセッサ(21A)とメモリ(21B)とを有する画像処理装置であって、
前記ハードウェアプロセッサ(21A)が、
前記運転者(4)の顔に対し光学パターンを投影し(211)、
前記運転者(4)の顔を撮像し(211)、
前記運転者(4)の顔に対し前記前記光学パターンが投影されていない状態で前記撮像された第1の顔画像と、前記光学パターンが投影されている状態で前記撮像された第2の顔画像とをそれぞれ取得し(212,213)、
前記第1の顔画像と前記第2の顔画像とを対応付ける(214)ように構成される、画像処理装置。
ハードウェアプロセッサ(21A)とメモリ(21B)とを有する装置が実行する画像処理方法であって、
前記ハードウェアプロセッサ(21A)が、運転者(4)の顔を撮像するように撮像部を制御して、当該撮像部により撮像された第1の顔画像を取得する過程(S13〜S18)と、
前記ハードウェアプロセッサ(21A)が、前記運転者(4)の顔に対し光学パターンを投影するように投影部を制御する過程(S19)と、
前記ハードウェアプロセッサ(21A)が、前記運転者(4)の顔に対し前記光学パターンが投影された状態で前記運転者(4)の顔を撮像するように前記撮像部を制御し、当該撮像部(10a)により撮像された第2の顔画像を取得する過程(S20〜S22)と、
前記ハードウェアプロセッサ(21A)が、前記第1の顔画像と前記第2の顔画像とを対応付ける過程(S23)と
を具備する、画像処理方法。
ハードウェアプロセッサ(21A)とメモリ(21B)とを有する装置が実行する画像処理方法であって、
前記ハードウェアプロセッサ(21A)が、前記運転者(4)の顔に対し、光学パターンを投影するように投影部を制御する過程(S19)と、
前記ハードウェアプロセッサ(21A)が、前記運転者(4)の顔に対し前記光学パターンが投影された状態で、前記運転者(4)の顔を撮像するように撮像部(10a)を制御して、第2の顔画像を取得する過程と(S20〜S22)、
前記ハードウェアプロセッサ(21A)が、前記光学パターンが投影されていない状態で前記運転者(4)の顔を撮像するように前記撮像部(10a)を制御して、第1の顔画像を取得する過程(S13〜S18)と、
前記ハードウェアプロセッサ(21A)が、前記第1の顔画像と前記第2の顔画像とを対応付ける過程(S23)と
を具備する、画像処理方法。
1b…投影部、10b…パターン投影プロジェクタ、
1c,10c,10d,10d…照明部、11…ヘッド筐体、
11c,12c,11d,12d…照明用の発光素子、
2,20…顔画像検出処理ユニット、
2a…撮像制御部、2b…画像処理部、21…制御ユニット、
21A…CPU、21B…プログラムメモリ、22…バス、
23…カメラヘッドI/F、24…外部I/F、25…データメモリ、
3…車両、4…運転者、31…プロジェクタ基板、32…発光素子、
33…プロジェクタ光学系、40…着座センサ、50…表示制御装置、
211…カメラヘッド制御部、212…二次元画像取得処理部、
213…三次元画像取得処理部、214…画像処理部、215…視線検出部、
251…二次元画像記憶部、252…三次元画像記憶部、
253…検出結果記憶部。
Claims (7)
- 車両内に設置され、撮像画像から運転者の顔画像を検出する画像処理装置であって、
前記運転者の顔に対し光学パターンを投影する投影部と、
前記運転者の顔を撮像する撮像部と、
前記運転者の顔に対し前記投影部により前記光学パターンが投影されていない状態で前記撮像部により撮像された第1の顔画像と、前記光学パターンが投影されている状態で前記撮像部により撮像された第2の顔画像とをそれぞれ取得する撮像制御部と、
前記第1の顔画像と前記第2の顔画像とを対応付ける画像処理部と
を具備し、
前記画像処理部は、
前記第1の顔画像と前記第2の顔画像とを画素位置が同一のもの同士で対応付ける処理部と、
前記第2の顔画像をもとに、前記撮像部と前記顔の目とを結ぶ光軸と、当該光軸と直交する二次元平面により定義される三次元空間における前記目の三次元位置を検出する第1の検出部と、
前記第1の顔画像をもとに、前記三次元位置の検出対象となった目を対象として、当該目の瞳孔の前記二次元平面における二次元位置を検出する第2の検出部と
を備える、画像処理装置。 - 前記運転者の顔を照明する照明部を、さらに具備し、
前記撮像制御部は、前記照明部により前記顔が照明された状態で前記撮像部により撮像された画像と、前記照明部により前記顔が照明されていない状態で前記撮像部により撮像された画像とをそれぞれ取得し、前記取得された各画像の差分画像を前記第1の顔画像とする、請求項1に記載の画像処理装置。 - 前記照明部は、近赤外光を発光する光源と、当該光源から発光された近赤外光を偏光する偏光フィルタとを備え、当該偏光フィルタを通過した前記近赤外光により前記顔を照明する、請求項2に記載の画像処理装置。
- 前記撮像制御部は、前記運転者の顔に対し前記投影部により前記光学パターンが投影された状態で前記撮像部により撮像された画像と、前記光学パターンが投影されていない状態で前記撮像部により撮像された画像とをそれぞれ取得し、前記取得された各画像の差分画像を前記第2の顔画像とする、請求項1乃至3のいずれかに記載の画像処理装置。
- 前記画像処理部により対応付けられた前記検出された目の三次元位置と前記検出された瞳孔の二次元位置とに基づいて前記運転者の視線を検出する視線検出部を、
さらに具備する請求項1に記載の画像処理装置。 - 車両内に設置され、撮像画像から運転者の顔画像を検出する画像処理装置が実行する画像処理方法であって、
前記画像処理装置が、前記運転者の顔を撮像部により撮像して、第1の顔画像を取得する過程と、
前記画像処理装置が、前記運転者の顔に対し縞状または格子状をなす光学パターンを投影する過程と、
前記画像処理装置が、前記運転者の顔に対し前記光学パターンが投影された状態で前記運転者の顔を前記撮像部により撮像して、第2の顔画像を取得する過程と、
前記画像処理装置が、前記第1の顔画像と前記第2の顔画像とを画素位置が同一のもの同士で対応付ける過程と、
前記画像処理装置が、前記第2の顔画像をもとに、前記撮像部と前記顔の目とを結ぶ光軸と、当該光軸と直交する二次元平面により定義される三次元空間における前記目の三次元位置を検出する過程と、
前記画像処理装置が、前記第1の顔画像をもとに、前記三次元位置の検出対象となった目を対象として、当該目の瞳孔の前記二次元平面における二次元位置を検出する過程と
を具備する、画像処理方法。 - 車両内に設置され運転者の顔の画像を検出する画像処理装置が実行する画像処理方法であって、
前記画像処理装置が、前記運転者の顔に対し、縞状または格子状をなす光学パターンを投影する過程と、
前記画像処理装置が、前記運転者の顔に対し前記光学パターンが投影された状態で前記運転者の顔を撮像部により撮像して、第2の顔画像を取得する過程と、
前記画像処理装置が、前記光学パターンが投影されていない状態で前記運転者の顔を前記撮像部により撮像して、第1の顔画像を取得する過程と、
前記画像処理装置が、前記第1の顔画像と前記第2の顔画像とを画素位置が同一のもの同士で対応付ける過程と、
前記画像処理装置が、前記第2の顔画像をもとに、前記撮像部と前記顔の目とを結ぶ光軸と、当該光軸と直交する二次元平面により定義される三次元空間における前記目の三次元位置を検出する過程と、
前記画像処理装置が、前記第1の顔画像をもとに、前記三次元位置の検出対象となった目を対象として、当該目の瞳孔の前記二次元平面における二次元位置を検出する過程と
を具備する、画像処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017236683A JP6946993B2 (ja) | 2017-12-11 | 2017-12-11 | 画像処理装置および画像処理方法 |
PCT/JP2018/044832 WO2019117001A1 (ja) | 2017-12-11 | 2018-12-06 | 画像処理装置および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017236683A JP6946993B2 (ja) | 2017-12-11 | 2017-12-11 | 画像処理装置および画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019105908A JP2019105908A (ja) | 2019-06-27 |
JP6946993B2 true JP6946993B2 (ja) | 2021-10-13 |
Family
ID=66820343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017236683A Active JP6946993B2 (ja) | 2017-12-11 | 2017-12-11 | 画像処理装置および画像処理方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6946993B2 (ja) |
WO (1) | WO2019117001A1 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6850872B1 (en) * | 2000-08-30 | 2005-02-01 | Microsoft Corporation | Facial image processing methods and systems |
JP5048381B2 (ja) * | 2007-04-10 | 2012-10-17 | 株式会社デンソー | 三次元形状復元装置 |
JP5136965B2 (ja) * | 2008-09-03 | 2013-02-06 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2012177671A (ja) * | 2011-02-27 | 2012-09-13 | Plex International Design Co Ltd | 微細非周期パターン投影装置および方法とそれを用いた三次元計測装置 |
JP6237032B2 (ja) * | 2013-09-19 | 2017-11-29 | 凸版印刷株式会社 | 色と三次元形状の計測方法及び装置 |
-
2017
- 2017-12-11 JP JP2017236683A patent/JP6946993B2/ja active Active
-
2018
- 2018-12-06 WO PCT/JP2018/044832 patent/WO2019117001A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2019117001A1 (ja) | 2019-06-20 |
JP2019105908A (ja) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6036065B2 (ja) | 注視位置検出装置及び注視位置検出方法 | |
JP5045212B2 (ja) | 顔画像撮像装置 | |
US9993154B2 (en) | Eye gaze detection supporting device and eye gaze detection supporting method | |
US20190329699A1 (en) | Illumination Device for a Motor Vehicle for Increasing the Perceptibility of an Obstacle | |
JP5772714B2 (ja) | 灯火検出装置及び車両制御システム | |
KR101769177B1 (ko) | 시선 추적 장치 및 방법 | |
EP3070641B1 (en) | Vehicle body with imaging system and object detection method | |
JP6948688B2 (ja) | 視線計測装置、視線計測方法および視線計測プログラム | |
KR20100112853A (ko) | 3차원 거리 인식장치 | |
WO2016142489A1 (en) | Eye tracking using a depth sensor | |
WO2018164104A1 (ja) | 眼部画像処理装置 | |
CN111417885B (zh) | 用于确定增强现实眼镜的姿态的系统和方法 | |
JP2011087006A (ja) | 車両用表示装置 | |
JP6717330B2 (ja) | 視線検出装置、該視線検出装置の制御方法、角膜反射像位置の検出方法、及びコンピュータプログラム | |
JP6555707B2 (ja) | 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム | |
JP2016183890A (ja) | 自己位置算出装置及び自己位置算出方法 | |
JP6946993B2 (ja) | 画像処理装置および画像処理方法 | |
JP6834928B2 (ja) | 画像処理装置および画像処理方法 | |
US10691203B2 (en) | Image sound output device, image sound output method and image sound output program | |
JP2016122380A (ja) | 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置 | |
CN111971527B (zh) | 摄像装置 | |
JP2015066046A (ja) | 眼鏡装用画像解析装置、眼鏡装用画像解析プログラム | |
JP2018113622A (ja) | 画像処理装置、画像処理システム、及び、画像処理方法 | |
JP2017162233A (ja) | 視線検出装置および視線検出方法 | |
JP4080183B2 (ja) | 前眼部撮影装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6946993 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |