JP6946993B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6946993B2
JP6946993B2 JP2017236683A JP2017236683A JP6946993B2 JP 6946993 B2 JP6946993 B2 JP 6946993B2 JP 2017236683 A JP2017236683 A JP 2017236683A JP 2017236683 A JP2017236683 A JP 2017236683A JP 6946993 B2 JP6946993 B2 JP 6946993B2
Authority
JP
Japan
Prior art keywords
image
face
driver
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017236683A
Other languages
English (en)
Other versions
JP2019105908A (ja
Inventor
山本 和夫
和夫 山本
正樹 諏訪
正樹 諏訪
航一 木下
航一 木下
向井 仁志
仁志 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017236683A priority Critical patent/JP6946993B2/ja
Priority to PCT/JP2018/044832 priority patent/WO2019117001A1/ja
Publication of JP2019105908A publication Critical patent/JP2019105908A/ja
Application granted granted Critical
Publication of JP6946993B2 publication Critical patent/JP6946993B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

この発明の実施形態は、画像処理装置および画像処理方法に関する。
従来、物体の三次元形状を検出する手法としては、ステレオカメラを用いるものや、二次元画像カメラとTOF(Time Of Flight)距離画像カメラとを組み合わせるものが知られている。例えば、特許文献1には、コンテナなどの物体を赤外線カメラと距離画像カメラとを用いてほぼ同時に撮像し、赤外線カメラにより得られる上記物体の二次元赤外画像と、距離画像カメラにより得られる物体までの距離画像とをもとに、上記物体の輪郭や境界を検出する技術が記載されている。
特開2012−220479号公報
一方、最近では、車両の運転者を対象として、運転に先立ち運転者の顔を撮像してその撮像画像をもとに運転者を認証したり、運転中の運転者の顔を撮像してその撮像画像をもとに視線や顔の向き等を検出したりする技術の開発が進められている。この技術を実現するには、運転者の顔の二次元画像および三次元画像を取得する必要がある。
しかし、従来の三次元画像検出手法は、例えば特許文献1に記載されているように赤外線カメラと距離画像カメラという2種類のカメラを使用するものとなっている。このため、装置の大型化が避けられず、車両内のコックピットのような比較的狭いスペースには設置することが困難である。また装置のコストアップも避けられない。さらに、例えば顔認証や視線の方向を検出するために運転者の顔の三次元画像を得るためには、複数のカメラにより得られた画像データを画素単位で精度良く位置合わせする必要があり、キャリブレーション処理等の面倒な処理が必要不可欠となる。
この発明は、上記事情に着目してなされたもので、一側面では、運転者の顔の二次元画像と三次元画像を小型の構成でかつ複雑な画像処理を必要とすることなく検出できる技術を提供しようとするものである。
上記課題を解決するために、この発明に係る画像処理装置の第1の態様は、運転者の顔に対し光学パターンを投影する投影部と、前記運転者の顔を撮像する撮像部と、撮像制御部と、画像処理部とを具備する。そして、撮像制御部により、前記運転者の顔に対し前記投影部により前記光学パターンが投影されていない状態で前記撮像部により撮像された第1の顔画像を取得すると共に、前記光学パターンが投影された状態で前記撮像部により撮像された第2の顔画像を取得し、前記画像処理部により、前記取得された第1の顔画像と前記第2の顔画像とを対応付けるようにしたものである。
この発明に係る画像処理装置の第1の態様によれば、前記第1の顔画像と前記第2の顔画像が1台の撮像部により取得される。このため、第1の顔画像と第2の顔画像とをそれぞれ別個の撮像部により取得する場合に比べ、装置の小型化とコストダウンを図ることができる。これは、車両内のコックピットのように顔画像の撮像に適する十分なスペースを確保することが困難な場所でも、装置を設置することが可能となるという格別の効果を奏する。また、第1の顔画像と第2の顔画像が1台の撮像部により得られるので、これらの顔画像を対応付ける処理を、面倒なキャリブレーション処理等を必要とすることなく、簡単かつ高精度に行うことが可能となる。
この発明に係る画像処理装置の第2の態様は、前記画像処理装置の第1の態様において、前記運転者の顔を照明する照明部をさらに具備する。そして、前記撮像制御部が、前記照明部により前記顔が照明された状態で前記撮像部により撮像された画像と、前記照明部により前記顔が照明されていない状態で前記撮像部により撮像された画像とをそれぞれ取得し、前記取得された各画像の差分画像を前記第1の顔画像とするようにしたものである。
第2の態様によれば、周辺光の影響を低減して濃淡のバラツキのない高品質の第1の顔画像を得ることが可能となる。
この発明に係る画像処理装置の第3の態様は、前記画像処理装置の第2の態様において、前記照明部を、近赤外光を発光する光源と、当該光源から発光された近赤外光を偏光する偏光フィルタとを備え、当該偏光フィルタを通過した前記近赤外光により前記顔を照明するように構成したものである。
第3の態様によれば、近赤外光により顔が照明されるので、運転者に対する防眩性を維持すると共に、サングラスを着用した運転者についても顔画像を取得することができる。また、偏光フィルタを通して照明することで、運転者が仮に眼鏡を着用していたとしても、眼鏡により近赤外光が反射されることなく、良好な第1の顔画像を得ることができる。
この発明に係る画像処理装置の第4の態様は、前記画像処理装置の第1乃至第3の態様のいずれかにおいて、前記撮像制御部により、前記運転者の顔に対し前記投影部により前記光学パターンが投影された状態で前記撮像部により撮像された画像と、前記光学パターンが投影されていない状態で前記撮像部により撮像された画像とをそれぞれ取得し、前記取得された各画像の差分画像を前記第2の顔画像とするようにしたものである。
第4の態様によれば、周辺光の影響を低減して光学パターンによる画像成分を精度良く抽出することができ、これにより第2の顔画像として高精度の三次元画像を得ることが可能となる。
この発明に係る画像処理装置の第5の態様は、前記画像処理装置の第1乃至第4の態様のいずれかにおいて、前記画像処理部として、前記第1の顔画像と前記第2の顔画像とを画素位置が同一のもの同士で対応付ける処理部と、前記第2の顔画像をもとに、前記撮像部と前記顔の目とを結ぶ光軸と、当該光軸と直交する二次元平面により定義される三次元空間における前記目の三次元位置を検出する第1の検出部と、前記第1の顔画像をもとに、前記三次元位置の検出対象となった目と同一位置にある目の画像を対象として、当該目の瞳孔の前記二次元平面における二次元位置を検出する第2の検出部とを備えるようにしたものである。
第5の態様によれば、別々に得られる第1の顔画像と第2の顔画像が同一の画素位置同士で対応付けられることで、同一位置にある目の三次元位置とその瞳孔の二次元位置とをそれぞれ検出することが可能となる。
この発明に係る画像処理装置の第6の態様は、前記画像処理装置の第5の態様において、視線検出部をさらに具備し、この視線検出部により、前記画像処理部により対応付けられた前記検出された目の三次元位置と、前記検出された瞳孔の二次元位置とに基づいて、前記運転者の視線を検出するようにしたものである。
第6の態様によれば、運転者の目の位置に対する瞳孔の位置により視線の方向を算出する際に、カメラに対する目の奥行き方向の位置も考慮されるので、運転者の視線の方向を正確に検出することができる。
上記課題を解決するためにこの発明に係る画像処理方法の第1の態様は、画像処理装置が、運転者の顔を撮像部により撮像して第1の顔画像を取得する過程と、前記運転者の顔に対し光学パターンを投影する過程と、前記運転者の顔に対し前記光学パターンが投影された状態で前記運転者の顔を前記撮像部により撮像して第2の顔画像を取得する過程と、前記第1の顔画像と前記第2の顔画像とを対応付ける過程とを具備するようにしたものである。
この発明に係る画像処理方法の第1の態様によれば、第1の顔画像と第2の顔画像を1台の撮像部により取得することが可能となる。このため、第1の顔画像と第2の顔画像とをそれぞれ別個の撮像部により取得する場合に比べ、装置の小型化とコストダウンを図ることができる。また、第1の顔画像と第2の顔画像とが1個の撮像部により得られるので、これらの画像を対応付ける処理を、面倒なキャリブレーション処理等を必要とすることなく、簡単かつ高精度に行うことが可能となる。
この発明に係る画像処理方法の第2の態様は、前記画像処理方法の第1の態様において、画像処理装置が、運転者の顔に対し光学パターンを投影する過程と、前記運転者の顔に対し前記光学パターンが投影された状態で前記運転者の顔を撮像部により撮像して第2の顔画像を取得する過程と、前記光学パターンが投影されていない状態で前記運転者の顔を前記撮像部により撮像して第1の顔画像を取得する過程と、前記第1の顔画像と前記第2の顔画像とを対応付ける過程とを具備するようにしたものである。
この発明に係る画像処理方法の第2の態様によれば、第1の態様と同様に、第1の顔画像と第2の顔画像を1台の撮像部により取得することが可能となり、これにより装置の小型化およびコストダウンを可能とすると共に、第1の顔画像と第2の顔画像とをキャリブレーション等の処理を行うことなく簡単な処理により高精度に対応付けることができると云った優れた効果が奏せられる。
すなわちこの発明の各態様によれば、運転者の顔の二次元画像と三次元画像を小型の構成でかつ複雑な画像処理を必要とすることなく検出できる技術を提供することができる。
図1は、この発明に係る画像処理装置の一適用例を説明するブロック図である。 図2は、この発明の一実施形態に係る画像処理装置を搭載した車両の概略構成図である。 図3は、この発明の一実施形態に係る画像処理装置のカメラヘッドの内部構造を示す図である。 図4は、図3に示したカメラヘッドのパターン投影プロジェクタの構造を示す斜視図である。 図5は、この発明の一実施形態に係る画像処理装置の顔画像検出処理ユニットのハードウェア構成を示すブロック図である。 図6は、この発明の一実施形態に係る画像処理装置のカメラヘッドおよび顔画像検出処理ユニットのハードウェア構成に、さらにソフトウェア構成を追加して示したブロック図である。 図7は、図6に示した顔画像検出処理ユニットによる制御手順と制御内容を示すフローチャートである。 図8は、図6に示した画像処理装置により撮像された二次元画像データの一例を示す図である。 図9は、図6に示した画像処理装置により撮像された三次元画像データの一例を示す図である。 図10は、目の位置の三次元計測の原理説明に使用する図である。 図11は、視線検出の原理説明に使用する図である。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[適用例]
先ず、この発明の一実施形態に係る画像処理装置の一適用例について説明する。
図1は、この発明に係る画像処理装置の一適用例を説明するブロック図である。画像処理装置は、カメラヘッド1と、顔画像検出処理ユニット2とを備えている。
カメラヘッド1は、1個の撮像部1aと、1個の投影部1bと、2個の照明部1c,1dとを備える。撮像部1aは、固体撮像素子を用いたイメージセンサからなり、運転者の顔を撮像してその顔画像データを出力する。投影部1bは、例えばパターン投影プロジェクタからなり、運転者の顔に対し例えば縞状または格子状の光学パターンを投影する。照明部1c,1dは、光源として例えばLED(Light Emitting Diode)等の固体発光素子を使用したもので、運転者の顔を照明する。
顔画像検出処理ユニット2は、撮像制御部2aと、画像処理部2bとを備えている。撮像制御部2aは、図示しないプログラムメモリに記憶された撮像制御プログラムに従い、上記カメラヘッド1の撮像部1a、投影部1bおよび照明部1c,1dをそれぞれ所定のタイミングで制御することにより、運転者の顔の二次元画像データとパターン投影画像データをそれぞれ取得する。
例えば、撮像制御部2aは、照明部1c,1dを点灯させて運転者の顔を照明した状態で撮像部1aにより運転者の顔を撮像し、これにより運転者の顔の二次元画像データ(第1の顔画像)を取得する。また撮像制御部2aは、投影部1bを動作させて運転者の顔に対し縞状または格子状の光学パターンを投影し、この状態で運転者の顔を上記撮像部1aにより撮像することにより運転者の顔のパターン投影画像データを取得する。なお、上記顔のパターン投影画像データは、顔の三次元位置情報を得るためのデータであることから、以後簡略的に三次元画像データ(第2の顔画像)と称する。
画像処理部2bは、上記撮像制御部2aの制御の下、上記撮像部1aにより得られた二次元画像データと三次元画像データとを、同一の画素位置同士で対応付ける処理を行う。そして、この画素位置が対応付けられた二次元画像データと三次元画像データのうち、二次元画像データから例えばパターンマッチングにより運転者の目を検出し、さらに輝点(カメラ位置)に対する瞳孔の位置を検出することで視線の方向を算出する。しかしながら、目の奥行き位置が不明では正確な視線位置を特定することができないため、三次元画像を利用し目の奥行き位置を特定する。これにより正確な視線位置特定が可能となる。三次元位置は、撮像部1aと上記眼球の輝点とを結ぶ光軸をZ軸とし、当該光軸と直交する二次元平面をX,Y軸で表したとき、これらのX,Y,Z軸により定義される三次元空間の位置座標として表される。
また画像処理部2bは、上記二次元画像データから、上記三次元位置の検出対象となった目と位置が対応する目の画像領域を選択し、当該画像領域から上記目の瞳孔の二次元位置を検出する。この二次元位置は、上記X,Y軸で表される二次元平面における位置として表される。
上記検出された眼球の輝点の三次元位置と、上記検出された瞳孔の二次元位置は、例えば運転者の視線方向を検出するために使用される。
以上のような構成であるから、運転者の顔の二次元画像データおよび三次元画像データはカメラヘッド1に設けられた1個の撮像部1aにより得られる。このため、二次元画像データと三次元画像データとを、キャリブレーション等の処理を行うことなく簡単な処理により精度良く対応付けることができる。また、二次元画像データと三次元画像データとをそれぞれ別個の撮像部により取得する場合に比べ、装置の小型化とコストダウンを図ることができる。これは、車両のコックピットのように設置可能な位置が限られる場所にカメラヘッド1を設置する場合に、非常に優位な効果となる。
[一実施形態]
(構成例)
図2は、この発明の一実施形態に係る画像処理装置を搭載した車両3の構成の一例を示すブロック図である。本実施形態に係る画像処理装置は、例えば、カメラヘッド10と、顔画像検出処理ユニット20とを備えている。
車両3の運転座席には着座センサ40が設置されている。着座センサ40は、運転座席への運転者4の着座を検出し、その検出信号を顔画像検出処理ユニット20へ出力する。また車両3には表示制御装置50が設けられている。表示制御装置50は例えばヘッドアップディスプレイに対する表示を制御するもので、顔画像検出処理ユニット20から出力される運転者4の視線方向の検出情報をもとに、運転者4が視認している対象物の画像に例えば枠型のパターンを重ねて表示する。
(1)カメラヘッド10
カメラヘッド10は、例えば、ダッシュボードの運転者4と正対する位置に設置される。図3はカメラヘッド10の内部構造の一例を示す正面図である。
カメラヘッド10は、横長の箱形に構成されたヘッド筐体11内に、撮像部としての1個のカメラ10aと、投影部としての1個のパターン投影プロジェクタ10bと、2個の照明部10c,10dを横一列に配置したものとなっている。その配置位置は、中央部にカメラ10aとパターン投影プロジェクタ10bが配置され、上記カメラ10aおよびパターン投影プロジェクタ10bの両隣に照明部10c,10dが配置されるように設定されている。
カメラ10aは、撮像デバイスとして、例えば近赤外光を受光可能なCMOS(Complementary MOS)イメージセンサを使用する。そして、運転者4の顔を撮像してその顔画像データを出力する。なお、撮像デバイスとしては、CCD(Charge Coupled Device)等の他の固体撮像素子を用いてもよい。
パターン投影プロジェクタ10bは、運転者4の顔に対し例えば格子状の光学パターンを投影するもので、例えば次のように構成される。
図4はその構成を示す斜視図である。すなわち、プロジェクタ基板31には、例えば近赤外光を発光する発光素子32が装着されている。またプロジェクタ基板31上には、上記発光素子32の光軸方向に、例えば円筒形状をなすプロジェクタ光学系33が配置されている。プロジェクタ光学系33は、マスクホルダと、レンズホルダとおよび投影レンズを有する。マスクホルダには、上記格子状の光学パターンを生成するためのマスクが内蔵されている。投影レンズは、上記マスクにより生成される光学パターンを所定の倍率で運転者の顔に投影する。なお、光学パターンは、格子状に限らず、他に縞状や市松模様のようなパターンでもよい。
照明部10c,10dは、例えば、それぞれ2個の発光素子11c,12cおよび11d,12dを有する光源と、偏光フィルタとを備える。光源は、近赤外光を発光する。照明部10c,10dは、上記発光素子11c,12cおよび11d,12dから発光された近赤外光の平面光を偏光フィルタを通して照明光として運転者の顔に照射する。偏光フィルタを使用する理由は、運転者4が眼鏡をかけていた場合に、眼鏡により近赤外光が反射されてしまい、運転者4の目を検出できなくなることを防ぐためである照明部10c,10dは、顔画像検出処理ユニット20から出力される点灯制御信号に従い点灯および消灯動作する。
(2)顔画像検出処理ユニット20
顔画像検出処理ユニット20は、上記カメラヘッド10を制御して、運転者4の顔の二次元画像データおよび三次元画像データを取得する。そして、この取得された二次元画像データおよび三次元画像データをもとに運転者4の目の三次元位置および当該目の瞳孔の二次元位置を検出し、さらにこれらの検出結果をもとに運転者4の視線を検出する処理を行う。
(2−1)ハードウェア構成
図5は、顔画像検出処理ユニット20のハードウェア構成の一例を示すブロック図である。
顔画像検出処理ユニット20は、ハードウェアとして、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサ21Aを有し、このハードウェアプロセッサ21Aに、プログラムメモリ21B、データメモリ25、カメラヘッドインタフェース(カメラヘッドI/F)23、外部インタフェース(外部I/F)24を、バス22を介して接続したものとなっている。
カメラヘッドI/F23は、上記カメラヘッド10のカメラ10a、パターン投影プロジェクタ10b、各照明部10c,10dに向けて制御信号を出力すると共に、カメラヘッド10のカメラ10aから出力された画像データを受信する。外部I/F24は、着座センサ40から出力される着座検出信号を受信すると共に、視線方向の検出結果を表す情報を表示制御装置50へ出力する。
カメラヘッドI/F23とカメラヘッド10との間、外部I/F24と着座センサ40および表示制御装置50との間の信号およびデータの伝送は、いずれも信号ケーブルにより行われる。なお、車内にLAN(Local Area Network)等の車内有線ネットワークや、Bluetooth(登録商標)等の小電力無線データ通信規格を採用した車内無線ネットワークが備えられている場合には、これらのネットワークを用いて上記信号およびデータの伝送を行ってもよい。
プログラムメモリ21Bは、記憶媒体として、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の随時書込および読出しが可能な不揮発性メモリ、またはROM等の不揮発性メモリを使用したもので、本実施形態に係る各種制御処理を実行するために必要なプログラムが格納されている。
データメモリ25は、例えば、HDDまたはSSD等の随時書込および読出しが可能な不揮発性メモリと、RAM等の揮発性メモリとを組み合わせたものを記憶媒体として備え、カメラ10aにより撮像された顔画像データや検出結果を表す情報を記憶するために使用される。
(2−2)ソフトウェア構成
図6は、図5に示した顔画像検出処理ユニット20のハードウェア構成に、さらにソフトウェア構成を追加して示したブロック図である。
データメモリ25の記憶領域には、二次元画像記憶部251と、三次元画像記憶部252と、検出結果記憶部253が設けられている。二次元画像記憶部251および三次元画像記憶部252は、それぞれ制御ユニット21により取得された二次元画像データおよび三次元画像データを記憶するために用いられる。検出結果記憶部253は、制御ユニット21により検出される、目の三次元位置および当該目の瞳孔の二次元位置を表す情報を記憶するために使用される。
制御ユニット21は、上記ハードウェアプロセッサ21Aと、上記プログラムメモリ21Bとから構成され、ソフトウェアによる処理機能部として、カメラヘッド制御部211と、二次元画像取得処理部212と、三次元画像取得処理部213と、画像処理部214と、視線検出部215とを備えている。このうちカメラヘッド制御部211、二次元画像取得処理部212および三次元画像取得処理部213は、撮像制御部を構成する。
上記制御部、各処理部および検出部211〜215は、いずれもプログラムメモリ21Bに格納されたプログラムを上記ハードウェアプロセッサ21Aに実行させることにより実現される。
カメラヘッド制御部211は、着座センサ40から出力される着座検出信号をトリガとして起動し、予め定められた検出周期で、所定の手順で上記カメラヘッド10の照明部10c,10d、パターン投影プロジェクタ10bおよびカメラ10aを制御する。上記検出周期および手順の一例については後に詳しく述べる。
二次元画像取得処理部212は、上記検出周期ごとに、上記カメラヘッド制御部211の制御に従いカメラ10aにより撮像された運転者4の顔の二次元画像データを、カメラヘッドI/F23を介して取り込み、データメモリ25の二次元画像記憶部251に記憶させる処理を行う。二次元画像データは、パターン投影プロジェクタ10bにより光学パターンが投影されていない状態で撮像された運転者4の顔画像データである。この二次元画像データの取得処理手法の一例については後に詳しく述べる。
三次元画像取得処理部213は、上記検出周期ごとに、上記カメラヘッド制御部211の制御に従いカメラ10aにより撮像された運転者4の顔の三次元画像データを、カメラヘッドI/F23を介して取り込み、データメモリ25の三次元画像記憶部252に記憶させる処理を行う。三次元画像データは、パターン投影プロジェクタ10bにより光学パターンが投影されている状態で撮像された運転者4の顔の画像データである。この三次元画像データの取得処理手法の一例についても後に詳しく述べる。
画像処理部214は、例えば以下の処理機能を有している。
(1) 上記検出周期ごとに、上記二次元画像記憶部251および上記三次元画像記憶部252から、同一の検出周期内に取得された二次元画像データおよび三次元画像データを読み出し、この二次元画像データと三次元画像データとを同一の画素位置同士で対応付ける処理。
(2) 上記検出周期ごとに、上記対応付け処理後の三次元画像データから運転者4の目の一方または両方を認識し、この認識された目の画像から眼球の角膜反射による輝点の三次元位置を検出して、その検出結果を表す情報を検出結果記憶部253に記憶させる処理。上記眼球の輝点の三次元位置は、カメラ10aと上記輝点とを結ぶ光軸をZ軸とし、当該光軸と直交する二次元平面をX,Y軸で表したとき、これらX,Y,Z軸により定義される三次元空間における位置として表される。
(3) 上記検出周期ごとに、上記対応付け処理後の二次元画像データから、上記眼球の輝点の三次元位置の検出対象となった目と位置が対応する目の画像領域を選択する。そして、当該画像領域から上記目の瞳孔の二次元位置を検出して、その検出結果を表す情報を上記検出結果記憶部253に記憶させる処理。上記瞳孔の二次元位置は、上記X,Y軸で表される二次元平面における位置として表される。
視線検出部215は、上記検出周期ごとに、上記検出結果記憶部253から上記検出対象となった目の輝点の三次元位置および当該目の瞳孔の二次元位置を読み出し、この読み出された目の輝点の三次元位置および目の瞳孔の二次元位置とから運転者4の視線の方向を検出する。また視線検出部215は、上記検出された視線の方向を表す情報を外部I/F24から表示制御装置50へ出力する。
(動作例)
次に、以上のように構成された画像処理装置の動作例を説明する。
図7は顔画像検出処理ユニット20の処理手順と処理内容の一例を示すフローチャートである。
(1)二次元画像データの取得
顔画像検出処理ユニット20の制御ユニット21は、カメラヘッド制御部211の制御の下、ステップS11において着座センサ40から出力される着座検出信号の入力を監視している。この状態で、運転者が座席に着座すると着座センサ40から着座検出信号が出力される。この着座検出信号は、外部I/F24を介して制御ユニット21に入力される。制御ユニット21は、上記着座検出信号の入力をステップS11で検出すると、先ず運転者の顔の二次元画像データを取得するための制御を以下の手順で実行する。
すなわち、先ずカメラヘッド制御部211の制御の下、ステップS12により、カメラヘッドI/F23からカメラヘッド10に対し照明点灯信号が出力される。カメラヘッド10では、上記照明点灯信号を受信すると照明部10c,10dが点灯し、これにより運転者4の顔が照明される。この照明光は偏光フィルタを通した近赤外光である。このため、運転者4は眩しさを感じず運転に支障は生じない。また、運転者4が仮に眼鏡をかけていた場合でも、眼鏡により近赤外光が反射されてしまい、運転者4の目を検出できなくなるといった不具合も生じない。
この状態でカメラヘッド制御部211は、ステップS13により、カメラヘッドI/F23からカメラヘッド10に対し撮像制御信号を出力する。カメラヘッド10は、上記撮像制御信号を受信するとカメラ10aが運転者4の顔を撮像し、この撮像により得られた運転者4の顔の二次元画像データを顔画像検出処理ユニット20へ出力する。顔画像検出処理ユニット20の制御ユニット21は、二次元画像取得処理部212の制御の下、ステップS14において上記二次元画像データVa1をカメラヘッドI/F23を介して取り込む。そして、当該二次元画像データVa1をデータメモリ25の二次元画像記憶部251に記憶させる。このとき、上記照明部10c,10dから顔面を照明している照明光は偏光フィルタを通したものである。このため、仮に運転者4が眼鏡をかけていたとしても、眼鏡により近赤外光が反射されてしまい、運転者4の目を検出できなくなる不具合は生じない。したがって、二次元画像データVa1は、例えば図8に示すように眼球を含む顔画像となる。
続いて制御ユニット21は、カメラヘッド制御部211の制御の下、ステップS15により、カメラヘッドI/F23を介して照明消灯信号を出力する。カメラヘッド10は、上記照明消灯信号を受信すると照明部10c,10dを消灯する。
この状態で制御ユニット21は、カメラヘッド制御部211の制御の下、ステップS16により、カメラヘッドI/F23からカメラヘッド10に対し撮像制御信号を出力する。カメラヘッド10は、上記撮像制御信号を受信するとカメラ10aが運転者4の顔を撮像し、この撮像動作により得られた運転者4の顔の二次元画像データを顔画像検出処理ユニット20へ出力する。
顔画像検出処理ユニット20の制御ユニット21は、二次元画像取得処理部212の制御の下、ステップS17において上記二次元画像データVa2をカメラヘッドI/F23を介して取り込む。そして、当該二次元画像データVa2をデータメモリ25の二次元画像記憶部251に記憶させる。
続いて二次元画像取得処理部212は、ステップS18において、上記二次元画像記憶部251に記憶された、照明された状態で撮像された二次元画像データVa1と、照明されていない状態で撮像された二次元画像データVa2をそれぞれ読み出す。そして、これらの二次元画像データ間の差分画像データVa(Va=Va1−Va2)を算出する。差分画像を得る目的は、対向車のヘッドライトや各種メータの発光等の周辺光の影響を除去するためである。そして二次元画像取得処理部212は、上記二次元差分画像データVaを二次元画像記憶部251に記憶させる。
(2)三次元画像データの取得
上記二次元画像データの取得処理を終了すると、次に制御ユニット21は、カメラヘッド制御部211の制御の下、ステップS19において、カメラヘッドI/F23からカメラヘッド10に対しパターン投影信号を出力する。カメラヘッド10は、上記パターン投影信号を受信するとパターン投影プロジェクタ10bが点灯する。これにより運転者の顔には格子状のパターンが投影される。
この状態でカメラヘッド制御部211は、ステップS20により、カメラヘッドI/F23からカメラヘッド10に対し撮像制御信号を出力する。カメラヘッド10は、上記撮像制御信号を受信すると、カメラ10aが上記光学パターンの投影された運転者4の顔を撮像し、この撮像により得られた運転者4の顔のパターン投影画像データを顔画像検出処理ユニット20へ出力する。
顔画像検出処理ユニット20の制御ユニット21は、三次元画像取得処理部213の制御の下、ステップS21において、上記パターン投影下で撮像されたパターン投影画像データ、つまり三次元画像データVb1を、カメラヘッドI/F23を介して取り込む。そして、当該三次元画像データVb1をデータメモリ25の三次元画像記憶部252に記憶させる。このとき、上記パターン投影プロジェクタ10bは偏光フィルタを通さないパターン光を投影している。このため、上記三次元画像データVb1は、例えば図9に例示するように眼球において角膜反射の輝点42が映り込んだ画像となる。
続いて三次元画像取得処理部213は、ステップS22により、上記三次元画像記憶部252に記憶された三次元画像データVb1と、上記二次元画像記憶部251に記憶された、照明されていない状態で撮像された二次元画像データVa2をそれぞれ読み出し、これらの三次元画像データVb1と二次元画像データVa2との間の差分画像データVb(Vb=Vb1−Va2)を算出する。この三次元画像データについて差分画像を得る目的は、先に述べた二次元画像の場合と同様に、対向車のヘッドライトや各種メータの発光等の周辺光の影響を上記三次元画像データから除去するためである。そして三次元画像取得処理部213は、上記三次元差分画像データVbを三次元画像記憶部252に記憶させる。
(3)二次元差分画像データVaと三次元差分画像データVbとの対応付け
上記三次元差分画像データVbが取得されると、続いて制御ユニット21は画像処理部214の制御の下、ステップS23において、上記二次元画像記憶部251に記憶された二次元差分画像データVaと、上記三次元画像記憶部252に記憶された三次元差分画像データVbを読み出す。そして、この読み出された二次元差分画像データVaと三次元差分画像データVbとを、画素位置が同一のもの同士で対応付ける。この対応付け処理は、上記二次元差分画像データVaと三次元差分画像データVbがいずれも1個の同一のカメラ10aにより得られた画像をもとに生成されたものであるため、フレームを重ねるだけで簡単かつ精度良く行うことができる。
(4)瞳孔の二次元位置の検出
次に制御ユニット21は、画像処理部214の制御の下、ステップS24において運転者4の瞳孔の二次元位置を例えば以下のように検出する。
すなわち、上記二次元画像記憶部251から二次元差分画像データVaを読み出し、この二次元差分画像データVaから運転者4の目を認識する。目の認識は、例えばパターンマッチング等の既存の画像認識技術を用いることで実現できる。そして、上記認識した目の画像から図8に例示するように瞳孔41を認識し、この瞳孔41の二次元位置を検出する。この瞳孔41の二次元位置は、二次元画像のフレームを二次元平面(X−Y座標平面)と定義するとき、この二次元平面のX−Y座標により表される。画像処理部214は、上記検出された瞳孔41の二次元位置を表す情報を検出結果記憶部253に記憶させる。
(5)目の輝点の三次元位置の検出
続いて制御ユニット21は、画像処理部214の制御の下、ステップS25により運転者4の目(眼球)の輝点の三次元位置を例えば以下のように検出する。
すなわち、画像処理部214は、先ず三次元画像記憶部252から三次元差分画像データVbを読み出し、この三次元差分画像データVbから運転者4の目を認識する。ここでの目の認識も、例えばパターンマッチング等の既存の画像認識技術を適用することで実現できる。
続いて画像処理部214は、上記認識した目の画像をもとに、当該目の輝点の三次元位置を例えば三角測量法を用いて以下のように検出する。図10は、その検出処理の概要を説明するための図である。
すなわち、画像処理部214は先ず上記認識された目の画像から眼球の角膜反射による輝点を検出し、カメラ10aから当該輝点との間の光軸LaをZ軸と定義する。またそれと共に、当該光軸Laと直交する二次元方向をX−Y軸で定義する。つまり、運転者4の目の位置をX,Y,Z各軸により表される三次元座標で定義可能とする。
ここで、カメラヘッド10において、パターン投影プロジェクタ10bはカメラ10aに対しその光軸と直交する方向に一定距離だけ離間して配置されている。そのため、カメラ10aと眼球の角膜反射による輝点との間を結ぶ光軸Laと、パターン投影プロジェクタ10bと上記眼球の角膜反射による輝点との間を結ぶ光軸Lbとの間には一定の角度が存在する。
このような条件の下で、カメラ10aに対する運転者4の顔の位置が奥行き方向に変化すると、その変化の距離に応じて三次元差分画像Vbにおける光学パターンの二次元位置(X−Y座標位置)が変化する。例えば、図10の例では、運転者4の顔の位置がP1からP2に変化すると、三次元差分画像データVbにおける光学パターンRの位置が図10のQ1からQ2のように変化する。画像処理部214は、上記三次元差分画像データVbにおける光学パターンRの位置の変化量Q1−Q2を検出する。そして、この光学パターンRの位置の変化量Q1−Q2と、上記光軸LaとLbとの間の角度とをもとに、上記カメラ10aに対する眼球における輝点の位置の変化量(距離差)D12を算出する。
かくして、カメラ10aに対する運転者4の顔の奥行き方向(Z軸方向)の位置を求めることができ、これにより眼球の角膜反射による輝点の三次元位置を検出できる。画像処理部214は、ステップS26において、上記検出された眼球の角膜反射による輝点の三次元位置を表す情報を、上記瞳孔の二次元位置を表す情報と対応付けて、検出結果記憶部253に記憶させる。
(5)運転者の視線方向の検出
上記瞳孔の二次元位置の検出処理および目の三次元位置の検出処理が終了すると、制御ユニット21は、視線検出部215の制御の下、ステップS27において運転者4の視線方向の検出処理を実行する。
図11は、上記視線方向の検出処理の一例を説明するための概略図である。視線の方向を検出するには、眼球の角膜反射による輝点位置に対する瞳孔の二次元(X,Y)方向の位置ずれ量と、カメラ10aに対する眼球の角膜反射による輝点の奥行き(Z)方向の位置が必要である。
すなわち、例えばいまカメラ10aに対する目の位置が図11のP1だったとすると、このときの視線の方向W1は、眼球の角膜反射による輝点位置に対する瞳孔の二次元(X,Y)方向の位置ずれ量と、カメラ10aから眼球の角膜反射による輝点位置までの距離D1とから算出される。同様に、カメラ10aに対する目の位置が図11のP2だったとすると、このときの視線の方向W2は、眼球の角膜反射による輝点位置に対する瞳孔の二次元(X,Y)方向の位置ずれ量と、カメラ10aから眼球の角膜反射による輝点位置までの距離D2とから算出される。
視線検出部215は、上記視線方向の検出結果を表す情報を、外部I/F24から表示制御装置50へ出力する。表示制御装置50は、上記顔画像検出処理ユニット20から出力された運転者4の視線方向の検出情報をもとに、運転者4が視認している対象物を特定する。そして、例えばヘッドアップディスプレイにおいて、車両前方の撮像画像に枠型のパターンを重ねて表示する。
例えば、図11の例では、検出された視線の方向W1と車両前方を撮像した映像とから、運転者4は例えば対象物K1を見ていると判定でき、この対象物K1の映像に対し枠型のパターンを重ねて表示する。また、検出された視線の方向W2と車両前方を撮像した映像とから、運転者4は例えば対象物K2を見ていると判定でき、この対象物K1の映像に対し枠型のパターンを重ねて表示する。
以上述べた(1)〜(5)の一連の処理は、予め設定された検出周期で繰り返し実行される。検出周期は、例えば1秒当たり上記(1)〜(5)の処理が30回実行されるように設定される。
(効果)
以上詳述したように一実施形態では、カメラヘッド10に1個のカメラ10aを設け、この1個のカメラ10aにより、運転者4の顔の二次元画像データと、格子状の光学パターンを投影した状態で撮像した運転者4の顔の三次元画像データとをそれぞれ取得している。そして、上記取得された二次元画像データと三次元画像データとを画素位置が同一のもの同士で対応付け、これにより運転者4の同一の目を対象として、上記二次元画像データから瞳孔の二次元位置を検出すると共に、上記三次元画像データから目の三次元位置を検出するようにしている。
従って、運転者4の顔の二次元画像データと三次元画像データを、キャリブレーション等の処理を行うことなく簡単な処理により精度良く対応付けることができる。また、二次元画像データと三次元画像データとをそれぞれ別個の撮像部により取得する場合に比べ、カメラヘッドの小型化とコストダウンを図ることができる。これは、車両のコックピットのようにカメラヘッドを設置可能な場所が限られる場合に、特に有効である。
また、二次元画像データを取得する際に、照明部10c,10dにより照明した状態で撮像した画像データと、照明していない状態で撮像した画像データとの差分画像を生成するようにしている。また同様に、三次元画像データを取得する際には、パターン投影画像と、照明をしていない状態で撮像した画像との差分画像を生成するようにしている。このため、周辺光の影響を低減して濃淡のバラツキのない高品質の二次元画像データおよび三次元画像データを取得することができる。
さらに、照明部10c,10dおよびパターン投影プロジェクタ10bは近赤外光を発光するので、運転者4に対する防眩性を維持し、かつサングラスを着用している運転者に対しても視線方向を検出することができる。
さらに、上記二次元画像データから検出された瞳孔の二次元位置と、上記三次元画像データから検出された目の三次元位置とをもとに、運転者4の視線方向を検出している。このため、カメラ10aに対する運転者4の顔の奥行き方向の位置が変化しても、運転者4の視線方向を正確に検出することができる。
[変形例]
前記一実施形態では、カメラヘッド10において、カメラ10a、パターン投影プロジェクタ10bおよび照明部10c,10dを一例に配置した構成とした場合について例示したが、1個のカメラ10aを囲むようにパターン投影プロジェクタ10bおよび照明部10c,10dを円形または円弧状に配置するようにしてもよい。
前記一実施形態では、顔の二次元画像データの取得処理を行った後に、三次元画像データの取得処理を行う場合について例示した。しかし、それに限らず、先ず三次元画像データの取得処理を行い、しかる後二次元画像データの取得処理を行うようにしてもよい。
前記一実施形態では、運転者4の視線方向を検出し、その結果をヘッドアップディスプレイに表示する場合について述べた。しかし、これに限らず、上記視線方向の検出結果を表す情報を例えば脇見判定装置に入力し、この脇見判定装置において上記視線方向の検出結果をもとに運転者4の脇見の有無を判定するようにしてもよい。
また、上記視線方向の検出結果を表す情報を例えば自動運転制御装置に入力し、この自動運転制御装置において上記視線方向の検出結果をもとに、例えば自動運転モードから手動運転モードへの切り替えの可否を判定するようにしてもよい。
以上、本発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
[付記]
上記実施形態の一部または全部は、特許請求の範囲のほか以下の付記に示すように記載することも可能であるが、これに限定されない。
(付記1)
ハードウェアプロセッサ(21A)とメモリ(21B)とを有する画像処理装置であって、
前記ハードウェアプロセッサ(21A)が、
前記運転者(4)の顔に対し光学パターンを投影し(211)、
前記運転者(4)の顔を撮像し(211)、
前記運転者(4)の顔に対し前記前記光学パターンが投影されていない状態で前記撮像された第1の顔画像と、前記光学パターンが投影されている状態で前記撮像された第2の顔画像とをそれぞれ取得し(212,213)、
前記第1の顔画像と前記第2の顔画像とを対応付ける(214)ように構成される、画像処理装置。
(付記2)
ハードウェアプロセッサ(21A)とメモリ(21B)とを有する装置が実行する画像処理方法であって、
前記ハードウェアプロセッサ(21A)が、運転者(4)の顔を撮像するように撮像部を制御して、当該撮像部により撮像された第1の顔画像を取得する過程(S13〜S18)と、
前記ハードウェアプロセッサ(21A)が、前記運転者(4)の顔に対し光学パターンを投影するように投影部を制御する過程(S19)と、
前記ハードウェアプロセッサ(21A)が、前記運転者(4)の顔に対し前記光学パターンが投影された状態で前記運転者(4)の顔を撮像するように前記撮像部を制御し、当該撮像部(10a)により撮像された第2の顔画像を取得する過程(S20〜S22)と、
前記ハードウェアプロセッサ(21A)が、前記第1の顔画像と前記第2の顔画像とを対応付ける過程(S23)と
を具備する、画像処理方法。
(付記3)
ハードウェアプロセッサ(21A)とメモリ(21B)とを有する装置が実行する画像処理方法であって、
前記ハードウェアプロセッサ(21A)が、前記運転者(4)の顔に対し、光学パターンを投影するように投影部を制御する過程(S19)と、
前記ハードウェアプロセッサ(21A)が、前記運転者(4)の顔に対し前記光学パターンが投影された状態で、前記運転者(4)の顔を撮像するように撮像部(10a)を制御して、第2の顔画像を取得する過程と(S20〜S22)、
前記ハードウェアプロセッサ(21A)が、前記光学パターンが投影されていない状態で前記運転者(4)の顔を撮像するように前記撮像部(10a)を制御して、第1の顔画像を取得する過程(S13〜S18)と、
前記ハードウェアプロセッサ(21A)が、前記第1の顔画像と前記第2の顔画像とを対応付ける過程(S23)と
を具備する、画像処理方法。
1,10…カメラヘッド、1a…撮像部、10a…カメラ、
1b…投影部、10b…パターン投影プロジェクタ、
1c,10c,10d,10d…照明部、11…ヘッド筐体、
11c,12c,11d,12d…照明用の発光素子、
2,20…顔画像検出処理ユニット、
2a…撮像制御部、2b…画像処理部、21…制御ユニット、
21A…CPU、21B…プログラムメモリ、22…バス、
23…カメラヘッドI/F、24…外部I/F、25…データメモリ、
3…車両、4…運転者、31…プロジェクタ基板、32…発光素子、
33…プロジェクタ光学系、40…着座センサ、50…表示制御装置、
211…カメラヘッド制御部、212…二次元画像取得処理部、
213…三次元画像取得処理部、214…画像処理部、215…視線検出部、
251…二次元画像記憶部、252…三次元画像記憶部、
253…検出結果記憶部。

Claims (7)

  1. 車両内に設置され、撮像画像から運転者の顔画像を検出する画像処理装置であって、
    前記運転者の顔に対し光学パターンを投影する投影部と、
    前記運転者の顔を撮像する撮像部と、
    前記運転者の顔に対し前記投影部により前記光学パターンが投影されていない状態で前記撮像部により撮像された第1の顔画像と、前記光学パターンが投影されている状態で前記撮像部により撮像された第2の顔画像とをそれぞれ取得する撮像制御部と、
    前記第1の顔画像と前記第2の顔画像とを対応付ける画像処理部と
    を具備し、
    前記画像処理部は、
    前記第1の顔画像と前記第2の顔画像とを画素位置が同一のもの同士で対応付ける処理部と、
    前記第2の顔画像をもとに、前記撮像部と前記顔の目とを結ぶ光軸と、当該光軸と直交する二次元平面により定義される三次元空間における前記目の三次元位置を検出する第1の検出部と、
    前記第1の顔画像をもとに、前記三次元位置の検出対象となった目を対象として、当該目の瞳孔の前記二次元平面における二次元位置を検出する第2の検出部と
    を備える、画像処理装置。
  2. 前記運転者の顔を照明する照明部を、さらに具備し、
    前記撮像制御部は、前記照明部により前記顔が照明された状態で前記撮像部により撮像された画像と、前記照明部により前記顔が照明されていない状態で前記撮像部により撮像された画像とをそれぞれ取得し、前記取得された各画像の差分画像を前記第1の顔画像とする、請求項1に記載の画像処理装置。
  3. 前記照明部は、近赤外光を発光する光源と、当該光源から発光された近赤外光を偏光する偏光フィルタとを備え、当該偏光フィルタを通過した前記近赤外光により前記顔を照明する、請求項2に記載の画像処理装置。
  4. 前記撮像制御部は、前記運転者の顔に対し前記投影部により前記光学パターンが投影された状態で前記撮像部により撮像された画像と、前記光学パターンが投影されていない状態で前記撮像部により撮像された画像とをそれぞれ取得し、前記取得された各画像の差分画像を前記第2の顔画像とする、請求項1乃至3のいずれかに記載の画像処理装置。
  5. 前記画像処理部により対応付けられた前記検出された目の三次元位置と前記検出された瞳孔の二次元位置とに基づいて前記運転者の視線を検出する視線検出部を、
    さらに具備する請求項に記載の画像処理装置。
  6. 車両内に設置され、撮像画像から運転者の顔画像を検出する画像処理装置が実行する画像処理方法であって、
    前記画像処理装置が、前記運転者の顔を撮像部により撮像して、第1の顔画像を取得する過程と、
    前記画像処理装置が、前記運転者の顔に対し縞状または格子状をなす光学パターンを投影する過程と、
    前記画像処理装置が、前記運転者の顔に対し前記光学パターンが投影された状態で前記運転者の顔を前記撮像部により撮像して、第2の顔画像を取得する過程と、
    前記画像処理装置が、前記第1の顔画像と前記第2の顔画像とを画素位置が同一のもの同士で対応付ける過程と
    前記画像処理装置が、前記第2の顔画像をもとに、前記撮像部と前記顔の目とを結ぶ光軸と、当該光軸と直交する二次元平面により定義される三次元空間における前記目の三次元位置を検出する過程と、
    前記画像処理装置が、前記第1の顔画像をもとに、前記三次元位置の検出対象となった目を対象として、当該目の瞳孔の前記二次元平面における二次元位置を検出する過程と
    を具備する、画像処理方法。
  7. 車両内に設置され運転者の顔の画像を検出する画像処理装置が実行する画像処理方法であって、
    前記画像処理装置が、前記運転者の顔に対し、縞状または格子状をなす光学パターンを投影する過程と、
    前記画像処理装置が、前記運転者の顔に対し前記光学パターンが投影された状態で前記運転者の顔を撮像部により撮像して、第2の顔画像を取得する過程と、
    前記画像処理装置が、前記光学パターンが投影されていない状態で前記運転者の顔を前記撮像部により撮像して、第1の顔画像を取得する過程と、
    前記画像処理装置が、前記第1の顔画像と前記第2の顔画像とを画素位置が同一のもの同士で対応付ける過程と
    前記画像処理装置が、前記第2の顔画像をもとに、前記撮像部と前記顔の目とを結ぶ光軸と、当該光軸と直交する二次元平面により定義される三次元空間における前記目の三次元位置を検出する過程と、
    前記画像処理装置が、前記第1の顔画像をもとに、前記三次元位置の検出対象となった目を対象として、当該目の瞳孔の前記二次元平面における二次元位置を検出する過程と
    を具備する、画像処理方法。
JP2017236683A 2017-12-11 2017-12-11 画像処理装置および画像処理方法 Active JP6946993B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017236683A JP6946993B2 (ja) 2017-12-11 2017-12-11 画像処理装置および画像処理方法
PCT/JP2018/044832 WO2019117001A1 (ja) 2017-12-11 2018-12-06 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236683A JP6946993B2 (ja) 2017-12-11 2017-12-11 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2019105908A JP2019105908A (ja) 2019-06-27
JP6946993B2 true JP6946993B2 (ja) 2021-10-13

Family

ID=66820343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236683A Active JP6946993B2 (ja) 2017-12-11 2017-12-11 画像処理装置および画像処理方法

Country Status (2)

Country Link
JP (1) JP6946993B2 (ja)
WO (1) WO2019117001A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850872B1 (en) * 2000-08-30 2005-02-01 Microsoft Corporation Facial image processing methods and systems
JP5048381B2 (ja) * 2007-04-10 2012-10-17 株式会社デンソー 三次元形状復元装置
JP5136965B2 (ja) * 2008-09-03 2013-02-06 日本電気株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2012177671A (ja) * 2011-02-27 2012-09-13 Plex International Design Co Ltd 微細非周期パターン投影装置および方法とそれを用いた三次元計測装置
JP6237032B2 (ja) * 2013-09-19 2017-11-29 凸版印刷株式会社 色と三次元形状の計測方法及び装置

Also Published As

Publication number Publication date
WO2019117001A1 (ja) 2019-06-20
JP2019105908A (ja) 2019-06-27

Similar Documents

Publication Publication Date Title
JP6036065B2 (ja) 注視位置検出装置及び注視位置検出方法
JP5045212B2 (ja) 顔画像撮像装置
US9993154B2 (en) Eye gaze detection supporting device and eye gaze detection supporting method
US20190329699A1 (en) Illumination Device for a Motor Vehicle for Increasing the Perceptibility of an Obstacle
JP5772714B2 (ja) 灯火検出装置及び車両制御システム
KR101769177B1 (ko) 시선 추적 장치 및 방법
EP3070641B1 (en) Vehicle body with imaging system and object detection method
JP6948688B2 (ja) 視線計測装置、視線計測方法および視線計測プログラム
KR20100112853A (ko) 3차원 거리 인식장치
WO2016142489A1 (en) Eye tracking using a depth sensor
WO2018164104A1 (ja) 眼部画像処理装置
CN111417885B (zh) 用于确定增强现实眼镜的姿态的系统和方法
JP2011087006A (ja) 車両用表示装置
JP6717330B2 (ja) 視線検出装置、該視線検出装置の制御方法、角膜反射像位置の検出方法、及びコンピュータプログラム
JP6555707B2 (ja) 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
JP2016183890A (ja) 自己位置算出装置及び自己位置算出方法
JP6946993B2 (ja) 画像処理装置および画像処理方法
JP6834928B2 (ja) 画像処理装置および画像処理方法
US10691203B2 (en) Image sound output device, image sound output method and image sound output program
JP2016122380A (ja) 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置
CN111971527B (zh) 摄像装置
JP2015066046A (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析プログラム
JP2018113622A (ja) 画像処理装置、画像処理システム、及び、画像処理方法
JP2017162233A (ja) 視線検出装置および視線検出方法
JP4080183B2 (ja) 前眼部撮影装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R150 Certificate of patent or registration of utility model

Ref document number: 6946993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150