JP6601351B2 - 視線計測装置 - Google Patents

視線計測装置 Download PDF

Info

Publication number
JP6601351B2
JP6601351B2 JP2016178769A JP2016178769A JP6601351B2 JP 6601351 B2 JP6601351 B2 JP 6601351B2 JP 2016178769 A JP2016178769 A JP 2016178769A JP 2016178769 A JP2016178769 A JP 2016178769A JP 6601351 B2 JP6601351 B2 JP 6601351B2
Authority
JP
Japan
Prior art keywords
image
line
sight
face
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016178769A
Other languages
English (en)
Other versions
JP2018045386A5 (ja
JP2018045386A (ja
Inventor
佳行 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016178769A priority Critical patent/JP6601351B2/ja
Priority to PCT/JP2017/028666 priority patent/WO2018051681A1/ja
Priority to DE112017004596.7T priority patent/DE112017004596T5/de
Publication of JP2018045386A publication Critical patent/JP2018045386A/ja
Publication of JP2018045386A5 publication Critical patent/JP2018045386A5/ja
Priority to US16/296,371 priority patent/US20190204914A1/en
Application granted granted Critical
Publication of JP6601351B2 publication Critical patent/JP6601351B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、例えば、車両を運転するユーザの顔画像を用いて、視線の方向を計測する視線計測装置に関するものである。
従来の視線計測装置として、例えば、特許文献1に記載されたものが知られている。特許文献1の視線計測装置(運転者撮像装置)は、運転者の顔を撮像するドライバモニタカメラと、画像処理を行うドライバモニタECUとを備えている。
ドライバモニタECUは、まず、ドライバモニタカメラによって、所定の明るさ(露光量)で、運転者の顔の広域部分(顔の輪郭や鼻孔の位置)を主体とした第1撮像画像を撮像する。また、ドライバモニタECUは、通常、顔の広域部分に対して、暗く写りがちな目の領域を明確な画像として得られるように、ドライバモニタカメラによって、第1撮像画像のときよりも露光量を上げて、顔の一部(目の領域)のみを主体とした第2撮像画像を得るようにしている。
そして、第1撮像画像に対して、第2撮像画像に撮像されている運転者の顔は、ほぼ同じ位置に同じ状態で撮像されていると見なす(仮定する)ことができるように、ドライバモニタECUは、第1撮像画像と第2撮像画像とを同一のドライバモニタカメラによって、極めて短い時間間隔で撮像するようにしている。
これにより、ドライバモニタECUは、第1撮像画像を用いて運転者の顔の向き、および目の位置を検知する(第1の画像処理を行う)と共に、第2撮像画像を用いて運転者の目の開閉度、および視線方向を検知する(第2の画像処理を行う)ようにしている。
特開2009−276849号公報
ここで、特許文献1では、あくまでも運転者は、静止しているものと仮定して、極めて短い時間間隔で、第1撮像画像、および第2撮像画像を得ることで、運転者の顔、および目が、ほぼ同じ位置で、同じ状態で撮影されていると見なしている。しかしながら、運転者の顔に動きが有った場合、仮に極めて短い時間間隔で、第1、第2撮像画像を得たとしても、両者の画像中において顔の位置と目の位置とがずれてしまい、顔に対する目の位置、視線の方向を正確に把握することが困難となり、視線計測の精度が低下してしまう。
本発明の目的は、上記問題に鑑み、被撮影者に動きがある場合であっても、より正確な視線の計測を可能とする視線計測装置を提供することにある。
本発明は上記目的を達成するために、以下の技術的手段を採用する。
本発明では、露出レベルを変更可能として、被撮影者の画像を撮像する撮像部(110
)と、
撮像部によって撮像された画像を基に、被撮影者の視線方向を計測する視線計測部(1
40)と、を備える視線計測装置において、
撮像部は、第1の露出レベルで被撮影者の顔全体を示す第1画像(1101)と、第1
の露出レベルよりも高く設定された第2の露出レベルで被撮影者の目の周りを示す第2画
像(1102)とを交互に連続して撮像するようになっており、
視線計測部は、交互に連続して撮像される第1画像および第2画像のうち、任意の画像
および次の画像において、動きを検出するための特徴部に基づいて、被撮影者の動きに伴
う位置ずれを把握すると共に、任意の画像に対して次の画像における位置ずれを補正して
、顔に対する目の向きから視線方向を計測するようになっており、
第1画像の輝度に対する第2画像の輝度が、予め定めた所定の閾値よりも大きいときに、撮像部に対して、第2画像の撮像に際しては、第2の露出レベルの設定を第1の露出レベルの設定に切替えるように制御する切替え制御部(150)を備えることを特徴としている。
この発明によれば、視線計測部(140)は、任意の画像と次の画像において、動きを検出するための特徴部に基づいて位置ずれを把握すると共に、その位置ずれを補正して、顔に対する目の向きから視線方向を計測するので、被撮影者に動きが有った場合でも、より正確な視線方向の計測を行うことが可能となる。
尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。
視線計測装置の全体構成を示す構成図である。 露出制御における制御内容を示すフローチャートである。 第1画像、第2画像における露出評価の要領を示す説明図である。 視線計測制御における基本的な制御内容を示すフローチャートである。 動きに伴う第2画像のずれを補正して、視線方向を計測する要領を示す説明図である。 第1実施形態における視線計測制御の内容を示すフローチャートである。 動きを検出する際の特徴部を抽出するための要領を示す説明図である。 第2実施形態における視線計測制御の内容を示すフローチャートである。 第3実施形態における明暗切替え制御の内容を示すフローチャートである。 第4実施形態における明暗切替え制御の内容を示すフローチャートである。
以下に、図面を参照しながら本発明を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各実施形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても実施形態同士を部分的に組み合せることも可能である。
(第1実施形態)
第1実施形態における視線計測装置100について図1〜図7を用いて説明する。視線計測装置100は、例えば、車両に搭載されて、運転者(本発明の被撮影者)の顔の画像を撮像して、撮像された顔画像を基に視線方向を計測する装置となっている。車両には、例えば、カーナビゲーション装置、カーオーディオ装置、あるいは/およびカーエアコン装置等の各種機器が搭載されている。視線計測装置100によって、計測された視線方向(視線の先)が、各種機器の種々のスイッチ部のいずれかの位置に一致すると、そのスイッチ部がオンされるようになっている。
尚、視線計測装置100では、顔画像から、目の開き具合も計測可能となっている。そして、目の開き具合から運転者が眠気を催しているか否かを判定して、眠気を催しているようであれば、例えば、アラーム等を作動させて運転者を覚醒させる、あるいは、ブレーキ装置を作動させて減速させる、更には強制停止させる、等の安全運転支援を行うことも可能となっている。
視線計測装置100は、図1に示すように、撮像部110、画像取得部121、フレームメモリ122、露出制御部130、視線計測部140、および動作制御部150等を備えている。
撮像部110は、露出レベルを変更可能として、運転者の顔画像を撮像するものであり、運転者の顔と対向するように、例えば、ステアリングコラムの上部、コンビネーションメータ、あるいは、フロントウインド上部等に装着されている。撮像部110は、光源111、レンズ112、バンドパスフィルタ112a、イメージセンサ113、およびコントローラ114等を有している。
光源111は、顔画像を撮像するために運転者の顔に向けて、例えば、近赤外線等の光を出射するものであり、コントローラ114によって、例えば、露光時間、光源強度等が制御されるようになっている。これによって、撮像時の露出レベルが調整されるようになっている。
レンズ112は、イメージセンサ113の運転者側に設けられて、光源から出射されて運転者の顔によって反射された光をイメージセンサ113に向けて集光(結像形成)させるようになっている。
バンドパスフィルタ(BPF)112aは、太陽や外部照明等の外乱による影響を軽減するために、特定の波長の光(ここでは、光源111からの近赤外線波長)のみを通す特性を持った光学フィルタとなっている。バンドパスフィルタ112aは、レンズ112の前面、あるいはレンズ112とイメージセンサ113との間に設置されている。
イメージセンサ113は、レンズ112による結像を電気信号に変換して、運転者の顔画像として撮像(取得)する撮像素子であり、コントローラ114によって、例えば、ゲイン等が制御されるようになっている。これによって、撮像時の露出レベルが調整されるようになっている。イメージセンサ113は、顔画像を撮像するにあたって、例えば、1秒間に30フレームの撮像データを連続的に取得していくようになっている。
イメージセンサ113は、後述するように、第1露出レベルの条件と、第2露出レベルの条件とが交互に連続するようにして、顔画像を撮像するようになっている。第1露出レベルでの顔画像は、主に、運転者の目の周りを除く顔全体を示す第1画像1101(図3(a))となり、また、第2露出レベルでの顔画像は、主に、運転者の目の周りを示す第2画像1102(図3(b))となる。1秒間に30フレームを撮像する場合であると、第1画像1101は、例えば、30フレームのうち、奇数番目となる15フレーム分の画像となり、また、第2画像1102は、偶数番目となる15フレーム分の画像となる。イメージセンサ113は、このように、第1画像1101と第2画像1102とを交互に連続して撮像していくようになっており、撮像した顔画像のデータを画像取得部121に出力するようになっている。
コントローラ114は、露出制御部130からの指示に基づいて、顔画像を撮像する際に必要とされる露出レベルとなるように、光源111、およびイメージセンサ113を制御するようになっている。コントローラ114は、顔画像の撮像において、第1画像1101を撮像する際には、第1露出レベルとなるように、また、第2画像1102を撮像する際には、第2露出レベルとなるように光源111、およびイメージセンサ113を制御するようになっている。
一般的に、目の周りの撮像にあたっては、人によっては目の彫りが深い場合、あるいはサングラスをかけている場合等では、目の周りが暗くなって、特に、瞼や瞳孔(あるいは虹彩)等を正確に撮像することが難しくなることから、第2露出レベルは、第1露出レベルに比べて、高い値に設定されるものとなっている。よって、第1画像1101の撮像にあたっては、相対的に暗くなる露出レベル(第1露出レベル)で行われ、また、第2画像1102の撮像にあたっては、相対的に明るくなる露出レベル(第2露出レベル)で行われるようになっている。
画像取得部121は、イメージセンサ113から出力される顔画像のデータを取得する部位となっており、取得した顔画像のデータをフレームメモリ122、および露出制御部130(露出評価部131)に出力するようになっている。
フレームメモリ122は、画像取得部121から出力された顔画像のデータを記憶すると共に、更に、視線計測部140の各部位(141〜143、145)、および動作制御部150に出力するようになっている。
露出制御部130は、顔画像の撮像時における露出レベルを制御するものであり、露出評価部131、露出設定部132、および露出メモリ133等を有している。
露出評価部131は、顔画像を撮像する際に、目標とする露出レベルに対する実際の露出レベルを、画像の輝度を用いて評価する部位となっている。露出評価部131は、評価した実際の露出レベルのデータを露出メモリ133に出力するようになっている。
露出設定部132は、顔画像を撮像する際の実際の露出レベルを、目標とする露出レベルに近づけるように、コントローラ114に対して指示を行う部位となっている。露出設定部132は、設定した露出レベル条件のデータを露出メモリ133に出力するようになっている。
露出メモリ133は、上記した露出評価にかかる各種データ、露出設定にかかる各種データ等を記憶しておく部位となっている。尚、露出メモリ133には、露出設定にかかる各種データとして、露出時間、光源強度、およびゲイン等の種々の組合せデータが、予めテーブルとして形成されている。
視線計測部140は、撮像部110によって撮像された顔画像(フレームメモリ122から出力された顔画像データ)を基に、運転者の視線方向を計測するものであり、顔検出部141、顔部品検出部142、目検出部143、幾何計算部144、動き計測・補正部145、および視線・顔計測メモリ146等を有している。
顔検出部141は、顔画像(主に第1画像1101)に対して、背景に対する顔の部分(図4(b1))を検出する部位となっており、検出したデータを視線・顔計測メモリ146に出力するようになっている。
顔部品検出部142は、顔画像(主に第1画像1101)に対して、目、鼻、口、および顎の輪郭等の顔部品(図4(b2))を検出する部位となっており、検出したデータを視線・顔計測メモリ146に出力するようになっている。
目検出部143は、顔画像(主に第2画像1102)において、目における瞼、瞳孔(虹彩)等(図4(b3))を検出する部位となっており、検出したデータを視線・顔計測メモリ146に出力するようになっている。
幾何計算部144は、顔画像において、顔の向き、および視線の方向(図4(b4))を計算する部位となっており、計算したデータを視線・顔計測メモリ146に出力するようになっている。
動き計測・補正部145は、第1、第2画像1101、1102から運転者の動き(動きの量)を計測すると共に、この動きに伴う、運転者の動きに伴う位置ずれを把握して、その位置ずれを補正する部位となっている(図5)。動き計測・補正部145は、補正したデータを視線・顔計測メモリ146に出力するようになっている。
視線・顔計測メモリ146は、上記各部141〜145にて得られた各種データを記憶すると共に、検出や算出の都度、予め記憶された各種データ(閾値、特徴量等)を各部141〜145、更には露出制御部130(露出評価部131)に出力する部位となっている。
動作制御部150は、フレームメモリ122、および視線・顔計測メモリ146からのデータに基づいて、現在、撮像している顔画像が第1画像1101なのか、第2画像1102なのかを露出制御部130、および視線計測部140等に通知するようになっている。また、動作制御部150は、第1、第2画像1101、1102を撮像する際の頻度を決定する(第3実施形態)、あるいは第1、第2露出レベルを用いた撮像の切替えを行うか否かを決定する(第4実施形態)ようになっている。動作制御部150は、本発明の頻度制御部、および切替え制御部に対応する。
上記のように形成される視線計測装置100の作動について、以下、図2〜図7を加えて説明する。視線計測装置100においては、露出制御(図2、図3)と、視線計測制御(図4〜図7)とが並行して実行されるようになっている。以下、露出制御、基本的な視線計測制御、および本実施形態の視線計測制御の詳細について説明する。
1.露出制御(図2、図3)
露出制御は、露出制御部130によって実行されるようになっている。図2(a)に示すように、露出制御部130は、ステップS100で、まず、露出評価を行う。露出制御部130は、撮像された第1画像1101、および第2画像1102の輝度を算出することで、それぞれの露出レベル(第1、第2露出レベル)の評価を行う。輝度の算出にあたっては、各画像1101、1102における平均輝度、あるいは加重平均輝度を用いることができる。
尚、加重平均輝度を用いる場合は、図3(a)に示すように、露出制御部130は、第1画像1101に対しては、目の周辺を除く顔全体を重視して輝度を算出し、また、第2画像1102に対しては、図3(b)に示すように、目の周辺を重視して輝度を算出する。
次に、ステップS110で、露出制御部130は、露出設定値を算出する。露出制御部130は、各画像1101、1102における目標露出レベルに対応する目標輝度を露出メモリ133から呼び出して、上記ステップS100で得られた実際の輝度が目標輝度に近づくように、光源111における露光時間、光源強度、およびイメージセンサ113におけるゲイン等の設定値を算出する。尚、露光時間、光源強度、ゲイン等の組合せ条件は、予め露出メモリ133に記憶されたテーブルにおけるデータが使用される。
そして、ステップS120で、露出制御部130は、露出設定を行う。露出制御部130は、上記ステップS110で算出した設定値をコントローラ114に対して出力する。これにより、第1画像1101を撮像する際の第1露出レベル、および第2画像1102を撮像する際の第2露出レベルの設定がなされることになる。この露出制御は、第1画像1101、および第2画像1102が交互に連続して撮像されるに伴って、繰り返し実行される。
2.視線計測制御の基本(図4)
視線計測制御は、視線計測部140によって実行されるようになっている。まず、視線計測制御の基本について、説明する。図4に示すように、視線計測部140は、ステップS200で、まず、顔検出を行う。視線計測部140(顔検出部141)は、顔画像に対して、一部分を切り出した部分画像から濃淡等の特徴量を抽出し、予め視線・顔計測メモリ146に記憶された学習済みの閾値を用いて顔か否かを判別することで、背景に対する顔の部分(図4(b1))を検出する。
次に、ステップS210で、視線計測部140(顔部品検出部142)は、顔部品検出を行う。視線計測部140は、顔検出結果から顔器官点(目、鼻、口、顎の輪郭等)の初期位置を設定し、濃淡・位置関係等の特徴量と、視線・顔計測メモリ146に記憶された学習済みの特徴量との差が最も小さくなるよう変形することで、顔部品(図4(b2))を検出する。
次に、ステップS260で、視線計測部140(目検出部143)は、目検出を行う。視線計測部140は、ステップS200の顔検出で得られた顔内の目の位置、およびステップS210の顔部品検出で得られた目の位置から、予め視線・顔計測メモリ146記憶された目(瞼、瞳孔等)に関する特徴データを用いて、瞼、瞳孔等(図4(b3))を検出する。
次に、ステップS270で、視線計測部140(幾何計算部144)は、幾何計算を行う。視線計測部140は、上記顔検出部141で得られた顔、および上記顔部品検出部142で得られた顔部品の位置関係、および上記目検出部143で得られた瞼、瞳孔等の位置関係から、顔の向き、および視線の方向(図4(b4))を計算する。
3.本実施形態の視線計測制御(図5〜図7)
上記基本的な視線計測制御においては、運転者に動きがある場合、第1画像1101と第2画像1102とにおいて、顔の位置と目の位置との間でずれが生じて、顔に対する目の位置、および視線の方向を正確に把握することが困難となり、視線計測の精度が低下してしまう。よって、本実施形態では、図5に示すように、交互に連続して撮像される第1画像1101、および第2画像1102のうち、任意の画像および次の画像におけるそれぞれの動き検出用の特徴部(例えば目の位置)に基づいて、運転者の動きに伴う位置ずれを把握するようにしている。そして、任意の画像に対して次の画像における位置ずれを補正して、顔に対する目の向きから運転者の視線方向を計測するようにしている。
図6において、時間経過と共に、第1画像1101、および第2画像1102が交互に連続して撮像されていく様子を示している。図6では、図4に対して、ステップS220〜S250を追加している。そして、視線計測部140は、交互に連続して撮像される顔画像のうち、任意の画像(図6中の左)に対して、ステップS200〜S220を行い、また、次の画像(図6中の真ん中)に対して、ステップS230〜270を行うようになっている。更に次の画像(図6中の右)に対して、ステップS200〜S220、S240、S250、S270を行い、以下、これを繰り返すことで、視線方向を順次計測していくようになっている。
視線計測部140は、ステップS200、S210で、第1画像1101に対して、上記で説明した顔検出、顔部品検出を行う。
次に、ステップS220で、視線計測部140は、第1画像1101において動き検出用の特徴部を抽出する。動き検出用の特徴部は、例えば、目の位置(目の部分)を使用することができる。目の位置の検出にあたっては、例えば、図7に示すように、顔画像における輝度分布を基に行うことができる。輝度分布の算出は、顔画像上における2方向(x方向、y方向)において、それぞれ輝度を積算した積算値の分布から目の位置を算出することができる。目の位置は、例えば、彫が深い場合、あるいはサングラスをかけている場合等、目の周辺は、輝度が低くなる傾向にあり、上記で算出した積算輝度の相対的に低い領域を、目の位置として抽出することが可能となる。
尚、ステップS220においては、輝度ヒストグラムを用いて、目の位置を検出することも可能である。輝度ヒストグラムは、顔画像において、輝度に対する発生頻度を示すもので、例えば、判別分析法によって所定の輝度より低い領域の部分を目の位置として抽出することが可能である。
次に、視線計測部140は、ステップS230〜S270で、第2画像1102に対して、目の検出を行い、運転者の動きを考慮した視線方向を計算する。
即ち、ステップS230で、視線計測部140は、ステップ220と同様に、第2画像1102において動き検出用の特徴部(例えば目の位置)を抽出する。
尚、動き検出用の特徴部としては、上記の「目の位置」を使用した場合に対して、下記のように「画像そのもの」を使用することもできる。即ち、第2画像1102において、白飛びの発生している領域(主に目の周囲以外の領域)をマスクして、第2画像1102における第2露出レベルを第1画像1101の第1露出レベルに合せるようにして、第2画像1102を加工する。このように明るさが第1画像1101と同程度になるように補正された第2画像1102そのものを特徴部として使用して、第1画像1101と第2画像1102との差分合計が最小になる位置を探索することで、動き検出が実現できるようになる。
次に、ステップS240で、視線計測部140は、動き計測を行う。視線計測部140は、ステップS220において第1画像1101を基に抽出した目の位置と、ステップS230において第2画像を基に抽出した目の位置とから、運転者の動きに伴う位置ずれ量を計測する。
次に、ステップS250で、視線計測部140は、動き補正を行う。視線計測部140は、ステップS240において計測した位置ずれ量を用いて動き補正する。例えば、第1画像1101においてステップS210で検出した顔部品の座標を基に、第2画像1102に対して位置補正を行う。
次に、視線計測部140は、位置補正した第2画像1102を用いて、ステップS260で、瞼、瞳孔等の目の検出を行うと共に、ステップS270で、顔の向き、および視線の方向を計算する。
視線計測部140は、更に次の画像(図6中の右)において、動き検出用特徴抽出(ステップS220)を行い、1つ前の画像(図6中の真ん中)との間で、動き計算(ステップS240)、および動き補正(ステップS250)を行い、視線の方向を計算する(ステップS270)。以下、視線計測部140は、1つ前の画像と、次の画像との間で上記の制御を繰り返すことで、視線の方向を順次計測していく。
以上のように、本実施形態においては、視線計測部140は、交互に連続して撮像される第1画像1101、および第2画像1102のうち、任意の画像および次の画像において、動きを検出するための特徴部に基づいて、運転者の動きに伴う位置ずれを把握すると共に、任意の画像に対して次の画像における位置ずれを補正して、顔に対する目の向きから視線方向を計測するようにしている。これにより、運転者に動きが有った場合でも、より正確な視線方向の計測を行うことが可能となる。
また、視線計測部140は、ステップS220、S230において、第1画像1101上、および第2画像1102上のそれぞれの2軸方向(x方向、y方向)における輝度の積算値から、動きを検出するための特徴部として、目の位置を把握するようにしている。これにより、視線計測部140は、目の位置を正確に把握することができる。
また、ステップS230において、動きを検出するための特徴部として、第2画像1102に対して、白飛びの発生している領域をマスクし、第2露出レベルを第1露出レベルに合せるように第2画像1102を加工したものを使用することも可能である。これにより、動きの検出が可能となる。
(第2実施形態)
第2実施形態を図8に示す。第2実施形態は、上記第1実施形態と構成同一として、制御内容を変更したものである。図8におけるフローチャートは、図6のフローチャートに対して、第1画像1101と第2画像1102との画像合成(ステップS245)を行って、視線方向を計測するようにしたものである。
図8に示すように、第2画像1102において、視線計測部140は、ステップS240の後に、ステップS245で、第1画像1101と、位置ずれを補正した第2画像1102とを合成する。そして、視線計測部140は、ステップS210で、顔部品検出を行い、ステップS260で目の検出を行い、ステップS270で、視線方向を計測する。
これにより、第1画像1101と、位置ずれを補正した第2画像1102とを合成することで、合成画像上において視線方向を正確に計測することができる。
(第3実施形態)
第3実施形態を図9に示す。第3実施形態は、上記第1実施形態と構成同一として、運転者の動きの量に応じて、第2画像1102を撮像するときの撮像頻度に対して、第1画像1101を撮像するときの撮像頻度を変更するようにしたものである。撮像頻度の変更は、動作制御部(頻度制御部)150が実行するようになっている。
図9に示すように、まず、ステップS300で、動作制御部150は、視線・顔計測メモリ146から第1画像1101、および第2画像1102を読み出す。次に、ステップS310で、動作制御部150は、両画像1101、1102の動きを検出するための特徴部の比較から、運転者の動きを算出する。
そして、ステップS320において、動作制御部150は、ステップS310で算出した運転者の動きの量が、予め定めた所定の動き量よりも、一定時間以上、大きいときに、第1画像1101の撮像頻度を、第2画像1102の撮像頻度よりも大きくする(頻度決定)。動きの量に対応する第1、第2画像1101、1102の撮像頻度の組合せは、予め動作制御部150に記憶されている。
具体的には、例えば、上記第1実施形態では、第1画像1101、および第2画像1102は、30フレーム/1秒のうち、それぞれ、15フレーム分のデータを用いた画像として説明した。これに対して、ステップS320では、例えば、第1画像1101を20フレーム分の画像とし、第2画像1102を10フレーム分の画像とするのである。
運転者の動き量が所定の動き量よりも大きいときには、相対的に、目の周りを示す第2画像1102は、顔全体を示す第1画像1101よりも不正確なものと成り易い。よって、顔全体を示す第1画像1101の撮像頻度を大きくすることで、まずは、第1画像1101の精度を上げることができる。そして、精度を高めた第1画像1101(顔全体)を基に、第2画像1102(目の周り)を用いて視線方向を計測することで、運転者の動き量が大きい場合であっても、より正確な視線方向を得ることができる。
(第4実施形態)
第4実施形態を図10に示す。第4実施形態は、上記第1実施形態と構成同一として、第1画像1101の輝度に対する第2画像1102の輝度に応じて、第1露出レベルの設定と第2露出レベルの設定との切替えを行うか否かを決定するようにしたものである。露出レベルの切替え決定は、動作制御部(切替え制御部)150が実行するようになっている。
図10に示すように、まず、ステップS400で、動作制御部150は、露出制御部130に対して、図2で説明した露出制御における各画像1101、1102の露出評価結果があるか否かを判定する。
ステップS400で肯定判定すると、動作制御部150は、ステップS410で、第2画像(目の周辺の画像)1102の輝度データを読み出し、また、ステップS420で、第1画像(顔全体の画像)1101の輝度データを読み出す。
次に、ステップS430で、動作制御部150は、顔全体の画像の輝度に対する目の周辺の画像の輝度が、予め定めた所定の閾値より小さいか否かを判定する。
ステップS430で肯定判定した場合であると、目の周辺の輝度は相対的に低いレベルにあるため、第2画像(目の周辺の画像)1102を撮像するには、第1画像(顔全体の画像)1101を撮像するときに比べて、露出レベルを高くしてやる必要があることになる。よって、動作制御部150は、ステップS440において、第1実施形態と同様に、第1画像1101を撮像する際には第1露出レベルに設定し、また第2画像1102を撮像する際には第2露出レベルに設定するといった、露出レベルの切替え制御(明暗切替えON)を実行する。
一方、ステップS430で否定判定した場合であると、目の周辺の輝度は相対的に高いレベルにあるため、第2画像(目の周辺の画像)1102を撮像するには、第1画像(顔全体の画像)1101を撮像するときと同等の露出レベルで対応することが可能となる。よって、動作制御部150は、ステップS450において、第1画像1101を撮像する際、および第2画像1102を撮像する際には、共に第1露出レベルでの撮像とし、第1、第2露出レベルの切替えを不要とする制御(明暗切替えOFF)を実行する。
また、ステップS400で否定判定した場合であると、動作制御部150は、露出評価がまだ成されていないとして、ステップS460でエラー通知を行い、本フローを終了する。
尚、動作制御部150は、上記露出レベル設定の切替え制御にあたっては、例えば、
(1)初期起動時、
(2)予め定めた所定の時間毎、
(3)顔検出結果が予め定めた一定時間以上途切れたとき、
(4)明暗切替えOFF状態での目の検出エラーが予め定めた一定時間以上続いた後、等のタイミングで実行することができる。
これにより、目の周りを示す第2画像1102の輝度が、所定の閾値よりも大きいときは、露出レベルを大きくするような設定を行わずとも、良好な目の周りの画像が得られるため、第1露出レベルの設定と、第2露出レベルの設定との切替えを不要とする(第1露出レベルのまま第1、第2画像1101、1102を撮像する)ことができる。
100 視線計測装置
110 撮像部
140 視線計測部
150 動作制御部(頻度制御部、切替え制御部)
1101 第1画像
1102 第2画像

Claims (5)

  1. 露出レベルを変更可能として、被撮影者の画像を撮像する撮像部(110)と、
    前記撮像部によって撮像された前記画像を基に、前記被撮影者の視線方向を計測する視線計測部(140)と、を備える視線計測装置において、
    前記撮像部は、第1の露出レベルで前記被撮影者の顔全体を示す第1画像(1101)と、前記第1の露出レベルよりも高く設定された第2の露出レベルで前記被撮影者の目の周りを示す第2画像(1102)とを交互に連続して撮像するようになっており、
    前記視線計測部は、交互に連続して撮像される前記第1画像および前記第2画像のうち、任意の画像および次の画像において、動きを検出するための特徴部に基づいて、前記被撮影者の動きに伴う位置ずれを把握すると共に、前記任意の画像に対して前記次の画像における前記位置ずれを補正して、顔に対する目の向きから前記視線方向を計測するようになっており、
    前記第1画像の輝度に対する前記第2画像の輝度が、予め定めた所定の閾値よりも大きいときに、前記撮像部に対して、前記第2画像の撮像に際しては、前記第2の露出レベルの設定を前記第1の露出レベルの設定に切替えるように制御する切替え制御部(150)を備える視線計測装置。
  2. 前記視線計測部は、前記任意の画像、および前記位置ずれを補正した前記次の画像を合成して、前記視線方向を計測する請求項1に記載の視線計測装置。
  3. 前記被撮影者の動き量が予め定めた所定の動き量よりも大きいときに、前記撮像部に対して、前記第1画像の撮像頻度を前記第2画像の撮像頻度よりも大きくするよう制御する頻度制御部(150)を備える請求項1または請求項2に記載の視線計測装置。
  4. 前記視線計測部は、前記第1画像上および前記第2画像上のそれぞれの2軸方向における輝度の積算値から、前記特徴部を把握する請求項1〜請求項3のいずれか1つに記載の視線計測装置。
  5. 前記視線計測部は、前記第2画像に対して、白飛びの発生している領域をマスクし、前記第2の露出レベルを前記第1の露出レベルに合せるように加工した画像自体を前記特徴部として使用する請求項1〜請求項3のいずれか1つに記載の視線計測装置。
JP2016178769A 2016-09-13 2016-09-13 視線計測装置 Expired - Fee Related JP6601351B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016178769A JP6601351B2 (ja) 2016-09-13 2016-09-13 視線計測装置
PCT/JP2017/028666 WO2018051681A1 (ja) 2016-09-13 2017-08-08 視線計測装置
DE112017004596.7T DE112017004596T5 (de) 2016-09-13 2017-08-08 Sichtlinienmessvorrichtung
US16/296,371 US20190204914A1 (en) 2016-09-13 2019-03-08 Line of sight measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016178769A JP6601351B2 (ja) 2016-09-13 2016-09-13 視線計測装置

Publications (3)

Publication Number Publication Date
JP2018045386A JP2018045386A (ja) 2018-03-22
JP2018045386A5 JP2018045386A5 (ja) 2018-08-30
JP6601351B2 true JP6601351B2 (ja) 2019-11-06

Family

ID=61618851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016178769A Expired - Fee Related JP6601351B2 (ja) 2016-09-13 2016-09-13 視線計測装置

Country Status (4)

Country Link
US (1) US20190204914A1 (ja)
JP (1) JP6601351B2 (ja)
DE (1) DE112017004596T5 (ja)
WO (1) WO2018051681A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6773002B2 (ja) * 2017-10-30 2020-10-21 株式会社デンソー 車両用装置及びコンピュータプログラム
CN108683841B (zh) * 2018-04-13 2021-02-19 维沃移动通信有限公司 图像处理方法及移动终端
JP7192668B2 (ja) * 2018-07-05 2022-12-20 株式会社デンソー 覚醒度判定装置
CN108922085B (zh) * 2018-07-18 2020-12-18 北京七鑫易维信息技术有限公司 一种监护方法、装置、监护设备及存储介质
JP2020126371A (ja) * 2019-02-01 2020-08-20 ミツミ電機株式会社 認証装置
JP2020145536A (ja) * 2019-03-05 2020-09-10 株式会社Jvcケンウッド 映像処理装置、映像処理方法および映像処理プログラム
JP2022045567A (ja) * 2020-09-09 2022-03-22 キヤノン株式会社 撮像制御装置、撮像制御方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3355076B2 (ja) * 1995-09-14 2002-12-09 三菱電機株式会社 顔画像処理装置
JP4888838B2 (ja) * 2008-05-12 2012-02-29 トヨタ自動車株式会社 運転者撮像装置および運転者撮像方法
JP5713752B2 (ja) * 2011-03-28 2015-05-07 キヤノン株式会社 画像処理装置、及びその制御方法
JP2014154982A (ja) * 2013-02-06 2014-08-25 Canon Inc 撮像装置およびその制御方法
JP6678376B2 (ja) * 2014-04-11 2020-04-08 ハンファテクウィン株式会社 動き検出装置および動き検出方法
JP2016178769A (ja) 2015-03-19 2016-10-06 綜合警備保障株式会社 点検対象特定システム及び点検対象特定方法

Also Published As

Publication number Publication date
DE112017004596T5 (de) 2019-07-11
US20190204914A1 (en) 2019-07-04
WO2018051681A1 (ja) 2018-03-22
JP2018045386A (ja) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6601351B2 (ja) 視線計測装置
US8538044B2 (en) Line-of-sight direction determination device and line-of-sight direction determination method
JP5974915B2 (ja) 覚醒度検出装置、および覚醒度検出方法
JP5761074B2 (ja) 撮像制御装置及びプログラム
JP5694161B2 (ja) 瞳孔検出装置及び瞳孔検出方法
WO2016038784A1 (ja) ドライバ状態判定装置
WO2010100842A1 (ja) 撮像装置、運転者監視装置、顔部測距方法およびプログラム
JP5466610B2 (ja) 視線推定装置
JP4793269B2 (ja) 眠気検知装置
JP2010097379A (ja) ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP5018653B2 (ja) 画像識別装置
WO2013157466A1 (ja) 喫煙検出装置、方法及びプログラム
JP2010244156A (ja) 画像特徴量検出装置及びこれを用いた視線方向検出装置
JP5825588B2 (ja) 瞬目計測装置及び瞬目計測方法
JP2008006149A (ja) 瞳孔検出装置、及び虹彩認証装置、並びに瞳孔検出方法
JP2016051317A (ja) 視線検出装置
CN112149473A (zh) 虹膜图像采集方法
JP2019068933A (ja) 推定装置及び推定方法
JP5004099B2 (ja) カーソル移動制御方法及びカーソル移動制御装置
CN110235178B (zh) 驾驶员状态推定装置以及驾驶员状态推定方法
JP5182567B2 (ja) 乗員監視装置
US20130142416A1 (en) Detection device and detection method
WO2017134918A1 (ja) 視線検出装置
JP2019028727A (ja) 視線検知装置
JP2018143285A (ja) 生体状態判定装置、生体状態判定システム、及び、生体状態判定方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180717

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190923

R151 Written notification of patent or utility model registration

Ref document number: 6601351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees