JP2015000156A - 端末装置、視線検出プログラムおよび視線検出方法 - Google Patents

端末装置、視線検出プログラムおよび視線検出方法 Download PDF

Info

Publication number
JP2015000156A
JP2015000156A JP2013125456A JP2013125456A JP2015000156A JP 2015000156 A JP2015000156 A JP 2015000156A JP 2013125456 A JP2013125456 A JP 2013125456A JP 2013125456 A JP2013125456 A JP 2013125456A JP 2015000156 A JP2015000156 A JP 2015000156A
Authority
JP
Japan
Prior art keywords
image
unit
terminal device
imaging unit
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013125456A
Other languages
English (en)
Other versions
JP6303297B2 (ja
Inventor
珊珊 于
Shanshan Yu
珊珊 于
哲 中島
Satoru Nakajima
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013125456A priority Critical patent/JP6303297B2/ja
Priority to US14/284,937 priority patent/US9521325B2/en
Priority to EP14170161.5A priority patent/EP2813173B1/en
Publication of JP2015000156A publication Critical patent/JP2015000156A/ja
Application granted granted Critical
Publication of JP6303297B2 publication Critical patent/JP6303297B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 人物の視線を精度良く検出することを目的とする。【解決手段】 被写体の撮影時における撮像部の状態を示す情報を取得する取得部と、取得した情報に基づいて撮像部により撮影された画像が撮像部のぶれによるボケを含むか否かを判定する判定部と、判定部によりボケがないと判定された画像を用いて、撮影された被写体の視線を検出する検出部と、を有する。【選択図】 図1

Description

本発明は、人物の視線を検出する端末装置、視線検出プログラムおよび視線検出方法に関する。
従来、カメラにより撮影された画像から人物の視線を検出し、検出した視線の動きに基づいて、コンピュータ等を操作し、あるいは自動車等を運転する人物の状態を検出する技術が提案されている(例えば、特許文献1,2参照)。この種の技術では、視線の検出に使用されるカメラは、コンピュータや自動車等に固定して配置される場合がある。
特開2007−268164号公報 特開2011−90702号公報
一方、カメラ機能を含むスマートフォンやタブレット型端末等は、人物に持たれて操作されるため、手ぶれ等により撮影された画像がボケる場合があり、撮影された画像から視線の検出が困難となる場合がある。
1つの側面では、本発明は、人物の視線を精度良く検出することを目的とする。
一つの観点によれば、端末装置は、被写体の撮影時における撮像部の状態を示す情報を取得する取得部と、取得した情報に基づいて撮像部により撮影された画像が撮像部のぶれによるボケを含むか否かを判定する判定部と、判定部によりボケがないと判定された画像を用いて、撮影された被写体の視線を検出する検出部と、を有する。
別の観点によれば、視線検出プログラムは、被写体の撮影時における撮像部の状態を示す情報を取得し、取得した情報に基づいて撮像部により撮影された画像が撮像部のぶれによるボケを含むか否かを判定し、判定の処理によりボケがないと判定された画像を用いて、撮影された被写体の視線を検出する、処理をコンピュータに実行させる。
また、別の観点によれば、視線検出方法は、被写体の撮影時における撮像部の状態を示す情報を取得し、取得した情報に基づいて撮像部により撮影された画像が撮像部のぶれによるボケを含むか否かを判定し、判定の処理によりボケがないと判定された画像を用いて、撮影された被写体の視線を検出する。
人物の視線を精度良く検出できる。
端末装置の一実施形態を示す図である。 図1に示す撮像部の撮影により生成された画像の一例を示す図である。 図1に示した端末装置における被写体の視線の検出処理の例を示す図である。 端末装置の別実施形態を示す図である。 図4に示した端末装置における被写体の視線の検出処理の例を示す図である。 端末装置の別実施形態を示す図である。 図6に示した端末装置における被写体の視線の検出処理の例を示す図である。 端末装置の別実施形態を示す図である。 図8に示した端末装置における被写体の視線の検出処理の例を示す図である。 図6および図8に示す端末装置のハードウェア構成の例を示す図である。
以下、図面を用いて実施形態を説明する。
図1は、端末装置の一実施形態を示す。
図1に示す端末装置100は、例えば、スマートフォンやタブレット型端末等の携帯端末であり、撮像部10、光源15、取得部20、判定部30および検出部40を有する。なお、図1に示す端末装置100は、光源15を含むが、光源15を含まなくてもよい。
撮像部10は、例えば、レンズと、CCD(Charge-Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子とを含むカメラである。例えば、撮像部10は、赤外線を射出するLED(Light Emitting Diode)等の光源15に、手に持った端末装置100を操作するユーザP1に赤外線を照射させる。撮像部10は、赤外線で照明されたユーザP1を撮影することで画像を生成する。撮像部10は、生成した画像を判定部30に出力する。ここで、撮像部10が生成する画像は、静止画像または動画の各フレームである。また、ユーザP1は、被写体の一例である。
なお、撮像部10は、光源15に、赤外線をユーザP1に照射させてユーザP1を撮影したが、光源15に赤外線を照射させることなくユーザP1を撮影してもよい。また、撮像部10は、端末装置100に配置されたが、これに限定されない。例えば、撮像部10は、端末装置100の外部に、端末装置100との位置関係が固定されて配置されてもよい。この場合、撮像部10は、端末装置100が内蔵するUSB(Universal Serial Bus)規格等のインタフェースを介して、端末装置100に接続され、端末装置100を操作するユーザP1を撮影するのが好ましい。
取得部20は、被写体の撮影時における撮像部10の状態を示す情報を取得する。例えば、取得部20は、ジャイロセンサを含み、端末装置100の姿勢の変化を示す角速度等のパラメータを検出する。取得部20は、検出したパラメータの値を、撮影時における撮像部10の状態を示す情報として判定部30に出力する。なお、取得部20は、端末装置100の姿勢の変化を示す角速度等のパラメータを検出したが、これに限定されない。例えば、取得部20は、端末装置100の姿勢を示す傾き角を検出し、撮影前後における傾き角の変化量を撮影時における撮像部10の状態を示す情報として判定部30に出力してもよい。また、取得部20は、加速度センサを含み、加速度センサにより端末装置100の加速度を検出し、撮影時における撮像部10の状態を示す情報として判定部30に出力してもよい。
例えば、判定部30は、取得部20から受信した角速度の大きさに基づいて、撮像部10により撮影された画像が撮像部10のぶれによるボケを含むか否かを判定する。判定部30は、例えば、角速度の大きさが閾値α以上の場合、ユーザP1による手ぶれ等により、撮影された画像はボケを含む画像と判定する。そして、判定部30は、例えば、ボケを含むと判定した画像を破棄する。一方、判定部30は、角速度の大きさが閾値αより小さい場合、撮影された画像にボケがないと判定し、画像を検出部40へ出力する。
なお、閾値αは、検出部40に要求される視線検出の精度が得られる許容範囲内で、設計段階や製造段階等の実験により決定される角速度の大きさに設定されることが好ましい。また、椅子等に座ってユーザP1が端末装置100を操作する場合と、バスや電車等の車中でユーザP1が端末装置100を操作する場合とで、取得部20が取得する角速度の大きさは異なる。そこで、ユーザP1が、端末装置100を操作する環境を、端末装置100に設けられたキーボードやタッチパネル等を用いて選択することで、環境に対応する閾値αを適宜設定してもよい。
検出部40は、判定部30によりボケがないと判定された画像を受信し、ユーザP1の視線を検出する。検出部40の動作については、図2を参照し説明する。
図2は、図1に示す撮像部10の撮影により生成された画像の一例を示す。図2(a)は、端末装置100を操作するユーザP1が被写体として撮像部10によって撮影された画像50の例を示す。図2(b)は、図2(a)に示す画像50において、ユーザP1の目(例えば、右目)を含む領域60の例を示す。
検出部40は、例えば、図2(a)に示すように、判定部30より受信した画像50からユーザP1の顔を含む領域51を検出する。例えば、検出部40は、画像50において、輝度の不連続な変化を示すエッジ等の特徴点を抽出し、抽出した特徴点の分布に基づいて眉,目,鼻,唇等の各端点を特定する。そして、検出部40は、特定した各端点の位置に基づいて領域51を検出する。あるいは、検出部40は、顔画像のテンプレートと、受信した画像50との相関を求め、求めた相関係数が所定の値以上となる画像領域を領域51として検出してもよい。例えば、顔画像のテンプレートは、端末装置100が内蔵するEEPROM(Electrically Erasable Programmable Read-Only Memory)等に予め記憶される。
また、検出部40は、領域51の抽出時に特定した目の端点等の情報に基づいて、領域51から目を含む領域60および目の輪郭61を検出する。そして、検出部40は、検出した輪郭61内の画像領域において、例えば、エッジ等の特徴点が円形状に分布し、円形状の領域の輝度値が周囲の領域の輝度値より低い領域を、瞳孔62および虹彩63を含む領域64として検出する。検出部40は、検出した領域64から瞳孔62の中心位置を求める。また、検出部40は、光源15から照射された赤外線がユーザP1の目の角膜で反射した箇所を示す輝点を、領域64において所定の閾値以上の輝度値を有し、かつ円形の形状を有する角膜による光源15の反射像65として検出する。そして、検出部40は、例えば、角膜反射法に基づいて、求めた瞳孔62の中心位置と検出した反射像65との間の距離と、予め設定された角膜の曲率半径とに基づいてユーザP1の視線方向を検出する。
なお、検出部40は、輪郭61におけるエッジ等の特徴点に基づいて、瞳孔62および虹彩63を含む領域64を検出したが、これに限定されない。例えば、検出部40は、端末装置100が内蔵するEEPROM等に予め記憶された瞳の領域のテンプレートと、検出した輪郭61の画像領域との相関を求め、求めた相関係数が所定の閾値を超える画像領域を領域64として検出してもよい。
また、検出部40は、赤外線でユーザP1を照明した状態で撮影された画像50を用いてユーザP1の視線を検出したが、これに限定されない。例えば、撮像部10は、太陽光等の可視光で照明されたユーザP1を撮影することで可視光領域に含まれる色の情報を含む画像を生成し、検出部40は、可視光領域に含まれる色の情報を含む画像からユーザP1の視線を検出してもよい。この場合、様々な方向に視線を向けている状態で撮影された画像のそれぞれから抽出した領域60の画像データが、内蔵するEEPROM等に予め記憶されているのが好ましい。そして、検出部40は、撮像部10で撮影された可視光の画像と、予め記憶された複数の画像データとの比較からユーザP1の視線を検出する。
また、図2に示す領域60は、右目の領域としたが、これに限定されず、左目の領域でもよい。
図3は、図1に示した端末装置100における被写体の視線の検出処理の例を示す。ステップS10,S11,S12およびS13は、端末装置100の動作を示すとともに、視線検出プログラムおよび視線検出方法の例を示す。例えば、図3に示す処理は、端末装置100に搭載されるプロセッサがプログラムを実行することにより実行される。なお、図3に示す処理は、端末装置100に搭載されるハードウェアにより実行されてもよい。
ステップS10において、撮像部10は、光源15に、手に持った端末装置100を操作するユーザP1に赤外線を照射させ、ユーザP1を撮影し画像を生成する。撮像部10は、生成した画像を判定部30に出力する。
次に、ステップS11において、取得部20は、撮像部10の撮影動作時における端末装置100の姿勢の変化を示す角速度等のパラメータを検出する。取得部20は、検出したパラメータを撮影時における撮像部10の状態を示す情報として取得する。取得部20は、取得した情報を判定部30に出力する。
次に、ステップS12において、判定部30は、取得部20から受信した情報に基づいて、ステップS10で撮影された画像が撮像部10のぶれによるボケを含むか否かを判定する。例えば、判定部30は、ステップS11で取得された角速度の大きさが閾値α以上の場合、ユーザP1による手ぶれ等により、ステップS10で撮影された画像がボケを含むと判定する。そして、判定部30は、画像がボケを含むと判定した場合(YES)、一連の処理を終了する。一方、判定部30は、ステップS11で取得された角速度の大きさが閾値αより小さい場合、ステップS10で撮影された画像がボケを含まないと判定する。そして、判定部30は、画像がボケを含まないと判定した場合(NO)、画像を検出部40へ出力し、処理をステップS13に移行する。
ステップS13において、検出部40は、判定部30によりボケがないと判定された画像を受信し、被写体であるユーザP1の視線を検出する。
以上、この実施形態では、取得部20は、端末装置100の姿勢を示すパラメータを検出し、検出したパラメータを撮影時における撮像部10の状況を示す情報として取得する。判定部30は、取得した情報に基づいて撮像部10により撮影された画像が撮像部10のぶれによるボケを含むか否かを判定し、ボケがないと判定した画像を検出部40に選択的に出力する。検出部40は、端末装置100がユーザP1の手に持って操作される場合であっても、ボケがないと判定した画像を受けることから、目の領域60から角膜による光源15の反射像65を高い精度で検出することができる。これにより、検出部40は、人物の視線を精度良く検出することができる。
なお、端末装置100は、スマートフォンやタブレット型端末としたが、これに限定されない。端末装置100は、カーナビゲーション等の車載用の端末装置でもよい。この場合、例えば、判定部30は、自動車が走行時の振動により、撮像部10により撮影された画像がボケを含むか否かを判定し、ボケがないと判定した画像を検出部40に選択的に出力する。これにより、検出部40は、ボケがある画像を含めて視線の検出を行った場合に比べて、被写体である運転手等の視線を精度良く検出することができる。
図4は、端末装置の別実施形態を示す。図4に示す端末装置100aは、例えば、スマートフォンやタブレット型端末等の携帯端末である。なお、図4に示す端末装置100aの各要素のうち、図1に示す要素と同一または同等の機能を有するものについては、同一の符号を付し説明を省略する。
撮像部10aは、例えば、レンズとCCDまたはCMOS等の撮像素子とを含むカメラである。例えば、撮像部10aは、光源15に、手に持った端末装置100aを操作するユーザP1に赤外線の光を照射させ、毎秒数コマから数十コマ等の所定のフレームレートで連続してユーザP1を撮影することで動画の各フレームを生成する。撮像部10aは、生成した各フレームを取得部20aと判定部30aとに順次に出力する。なお、撮像部10aは、光源15に赤外線をユーザP1に照射させてユーザP1を撮影したが、光源15に赤外線を照射させることなくユーザP1を撮影してもよい。また、撮像部10aは、端末装置100aに配置されたが、これに限定されない。例えば、撮像部10aは、端末装置100aの外部に、端末装置100aとの位置関係が固定されて配置されてもよい。この場合、撮像部10aは、端末装置100aが内蔵するUSB規格等のインタフェースを介して、端末装置100aに接続され、端末装置100aを操作するユーザP1を撮影するのが好ましい。
取得部20aは、被写体の撮影時における撮像部10aの状態を示す情報を取得する。例えば、取得部20aは、撮像部10aにより撮影された最新のフレームを順次に受信し、受信した最新のフレームと、最新のフレームより前に撮影され受信したフレームとからエッジの特徴を示すエッジ情報や輝度等をそれぞれ抽出する。以下、最新のフレームを現在のフレームとも称し、最新のフレームより前に撮影されたフレームを過去のフレームとも称する。現在のフレームは、第1の画像の一例であり、過去のフレームは、第2の画像の一例である。また、エッジ情報および輝度は、特徴量の一例である。
例えば、取得部20aは、現在のフレームと過去のフレームとのそれぞれに含まれる各画素に対応して抽出した現在のフレームの特徴量と過去のフレームの特徴量との差分を算出し、算出した特徴量の差分が所定の閾値以上となる画素が分布する画像領域を求める。取得部20は、求めた画像領域の大きさを撮影時における撮像部10aの状態を示す情報として判定部30に出力する。
ここで、取得部20aが、求めた画像領域の大きさを撮影時における撮像部10aの状態を示す情報とすることについて説明する。例えば、ユーザP1による手ぶれ等の影響がない場合、撮像部10aにより撮影された現在のフレームは、過去のフレームと同一または同様の画像となる。つまり、現在のフレームと過去のフレームとにおける特徴量の分布は同様であり、現在のフレームと過去のフレームとの特徴量の差分を求めた場合、所定の閾値より小さな値となる画素の方が所定の閾値以上となる画素より多くなる。一方、例えば、ユーザP1による手ぶれ等の影響により、現在のフレームがボケを含む場合、現在のフレームと過去のフレームとにおける特徴量の分布が異なる。つまり、現在のフレームがボケを含む場合、現在のフレームと過去のフレームとの特徴量の差分を求めると、差分が所定の閾値以上となる画素の数が、ユーザP1による手ぶれ等の影響がない場合と比べて増加する。すなわち、ユーザP1による手ぶれ等の影響の大きさに応じて、差分が所定の閾値以上となる画素が分布する画像領域の大きさが変化することから、取得部20aは、求めた画像領域の大きさを撮影時における撮像部10aの状態を示す情報とする。
なお、取得部20aは、差分が所定の閾値以上となる画素が分布する画像領域の大きさを撮影時における撮像部10aの状態を示す情報としたが、差分が所定の閾値以上となる画素数を撮影時における撮像部10aの状態を示す情報としてもよい。
また、所定の閾値は、検出部40に要求される視線検出の精度が得られる範囲内で、設計段階や製造段階等の実験により決定され設定されることが好ましい。
例えば、判定部30aは、撮像部10aから現在のフレームを受信するとともに、取得部20aから、現在のフレームが撮影された際の撮像部10aの状態を示す情報として求められた画像領域の大きさを受信する。判定部30aは、取得部20aから受信した画像領域の大きさに基づいて、撮像部10aにより撮影された現在のフレームが撮像部10aのぶれによるボケを含むか否かを判定する。例えば、判定部30aは、受信した画像領域の大きさが閾値β以上の場合、ユーザP1による手ぶれ等により、現在のフレームはボケを含む画像と判定する。そして、判定部30aは、例えば、ボケを含むと判定した現在のフレームを破棄する。一方、判定部30aは、画像領域の大きさが閾値βより小さい場合、現在のフレームはボケがないと判定し、現在のフレームを検出部40へ出力する。
なお、閾値βは、検出部40に要求される視線検出の精度が得られる範囲内で、設計段階や製造段階等の実験により決定され設定されることが好ましい。また、椅子等に座ってユーザP1が端末装置100aを操作する場合と、バスや電車等の車中でユーザP1が端末装置100aを操作する場合とで、取得部20aが取得する画像領域の大きさは異なる。そこで、ユーザP1が、端末装置100aを操作する環境を、端末装置100aに設けられたキーボードやタッチパネル等を用いて選択することで、環境に対応する閾値βを適宜設定してもよい。
また、判定部30aは、受信した画像領域の大きさと閾値βとの比較から、受信した現在のフレームがボケを含むか否かを判定したが、これに限定されない。例えば、取得部20aは、検出部40と同様に、受信した現在のフレームからユーザP1の所定の部位である瞳の領域64や反射像65を検出し、検出した領域64や反射像65の形状を求める。取得部20aは、画像がボケを含まない場合に領域64や反射像65が示す円形等の形状に対する、求めた領域64や反射像65が示す楕円等の形状の歪んだ度合いを示す歪み量を撮影時における撮像部10aの状態を示す情報として取得する。そして、判定部30aは、求めた歪み量と所定の値との比較に基づいて、現在のフレームがボケを含むか否かを判定してもよい。
図5は、図4に示した端末装置100aにおける被写体の視線の検出処理の例を示す。ステップS20,S21,S22およびS23は、端末装置100aの動作を示すとともに、視線検出プログラムおよび視線検出方法の例を示す。例えば、図5に示す処理は、端末装置100aに搭載されるプロセッサがプログラムを実行することにより実行される。なお、図5に示す処理は、端末装置100aに搭載されるハードウェアにより実行されてもよい。また、図5に示す処理は、撮像部10aが、ユーザP1を所定のフレームレートで撮影することで生成されるフレームごとに繰り返し実行されることが好ましい。
ステップS20において、撮像部10aは、光源15に、手に持って端末装置100aを操作するユーザP1に赤外線を照射させ、所定のフレームレートでユーザP1を撮影することでフレームを生成する。撮像部10aは、生成したフレームを現在のフレームとして取得部20aと判定部30aとに順次に出力する。
次に、ステップS21において、取得部20aは、撮像部10aから現在のフレームを受信し、現在のフレームと現在のフレームより前に撮影された過去のフレームとからエッジ情報や輝度等の特徴量を抽出する。取得部20aは、現在のフレームと過去のフレームとのそれぞれに含まれる各画素に対応して抽出した現在のフレームの特徴量と過去のフレームの特徴量との差分を算出し、算出した特徴量の差分が所定の閾値以上となる画素が分布する画像領域を求める。取得部20aは、求めた画像領域の大きさを撮影時における撮像部10aの状態を示す情報として判定部30aに出力する。
次に、ステップS22において、判定部30aは、取得部20aから受信した情報に基づいて、ステップS20で撮影された現在のフレームが撮像部10aのぶれによるボケを含むか否かを判定する。例えば、判定部30aは、ステップS21で取得された画像領域の大きさが閾値β以上の場合、ユーザP1による手ぶれ等により、ステップS20で撮影された現在のフレームはボケを含むと判定する。そして、判定部30aは、現在のフレームがボケを含むと判定した場合(YES)、一連の処理を終了する。一方、判定部30aは、ステップS21で取得された画像領域の大きさが閾値βより小さい場合、ステップS20で撮影された現在のフレームがボケを含まないと判定する。そして、判定部30aは、現在のフレームがボケを含まないと判定した場合(NO)、現在のフレームを検出部40へ出力し、処理をステップS23に移行する。
ステップS23において、検出部40は、判定部30aによりボケがないと判定された現在のフレームを受信し、被写体であるユーザP1の視線を検出する。
以上、この実施形態では、取得部20aは、現在のフレームと過去のフレームとから抽出されるエッジ情報や輝度等の特徴量の差分に基づいて、撮影時における撮像部10aの状況を示す情報を取得する。判定部30aは、取得した情報に基づいて撮像部10aにより撮影されたフレームがボケを含むか否かを判定し、ボケがないと判定したフレームを検出部40に選択的に出力する。検出部40は、端末装置100aがユーザP1の手に持って操作される場合であっても、ボケがないと判定したフレームを受けることから、目の領域60から角膜による光源15の反射像65を高い精度で検出することができる。これにより、検出部40は、人物の視線を精度良く検出することができる。
なお、端末装置100aは、スマートフォンやタブレット型端末としたが、これに限定されない。端末装置100aは、カーナビゲーション等の車載用の端末装置でもよい。この場合、例えば、判定部30aは、自動車が走行時の振動により、撮像部10aにより撮影された画像がボケを含むか否かを判定し、ボケがないと判定した画像を検出部40に選択的に出力する。これにより、検出部40は、ボケがある画像を含めて視線の検出を行った場合に比べて、被写体である運転手等の視線を精度良く検出することができる。
図6は、端末装置の別実施形態を示す。図6に示す端末装置200は、例えば、スマートフォンやタブレット型端末等の携帯端末であり、撮像部210、光源215、バッファ部220、ジャイロセンサ230、制御部240、表示部250、記憶部260および入力部270を有する。
撮像部210は、例えば、レンズとCCDまたはCMOS等の撮像素子とを含むカメラである。例えば、撮像部210は、赤外線を射出するLED等の光源215に、手に持った端末装置200を操作するユーザP1に赤外線を照射させ、毎秒数コマから数十コマ等の所定のフレームレートでユーザP1を撮影することで動画の各フレームを生成する。撮像部210は、生成したフレームを順次にバッファ部220に出力する。
バッファ部220は、RAM(Random Access Memory)等であり、撮像部210から生成されたフレームを順次に受信し記憶する。バッファ部220は、記憶するフレームを制御部240に出力する。
ジャイロセンサ230は、端末装置200の姿勢の変化を示す角速度等のパラメータを検出し、撮影時における撮像部210の状態を示す情報として取得する。ジャイロセンサ230は、取得した情報を、制御部240に出力する。ジャイロセンサ230は、取得部の一例である。
制御部240は、例えば、EEPROM等の記憶部260に記憶されたプログラムを実行し、端末装置200の各部を制御するプロセッサ等を含む。判定部241、検出部242および特定部243は、記憶部260に記憶された視線検出プログラムを制御部240が実行すること実現される。
判定部241は、例えば、撮像部210により撮影されたフレームをバッファ部220から読み込み、ジャイロセンサ230から受信した情報に基づいて、読み込んだフレームが撮像部210のぶれによるボケを含むか否かを判定する。例えば、判定部241は、読み込んだフレームが撮影された時にジャイロセンサ230から受信した情報により、角速度の大きさが閾値α1以上の場合、ユーザP1による手ぶれ等により、読み込んだフレームはボケを含む画像と判定する。そして、判定部241は、読み込んだフレームを特定部243に出力する。一方、判定部241は、角速度の大きさが閾値α1より小さい場合、読み込んだフレームはボケがないと判定し、フレームを検出部242へ出力する。
なお、閾値α1は、検出部242に要求される視線検出の精度が得られる許容範囲内で、設計段階や製造段階等の実験により決定される角速度の大きさに設定されることが好ましい。また、椅子等に座ってユーザP1が端末装置200を操作する場合と、バスや電車等の車中でユーザP1が端末装置200を操作する場合とで、ジャイロセンサ230が検出する角速度の大きさは異なる。そこで、ユーザP1が、端末装置200を操作する環境を、例えば、キーボードやタッチパネル等の入力部270を用いて選択することで、環境に対応する閾値α1を適宜設定してもよい。
検出部242は、判定部241によりボケがないと判定されたフレームを受信し、被写体であるユーザP1の視線を検出する。なお、検出部242による視線の検出処理は、受信したフレームを図2(a)に示す画像50とした場合に、図1に示す検出部40と同一または同様であり、説明は省略する。また、検出部242は、判定部241によりボケがないと判定されたフレームから検出した、例えば、図2に示す目を含む領域60の画像データ等を特定部243に出力する。
特定部243は、例えば、ボケを含むと判定されたフレームを判定部241から受信するとともに、受信したフレームより前に撮影され、ボケがないと判定されたフレームにおける領域60の画像データを検出部242から受信する。特定部243は、例えば、判定部241から受信したボケを含むフレームと、検出部242から受信した領域60の画像データとの相関を求める。特定部243は、求めた相関係数が所定の閾値を超えた場合に、ボケを含むフレームにおける画像領域を領域60に対応する目を含む領域として特定する。そして、特定部243は、ボケを含むフレームにおいて特定した目を含む領域の画像データを検出部242に出力する。検出部242は、例えば、判定部241によりボケがないと判定された次のフレームに対して、特定部243から受信した目を含む領域の画像データとの相関を求める。検出部242は、求めた相関係数が所定の閾値を超える次のフレームにおける画像領域を図2に示す領域60として検出する。これにより、検出部242は、顔および目の検出処理を省略することができ、端末装置200における視線の検出処理の高速化を図ることができる。
表示部250は、有機EL(Electro Luminescence)や液晶等のディスプレイであり、例えば、制御部240からの制御指示に基づいて、文字や画像等を表示するとともに、検出部242で得られた検出結果を表示する。
図7は、図6に示した端末装置200における被写体の視線の検出処理の例を示す。ステップS100からステップS107は、端末装置200の動作を示すとともに、視線検出プログラムおよび視線検出方法の例を示す。例えば、図7に示す処理は、端末装置200に搭載されるプロセッサがプログラムを実行することにより実行される。なお、図7に示す処理は、端末装置200に搭載されるハードウェアにより実行されてもよい。また、図7に示す処理は、撮像部210が、ユーザP1を所定のフレームレートで撮影することで生成されるフレームごとに繰り返し実行されることが好ましい。
ステップS100において、撮像部210は、光源215に、手に持った端末装置200を操作するユーザP1に赤外線の光を照射させ、所定のフレームレートでユーザP1を撮影しフレームを生成する。撮像部210は、生成したフレームを順次にバッファ部220に出力する。バッファ部220は、受信したフレームを記憶する。
次に、ステップS101において、ジャイロセンサ230は、撮像部210の撮影動作時における端末装置200の姿勢の変化を示す角速度等のパラメータを検出する。ジャイロセンサ230は、検出したパラメータを、撮影時における撮像部210の状態を示す情報として判定部241に出力し、処理をステップS102に移行する。
ステップS102において、判定部241は、ジャイロセンサ230から受信した情報に基づいて、ステップS100で撮影されたフレームが撮像部210のぶれによるボケを含むか否かを判定する。例えば、判定部241は、ステップS100で撮影されたフレームをバッファ部220から読み込む。判定部241は、ステップS101で検出された角速度の大きさが閾値α1以上の場合、ユーザP1による手ぶれ等により、読み込んだフレームはボケを含むと判定する。そして、判定部241は、読み込んだフレームがボケを含むと判定した場合(YES)、フレームを特定部243に出力し、処理をステップS107に移行する。一方、判定部241は、ステップS101で検出された角速度の大きさが閾値α1より小さい場合、読み込んだフレームはボケを含まないと判定する。そして、判定部241は、読み込んだフレームがボケを含まないと判定した場合(NO)、フレームを検出部242へ出力し、処理をステップS103に移行する。
ステップS103において、検出部242は、判定部241によりボケがないと判定されたフレームを受信し、受信したフレームが目を含む領域60を含むか否かを判定する。例えば、検出部242は、判定部241から受信したフレームである、図2に示す画像50において、エッジ等の特徴点を抽出し、抽出した特徴点の分布に基づいて眉,目,鼻,唇等の各端点を特定する。そして、検出部242は、特定した各端点の位置に基づいて領域51を検出する。また、検出部242は、領域51の抽出時に特定した目の端点等の情報に基づいて、目を含む領域60を検出する。そして、検出部242は、領域60を検出した場合(YES)、処理をステップS104に移行する。一方、検出部242は、例えば、ユーザP1の目が閉じている、ユーザP1が横を向いている、あるいはユーザP1が写ってない等により、領域60が検出されなかった場合(NO)、処理をステップS100に移行する。
なお、検出部242は、例えば、記憶部260に予め記憶された顔や目の画像のテンプレートと、判定部241から受信したフレームとの相関を求め、求めた相関係数が所定の閾値を超える画像領域を領域51や領域60として検出してもよい。
また、検出部242は、例えば、特定部243から目を含む領域の画像データを受信した後、判定部241によりボケがないと判定された次のフレームを受信した場合、次のフレームと特定部243から受信した領域の画像データとの相関を求める。検出部242は、求めた相関係数が所定の閾値を超える次のフレームにおける画像領域を領域60として検出してもよい。これにより、検出部242は、顔や目の検出処理を省略できることから、領域60を高速に検出することができる。
ステップS104において、検出部242は、例えば、ステップS103で検出した領域60において、領域60の検出時に特定された目の端点等に基づいて目の輪郭61を検出する。検出部242は、検出した輪郭61内の画像領域において、例えば、エッジ等の特徴点が円形状に分布し、円形状の領域の輝度値が周囲の領域の輝度値より低い領域を、瞳孔62および虹彩63を含む領域64として検出する。検出部242は、検出した領域64から瞳孔62の中心位置を求める。また、検出部242は、光源215から照射されて赤外線がユーザP1の目の角膜で反射した箇所を示す輝点を、領域64において所定の閾値以上の輝度値を有し、かつ円形の形状を有する角膜による光源15の反射像65として検出する。そして、検出部242は、例えば、角膜反射法に基づいて、求めた瞳孔62の中心位置と検出した反射像65との間の距離、および予め設定された角膜の曲率半径に基づいて、ユーザP1の視線方向を検出する。また、検出部242は、検出した領域60の画像データを特定部243に出力する。
次に、ステップS105において、検出部242は、ユーザP1の視線の検出結果を出力する。例えば、制御部240は、受信した検出結果に基づいて、表示部250の表示を制御する。制御部240は、例えば、ステップS103で検出された領域51の大きさから、端末装置200とユーザP1との距離を求める。制御部240は、求めた距離と、ステップS104で検出されたユーザP1の視線方向とに基づいて、表示部250の表示画面においてユーザP1が見ている位置を求める。制御部240は、例えば、カーソルの表示位置として求めた位置を指定する旨の制御指示を表示部250に出力し、表示部250に表示されたカーソルを移動させる。また、制御部240は、求めた位置に表示されたアイコンを選択してもよい。あるいは、制御部240は、求めた位置を中心とする所定の領域の表示を拡大等し、拡大した表示を表示部250に表示してもよい。
次に、ステップS106において、制御部240は、例えば、入力部270を介して、ユーザP1より視線検出の終了指示を受けたか否かを判定する。制御部240は、終了指示を受けた場合(YES)、一連の処理を終了する。一方、制御部240は、終了指示を受けてない場合(NO)、処理をステップS100に移行する。
ステップS107において、特定部243は、ボケを含むと判定されたフレームを判定部241から受信するとともに、受信したフレームより前に撮影され、ボケがないと判定されたフレームにおいて検出された領域60の画像データを検出部242から受信する。特定部243は、判定部241から受信したボケを含むフレームと、検出部242から受信した領域60の画像データとの相関処理を行う。特定部243は、ボケを含むフレームにおいて、求めた相関係数が所定の閾値を超えた画像領域を領域60に対応する目を含む領域として特定する。そして、特定部243は、ボケを含むフレームにおいて特定した目を含む領域の画像データを検出部242に出力する。その後、制御部240は、ステップS100の処理に移行し、撮像部210により撮影された次のフレームに対して、ステップS100からステップS106の処理を施す。
以上、この実施形態では、ジャイロセンサ230が、端末装置200の姿勢を示すパラメータを検出し、検出したパラメータを撮影時における撮像部210の状況を示す情報として取得する。判定部242は、取得した情報に基づいて撮像部210により撮影されたフレームがボケを含むか否かを判定し、ボケがないと判定したフレームを検出部242に選択的に出力する。検出部242は、端末装置200がユーザP1の手に持って操作される場合であっても、ボケがないと判定したフレームを受けることから、目の領域60から角膜による光源15の反射像65を高い精度で検出することができる。これにより、検出部242は、人物の視線を精度良く検出することができる。
また、特定部243は、ボケを含むと判定されたフレームから目を含む領域を特定し、検出部242は、特定された領域に基づいて、ボケがないと判定された次のフレームにおける領域60を検出する。これにより、検出部242は、顔や目の検出処理を省略でき、視線の検出処理の高速化を図ることができる。
なお、端末装置200は、スマートフォンやタブレット型端末としたが、これに限定されない。端末装置200は、カーナビゲーション等の車載用の端末装置でもよい。この場合、例えば、判定部241は、自動車が走行時の振動により、撮像部210により撮影されたフレームがボケを含むか否かを判定し、ボケがないと判定したフレームを検出部242に出力する。これにより、検出部242は、ボケがあるフレームを含めて視線の検出を行った場合に比べて、被写体である運転手等の視線を精度良く検出することができる。
なお、端末装置200は、ジャイロセンサ230を有したが、これに限定されず、加速度センサ等を有してもよい。
なお、判定部241における閾値α1は、設計段階や製造段階等の実験により決定された値や、端末装置200が操作される環境に応じて、ユーザP1により選択された値が設定されるとしたが、これに限定されない。例えば、判定部241は、ジャイロセンサ230により検出される角速度の大きさ等に基づいて、端末装置200が操作される環境を推定し、推定した環境に基づいて決定される値を閾値α1として設定してもよい。
なお、検出部242は、赤外線でユーザP1を照明した状態で撮影されたフレームを用いてユーザP1の視線を検出したが、これに限定されない。例えば、撮像部210は、太陽光等の可視光で照明されたユーザP1を撮影することで可視光領域に含まれる色の情報を含むフレームを生成し、検出部242は、可視光領域に含まれる色の情報を含むフレームからユーザP1の視線を検出してもよい。この場合、記憶部260は、様々な方向に視線を向けている状態で撮影された画像のそれぞれから抽出した領域60の画像データを予め記憶するのが好ましい。そして、検出部242は、撮像部210で撮影された可視光のフレームと、予め記憶された複数の画像データとの比較からユーザP1の視線を検出する。
なお、検出部242は、ボケがないと判定された全てのフレームに対して視線の検出処理を施したが、これに限定されない。例えば、検出部242は、判定部241から連続して、ボケがないと判定されたフレーム受信する場合、受信したフレームを間引いて視線の検出処理を施してもよい。ただし、フレームを間引く数は、撮像部210のフレームレート等に応じて、適宜設定されることが好ましい。
なお、制御部240は、検出部242により検出されたユーザP1の視線方向に基づいて、表示部250を制御したが、これに限定されない。例えば、制御部240は、端末装置200が内蔵する無線LAN(Local Area Network)やWi−Fi(Wireless Fidelity)規格等の無線通信を介して、視線の検出結果を、外部のコンピュータ等に出力してもよい。これにより、外部のコンピュータ等は、視線の検出結果から表示部250に表示された情報のうち、ユーザP1が興味を示した画像や記事等の情報を取得でき、取得した情報に基づいて、ユーザP1に応じた情報を提供することができる。
図8は、端末装置の別実施形態を示す。図8に示す端末装置200aは、例えば、スマートフォンやタブレット型端末等の携帯端末である。なお、図8に示す端末装置200aの各要素のうち、図6に示す要素と同一または同等の機能を有するものについては、同一の符号を付し説明を省略する。
取得部244は、被写体の撮影時における撮像部210の状態を示す情報を取得する。例えば、取得部244は、撮像部210により撮影された最新のフレームとともに、1コマ前に撮影されたフレームをバッファ部220から読み込む。以下、最新のフレームを現在のフレームとも称し、1コマ前に撮影されたフレームを過去のフレームとも称する。
例えば、取得部244は、読み込んだ現在のフレームと過去のフレームとからエッジの特徴を示すエッジ情報や輝度等の特徴量をそれぞれ抽出する。取得部244は、現在のフレームと過去のフレームとのそれぞれに含まれる各画素に対応して抽出した現在のフレームの特徴量と過去のフレームの特徴量との差分の絶対値を算出し、算出した差分の絶対値が閾値ε以上となる画素が分布する画像領域を求める。取得部244は、求めた画像領域の大きさを撮影時における撮像部210の状態を示す情報として判定部241aに出力する。なお、取得部244は、求めた画像領域の大きさの代わりに、求めた画像領域に含まれる画素数を撮影時における撮像部210の状態を示す情報として判定部241aに出力してもよい。また、閾値εは、検出部242に要求される視線検出の精度が得られる範囲内で、設計段階や製造段階等の実験により決定され設定されることが好ましい。
判定部241aは、バッファ部220から現在のフレームを読み込むとともに、取得部244から画像領域の大きさを受信する。例えば、判定部241aは、受信した画像領域の大きさに基づいて、現在のフレームが撮像部210のぶれによるボケを含むか否かを判定する。判定部241aは、例えば、受信した画像領域の大きさが閾値β1以上の場合、ユーザP1による手ぶれ等により、受信した現在のフレームはボケを含む画像と判定する。そして、判定部241aは、ボケを含むと判定した現在のフレームを特定部243に出力する。一方、判定部241aは、受信した画像領域の大きさが閾値β1より小さい場合、現在のフレームはボケがないと判定し、現在のフレームを検出部242へ出力する。
なお、閾値β1は、検出部242に要求される視線検出の精度が得られる範囲内で、設計段階や製造段階等の実験により決定され設定されることが好ましい。また、椅子等に座ってユーザP1が端末装置200を操作する場合と、バスや電車等の車中でユーザP1が端末装置200aを操作する場合とで、取得部241aが取得する画像領域の大きさは異なる。そこで、ユーザP1が、端末装置200aを操作する環境を、例えば、キーボードやタッチパネル等の入力部270を用いて選択することで、環境に対応する閾値β1を適宜設定してもよい。
また、判定部241aは、取得部244から撮影時における撮像部210の状態を示す情報として画像領域に含まれる画像数を受信してもよい。すなわち、判定部241aは、受信した画像領域に含まれる画像数に基づいて、現在のフレームが撮像部210のぶれによるボケを含むか否かを判定してもよい。
また、撮像部210により最初に撮影されたフレームには、1コマ前の過去のフレームが存在しないことから、取得部244および判定部241aは、最初に撮影されたフレームについて、ボケがない画像として扱う。
図9は、図8に示した端末装置200aにおける被写体の視線検出処理の例を示す。ステップS100,S101a,S102a,S103,S104,S105およびS106は、端末装置200aの動作を示すとともに、視線検出プログラムおよび視線検出方法の例を示す。例えば、図9に示す処理は、端末装置200aに搭載されるプロセッサがプログラムを実行することにより実行される。なお、図9に示す処理は、端末装置200aに搭載されるハードウェアにより実行されてもよい。
図9に示す各ステップの処理のうち、図7に示すステップと同一または同等の処理のものについては、同一のステップの番号を付し説明を省略する。
ステップS101aにおいて、取得部244は、ステップS100で撮像部210により撮影された現在のフレームとともに、1コマ前の過去のフレームをバッファ部220から読み込む。取得部244は、読み込んだ現在のフレームと過去のフレームとからエッジ情報や輝度等の特徴量を抽出する。取得部244は、現在のフレームと過去のフレームとのそれぞれに含まれる各画素に対応して抽出した現在のフレームの特徴量と過去のフレームの特徴量との差分の絶対値を算出する。取得部244は、算出した差分の絶対値が閾値ε以上の差分の絶対値を有する画素が分布する画像領域を求める。取得部244は、求めた画像領域の大きさを撮影時における撮像部210の状態を示す情報として判定部241aに出力し、処理をステップS102aに移行する。
ステップS102aにおいて、判定部241aは、取得部244から受信した情報に基づいて、ステップS100で撮影された現在のフレームが撮像部210のぶれによるボケを含むか否かを判定する。例えば、判定部241aは、バッファ部220から現在のフレームを読み込むとともに、取得部244から画像領域の大きさを受信する。例えば、判定部241aは、ステップS101aで取得された画像領域の大きさが閾値β1以上の場合、ユーザP1による手ぶれ等により、現在のフレームはボケを含むと判定する。そして、判定部241aは、現在のフレームがボケを含むと判定した場合(YES)、現在のフレームを特定部243に出力し、処理をステップS106に移行する。一方、判定部241aは、ステップS101aで取得された画像領域の大きさが閾値β1より小さい場合、現在のフレームはボケを含まないと判定する。そして、判定部241aは、現在のフレームがボケを含まないと判定した場合(NO)、現在のフレームを検出部242へ出力し、処理をステップS103に移行する。
以上、この実施形態では、取得部244が、現在のフレームと過去のフレームとから抽出されるエッジ情報や輝度等の特徴量の差分の絶対値に基づいて、撮影時における撮像部210の状況を示す情報を取得する。判定部241aは、取得した情報に基づいて撮像部210により撮影されたフレームがボケを含むか否かを判定し、ボケがないと判定したフレームを検出部242に選択的に出力する。これにより、手に持って端末装置200aがユーザP1に操作される場合であっても、検出部242は、目の領域60から角膜による光源15の反射像65を高い精度で検出することができる。その結果、検出部242は、人物の視線を精度良く検出することができる。
また、特定部243は、ボケを含むと判定されたフレームから目を含む領域を特定し、検出部242は、特定された領域に基づいて、ボケがないと判定された次のフレームにおける領域60を検出する。これにより、検出部242は、顔や目の検出処理を省略でき、視線の検出処理の高速化を図ることができる。
なお、端末装置200aは、スマートフォンやタブレット型端末としたが、これに限定されない。端末装置200aは、カーナビゲーション等の車載用の端末装置でもよい。この場合、例えば、判定部241aは、自動車が走行時の振動により、撮像部210により撮影されたフレームがボケを含むか否かを判定し、ボケがないと判定したフレームを検出部242に出力する。これにより、検出部242は、ボケがあるフレームを含めて視線の検出を行った場合に比べて、被写体である運転手等の視線を精度良く検出することができる。
なお、判定部241a、検出部242、特定部243および取得部244は、撮像部210により撮影され生成された各フレームをそのままの画像サイズで処理したが、これに限定されない。例えば、制御部240は、撮像部210により生成された各フレームを、4分の1等の縮小率で縮小し、判定部241a、検出部242、特定部243および取得部244に縮小した各フレームを処理させてもよい。各フレームが縮小されることで画素数が減少することから、判定部241a、検出部242、特定部243および取得部244の各処理の高速化を図ることができる。
なお、取得部244は、撮影時における撮像部210の状態を示す情報を取得するために、現在のフレームと過去のフレームとの画像全体における特徴量を用いて、撮像部210の撮影時における状態を示す情報を取得したが、これに限定されない。例えば、取得部244は、現在のフレームと過去のフレームとにおける領域60の画像データから抽出された特徴量を用いて、撮像部210の撮影時における状態を示す情報を取得してもよい。これにより、特徴量の抽出および特徴量の差分の絶対値を求める範囲が領域60の範囲内となることから、取得部244の処理の高速化を図ることができる。
なお、判定部241aにおける閾値β1は、設計段階や製造段階等の実験により決定された値や、端末装置200aが操作される環境に応じて、ユーザP1により選択された値が設定されるとしたが、これに限定されない。例えば、判定部241aは、端末装置200aに内蔵されたジャイロセンサや加速度センサ等より検出される傾き角、角速度や加速度等のパラメータに基づいて、端末装置200aが操作される環境を推定してもよい。また、判定部241aは、推定した環境に基づいて決定される値を閾値β1として設定してもよい。
なお、検出部242は、赤外線でユーザP1を照明した状態で撮影されたフレームを用いてユーザP1の視線を検出したが、これに限定されない。例えば、撮像部210は、太陽光等の可視光で照明されたユーザP1を撮影することで可視光領域に含まれる色の情報を含むフレームを生成し、検出部242は、可視光領域に含まれる色の情報を含むフレームからユーザP1の視線を検出してもよい。この場合、記憶部260は、様々な方向に視線を向けている状態で撮影された画像のそれぞれから抽出した領域60の画像データを予め記憶するのが好ましい。そして、検出部242は、撮像部210で撮影された可視光のフレームと、予め記憶された複数の画像データとの比較からユーザP1の視線を検出する。
なお、検出部242は、ボケがないと判定されたフレームを、判定部241aから連続して受信する場合、受信した画像を間引いて視線の検出処理を施してもよい。ただし、フレームを間引く数は、撮像部210のフレームレート等に応じて、適宜設定されることが好ましい。
また、判定部241aは、受信した画像領域の大きさと閾値β1との比較から、受信した現在のフレームがボケを含むか否かを判定したが、これに限定されない。例えば、取得部244は、検出部242と同様に、受信した現在のフレームからユーザP1の所定の部位である瞳の領域64や反射像65を検出し、検出した領域64や反射像65の形状を求める。取得部244は、画像がボケを含まない場合に領域64や反射像65が示す円形等の形状に対する、求めた領域64や反射像65が示す楕円等の形状の歪んだ度合いを示す歪み量を撮影時における撮像部210の状態を示す情報として取得する。そして、判定部241aは、求めた歪み量と所定の値との比較に基づいて、現在のフレームがボケを含むか否かを判定してもよい。
なお、制御部240は、検出部242により検出されたユーザP1の視線方向に基づいて、表示部250を制御したが、これに限定されない。例えば、制御部240は、端末装置200aが内蔵する無線LANやWi−Fi規格等の無線通信を介して、視線の検出結果を、外部のコンピュータ等に出力してもよい。これにより、外部のコンピュータ等は、視線の検出結果から表示部250に表示された情報のうち、ユーザP1が興味を示した画像や記事等の情報を取得でき、取得した情報に基づいて、ユーザP1に応じた情報を提供することができる。
図10は、図6および図8に示す端末装置のハードウェア構成の例を示す。なお、図10に示す端末装置300の各要素のうち、図6および図8で示した要素と同一または同様の機能を有するものについては、同様の符号を付し説明を省略する。
端末装置300は、撮像部210、光源215、ジャイロセンサ230、表示部250、入力部270、プロセッサ310、EEPROM320、RAM330、通信回路340、アンテナ345および加速度センサ350を有する。撮像部210、光源215、ジャイロセンサ230、表示部250、入力部270、プロセッサ310、EEPROM320、RAM330、通信回路340および加速度センサ350は、バスを介して互いに接続されている。また、通信回路340およびアンテナ345は、互いに接続される。
EEPROM320は、例えば、端末装置300のオペレーティングシステムを格納する。また、EEPROM320は、図7および図9に示す視線検出処理をプロセッサ310が実行するための視線検出プログラム等のアプリケーションプログラムを格納する。なお、端末装置300がカーナビゲーション等で車載される場合、視線検出プログラム等のアプリケーションプログラムは、EEPROM320に代えて、ハードディスク装置等に格納されてもよい。
RAM330は、例えば、バッファ部220として、撮像部210により撮影され生成された画像を格納する。
通信回路340は、アンテナ345を介して、無線LANやWi−Fi規格等の無線通信で外部と各種アプリケーションプログラムや電子メール等のデータを送信または受信する。
加速度センサ350は、端末装置300の動きを示す加速度を検出し、検出した加速度を端末装置300に含まれる撮像部210の状態を示す情報の一部として出力する。つまり、加速度センサ350およびジャイロセンサ230は、いずれも撮像部210の撮影時における状況を示す情報を取得する取得部の一例である。
視線検出プログラム等のアプリケーションプログラムは、例えば、光ディスク等のリムーバブルディスクに記憶して頒布することができる。また、端末装置300は、例えば、通信回路340およびアンテナ345を介して、インターネット等のネットワークに接続し、視線検出プログラム等のアプリケーションプログラムをダウンロードし、EEPROM320等に格納してもよい。
例えば、プロセッサ310は、EEPROM320等に格納された視線検出プログラムを実行することにより、図6および図8に示した判定部241、241a、検出部242、特定部243および取得部244の機能を実現する。すなわち、プロセッサ310は、検出部および判定部の一例である。
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。
10,10a,210…撮像部;15,215…光源;20,20a,244…取得部;30,30a,241,241a…判定部;40,242…検出部;50…画像;51…顔領域;60…目領域;61…目輪郭;62…瞳孔;63…虹彩;64…角膜反射領域;100,100a,200,200a,300…端末装置;220…バッファ部;230…ジャイロセンサ;240…制御部;243…特定部;244…取得部;250…表示部;260…記憶部;270…入力部;320…EEPROM;330…RAM;340…通信回路;345…アンテナ;350…加速度センサ;P1…ユーザ

Claims (6)

  1. 被写体の撮影時における撮像部の状態を示す情報を取得する取得部と、
    取得した前記情報に基づいて前記撮像部により撮影された画像が前記撮像部のぶれによるボケを含むか否かを判定する判定部と、
    前記判定部によりボケがないと判定された画像を用いて、撮影された前記被写体の視線を検出する検出部と、
    を備えることを特徴とする端末装置。
  2. 請求項1に記載の端末装置において、
    前記取得部は、前記端末装置の姿勢を示す情報を前記撮像部の状態を示す情報として取得し、
    前記判定部は、前記姿勢を示す情報において示される前記姿勢の変化の大きさが所定値以上の場合、前記撮像部により撮影された画像がボケを含むと判定する
    ことを特徴とする端末装置。
  3. 請求項1に記載の端末装置において、
    前記取得部は、前記撮像部により前記被写体を連続して撮影することで生成される複数の画像のうちの第1の画像と前記第1の画像より前に撮影された第2の画像とのそれぞれに含まれる各画素に対応して抽出した前記第1の画像の特徴量と前記第2の画像の特徴量との差分が所定の閾値以上となる画素が分布する画像領域の大きさを、前記撮像部の状態を示す情報として取得し、
    前記判定部は、前記画像領域の大きさが所定値以上の場合に、前記第1の画像がボケを含むと判定する
    ことを特徴とする端末装置。
  4. 請求項1ないし請求項3のいずれか1項に記載の端末装置において、
    前記撮像部により前記被写体を連続して撮影することで生成された複数の画像のうちの第1の画像がボケを含み、前記第1の画像より前に撮影された第2の画像がボケを含まないと前記判定部により判定された場合、前記第1の画像と前記第2の画像との比較に基づいて、前記第1の画像における前記被写体の位置を特定する特定部を備えることを特徴とする端末装置。
  5. 被写体の撮影時における撮像部の状態を示す情報を取得し、
    取得した前記情報に基づいて前記撮像部により撮影された画像が前記撮像部のぶれによるボケを含むか否かを判定し、
    前記判定の処理により前記ボケがないと判定された画像を用いて、撮影された前記被写体の視線を検出する、
    処理をコンピュータに実行させる視線検出プログラム。
  6. 被写体の撮影時における撮像部の状態を示す情報を取得し、
    取得した前記情報に基づいて前記撮像部により撮影された画像が前記撮像部のぶれによるボケを含むか否かを判定し、
    前記判定の処理により前記ボケがないと判定された画像を用いて、撮影された前記被写体の視線を検出する、
    ことを特徴とする視線検出方法。
JP2013125456A 2013-06-14 2013-06-14 端末装置、視線検出プログラムおよび視線検出方法 Active JP6303297B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013125456A JP6303297B2 (ja) 2013-06-14 2013-06-14 端末装置、視線検出プログラムおよび視線検出方法
US14/284,937 US9521325B2 (en) 2013-06-14 2014-05-22 Terminal device and line of sight detection method
EP14170161.5A EP2813173B1 (en) 2013-06-14 2014-05-28 Terminal device and line of sight detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013125456A JP6303297B2 (ja) 2013-06-14 2013-06-14 端末装置、視線検出プログラムおよび視線検出方法

Publications (2)

Publication Number Publication Date
JP2015000156A true JP2015000156A (ja) 2015-01-05
JP6303297B2 JP6303297B2 (ja) 2018-04-04

Family

ID=50943057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013125456A Active JP6303297B2 (ja) 2013-06-14 2013-06-14 端末装置、視線検出プログラムおよび視線検出方法

Country Status (3)

Country Link
US (1) US9521325B2 (ja)
EP (1) EP2813173B1 (ja)
JP (1) JP6303297B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017203070A (ja) * 2016-05-10 2017-11-16 株式会社プライムポリマー プロピレン系樹脂組成物

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9942966B2 (en) * 2014-09-25 2018-04-10 Philips Lighting Holding B.V. Control of lighting
US10779733B2 (en) * 2015-10-16 2020-09-22 At&T Intellectual Property I, L.P. Telemedicine application of video analysis and motion augmentation
US20180005057A1 (en) * 2016-07-01 2018-01-04 Hyundai Motor Company Apparatus and method for capturing face image of decreased reflection on spectacles in vehicle
JP6737057B2 (ja) * 2016-08-10 2020-08-05 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
US10686996B2 (en) 2017-06-26 2020-06-16 Facebook Technologies, Llc Digital pixel with extended dynamic range
US10726627B2 (en) 2017-07-25 2020-07-28 Facebook Technologies, Llc Sensor system based on stacked sensor layers
US11568609B1 (en) 2017-07-25 2023-01-31 Meta Platforms Technologies, Llc Image sensor having on-chip compute circuit
US10598546B2 (en) 2017-08-17 2020-03-24 Facebook Technologies, Llc Detecting high intensity light in photo sensor
US11057581B2 (en) * 2018-01-24 2021-07-06 Facebook Technologies, Llc Digital pixel array with multi-stage readouts
US11906353B2 (en) 2018-06-11 2024-02-20 Meta Platforms Technologies, Llc Digital pixel with extended dynamic range
US11463636B2 (en) 2018-06-27 2022-10-04 Facebook Technologies, Llc Pixel sensor having multiple photodiodes
US10897586B2 (en) 2018-06-28 2021-01-19 Facebook Technologies, Llc Global shutter image sensor
US10931884B2 (en) 2018-08-20 2021-02-23 Facebook Technologies, Llc Pixel sensor having adaptive exposure time
US11956413B2 (en) 2018-08-27 2024-04-09 Meta Platforms Technologies, Llc Pixel sensor having multiple photodiodes and shared comparator
US11595602B2 (en) 2018-11-05 2023-02-28 Meta Platforms Technologies, Llc Image sensor post processing
US11962928B2 (en) 2018-12-17 2024-04-16 Meta Platforms Technologies, Llc Programmable pixel array
US11888002B2 (en) 2018-12-17 2024-01-30 Meta Platforms Technologies, Llc Dynamically programmable image sensor
US11218660B1 (en) 2019-03-26 2022-01-04 Facebook Technologies, Llc Pixel sensor having shared readout structure
US11943561B2 (en) 2019-06-13 2024-03-26 Meta Platforms Technologies, Llc Non-linear quantization at pixel sensor
US11936998B1 (en) 2019-10-17 2024-03-19 Meta Platforms Technologies, Llc Digital pixel sensor having extended dynamic range
US11935291B2 (en) 2019-10-30 2024-03-19 Meta Platforms Technologies, Llc Distributed sensor system
US11948089B2 (en) 2019-11-07 2024-04-02 Meta Platforms Technologies, Llc Sparse image sensing and processing
US11902685B1 (en) 2020-04-28 2024-02-13 Meta Platforms Technologies, Llc Pixel sensor having hierarchical memory
US11825228B2 (en) 2020-05-20 2023-11-21 Meta Platforms Technologies, Llc Programmable pixel array having multiple power domains
US11910114B2 (en) 2020-07-17 2024-02-20 Meta Platforms Technologies, Llc Multi-mode image sensor
US11956560B2 (en) 2020-10-09 2024-04-09 Meta Platforms Technologies, Llc Digital pixel sensor having reduced quantization operation
US11935575B1 (en) 2020-12-23 2024-03-19 Meta Platforms Technologies, Llc Heterogeneous memory system
US11798204B2 (en) * 2022-03-02 2023-10-24 Qualcomm Incorporated Systems and methods of image processing based on gaze detection

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090067827A1 (en) * 2007-09-12 2009-03-12 Hideo Yoshida Mobile device
JP2012239550A (ja) * 2011-05-17 2012-12-10 Fujitsu Ltd 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5410376A (en) 1994-02-04 1995-04-25 Pulse Medical Instruments Eye tracking method and apparatus
US7460150B1 (en) * 2005-03-14 2008-12-02 Avaya Inc. Using gaze detection to determine an area of interest within a scene
US7688379B2 (en) * 2005-12-09 2010-03-30 Hewlett-Packard Development Company, L.P. Selecting quality images from multiple captured images
JP5036177B2 (ja) 2005-12-12 2012-09-26 オリンパス株式会社 情報表示装置
JP4452833B2 (ja) 2006-03-31 2010-04-21 国立大学法人静岡大学 視線移動検出方法及び視線移動検出装置
JP4765732B2 (ja) * 2006-04-06 2011-09-07 オムロン株式会社 動画編集装置
JP4936491B2 (ja) 2006-07-18 2012-05-23 株式会社国際電気通信基礎技術研究所 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP4762321B2 (ja) * 2009-02-24 2011-08-31 株式会社東芝 画像認識装置、画像認識方法
EP2238889B1 (en) * 2009-04-01 2011-10-12 Tobii Technology AB Adaptive camera and illuminator eyetracker
JP5353776B2 (ja) 2010-03-15 2013-11-27 オムロン株式会社 ゲート装置
JP5246275B2 (ja) * 2011-01-25 2013-07-24 株式会社ニコン 撮像装置およびプログラム
JP5709734B2 (ja) * 2011-12-06 2015-04-30 キヤノン株式会社 光学防振装置、光学機器および光学防振装置の制御方法
US9628711B2 (en) * 2011-12-15 2017-04-18 Apple Inc. Motion sensor based virtual tripod method for video stabilization
JP5942586B2 (ja) 2012-05-18 2016-06-29 富士通株式会社 タブレット端末および操作受付プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090067827A1 (en) * 2007-09-12 2009-03-12 Hideo Yoshida Mobile device
JP2012239550A (ja) * 2011-05-17 2012-12-10 Fujitsu Ltd 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017203070A (ja) * 2016-05-10 2017-11-16 株式会社プライムポリマー プロピレン系樹脂組成物

Also Published As

Publication number Publication date
EP2813173A1 (en) 2014-12-17
JP6303297B2 (ja) 2018-04-04
EP2813173B1 (en) 2018-04-25
US20140368687A1 (en) 2014-12-18
US9521325B2 (en) 2016-12-13

Similar Documents

Publication Publication Date Title
JP6303297B2 (ja) 端末装置、視線検出プログラムおよび視線検出方法
CN109716268B (zh) 眼部和头部跟踪
CN110167823B (zh) 用于驾驶员监测的系统和方法
EP3557377B1 (en) Neural network training for three dimensional (3d) gaze prediction with calibration parameters
CN107105130B (zh) 电子设备及其操作方法
KR102126300B1 (ko) 올-인-포커스 이미지를 생성하기 위한 방법 및 장치
CN110320999B (zh) 用于三维(3d)注视预测的深度学习的方法和系统
CN113729611B (zh) 使用眼球中心位置的眼睛追踪
JP5529660B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP4218720B2 (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
US11301677B2 (en) Deep learning for three dimensional (3D) gaze prediction
JP5661043B2 (ja) 外光映り込み判定装置、視線検出装置及び外光映り込み判定方法
CN109993115B (zh) 图像处理方法、装置及可穿戴设备
WO2018016209A1 (ja) 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム
WO2011105004A1 (ja) 瞳孔検出装置及び瞳孔検出方法
EP3557376A2 (en) Training of a neural network for three dimensional (3d) gaze prediction
JP4856291B1 (ja) 表示装置及び制御方法
JP5517170B2 (ja) 表示装置及び制御方法
JP2005296383A (ja) 視線検出装置
US10860165B2 (en) Tracking method and apparatus for smart glasses, smart glasses and storage medium
CN113784875B (zh) 相机位置检测装置和方法、相机单元以及存储介质
CN112351212A (zh) 用于多曝光图像融合的利用全局正则化和运动排除的局部直方图匹配

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170317

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170803

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170803

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180219

R150 Certificate of patent or registration of utility model

Ref document number: 6303297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150