JP2016532217A - グリントにより眼を検出する方法および装置 - Google Patents

グリントにより眼を検出する方法および装置 Download PDF

Info

Publication number
JP2016532217A
JP2016532217A JP2016539360A JP2016539360A JP2016532217A JP 2016532217 A JP2016532217 A JP 2016532217A JP 2016539360 A JP2016539360 A JP 2016539360A JP 2016539360 A JP2016539360 A JP 2016539360A JP 2016532217 A JP2016532217 A JP 2016532217A
Authority
JP
Japan
Prior art keywords
image
series
specular
reflection
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016539360A
Other languages
English (en)
Inventor
セバスチャン ルジョー
セバスチャン ルジョー
Original Assignee
シーイング マシーンズ リミテッド
シーイング マシーンズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2013903337A external-priority patent/AU2013903337A0/en
Application filed by シーイング マシーンズ リミテッド, シーイング マシーンズ リミテッド filed Critical シーイング マシーンズ リミテッド
Publication of JP2016532217A publication Critical patent/JP2016532217A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

画像内における眼球の位置を特定する方法であって、(a)間隔を置いて配置した少なくとも二つの光源により所定の時間的手法で照射される一連の時系列画像フレームを、少なくとも一つの撮像センサにより撮像する工程と、(b)上記一連の画像フレームを処理することにより、上記画像フレームにおける鏡面反射の位置を特定する工程と、(c)上記鏡面反射の位置の時系列進展を用いることにより、上記特定された鏡面反射の位置から角膜反射を特定する工程と、を含む、方法が提供される。

Description

本発明は、対象を検出し監視する技術の分野に関し、具体的には、反射の構造に基づいて眼を検出する方法およびシステムを開示する。本発明の実施の形態は、たとえばコンピュータまたは(たとえばスマートフォンやタブレットのような)携帯機器のユーザ、あるいは車両の運転者の眼の位置追跡に適用可能である。
本願明細書全体を通して、たとえ背景技術を論じていても、そのような技術が既に広く知られているとか、当該技術分野における共通一般知識の一部であるなどと決して自認しているわけではないことには留意されたい。
検出されたノイズの多い画像において眼を正しく検出することは困難である。なかでも眼鏡が介在している場合は、そのフレームにより遮蔽(occlusion)が発生し、そのレンズ上で反射が生成するので、一層難しくなる。
眼の検出を目的とする従来のコンピュータビジョンアルゴリズムは、しばしば外見に依存する(たとえば、ViolaおよびJonesを譲受人とし、「画像内の対象を検出するシステムおよび方法(System and method for detecting objects in images)」と題する米国特許第7020337号明細書を参照)。この方法は、検出する対象の外見に基づくモデルを生成することに依存しているので、たとえば強力な反射および/または遮蔽のようなノイズの存在下では、そのロバスト性は大幅に低下することになる。また、この方法は、相対的には計算集約型でもある。
別の例としては、LoyおよびThomsenを譲受人とし、「顔の特徴を自動的に検出する方法および装置(Method and apparatus for the automatic detection of facial features)」と題する米国特許第7460693号明細書に記載された方法が挙げられる。この文献では、眼は高速対称変換(虹彩の円形対称を用いる)により検出され、その後、ハフ変換(画像における複数の円を検出する)により改善が施される。この方法は、眼の組織構造(texture)に依存するので、たとえば眼鏡のレンズ上での鏡面反射により虹彩が部分的に遮蔽される場合には、その性能は著しく低下することになる。
また、従来のシステムには、並行して動作する複数の全眼検出モジュールを備えるものもある。このようなシステムには内在する欠点がいくつかある。たとえば、ある状況では、眼の特徴は画像の相当大きな部分を占めることもある(たとえば携帯電話カメラを顔の近くに構えた場合、全画素の20パーセントが眼の部分に相当することもある)。このような状況では、上記複数の眼検出器は、これだけ大量にオーバーラップする画像領域上で動作しなければいけなくなる。そうしなければ、眼が検出不可能になるからである(以下、この問題を「オーバーラップ問題」と呼ぶ)。オーバーラップの結果、同じ画素データを対象として冗長な追加処理が発生することになり、異なる複数の検出器が同じ眼を何回も検出する事態になり得る。その結果、曖昧さを排除するためにさらなる処理が必要になってしまう。
さらに、そのような眼検出器が複数のフレームを対象として動作し、かつ眼が運動している場合(すなわち軌跡を生じている場合)、そのような従来のシステムには、複数の眼検出領域にまたがって運動する眼の軌跡を分解して追従する(resolve)ことが不可能になる。それができない代わりに、互いに非連続となる複数の軌跡が検出結果として報告されることになる。
そこで、ノイズが多かったり、遮蔽が起こったりしている画像においても、よりロバストなかたちで眼検出を行う技術が広い方面で求められている。
本発明の目的は、好ましい実施の形態においては、画像内の眼の検出を含む、改良された画像対象検出技術を提供することにある。
本発明の第1の局面によれば、画像内における少なくとも一つの眼球の位置を特定する方法が提供される。この方法は、(a)間隔を置いて配置した少なくとも二つの光源により所定の時間的手法で照射される一連の時系列画像フレームを、少なくとも一つの撮像センサにより撮像する工程と、(b)上記一連の画像フレームを処理することにより、上記画像フレームにおける鏡面反射の位置を特定する工程と、(c)上記鏡面反射の位置の時系列進展を用いることにより、上記特定された鏡面反射の位置から角膜反射を特定する工程と、を含む。
上記工程(c)は、好ましくは、角膜反射に対応する上記鏡面反射の位置をモデル化するに際して、位置進展の速度モデルまたは加速度モデルを用いることを含み得る。
上記工程(c)は、好ましくは、上記モデルと、上記画像フレームにおける実際の鏡面反射の位置との間の誤差測度を用いることを含み得る。上記モデルは、好ましくは、最高速度または加速度を含み得る。
ある実施の形態において、第1の光源および第2の光源が用いられる。上記第1の光源は、上記時系列の偶数番目のフレームを撮像する時に上記眼球の片方または両方を照射するように操作され、上記第2の光源は、上記時系列の奇数番目のフレームを撮像する時に上記眼球の片方または両方を照射するように操作される。
別の実施の形態において、複数の光源が用いられる。上記複数の光源のそれぞれは、上記時系列の所定のフレームを撮像する時に上記眼球の片方または両方を照射するように操作される。
本発明の第2の局面によれば、画像内における眼球の位置を検出する画像処理システムが提供される。このシステムは、上記画像の領域を所定の時間的手法で照射する少なくとも二つの画像照明光源と、上記画像領域を表す複数の時間フレームから構成されたシーケンスを撮像するイメージセンサと、上記複数の時間フレームを処理することにより、上記時間フレームにおける鏡面反射の位置を特定するように構成されたプロセッサと、一連の時間フレームの上記鏡面反射の位置から推定角膜反射を特定する第2の処理手段と、を備える。
本発明の第3の局面によれば、一連の画像内の一つ以上の対象を追跡する方法が提供される。この方法は、
(a)間隔を置いて配置された少なくとも二つの光源を制御することにより、複数の所定期間のそれぞれを通じて上記一つ以上の対象を照射する工程と、
(b)上記複数の所定の期間のいずれかにおいて、カメラを制御することにより、上記一つ以上の対象を含む画像を撮影する工程であって、上記画像は画像ストリームの一部を成す、工程と、
(c)複数の画像内に存在する複数の鏡面反射を識別する工程と、
(d)一つ以上の制約を適用することにより、上記複数の鏡面反射のいずれが、上記一つ以上の対象からの反射に対応するかを判断する工程と、
(e)複数の画像フレーム中の少なくともあるサブセットにおける上記一つ以上の対象の位置を表す二次元座標を出力する工程と、
を含む。
上記一つ以上の制約を適用する工程は、好ましくは、複数の画像における上記複数の鏡面反射の位置に基づいて上記一つ以上の対象の動きモデルを適用することを含む。
本発明の第4の局面によれば、上記第3の局面による方法を実行するように構成されたコンピュータプログラムが提供される。
本発明の第5の局面によれば、上記第3の局面による方法を実行するように構成されたコンピュータシステムが提供される。
本発明の第6の局面によれば、上記第3の局面による方法を実行するように構成された装置が提供される。
図1は、一連の鏡面反射を有する第1の複合画像例を示す図である。 図2は、鏡面反射を有する第2の画像例を示す図である。 図3は、角膜反射を生成する幾何学構成(geometry)を模式的に示す図である。 図4は、好ましい実施の形態による各工程を示すフローチャートである。 図5は、好ましい実施の形態を実現するのに適した処理システムの一例を示す図である。 図6は、好ましい実施の形態による処理構成を示す図である。
以下、添付の図面を参照して、本発明の実施の形態を説明する。なお以下に記す実施の形態は一例を示すものにすぎない。
好ましい実施の形態によれば、撮影された画像における角膜反射を利用することにより、ロバストな形態で眼を検出する方法が提供される。眼からの角膜反射は、たとえ他の種類の強力な反射やノイズが存在している状況下であっても、通常依然として存在するものであるから、角膜反射の位置を検出し処理することによって、眼の位置および注視の方向を明確に示す指標が得られ得る。
図1は、帽子2、安全用眼鏡4、およびマスク3を着用した人の頭部を表す、ノイズの多い画像1の一例を示す。この画像1を子細に調べると、この画像の中には角膜反射が二か所5、6で起こっていることが分かる。
図2は、眼鏡20着用中の片目の像を記録する撮像装置により得られた画像の別の例を示す。この例では、光源は、目的とする角膜反射22の他、鏡面反射21を複数箇所で発生させている。
好ましい実施の形態では、角膜鏡面反射の存在を効果的に利用する。その好ましい実施の形態では、角膜反射の位置を特定する目的で、少なくとも一つの撮像装置と、少なくとも二つの活性光源とを用いる。それらの光源は、その撮像装置に対して同期がとられる。使用する光源の個数を増やせば、グリントをより精度よく検出し、検出誤りの回数を減らすことが可能になる。二つ以上の撮像装置を用いる場合には、それらの積算期間の同期もとることになる。撮像装置としては、たとえば、デジタルカメラや、CCDカメラ等が挙げられる。
それらの光源を撮像装置の積算期間に対して同期をとることも可能であり、任意の組み合わせの光源がある与えられたフレームに対してオンまたはオフであるように、それらの光源を能動的に制御することも可能である。利用可能な光源としては、たとえば、LEDや、制御信号に応答して所定の期間発光可能である、電子的に制御可能なその他の光源が挙げられる。
光源がオンである時、その光源は、角膜表面上に(「グリント」とも呼ばれる)反射を生じさせる。図3は、その過程30を模式的に図示する。図3において、光源31および32から光が眼球33に対して投射され、角膜反射34がカメラ35により検出される。光源31および32は、角膜上に光をそれぞれ異なる角度から照射可能なように、互いに間隔を設けて配置される。これにより、特に片目または両目が部分的に遮蔽されている場合には、グリントをより効果的に検出することができる。
角膜の表面は、任意のパラメトリック曲面としてモデル化可能である。第1の例示的な実施の形態では、角膜は、中心Cおよび半径Rを有する球体としてモデル化される。図1および図2に示すように、光源31および32は、それ以外にも多くの鏡面反射を発生させる可能性がある。
好ましい実施の形態において提案された方法によれば、画像シーケンス中におけるすべての鏡面反射を検出した後、角膜についての一定の動きモデルを用いて(たとえば、角膜の中心Cが三次元空間内において一定の速度または一定の加速度で動くという仮定のもとに)、検出した鏡面反射のどれが角膜反射に対応するかを評価する。
以下、図4を参照してこの手順を詳細に説明する。図4は、一枚の画像または複数の時系列画像内において眼球の位置を特定する方法40に最低限含まれる各工程を示すフローチャートである。本発明のさまざまな実施の形態は多種多様なハードウェアプラットフォーム(固定型または携帯型、PDA、スマートフォン等)で実現可能ではあるが、方法40では、図6に示す例示的な構成を有する、図5の配置50に一例として図示されたハードウェアを用いるものとして以下に説明する。
配置50では、監視される被写体51は、光シーケンス化マイクロコントローラ55により制御される、光源52、53から順次発光される赤外光に順次曝される。動画が動画撮影ユニット54により撮影される。ユニット54は、一つ以上のデジタルカメラを備えており、また必要であれば、内部プロセッサを備えていてもよい。動画の撮影は、以下に説明する方法40に従って、プロセッサ56により処理される。
まず工程41において、ユニット54を用いて、被写体51の時系列画像が撮影される。これら時系列画像のサブセットは、図6に示すように、フレームn〜n+3(57〜60)となる。撮影中、被写体の眼球は光源51および53により照射される。二つの光源を用いるシステムにおいて、連続するフレームの照射は、好ましくは、二つの光源を切り替えて交互に用いることにより実現される。図6に示すように、光源0(52)は偶数番目のフレームに対してオンであり、光源1(53)は奇数番目のフレームに対してオンである。三つ以上の光源を用いるシステムにおいては、好ましくは、各フレームについて、それらの光源のうち少なくとも一つだけは照射プロファイルが異なるようにする。一例を挙げれば、三つの光源(L1、L2およびL3)を備えるシステムにおいては、時系列で連続する画像フレームは、以下の照射シーケンスを用いて照射され得る。
フレーム1:L1+L2
フレーム2:L1+L3
フレーム3:L2+L3
フレーム4:L1+L2+L3
フレーム5:L1+L2…
このシーケンス化は、プロセッサ56および撮影ユニット54と連携して、シーケンス化マイクロコントローラ55により決定される。照射のタイミングは、上記時系列に含まれる複数の画像フレームが撮像されるタイミングと同期がとられる。鏡面反射をノイズとよりよく区別するためには、全般として、上記時系列中の連続する複数のフレーム間には照射プロファイルについて多少の変動がある(操作される光源が異なるとか、その組み合わせが異なるとか)ほうがよい。
工程42において、上記撮影された時系列画像の中から、画像内の鏡面反射すなわちグリントが検出される。三つのフレームFn、Fn+1およびFn+2(54〜56)が与えられた場合、一セットの2DグリントGn、Gn+1およびGn+2が、画像内の画素の二次元座標として抽出される。グリントの抽出は、たとえばラプラス演算子の最大値のような、公知のコンピュータビジョン法を用いて実行されうる。これらのグリントは、画像内において角膜反射に対応する場合もあるし、その他の鏡面反射に対応する場合もある。画像内に検出されるグリントの個数は、撮像される環境および照明に依存して、数個から数百個の範囲で変動し得る。複数のグリント検出モジュールを設けるシステムでは、グリント抽出プロセスは並行して行ってもよい。画像内におけるグリントのサイズは小さいため、別々のモジュール間の画素同士のオーバーラップを大幅に低減することができる。
工程43において、どの鏡面反射が(眼鏡から生じるような他の鏡面反射ではなく)角膜反射に相当するかを特定するために、動きモデルが用いられる。動きモデルとしては、たとえば、眼の一定速度モデルが挙げられる。動きモデルの別の例としては、眼の加速度モデルが挙げられる。理想的には、速度が一定と仮定される場合には最低三つのフレームが用いられ、加速度が一定と仮定される場合には、四つのフレームが用いられる。ここで好ましい実施の形態は、一定速度モデルを中心に説明しているが、それを一定加速度モデルや、その他の動きモデルに拡張して用いてもよい。そのモデルは、獲得した画像データを、プロセッサ56により実行されるアルゴリズムを通して処理することにより適用される。それぞれのモデルは、眼の典型的な動きに関連する制約を課す。その他の対象の対応する動きモデルは、画像内のその他の対象を追跡する際に適用され得る。
連続する複数のフレームに含まれる三つのグリントが互いに関連するものかどうか調べる必要がある。各セットGn、Gn+1およびGn+2につき一つのグリントのみを取り上げる場合、同じ角膜上での三回の連続する角膜反射に対応する三つのグリントの特定を試みることが必要になる。この段階で最初の淘汰として、二つの連続するフレーム上のグリント位置が所定の閾値距離を超える三個セットを排除してもよい。その閾値距離は、たとえば、三次元空間における角膜の最高速度により導かれる距離に基づいていてもよい。既知の角膜半径R(これは全人類共通でごく近似した値である)を仮定し、最小化プロセスにより三個のグリントからなるセット(3×二次元位置で観測位置は六つになる)に適合する三次元空間(一定速度モデルを用いる場合、自由度は6となる)内の最良の角膜軌跡を特定すればよい。この段階で、図3の幾何学的構成を用いて、(たとえばレーベンバーグ・マーカート(Levenberg-Marquardt)法のような)何らかの反復的最適化プロセスを行い得る。図4に示す実施の形態では、この最適化問題に対する具体的で高速の解法を用いることができる。
数学的観点から見れば、角膜の軌跡は、以下の各要素を考慮に入れた上で、図3に示すようなシステムにより獲得される、二次元グリント位置のシーケンスから演算され得る。
・固有投射パラメータθが既知であるカメラI
・その軸(像面に平行なX、Y軸、カメラの光軸と一直線上のZ軸)がカメラの軸と合わせられ、その中心がカメラの投射中心位置と合わせられた、基準フレームF
・上記カメラ基準フレームFにおける既知の三次元位置Lに位置する赤外線照射器
・その中心が、画像シーケンスに含まれる基準フレームFにおける軌跡C={C,…,C}に追従する、既知の半径Rを有する球面状の角膜
・動きモデルC=g(α,i)(ここで、αは軌跡Cを記述する動きパラメータ(たとえば一定速度または一定加速度)である)および
・カメラにより撮像される、赤外線照射器から発らせれた光の角膜表面上の反射に対応する、複数の二次元グリント位置G={G,…,G}からなるシーケンス
球面鏡のもつ公知の反射を生じさせる幾何学的構成と、カメラのもつ公知の投射を生じさせる幾何学的構成と、を用いることにより得られた関数である、
が知られている。ここで、
は鏡面反射Giの理論上の位置である。次に、角膜軌跡のパラメータが、以下の誤差関数を最小化することにより計算され得る。
この関数の最小値は、公知の最適化方法を用いて見つけることができる。いったんパラメータαminが見つかれば、角膜の軌跡Tは、公知の動きモデルを用いて算出することができる。
なお、簡単のため、角膜は既知の半径Rをもつ球体であるものとする。しかしながら、既に述べたように、この方法は、グリントの理論上の位置
が角膜の既知の位置(および必要な場合にはその向き)に基づいて算出可能である限り、角膜がその他任意のパラメトリックな形状(たとえば楕円状)を有していても依然有効である。
上記淘汰プロセスを行うことにより、候補となるグリントの個数はしばしば三つか四つ程度にまで絞られる。上に述べた距離または軌跡による評価に合格したグリントについては、その他所定の判断基準に基づいて、与えられたグリントの三個セットを排除するのか、受容するのかを決めればよい。たとえば、最適化の結果残っている候補に対して最大の閾値(グリントの観測された二次元位置と、最適化された三次元角膜軌跡に基づいて算出された、その最適化された二次元位置との間の誤差)を設定してもよい。あるいは、たとえば最小または最大の深さまたは速度のような、その他の閾値を最適化された角膜軌跡に対して設定してもよい。
すべての受容判断基準を満たした三個セットは、実際の角膜反射に由来するものと見なされるので、眼の二次元位置および角膜の三次元位置の両方が既に計算されたことになる。ある実施の形態では、二つの連続するグリント三個セットは、誤検出されていないかさらに確認するために、次に別の動きモデル(たとえば一定速度または一定加速度)を用いて四個セットとして評価され得る。
ここに提案する方法では、角膜の曲面に類似した曲面を有する反射性の対象物があれば、それらをすべて検出する。また、画像内にノイズ(多数の鏡面反射)が存在する場合も、誤検出が発生することもありうる。そのような場合、不要な誤検出をなくすためには、たとえば機械学習に基づく分類器や、外見に基づく判断基準のような更なる画像分析を用い得る。
最後に、工程44において、角膜反射に基づいて特定した眼の位置を出力する。出力されるデータは、カメラの基準フレームにおける角膜位置を示す三次元座標であるか、または画像における二次元の投影の形態である。これらの座標は次に、その眼の位置を当該画像または時系列に含まれる他の画像に投影して戻すために使われる。さらに、検出された両目の座標は、それらの画像の更なる分析を通して注視の方向を特定するために用いてもよい。
なお、本願明細書に開示した実施の形態によれば、画像内の眼球の位置を特定するのに役立つさまざまな方法が提供されることは理解されたい。本発明は、片目または両目および/または単数または複数の顔の検出を必要とする、コンピュータビジョンに基づく顔追跡システムまたは眼追跡システムであれば、どのようなものにでも適用可能である。本発明は、顔が部分的に遮蔽され(たとえばユーザが埃よけ用または衛生用マスクを着用している場合)、その全体が見えるわけではない場合(たとえば顔の一部がカメラの視界の外にある場合)、あるいは、眼の組織構造が眼鏡の縁やレンズ上の反射により部分的に遮蔽されている場合、特に有用である。適用例としてはたとえば、疲労や注意散漫の兆候を検出する車両操縦者監視システムや、人間工学上または人間動作工学上の研究目的で注視の方向を(二次元の画面上または三次元の環境内で)算出する注視追跡システムや、眼鏡をかけた場合をバーチャル体験するための顔追跡システムや、アバターを動画化するための顔追跡システム等が挙げられる。
本発明は、単一のグリント検出モジュールを有するシステム、または並行して動作する複数のグリント検出モジュールを有するシステムにおいて実施可能である。後者の並行動作を行う実施の形態において、従来の技術に関して既に述べたオーバーラップの問題は大幅に抑制される。その理由は、接写している範囲においても、グリントは画像内のごく小さな特徴にすぎないからである(いくつかの実施の形態では、典型的には直径3、4画素である)。そういうものであるので、検出器領域のオーバーラップを非常に小さくすることが可能になる。同一のグリントを複数のグリント検出器が検出する場合には、角膜軌跡整合プロセスにおける曖昧さが解消される。
また、眼検出器が複数のフレームを対象に動作し、眼が複数の検出器の複数の領域にわたって移動するタイプの従来技術によるシステムとは対照的に、本発明によるシステムおよび方法によれば、軌跡を複数のグリント検出器により検出されたグリントに適合させる(多数の誤検出された眼の候補は排除する)ことにより、眼の検証段階が機能する(operate over)ことを可能にする単一の解決案を生成することが可能になる。これにより、眼が動いている場合でも、処理時間を短縮しつつ、眼をカバーする領域を検証するプロセスが、好結果を生む可能性を高めることが可能になる。
用語の解釈について
本願明細書全体を通して、「一実施の形態」、「いくつかの実施の形態」または「ある実施の形態」というとき、それは、当該実施の形態に関連して説明された、特定の特徴、構造または特性が、本発明の少なくとも一つの実施の形態に含まれることを意味する。したがって、本願明細書の各所で「一実施の形態において」、「いくつかの実施の形態において」または「ある実施の形態において」という表現が見られるが、それらのすべてが(可能性はあるものの)必ずしも同一の実施の形態に言及しているとは限らない。また、それらの特定の特徴、構造および特性は、一つ以上の実施の形態において、本願の開示から当業者には自明である何らかの適切な手法で組み合わせることも可能である。
また、本願明細書においては、共通の構成の対象を記載するにあたって序数形容詞である「第1の」、「第2の」、「第3の」等が用いられているが、これは特に断りのない限り、同様の対象のそれぞれ異なる事例に言及しているというだけのことであり、そのように記載された対象に対して、時間的、空間的、順位上、あるいはその他何らかの順列が与えられなければならないということを示唆しようとしているわけではない。
以下に述べる請求の範囲および以上に述べた説明において、「を備えている(comprising)」、「から構成される(comprised of)」または「を備える(which comprises)」という表現はいずれも、その表現の後に続く複数の要素/特徴が少なくとも含まれていることを意味し、その他の要素/特徴が排除されることは意味しない、開かれた表現である。したがって、「を備えている」という表現が請求の範囲で用いられる場合、その後に列挙される手段・要素・工程に限定されると解釈されるべきではない。一例を挙げれば、要素Aおよび要素B「を備えている(comprising)」装置という表現の範囲は、要素Aおよび要素Bのみから成る(consisting of)装置に限定されるべきではない。また本願明細書において用いられている、「を含んでいる(including)」、「を含む(which includes)」、および「を含んだ(that includes)」という表現のいずれもやはり、その表現の後に続く複数の要素/特徴が少なくとも含まれていることを意味し、その他の要素/特徴が排除されることは意味しない、開かれた表現である。したがって、本願において、「を含んでいる(including)」は「を備えている(comprising)」と同義であり、同じ意味を持つ。
また、本願明細書において、「例示的(exemplary)」という表現は、単なる例をいくつか挙げる意味で用いられているのであり、質的な表示を与えているわけではない。すなわち、「例示的な実施の形態(exemplary embodiment)」とは、単に一例として述べられた実施の形態を意味するにすぎず、必ずしも模範となる質を有する実施の形態に言及しているわけではない。
なお上に述べた本発明の例示的な実施の形態の説明において、本発明のさまざまな特徴が、単一の実施の形態、一つの図面、あるいはその説明の中に盛り込まれていることもあるが、それは、本願の開示を流れ良く行い、本発明のさまざまな局面のうちの一つ以上を理解する一助とすることが目的でなされているものである。したがって、このような開示の方法が採られているからといって、それは、請求の範囲に記載された発明では、各請求項に明確に記載された特徴よりも多数の特徴が必要になるという意図を反映していると解釈されるべきではない。むしろ以下に述べる請求の範囲が示すように、本発明の局面は、上に開示した単一の実施の形態の全特徴を下回る数の特徴の組み合わせにも存する。したがって、この「詳細な説明」の後に続く請求の範囲の内容は、このように断り書きをしているのであるから、「詳細な説明」においても明示的に援用されるものとする。ただし、それぞれの請求項は、本発明の別々の実施の形態を示すものとして、それ自体で完結したものでもあることも理解されたい。
また、本願明細書で述べたいくつかの実施の形態では、他の実施の形態に含まれる特徴のいくつかを含んではいるものの、含んでいない特徴もある場合があるが、異なる複数の実施の形態の各種特徴の組み合わせが本発明の範囲に入るものであり、それによりそれぞれ異なる複数の実施の形態が形成されることは、当業者には理解可能であろう。たとえば、以下に述べる請求の範囲において、請求の範囲に記載された複数の実施の形態をどのように組み合わせて用いてもよい。
また、本願明細書に述べた実施の形態の中には、コンピュータシステムのプロセッサや、その機能を実現するその他の手段により実現可能な方法として、またはそのような方法の各要素の組み合わせとして記載されている実施の形態もある。したがって、そのような方法、あるいは方法の各要素を実行するのに必要な各種命令を持つプロセッサは、その方法、あるいはその方法の各要素を実行する手段を形成する。また、装置の実施形態について本願明細書で記載した一要素は、本発明を実施することを目的として、その要素により実行される機能を実現する手段の一例である。
以上の説明において、具体的な細部について多数述べた。しかしながら、本発明の各種実施の形態は、そのような具体的細部なしでも実施可能であることは理解されたい。別の例では、既によく知られている方法、構造および技術については、本願明細書の理解の妨げとならないように、詳しくは述べていない。
また、「結合された(coupled)」という用語が、以下の請求の範囲において用いられるとき、それが直接の接続に限定されると解釈されるべきではないことにも留意されたい。「結合された(coupled)」および「接続された(connected)」という用語が、それらの派生語と共に用いられることもある。これらの用語が同義語として使われているわけではないことは理解されたい。したがって、「装置Bに結合された(coupled)装置A」という表現の範囲は、装置Aの出力が装置Bの入力に直接接続された装置またはシステムに限定されるわけではない。これはむしろ、装置Aの出力と装置Bの入力との間には経路が存在し、その経路は、その他の装置や手段を含む経路でもありうることを意味する。「結合された(coupled)」は、二つ以上の要素が直接物理的または電気的に接触していることを意味する場合もあるし、二つ以上の要素が直接には接触していないが、互いに連携または相互作用することを意味する場合もある。
したがって、本出願人が本発明の好ましい実施の形態とみなすものを以上に述べたが、それらの実施の形態に対して、本発明の趣旨を逸脱することなく、その他さまざまな改良をさらに施すことが可能であることは当業者には理解可能であろう。また、そのような改変・改良のすべてを本発明の範囲に入るものとして請求の範囲に記載していることは理解されたい。たとえば、上に述べた各種方式はすべて、単に使用可能な各種手順を表しているにすぎない。上で参照した各ブロック図には機能性を付加または削除することも可能であり、各機能ブロック間でその動作を相互に交換することも可能である。また、上に述べた各方法について、本発明の範囲内で、複数の工程を追加または削除することも可能である。

Claims (12)

  1. 画像内における眼球の位置を特定する方法であって、
    (a)間隔を置いて配置した少なくとも二つの光源により所定の時間的手法で照射される一連の時系列画像フレームを、少なくとも一つの撮像センサにより撮像する工程と、
    (b)前記一連の画像フレームを処理することにより、前記画像フレームにおける鏡面反射の位置を特定する工程と、
    (c)前記鏡面反射の位置の時系列進展を用いることにより、前記特定された鏡面反射の位置から角膜反射を特定する工程と、
    を含む、方法。
  2. 前記工程(c)は、角膜反射に対応する前記鏡面反射の位置をモデル化するに際して、位置進展の速度モデルまたは加速度モデルを用いることを含む、請求項1に記載の方法。
  3. 前記工程(c)は、前記モデルと、前記画像フレームにおける実際の鏡面反射の位置との間の誤差測度を用いることを含む、請求項2に記載の方法。
  4. 前記モデルは、最高速度または加速度を含む、請求項2に記載の方法。
  5. 第1の光源および第2の光源を用い、前記第1の光源は、前記時系列の偶数番目のフレームを撮像する時に前記眼球の片方または両方を照射するように操作され、前記第2の光源は、前記時系列の奇数番目のフレームを撮像する時に前記眼球の片方または両方を照射するように操作される、請求項1から4のいずれか一つに記載の方法。
  6. 複数の光源を用い、前記複数の光源のそれぞれは、前記時系列の所定のフレームを撮像する時に前記眼球の片方または両方を照射するように操作される、請求項1から4のいずれか一つに記載の方法。
  7. 画像内における眼球の位置を検出する画像処理システムであって、
    前記画像の領域を所定の時間的手法で照射する少なくとも二つの画像照明光源と、
    前記画像領域を表す複数の時間フレームから構成されたシーケンスを撮像するイメージセンサと、
    前記複数の時間フレームを処理することにより、前記時間フレームにおける鏡面反射の位置を特定するように構成されたプロセッサと、
    一連の時間フレームの前記鏡面反射の位置から推定角膜反射を特定する第2の処理手段と、
    を備える、システム。
  8. 一連の画像内の一つ以上の対象を追跡する方法であって、
    (a)間隔を置いて配置された少なくとも二つの光源を制御することにより、複数の所定期間のそれぞれを通じて前記一つ以上の対象を照射する工程と、
    (b)前記複数の所定の期間のいずれかにおいて、カメラを制御することにより、前記一つ以上の対象を含む画像を撮影する工程であって、前記画像は画像ストリームの一部を成す、工程と、
    (c)複数の画像内に存在する複数の鏡面反射を識別する工程と、
    (d)一つ以上の制約を適用することにより、前記複数の鏡面反射のいずれが、前記一つ以上の対象からの反射に対応するかを判断する工程と、
    (e)複数の画像フレーム中の少なくともあるサブセットにおける前記一つ以上の対象の位置を表す二次元座標を出力する工程と、
    を含む、方法。
  9. 前記一つ以上の制約を適用する工程は、複数の画像における前記複数の鏡面反射の位置に基づいて前記一つ以上の対象の動きモデルを適用することを含む、請求項8に記載の方法。
  10. 請求項8または9に記載の方法を実行するように構成されたコンピュータプログラム。
  11. 請求項8または9に記載の方法を実行するように構成されたコンピュータシステム。
  12. 請求項8または9に記載の方法を実行するように構成された装置。
JP2016539360A 2013-09-02 2014-09-01 グリントにより眼を検出する方法および装置 Pending JP2016532217A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
AU2013903337 2013-09-02
AU2013903337A AU2013903337A0 (en) 2013-09-02 Method and apparatus for eye detection (Glints)
AU2014900842 2014-03-12
AU2014900842A AU2014900842A0 (en) 2014-03-12 Improvements to Methods and Apparatus for Eye Detection (Glints)
PCT/AU2014/000868 WO2015027289A1 (en) 2013-09-02 2014-09-01 Method and apparatus for eye detection from glints

Publications (1)

Publication Number Publication Date
JP2016532217A true JP2016532217A (ja) 2016-10-13

Family

ID=52585306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016539360A Pending JP2016532217A (ja) 2013-09-02 2014-09-01 グリントにより眼を検出する方法および装置

Country Status (4)

Country Link
EP (1) EP3042341A4 (ja)
JP (1) JP2016532217A (ja)
CN (1) CN105765608A (ja)
WO (1) WO2015027289A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101730570B1 (ko) 2016-11-11 2017-04-26 주식회사 마이디바이스 글린트 검출 방법
WO2023120892A1 (ko) * 2021-12-20 2023-06-29 삼성전자주식회사 글린트를 이용한 시선 추적에서 광원을 제어하는 장치 및 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9996905B2 (en) * 2016-03-16 2018-06-12 Planet Labs, Inc. Systems and methods for enhancing object visibility for overhead imaging
US10878237B2 (en) 2016-06-29 2020-12-29 Seeing Machines Limited Systems and methods for performing eye gaze tracking
GB2559978A (en) 2017-02-22 2018-08-29 Fuel 3D Tech Limited Systems and methods for obtaining eyewear information
SE543240C2 (en) * 2018-12-21 2020-10-27 Tobii Ab Classification of glints using an eye tracking system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012065719A (ja) * 2010-09-21 2012-04-05 Fujitsu Ltd 視線検出装置、視線検出方法及び視線検出用コンピュータプログラムならびに携帯端末
JP2012239550A (ja) * 2011-05-17 2012-12-10 Fujitsu Ltd 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7280678B2 (en) * 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
JP5043038B2 (ja) * 2005-12-14 2012-10-10 デジタル シグナル コーポレイション 眼球の動きを追跡するシステムおよび方法
US7747068B1 (en) * 2006-01-20 2010-06-29 Andrew Paul Smyth Systems and methods for tracking the eye

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012065719A (ja) * 2010-09-21 2012-04-05 Fujitsu Ltd 視線検出装置、視線検出方法及び視線検出用コンピュータプログラムならびに携帯端末
JP2012239550A (ja) * 2011-05-17 2012-12-10 Fujitsu Ltd 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101730570B1 (ko) 2016-11-11 2017-04-26 주식회사 마이디바이스 글린트 검출 방법
WO2018088649A1 (ko) * 2016-11-11 2018-05-17 주식회사 쓰리이 글린트 검출 방법
US10354164B2 (en) 2016-11-11 2019-07-16 3E Co., Ltd. Method for detecting glint
WO2023120892A1 (ko) * 2021-12-20 2023-06-29 삼성전자주식회사 글린트를 이용한 시선 추적에서 광원을 제어하는 장치 및 방법

Also Published As

Publication number Publication date
CN105765608A (zh) 2016-07-13
EP3042341A4 (en) 2017-04-19
WO2015027289A1 (en) 2015-03-05
EP3042341A1 (en) 2016-07-13

Similar Documents

Publication Publication Date Title
US10552675B2 (en) Method and apparatus for eye detection from glints
US10878237B2 (en) Systems and methods for performing eye gaze tracking
US10878236B2 (en) Eye tracking using time multiplexing
JP5467303B1 (ja) 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体
JP5529660B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP2016532217A (ja) グリントにより眼を検出する方法および装置
US9201499B1 (en) Object tracking in a 3-dimensional environment
RU2616175C2 (ru) Определение расстояния до объекта по изображению
CN106547341B (zh) 注视跟踪器及其跟踪注视的方法
JP2016512765A (ja) 軸上視線追跡システム及び方法
KR20140125713A (ko) 카메라 어레이에 기반하여 시선을 추적하는 방법 및 장치
CN108304828B (zh) 一种三维活体人脸识别装置及方法
WO2015148198A1 (en) Computational array camera with dynamic illumination for eye tracking
JP5001930B2 (ja) 動作認識装置及び方法
US9002053B2 (en) Iris recognition systems
WO2016027627A1 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
US11163994B2 (en) Method and device for determining iris recognition image, terminal apparatus, and storage medium
JP6870474B2 (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
CN113260299A (zh) 用于眼睛追踪的系统和方法
JP6934575B2 (ja) 情報処理装置および物体検出方法
JP6785723B2 (ja) 視線計測装置
CN106803284B (zh) 构建脸部的三维图像的方法及装置
JP2015232771A (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP6430813B2 (ja) 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置
JP6468755B2 (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191217