JP6040274B2 - 瞳孔位置検出方法、瞳孔位置検出装置および記録媒体 - Google Patents

瞳孔位置検出方法、瞳孔位置検出装置および記録媒体 Download PDF

Info

Publication number
JP6040274B2
JP6040274B2 JP2015077802A JP2015077802A JP6040274B2 JP 6040274 B2 JP6040274 B2 JP 6040274B2 JP 2015077802 A JP2015077802 A JP 2015077802A JP 2015077802 A JP2015077802 A JP 2015077802A JP 6040274 B2 JP6040274 B2 JP 6040274B2
Authority
JP
Japan
Prior art keywords
pupil
curvature
image
nostril
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015077802A
Other languages
English (en)
Other versions
JP2016042348A (ja
Inventor
鄒嘉駿
林伯聰
Original Assignee
由田新技股▲ふん▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 由田新技股▲ふん▼有限公司 filed Critical 由田新技股▲ふん▼有限公司
Publication of JP2016042348A publication Critical patent/JP2016042348A/ja
Application granted granted Critical
Publication of JP6040274B2 publication Critical patent/JP6040274B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、視覚認識技術に関するものであり、特に、瞳孔位置検出方法、瞳孔位置検出装置および記録媒体に関するものである。
現在の視標追跡技術は、主に、侵襲性(invasive)視標追跡技術と非侵襲性(non-invasive)視標追跡技術に分けられる。侵襲性視標追跡技術は、眼球内に探りコイル(search coil)を設置する、あるいは、電気眼球図(electrooculogram)を使用する技術である。非侵襲性視標追跡技術は、頭部非装着型(head-free)視標追跡技術または頭部装着型(head-mount)視標追跡技術を含む。技術の発展とともに、視標追跡技術は、神経科学、心理学、生産管理工学、人間工学、マーケティング広告、コンピューターサイエンス等の様々な分野に広く応用されるようになった。
視標追跡技術を利用して発声の不自由な人や身体的に困難な人のコミュニケーションを補助することにより、運動機能に制限のある人に対して多くの便利を与えることができる。例えば、視標追跡電子製品を利用して口の代わりに目を使うことによって、コミュニケーション、インターネットアクセス、ビデオ・オーディオエンターテイメント活動等を実施することができる。しかしながら、侵襲性および非侵襲性視標追跡技術は、高価なソフトウェアおよびハードウェア装置と合せて使用しなければならず、複雑な較正手順を必要とすることから、実行状態の安定性が悪く、製品コストが比較的高いため、視標追跡技術を普及させることができない。
従来の視標追跡技術は、高価なソフトウェアおよびハードウェア装置と合せて使用しなければならず、複雑な較正手順を必要とすることから、実行状態の安定性が悪く、製品コストが比較的高いため、視標追跡技術を普及させることができない。
本発明は、瞳孔の位置を正確に検出して正確な視標追跡を達成することのできる瞳孔位置検出方法、瞳孔位置検出装置および記録媒体を提供する。
本発明は、以下のステップを含む瞳孔位置検出方法を提供する。瞳孔画像を取得する。瞳孔画像から瞳孔輪郭を取得する。瞳孔輪郭の曲率情報に基づいて楕円特徴を取得する。楕円特徴に基づいて視線方向を判断する。さらに、曲率情報が、1つまたはそれ以上の曲線セグメントの曲率を含み、瞳孔輪郭の曲率情報に基づいて楕円特徴を取得するステップが、瞳孔輪郭の起点から所定の方向に沿って瞳孔輪郭の複数の曲線の曲率を計算し、各曲線の曲率がエラー許容値範囲内で同じ曲率方程式に符合するかどうかを判断し、エラー許容値範囲内で同じ曲率方程式に符合する曲線を同じ曲線セグメントとして設定し、所定の曲面方向に符合しない1つまたはそれ以上の曲線セグメントをフィルタリングし、瞳孔輪郭に基づいて得られた1つまたはそれ以上の曲線セグメントに基づいて楕円特徴を取得する。
本発明の1つの実施形態において、瞳孔輪郭の曲率情報に基づいて楕円特徴を取得するステップは、さらに、所定の曲面方向に符合しない1つまたはそれ以上の曲線セグメントをフィルタリングするステップを含む。
本発明の1つの実施形態において、楕円特徴に基づいて視線方向を判断するステップは、データベースから楕円特徴に対応する視線方向を照会するステップを含む。
本発明の1つの実施形態において、瞳孔位置検出方法は、さらに、瞳孔変位を計算して、視点の変位を取得するステップを含む。
本発明の1つの実施形態において、瞳孔位置検出方法は、さらに、以下のステップを含む。原画像を受信する。原画像から顔画像を抽出する。顔画像の鼻孔領域を検出して、鼻孔位置情報を取得する。鼻孔位置情報に基づいて眼画像を取得し、眼画像から瞳孔画像を取得する。
本発明の1つの実施形態において、鼻孔位置情報に基づいて眼画像を取得するステップは、以下のステップを含む。鼻孔位置情報の第1鼻孔中心点と第2鼻孔中心点の間の距離に基づいて、眼検索フレームの中心点および長さと幅を推定し、眼検索フレームから眼画像を取得する。
本発明は、撮像ユニットと、記憶ユニットと、処理ユニットとを含む瞳孔位置検出装置を提供する。撮像ユニットは、原画像を取得するよう構成される。記憶ユニットは、画像分析モジュールを含み、画像分析モジュールが、瞳孔検出モジュールと、曲率計算モジュールと、視線判断モジュールと、を含む。処理ユニットは、撮像ユニットおよび記憶ユニットに結合される。処理ユニットは、瞳孔検出モジュールを起動して、瞳孔検出モジュールによって原画像から得られた眼画像から瞳孔画像を取得し、瞳孔画像から瞳孔輪郭を取得し、曲率計算モジュールによって瞳孔輪郭の曲率情報を計算し、瞳孔輪郭の曲率情報に基づいて楕円特徴を取得し、視線判断モジュールによって楕円特徴に基づいて視線方向を判断する。さらに、曲率計算モジュールが、瞳孔輪郭における1つまたはそれ以上の曲線セグメントの曲率を計算し、曲率情報が、1つまたはそれ以上の曲線セグメントを含む。また、曲率計算モジュールが、瞳孔輪郭の起点から所定の方向に沿って瞳孔輪郭の曲率を計算し、エラー許容値範囲内で、各曲線の曲率が同じ曲率方程式に符合するかどうかを判断し、曲率計算モジュールが、エラー許容値範囲内で同じ曲率方程式に符合する複数の連続曲線を同じ曲線セグメントとして設定し、所定の曲面方向に符合しない1つまたはそれ以上の曲線セグメントをフィルタリングし、瞳孔輪郭に基づいて得られた1つまたはそれ以上の曲線セグメントに基づいて、楕円特徴を取得する。
本発明は、瞳孔位置検出方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体提供する。
以上のように、瞳孔の視線方向および瞳孔変位を迅速かつ正確に検出することにより、正確な視標追跡を行い、様々な応用を達成することができる。
本発明の上記および他の目的、特徴、および利点をより分かり易くするため、図面と併せた幾つかの実施形態を以下に説明する。
本発明の1つの実施形態に係る瞳孔位置検出装置のブロック図である。 本発明の1つの実施形態に係る画像分析モジュールのブロック図である。 本発明の1つの実施形態に係る瞳孔位置検出方法を示すフローチャートである。 本発明の1つの実施形態に係る眼検索フレームを推定する概略図である。 (a)は、本発明の1つの実施形態に係る瞳孔画像の概略図である。(b)は、本発明の1つの実施形態に係る瞳孔輪郭の概略図である。 本発明の1つの実施形態に係る楕円形状と視線方向の間の対応関係の概略図である。
一般的な視標追跡技術は、光源を用いて使用者の目を照射することにより、目の表面に光点を形成し、瞳孔と光点の間の相対位置に基づいて使用者の視線方向を判断する。しかしながら、従来の方法は、画面位置を変換する際のエラーを回避するために、使用前に較正手順を行わなければならない。したがって、本発明は、瞳孔の曲率を特徴として使用し、眼球運動制御を行う瞳孔位置検出方法、装置およびコンピュータプログラム製品を提供する。
図1は、本発明の1つの実施形態に係る瞳孔位置検出装置のブロック図である。瞳孔位置検出装置100は、使用者の瞳孔位置を画面上のカーソル位置に変換するために使用される。瞳孔位置検出装置100は、内蔵画面を有しても、画面に接続されてもよい。瞳孔位置検出装置100は、例えば、デスクトップコンピュータ、ノートブック、タブレットPC、スマートフォン等の演算能力を有する電子装置または電子製品である。
図1を参照すると、瞳孔位置検出装置100は、主に、処理ユニット110と、撮像ユニット120と、記憶ユニット130とを含む。処理ユニット110は、例えば、中央処理装置(central processing unit, CPU)、またはプログラム可能な一般用途または特殊用途のマイクロプロセッサ(microprocessor)、デジタル信号プロセッサ(digital signal processor, DSP)、プログラマブルコントローラ(programmable controller)、特定用途向け集積回路(application specific integrated circuit, ASIC)、プログラム可能論理デバイス(programmable logic device, PLD)、あるいは他の類似装置またはこれらの装置の組み合わせである。
撮像ユニット120は、例えば、CCD(charge coupled device)レンズ、CMOS(complementary metal oxide semiconductor transistor)レンズまたは赤外線レンズを有するビデオカメラまたはカメラである。撮像ユニット120は、画像系列(複数の原画像を含む)を取り込むために使用される。
記憶ユニット130は、例えば、任意の種類のRAM(removable random access memory)、ROM(read-only memory)、フラッシュメモリ、ハードディスク、あるいはその他の類似装置またはこれらの装置の組み合わせである。
本実施形態では、プログラム命令を使用して瞳孔位置検出を行う。つまり、記憶ユニット130が複数のプログラム命令を記憶し、これらのプログラム命令をロードした後、処理ユニット110がプログラム命令を実行する。例えば、記憶ユニット130は、1つまたは複数のプログラム命令で構成された画像分析モジュール140を含み、画像分析モジュール140を使用して複数の機能を実行する。また、記憶ユニット130は、さらに、データベース150を含む。データベース150は、複数の所定の楕円特徴および対応する視線方向を記憶する。
三次元(3D)眼球が二次元(2D)画像に変換された時、2D画像の瞳孔は、いくつかの曲率変形が生じるため、曲率情報を分析することによって、視線方向を判断することができる。詳しく説明すると、処理ユニット110は、画像分析モジュール140を起動して、原画像から瞳孔画像を取得し、瞳孔画像から瞳孔輪郭を取得し、瞳孔輪郭の曲線情報に基づいて楕円特徴を取得し、楕円特徴に基づいて視線方向を判断する。例えば、画像分析モジュール140は、データベース150を照会して、楕円特徴に符合する所定の楕円特徴に基づいて、対応する視線方向を取得する。楕円特徴は、例えば、楕円方程式である。
以下、画像分析モジュール140について説明する。図2は、本発明の1つの実施形態に係る画像分析モジュールのブロック図である。画像分析モジュール140は、顔検出モジュール201と、鼻孔検出モジュール203と、眼検出モジュール205と、瞳孔検出モジュール207と、曲率計算モジュール209と、視線判断モジュール211とを含む。顔検出モジュール201は、原画像から顔画像を抽出するよう構成される。鼻孔検出モジュール203は、顔画像の鼻孔領域を検出して、鼻孔位置情報を取得するよう構成される。眼検出モジュール205は、鼻孔位置情報に基づいて眼画像を取得するよう構成される。瞳孔検出モジュール207は、眼画像から瞳孔画像を検出し、瞳孔画像から瞳孔輪郭を取得するよう構成される。曲率計算モジュール209は、瞳孔輪郭の曲率情報を計算し、楕円特徴を取得するよう構成される。視線判断モジュール211は、楕円特徴に基づいて視線方向を判断するよう構成される。
上述した瞳孔位置検出装置100を参照しながら、瞳孔位置検出方法について説明する。図3は、本発明の1つの実施形態に係る瞳孔位置検出方法を示すフローチャートである。まず、ステップS305において、画像分析モジュール140が瞳孔画像を取得する。例えば、撮像ユニット120が原画像を受信した後、処理ユニット110は、画像分析モジュール140を起動して、まず、原画像から顔画像を取得し、顔画像の鼻孔領域を検出して鼻孔位置情報を取得し、鼻孔位置情報に基づいて眼画像を取得する。その後、処理ユニット110は、瞳孔検出アルゴリズムに基づいて、眼画像から瞳孔画像を取得する。
図2の画像分析モジュール140を例に挙げると、顔検出モジュール201は、顔認識アルゴリズムに基づいて、撮像ユニット120で取り込んだ原画像が顔を有するかどうかを検出し、原画像から顔画像を取得する。例えば、記憶ユニット130は、特徴データベースを記憶する。特徴データベースは、複数の顔特徴パターンを含む。顔検出モジュール201は、特徴データベースの顔特徴パターンを比較して、顔オブジェクトを取得する。1つの実施形態において、Haar-likeに基づくアダブースト(AdaBoost)アルゴリズムまたは他の既存の顔認識アルゴリズムを使用して、原画像中の顔画像を取得してもよい。
そして、鼻孔検出モジュール203は、顔検出モジュール201から顔画像を受信し、顔画像の鼻孔領域を検出して、鼻孔位置情報を取得する。人間の顔の鼻孔には黒色があるため、容易に正しく認識することができる。鼻孔位置情報は、例えば、2つの鼻孔の第1鼻孔中心点および第2鼻孔中心点である。
一般的な顔特徴比率は、統計上の近似値範囲を有するため、統計上の顔特徴比率関係に基づいて鼻孔位置情報を取得した後、眼検出モジュール205は、鼻孔位置情報に基づいて眼域位置を取得することができる。例えば、眼検出モジュール205は、鼻孔位置情報における第1鼻孔中心点と第2鼻孔中心点の間の接続線の中心点に基づいて、眼検索フレームの中心点および長さと幅を推定し、眼検索フレームから眼画像を取得する。
例えば、図4は、本発明の1つの実施形態に係る眼検索フレームを推定する概略図である。第1鼻孔中心点N1および第2鼻孔中心点N2を見つけた後、第1鼻孔中心点N1と第2鼻孔中心点N2の間の距離Dを計算する。そして、距離Dに基づいて、検索フレームの中心点および長さと幅を推定する。詳しく説明すると、座標(N1_x,N1_y)を有する第1鼻孔中心点N1を起点とすると、第1推定値k1でX座標を、第2推定値k2でY座標を追加することにより、中心点C1を取得する。つまり、中心点C1のX座標は、C_x=N1_x+k1であり、Y座標は、C_y=N1_y+k2である。第1および第2推定値k1およびk2は、k1=D×e1、k2=D×e2(1.3<e1<2.0および1.5<e2<2.2)に設定することができるが、実際の要求に応じて調整可能であるため、本発明はこれに限定されない。中心点C1を取得した後、予め定義した幅wおよび高さh(幅wは高さhよりも大きい)に基づいて、眼検索フレーム410を取得する。例えば、幅wは、2×22ピクセルであり、高さhは、2×42ピクセルである。
さらに、上記の方法に類似して、座標(N2_x,N2_y)を有する第2鼻孔中心点N2を起点とすると、X座標から第1推定値k1を差し引き、第2推定値k2によりY座標を追加することにより、別の中心点C2を取得する。中心点C2を取得した後、予め定義した幅wおよび高さhに基づいて、別の眼検索フレーム420を取得する。さらに、別の実施形態において、起点は、第1鼻孔中心点N1と第2鼻孔中心点N2の間の中心点であってもよく、本発明はこれに限定されない。眼検索フレーム410および420を取得した後、処理ユニット110は、さらに、眼検索フレーム410および420から、さらに正確な眼画像411および421を取得する。
その後、眼検出モジュール205は、眼画像411および421のコントラストを調整して強調画像を取得し、強調画像に対してノイズ除去処理を行ってノイズ除去画像を取得し、ノイズ除去画像に対してエッジシャープニング(edge sharpening)処理を行ってシャープ化画像を取得し、シャープ化画像に対して二値化処理(binarization processing)を行って二値画像を取得する。その後、眼検出モジュール205は、二値画像に対して再度エッジシャープニング処理を行い、眼オブジェクトを取得する。そして、瞳孔検出モジュール207は、眼オブジェクトに対してそれぞれ瞳孔検出アルゴリズムを実行し、瞳孔画像を取得する。
しかしながら、上述した瞳孔画像の取得に関する実施形態は単なる例であるため、本発明はこれに限定されない。例えば、画像分析モジュール140が眼特徴を利用して直接眼画像を取得し、鼻孔位置情報を取得するステップを省略してもよい。
図3を再び参照すると、ステップS310において、画像分析モジュール140は、瞳孔画像から瞳孔輪郭を取得する。例えば、図5(a)は、本発明の1つの実施形態に係る瞳孔画像の概略図であり、図5(b)は、本発明の1つの実施形態に係る瞳孔輪郭の概略図である。図5(a)および図5(b)を参照すると、瞳孔検出モジュール207は、瞳孔画像500が眼オブジェクトEおよび瞳孔オブジェクトPを含むかどうかを検出する。そして、瞳孔検出モジュール207は、瞳孔オブジェクトPに対してエッジ検出アルゴリズムを実行し、図5(b)に示した瞳孔輪郭510を取得する。
瞳孔輪郭510を取得した後、ステップS315において、画像分析モジュール140は、瞳孔輪郭510の曲率情報に基づいて楕円特徴を取得する。詳しく説明すると、曲率計算モジュール209は、瞳孔輪郭510に含まれる1つまたは複数の曲線セグメントの曲率を計算する。曲率情報は、曲線セグメントの曲率を含む。本実施形態において、図5(b)に示した瞳孔輪郭510は、複数の曲線セグメントを含む。さらに、別の実施形態において、瞳孔輪郭510が円形を有する場合、瞳孔輪郭510は、1つの曲線セグメントしか含まない。
曲率計算モジュール209は、瞳孔輪郭510の起点a1から所定の方向(本実施形態では時計回り方向)に沿って瞳孔輪郭510の複数の曲線の曲率を計算する。エラー許容値範囲内で、最小二乗誤差(least square error, LSE)アルゴリズム、修正緩勾配方程式(modified mild-slope equation, MMSE)アルゴリズム、ニューラルネットワークアルゴリズム、遺伝的アルゴリズム等を用いて、曲線の曲率が曲率方程式に符合するかどうかを判断する。さらに、エラー許容値範囲内で同じ曲率方程式に符合する曲線を同じ曲線セグメントとして設定する。図5(b)を例に挙げると、瞳孔輪郭510は、曲線セグメントarc1〜arc6および曲線セグメントEr1〜Er2を含んでもよい。また、曲率計算モジュール209は、さらに、所定の曲面方向(凹、凸)に符合しない曲線セグメントEr1〜Er2をフィルタリングする。その後、曲率計算モジュール209は、瞳孔輪郭510から取得した曲線セグメントarc1〜arc6に基づいて、楕円特徴(例えば、楕円方程式)を取得する。楕円特徴に基づいて、対応する楕円形状を取得することができる。
そして、ステップS320において、画像分析モジュール140は、楕円特徴に基づいて視線方向を判断する。例えば、視線判断モジュール211は、取得した楕円特徴に基づいてデータベース150を照会し、楕円特徴に符合する所定の楕円方程式に基づいて、対応する視線方向を取得する。例えば、図6は、本発明の1つの実施形態に係る楕円形状と視線方向の間の対応関係の概略図である。図6では、4つの所定の楕円方程式に対応する楕円形状のみを図示し、それぞれの楕円形状は、対応する視線方向を有する。図6に示すように、楕円形状aは、左上右下の視線方向eに対応し、楕円形状bは、右上左下の視線方向fに対応し、楕円形状cは、水平の視線方向gに対応し、楕円形状dは、垂直の視線方向hに対応する。しかしながら、本発明はこれに限定されない。楕円特徴に符合する所定の楕円方程式に基づいて対応する楕円形状を取得することにより、対応する視線方向を取得する。
視線方向を取得した後、視線判断モジュール211は、さらに、瞳孔変位を計算し、視線方向および瞳孔変位に基づいて視点の変位方向および変位を取得し、画面上のカーソルを移動する。例えば、前後2つの瞳孔画像中の中心点の変位を計算する。
ここで、処理ユニット110は、まず、座標システム変換方法に基づいて初期瞳孔位置を画面カーソル座標に変換する。例えば、透視変換(perspective transformation)法を用いて座標変換マトリックスを生成し、座標変換マトリックスは、眼画像の瞳孔位置を画面カーソル位置に変換するよう構成される。そして、後続の受信した原画像に基づいて得られた視線方向および瞳孔変位に基づいて、画面上のカーソルを移動させる。
本発明は、さらに、瞳孔位置検出装置に適用されるコンピュータプログラム製品を提供する。コンピュータプログラム製品は、基本的に、複数のプログラム命令(例えば、組織図確立プログラム命令、テーブル承認プログラム命令、設定プログラム命令および配備プログラム命令)からなり、これらのプログラム命令を瞳孔位置検出装置にロードして、瞳孔位置検出装置で実行することにより、上述した瞳孔位置検出方法の各ステップおよび瞳孔位置検出装置の各機能を達成する。
以上のように、瞳孔輪郭に含まれる曲線セグメントおよび曲率を分析することによって、瞳孔輪郭に対応する楕円形状を取得する。このように、瞳孔の視線方向および瞳孔変位を迅速かつ正確に判断することによって、瞳孔位置を正確に検出して正確な視標追跡を行い、様々な応用を達成することができる。
本発明は、視標追跡技術を普及させることのできる瞳孔位置検出方法、瞳孔位置検出装置および記録媒体を提供する。
以上のごとく、この発明を実施形態により開示したが、もとより、この発明を限定するためのものではなく、当業者であれば容易に理解できるように、この発明の技術思想の範囲内において、適当な変更ならびに修正が当然なされうるものであるから、その特許権保護の範囲は、特許請求の範囲および、それと均等な領域を基準として定めなければならない。
100 瞳孔位置検出装置
110 処理ユニット
120 撮像ユニット
130 記憶ユニット
140 画像分析モジュール
150 データベース
201 顔検出モジュール
203 鼻孔検出モジュール
205 眼検出モジュール
207 瞳孔検出モジュール
209 曲率計算モジュール
211 視線判断モジュール
410、420 眼検索フレーム
411、421 眼画像
500 瞳孔画像
a1 起点
arc1〜arc6、Er1〜Er2 曲線セグメント
C1、C2 中心点
D 距離
E 眼オブジェクト
h 高さ
k1 第1推定値
k2 第2推定値
N1 第1鼻孔中心点
N2 第2鼻孔中心点
P 瞳孔オブジェクト
w 幅
S305〜S325 ステップ
a〜d 楕円形状
e〜h 視線方向

Claims (8)

  1. 瞳孔画像を取得するステップと、
    前記瞳孔画像から瞳孔輪郭を取得するステップと、
    前記瞳孔輪郭の曲率情報に基づいて楕円特徴を取得するステップと、
    前記楕円特徴に基づいて視線方向を判断するステップと
    を含み、
    前記曲率情報が、1つまたはそれ以上の曲線セグメントの曲率を含み、前記瞳孔輪郭の前記曲率情報に基づいて前記楕円特徴を取得する前記ステップが、
    前記瞳孔輪郭の起点から所定の方向に沿って前記瞳孔輪郭の複数の曲線の曲率を計算するステップと、
    各前記曲線の前記曲率がエラー許容値範囲内で同じ曲率方程式に符合するかどうかを判断するステップと、
    前記エラー許容値範囲内で前記同じ曲率方程式に符合する前記曲線を同じ曲線セグメントとして設定するステップと、
    所定の曲面方向に符合しない前記1つまたはそれ以上の曲線セグメントをフィルタリングするステップと、
    前記瞳孔輪郭に基づいて得られた前記1つまたはそれ以上の曲線セグメントに基づいて前記楕円特徴を取得するステップと、
    を含む瞳孔位置検出方法。
  2. 瞳孔変位を計算して、視点の変位を取得するステップをさらに含み、
    前記楕円特徴に基づいて前記視線方向を判断する前記ステップが、
    データベースから前記楕円特徴に対応する前記視線方向を照会するステップを含む請求項1に記載の瞳孔位置検出方法。
  3. 原画像を受信するステップと、
    前記原画像から顔画像を抽出するステップと、
    前記顔画像の鼻孔領域を検出して、鼻孔位置情報を取得するステップと、
    前記鼻孔位置情報の第1鼻孔中心点と第2鼻孔中心点の間の距離に基づいて、眼検索フレームの中心点および長さと幅を推定し、前記眼検索フレームから眼画像を取得するステップと、
    前記眼画像から前記瞳孔画像を取得するステップと
    をさらに含む請求項1または2に記載の瞳孔位置検出方法。
  4. 原画像を取得する撮像ユニットと、
    画像分析モジュールを含み、前記画像分析モジュールが、瞳孔検出モジュールと、曲率計算モジュールと、視線判断モジュールと、を含む記憶ユニットと、
    前記撮像ユニットおよび前記記憶ユニットに結合され、前記瞳孔検出モジュールを起動して、前記瞳孔検出モジュールによって前記原画像から得られた眼画像から瞳孔画像を取得し、前記瞳孔画像から瞳孔輪郭を取得し、前記曲率計算モジュールによって前記瞳孔輪郭の曲率情報を計算し、前記瞳孔輪郭の曲率情報に基づいて楕円特徴を取得し、前記視線判断モジュールによって前記楕円特徴に基づいて視線方向を判断する処理ユニットと
    を含み、
    前記曲率計算モジュールが、前記瞳孔輪郭における1つまたはそれ以上の曲線セグメントの曲率を計算し、前記曲率情報が、前記1つまたはそれ以上の曲線セグメントを含み、
    前記曲率計算モジュールが、前記瞳孔輪郭の起点から所定の方向に沿って前記瞳孔輪郭の前記曲率を計算し、エラー許容値範囲内で、各曲線の前記曲率が同じ曲率方程式に符合するかどうかを判断し、前記曲率計算モジュールが、前記エラー許容値範囲内で前記同じ曲率方程式に符合する複数の連続曲線を同じ曲線セグメントとして設定し、所定の曲面方向に符合しない前記1つまたはそれ以上の曲線セグメントをフィルタリングし、前記瞳孔輪郭に基づいて得られた前記1つまたはそれ以上の曲線セグメントに基づいて、前記楕円特徴を取得する
    瞳孔位置検出装置。
  5. 記記憶ユニットが、さらに、
    複数の所定の楕円特徴およびそれらに対応する前記視線方向を記憶するデータベースを含み、
    前記視線判断モジュールが、前記データベースを照会し、前記楕円特徴に符合する前記所定の楕円特徴のうちの1つに基づいて対応する前記視線方向を取得する請求項に記載の瞳孔位置検出装置。
  6. 前記視線判断モジュールが、さらに、瞳孔変位を計算して、視点の変位を取得する請求項または5に記載の瞳孔位置検出装置。
  7. 前記画像分析モジュールが、さらに、
    前記原画像から顔画像を抽出する顔検出モジュールと、
    前記顔画像の鼻孔領域を検出して、鼻孔位置情報を取得する鼻孔検出モジュールと、
    前記鼻孔位置情報の第1鼻孔中心点と第2鼻孔中心点の間の距離に基づいて、眼検索フレームの中心点および長さと幅を推定し、前記眼検索フレームから前記眼画像を取得する眼検出モジュールと
    を含む請求項のいずれか1項に記載の瞳孔位置検出装置。
  8. 求項1〜のいずれか1項に記載の瞳孔位置検出方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2015077802A 2014-08-14 2015-04-06 瞳孔位置検出方法、瞳孔位置検出装置および記録媒体 Active JP6040274B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW103127951 2014-08-14
TW103127951A TWI577327B (zh) 2014-08-14 2014-08-14 瞳孔定位方法與裝置及其電腦程式產品

Publications (2)

Publication Number Publication Date
JP2016042348A JP2016042348A (ja) 2016-03-31
JP6040274B2 true JP6040274B2 (ja) 2016-12-07

Family

ID=55301196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015077802A Active JP6040274B2 (ja) 2014-08-14 2015-04-06 瞳孔位置検出方法、瞳孔位置検出装置および記録媒体

Country Status (4)

Country Link
US (1) US9723979B2 (ja)
JP (1) JP6040274B2 (ja)
CN (1) CN105373766B (ja)
TW (1) TWI577327B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6179224B2 (ja) * 2013-07-02 2017-08-16 富士通株式会社 画像処理フィルタの作成装置及びその方法
CN106354777B (zh) * 2016-08-22 2019-09-17 广东小天才科技有限公司 一种应用于电子终端的搜题方法及装置
CN107092873A (zh) * 2017-04-08 2017-08-25 闲客智能(深圳)科技有限公司 一种眼动方向识别方法及装置
US10572009B2 (en) 2017-05-22 2020-02-25 Htc Corporation Eye tracking method, electronic device, and non-transitory computer readable storage medium
CN107277375B (zh) * 2017-07-31 2020-03-27 维沃移动通信有限公司 一种自拍方法和移动终端
CN107578382A (zh) * 2017-08-18 2018-01-12 北京小米移动软件有限公司 图像处理方法及装置
JP6953247B2 (ja) * 2017-09-08 2021-10-27 ラピスセミコンダクタ株式会社 ゴーグル型表示装置、視線検出方法及び視線検出システム
CN107784280A (zh) * 2017-10-18 2018-03-09 张家港全智电子科技有限公司 一种动态瞳孔跟踪方法
CN108280403B (zh) * 2017-12-27 2020-08-04 北京七鑫易维信息技术有限公司 确定瞳孔位置的方法和装置
CN108053444B (zh) * 2018-01-02 2021-03-12 京东方科技集团股份有限公司 瞳孔定位方法及装置、设备和存储介质
CN108983976B (zh) * 2018-07-09 2019-06-18 清华大学 柔性交互装置以及信息交互方法及装置
CN109145821B (zh) * 2018-08-16 2020-11-06 新智数字科技有限公司 一种对人眼图像中瞳孔图像进行定位的方法及装置
TWI704473B (zh) 2018-11-16 2020-09-11 財團法人工業技術研究院 視線向量偵測方向與裝置
CN111208905A (zh) * 2020-01-08 2020-05-29 北京未动科技有限公司 一种多模组视线追踪方法、系统和视线追踪设备
US11195301B1 (en) * 2020-07-26 2021-12-07 Nec Corporation Of America Estimation of head yaw in an image
CN112926536B (zh) * 2021-04-06 2024-04-16 科大讯飞股份有限公司 变形瞳孔定位方法、装置以及设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4102895C1 (ja) * 1991-01-31 1992-01-30 Siemens Ag, 8000 Muenchen, De
JP2600114B2 (ja) 1994-11-28 1997-04-16 工業技術院長 ノイズに強い正確な楕円近似による計測方法
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
DE102005047160B4 (de) * 2005-09-30 2007-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild
CN101489467B (zh) 2006-07-14 2011-05-04 松下电器产业株式会社 视线方向检测装置和视线方向检测方法
JP4998364B2 (ja) * 2008-04-28 2012-08-15 オムロン株式会社 視線検出装置および方法、並びに、プログラム
JP5230748B2 (ja) * 2008-09-26 2013-07-10 パナソニック株式会社 視線方向判定装置及び視線方向判定方法
TWI401104B (zh) 2010-02-12 2013-07-11 Utechzone Co Ltd Control system for sports equipment
CN101813976A (zh) * 2010-03-09 2010-08-25 华南理工大学 基于soc的视线跟踪人机交互方法及装置
CN101964111B (zh) * 2010-09-27 2011-11-30 山东大学 基于超分辨率的视线跟踪精度提升方法
CN102749991B (zh) * 2012-04-12 2016-04-27 广东百泰科技有限公司 一种适用于人机交互的非接触式自由空间视线跟踪方法

Also Published As

Publication number Publication date
TW201605407A (zh) 2016-02-16
CN105373766B (zh) 2019-04-23
TWI577327B (zh) 2017-04-11
US9723979B2 (en) 2017-08-08
CN105373766A (zh) 2016-03-02
JP2016042348A (ja) 2016-03-31
US20160045109A1 (en) 2016-02-18

Similar Documents

Publication Publication Date Title
JP6040274B2 (ja) 瞳孔位置検出方法、瞳孔位置検出装置および記録媒体
US11749025B2 (en) Eye pose identification using eye features
Moilanen et al. Spotting rapid facial movements from videos using appearance-based feature difference analysis
CN106372629B (zh) 一种活体检测方法和装置
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
CN104915656B (zh) 一种基于双目视觉测量技术的快速人脸识别方法
US20130259391A1 (en) State-of-posture estimation device and state-of-posture estimation method
US10289908B2 (en) Method, apparatus, and computer program product for tracking eye gaze and eye movement
Pires et al. Unwrapping the eye for visible-spectrum gaze tracking on wearable devices
Yu et al. An easy iris center detection method for eye gaze tracking system
US20170076136A1 (en) Image processing method and apparatus
JP2018134274A5 (ja)
Khan et al. A new 3D eyeball tracking system to enhance the usability of page scrolling
JP5688514B2 (ja) 視線計測システム、方法およびプログラム
Valentina et al. Iris localization using circular hough transform and horizontal projection folding
US20220270407A1 (en) Image processing method, image processing device, and non-transitory computer readable storage medium
Sambrekar et al. Estimation of gaze for human computer interaction
Ackland et al. An investigation into determining head pose for gaze estimation on unmodified mobile devices

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161107

R150 Certificate of patent or registration of utility model

Ref document number: 6040274

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250