JPWO2012137801A1 - 入力装置及び入力方法並びにコンピュータプログラム - Google Patents

入力装置及び入力方法並びにコンピュータプログラム Download PDF

Info

Publication number
JPWO2012137801A1
JPWO2012137801A1 JP2013508889A JP2013508889A JPWO2012137801A1 JP WO2012137801 A1 JPWO2012137801 A1 JP WO2012137801A1 JP 2013508889 A JP2013508889 A JP 2013508889A JP 2013508889 A JP2013508889 A JP 2013508889A JP WO2012137801 A1 JPWO2012137801 A1 JP WO2012137801A1
Authority
JP
Japan
Prior art keywords
visual line
user
eye
line position
coordinate value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013508889A
Other languages
English (en)
Inventor
康英 檜垣
康英 檜垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Publication of JPWO2012137801A1 publication Critical patent/JPWO2012137801A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

入力装置は、左目と右目の2つのカメラの各々の撮影データに基づき、楕円パラメータ法で視線位置を検出する。楕円パラメータ法は、楕円が円に近いほど、精度が落ちるので、視線が示す表示画像上の象限に予め重み付けを行う。例えば、法線位置から最も距離の少ない象限D5に対する重み付けは、0.3とする。次に、法線位置から、その次に距離の少ない象限に対する重み付けは0.5とする。最後に、法線位置から最も距離の遠い象限の重み付けは0.8とする。最後に、両カメラに対応した決定視線座標値に基づいて両眼による中央視線座標値を算出する。

Description

本発明は入力装置及び入力方法並びにコンピュータプログラムに係り、特に、使用者の視線を解析して、手操作に依らずに、マウスのクリックに相当する操作を行うことを可能にする入力装置及び入力方法並びにコンピュータプログラムに関する。
近年、スマートフォンの普及、多様化が進む一方、スマートフォン等の携帯端末装置と連携する機器についても、様々な種類の機器が登場している。
例えば、OS(オベレーティングシステム)を搭載し、スマートフォン等とBluetooth規格に準拠した通信機器で接続することで、電話を受信した際には通話相手の情報や、メール、SMS、音楽プレイリスト等を使用者の眼前に映写するなどの表示機能を備えたスキーゴーグル等も登場している。
よって、やがては、ゴーグル(メガネ)の形をしたウェアラブルなスマートフォンの登場もそう遠くない招来に実現することが予想される。
前述の表示機能だけであれば、特段の入力デバイスは必要としないが、着信時の通話開始やメール表示等の機能を実行させるためには、スマートフォン等の携帯端末装置側には、タッチパネルやキーといった入力手段を別途に備えることが必要になる。
これらの入力手段を、例えはゴーグル(メガネ)形状の表示装置として用いた場合、せっかく手を使わないことで得られている快適性が損なわれてしまうことになる。
視線検出方法としては、主として、角膜反射法、強膜反射法、及び瞼孔検出法などが知られているが、この内、提案されている視線検出方法の多くは、角膜反射法を用いている。
この角膜反射法とは、近赤外線光を角膜に照射し、角膜の曲率中心と視線ベクトルとから視線を算出する方法である。
図5は、視線を検出するための一般的な角膜反射法を示す説明図である。
図5に、眼球Eb,瞳孔Pu、視線方向SLおよびカメラCaの関係を示す。角膜の曲率中心は、プルキニエ像Ipと呼ばれる近赤外線光を照射したときの反射像の位置から求められ、視線ベクトルは、プルキニエ像Ip及び瞼孔中心位置Oから求められる。
しかしながら、この角膜反射法は、上記のように近赤外線光を眼球に照射するため、長時間使用した場合には網膜の焼きつき等、眼球Ebへの影響が心配される。
この他に、瞼孔の回転角を求める他の方法としては、楕円パラメータ法が知られている。
図6は、瞼孔の回転角を求めるための一般的な楕円パラメータ法を示す説明図である。
図6に示す通り、楕円パラメータ法とは、画像認識により、瞼孔を楕円として認識し、楕円の長軸a、短軸b、長軸の回転角qから瞼孔の回転角を求める方法である。
図7は、楕円パラメータ法による視線方向検出の原理を示す説明図である。
カメラCaで撮影した瞼孔の形状を、画像認識手段を用いて楕円であるものと捉える。
その長軸をa 、短軸をb 、カメラCaから眼球への法線に対する眼球上の瞼孔中心の角度をβとすると、角度βは、cosβ=b/aで求めることができる。
眼球表面をS、眼球中心を(x0、y0)、眼球半径をr0とすると、瞼孔(瞳孔)の中心(x、y)から眼球の水平方向の回転角θは(1)式から、垂直方向の回転角φは、(2)式から各々求めることができる。
Figure 2012137801
Figure 2012137801
ここで、カメラに対しての眼球中心位置と眼球半径については、個人差があるため、予めキャリブレーション(較正)を行なって個人パラメータを求める必要がある。
このキャリブレーションの方法については、一般的にいくつかの方法が知られている。
なお、個人パラメータの具体的な決定方法については、本発明の内容に関係しないため、説明は省略する。
(1)式と(2)式で算出した視線方向の角度から、画像表示面上の座標位置を計算する。
この楕円パラメータ法は、前述の角膜反射法と違って、近赤外線光を使用しないため、近赤外線光による眼球への影響は無い。
しかし、この楕円パラメータ法は、楕円が円に近い形状であるとき、つまりカメラから眼球への法線に対して視線方向の角度が浅い場合には、長軸の回転角を明確に求めることができず、精度が低くなるという問題点が有る。
なお、この分野の公知技術として、例えば、特許文献1には、方向を示す指が画角から外れず、正しく指示方向や動作を検出でき、異なる方向を映すディスプレイにも適用できて、現実に指し示されている物体を認識することができる入力画像処理装置について記載されている。具体的には、ハーフミラーと、ハーフミラーで反射された画像を撮像する撮像部と、ポインティング位置を検出するポインティング位置検出部と、検出された位置にあるオブジェクトを認識するポインティングオブジェクト認識部と、オブジェクト情報を蓄積するオブジェクト情報蓄積部と、該オブジェクト情報蓄積部に蓄積されているオブジェクト情報を検索するオブジェクト情報検索部と、該オブジェクト情報検索部の検索結果を表示するディスプレイとを備えるものとしている。
また、例えば、特許文献2には、視線入力が困難になった場合に行う再キャリブレーションを、簡易的なキャリブレーションで十分に対応可能とする視線検出装置について記載されている。具体的には、再キャリブレーション指示を受けると、位置が既知である複数個の標準点のうちのいずれか1点でのキャリブレーションを行い、検出対象の眼球のある頭部の動きに起因する誤差を求め、この求めた誤差に基づいて視線検出結果の位置ずれを補正するずれ補正部2Cを備えている。これにより、複数個の標準点のうちのいずれか1点のキャリブレーションをやり直すだけで、現状に応じた適切な値の相関係数を求め直して視線検出結果の位置ずれを補正することができるので、従来に比べて、短時間で再キャリブレーションでき、使用者に快適な操作性を提供することができるものとしている。
さらに、例えば、特許文献3には、静止画像や動画像に関わらずに観察者の体感画質を低下させることなく、高い画像圧縮率を実現し、しかも通信経路の伝送負荷を減少させることができて、多数の端末に画像の情報を送信し得る画像圧縮通信装置について記載されている。
具体的には、画面表示部を観察する観察者の視線を追跡し、その視線データに基づいて、観察者の視線近傍である中心視野の画像データは低圧縮率に、観察者の視線から遠ざかる周辺視野ほど高圧縮率になるように画像データにデータ圧縮処理を施すものとしている。
特開2000−148381号公報 特開2001−134371号公報 特開平09−009253号公報
ところで、上記背景技術で述べた従来の入力装置にあっては、前述のとおり、視線検出方法として従来から多用されている角膜反射法は、近赤外線光を角膜に照射して角膜の曲率中心と視線ベクトルとから視線を算出する方法であるため、長時間使用した場合には網膜の焼きつき等、眼球への影響が心配されるといった問題点が有る。
また、瞼孔を楕円と認識し、視線方向を検出する楕円パラメータ法を採用した場合、楕円が円に近い形状のとき、つまりカメラの眼球への法線に対して視線方向の角度が浅いときには、長軸の回転角を明確に求めることができず、精度が低くなるといった問題点が有る。
なお、前述の特許文献1に記載の技術は、使用者の指が示す方向を検出してポインティング位置を確定し、検出された位置にあるオブジェクトを認識するものであるが、本発明の方法では使用者の指は使用しない。
また、前述の特許文献2に記載の技術は、視線入力が困難になった場合に行う再キャリブレーションを簡易化するものであり、本発明の方法とは直接の関係を有しない。
さらに、前述の特許文献3に記載の技術は、使用者の視線近傍である中心視野の画像データは低圧縮率に、観察者の視線から遠ざかる周辺視野ほど高圧縮率になるように画像データにデータ圧縮処理を施すものであるが、これに対し、本発明の方法では、検出した視線位置に対して、予め設定した表示画面上の象限毎に重み付けを行うものであり、画像データに対しては、少なくともこの目的でのデータ圧縮処理は施さない。
即ち、本発明は、
(1) 入力装置において、左目用と右目用の2つのカメラの各々の撮影データを使用して使用者の表示装置上の視線位置をそれぞれ求め、この視線位置(座標)に予め設定した表示画面上の象限に対応した重み付けを行って使用者の視線中央位置を確定する(この方法では、左目と右目からの個別の視線位置情報に対して、それぞれ実証的に有効な重み付けを行うので、精度の高い視線位置の決定が可能となる)ことと、
(2) 入力装置において、左目と右目の動きによりマウスのクリック動作と同等の機能を実現すること(例:左目の瞼を閉じると左クリック動作に対応、右目の瞼を閉じると右クリック動作に対応)ことと、
を骨子としている。
本発明は、上述した従来の問題点に鑑みてなされたものであって、左目用と右目用との2つのカメラの各々の撮影データによる各々の視線検出位置(座標値)に対して、それぞれの視線検出位置に応じて実証されている精度に基づく重み付けを行うことを可能にして、精度の高い視線位置を決定することができる入力装置を提供することを目的としている。
上記課題を解決するために、本発明に係る入力装置は、表示装置の表示画面領域を複数の象限に分割すると共に、前記複数の象限の各々には使用者の右目の視線位置と左目の視線位置とにそれぞれ対応した、精度を示す重みの値を予め付与しておく重み付け部と、前記使用者の右目の視線位置を検出するために配された右目用カメラ(CR)で撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の右目視線位置を検出して座標で示す右目視線位置検出部と、前記検出された右目視線位置に対応する前記の精度を示す重みを、前記右目視線位置の座標値に積算して右目視線決定位置の座標値を決定する右目視線位置決定部と、前記使用者の左目の視線位置を検出するために配された左目用カメラ(CL)で撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の左目視線位置を検出して座標で示す左目視線位置検出部と、前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定部と、前記決定した右目視線の座標値と前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定部と、前記中央視線位置を反映した入力処理を行う入力部と、を備えている。
また、本発明に係る入力方法は、表示装置の表示画面領域を複数の象限に分割すると共に、前記複数の象限の各々には使用者の右目の視線位置と左目の視線位置とにそれぞれ対応した、精度を示す重みの値を予め付与しておく重み付けステップと、前記使用者の右目の視線位置を検出するために配された右目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の右目視線位置を検出して座標で示す右目視線位置検出ステップと、前記検出された右目視線位置に対応する前記の精度を示す重みを、前記右目視線位置の座標値に積算して右目視線決定位置の座標値を決定する右目視線位置決定ステップと、前記使用者の左目の視線位置を検出するために配された左目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の左目視線位置を検出して座標で示す左目視線位置検出ステップと、前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定ステップと、前記決定した右目視線の座標値と前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定ステップと、前記中央視線位置を反映した入力処理を行う入力ステップと、を有している。
さらに、本発明に係るコンピュータプログラムは、表示装置の表示画面領域を複数の象限に分割すると共に、前記複数の象限の各々には使用者の右目の視線位置と左目の視線位置とにそれぞれ対応した、精度を示す重みの値を予め付与しておく重み付けステップと、前記使用者の右目の視線位置を検出するために配された右目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の右目視線位置を検出して座標で示す右目視線位置検出ステップと、前記検出された右目視線位置に対応する前記の精度を示す重みを、前記右目視線位置の座標値に積算して右目視線決定位置の座標値を決定する右目視線位置決定ステップと、前記使用者の左目の視線位置を検出するために配された左目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の左目視線位置を検出して座標で示す左目視線位置検出ステップと、
前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定ステップと、
前記決定した右目視線の座標値と、前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定ステップと、前記中央視線位置を反映した入力処理を行う入力ステップとによって、入力装置を制御する。
以上説明したように、本発明の入力装置によれば、複数の決定視線位置に基づいて、両眼による中央視線位置を決定するので、精度の高い視線位置を決定できる入力装置を提供することができる。
本発明の第一の実施形態に係る入力装置が視線方向を検出方法を示す説明図である。 本発明の第一の実施形態に係る入力装置のハードウェアの構成を示す構成図である。 本発明の第一の実施形態に係る入力装置において、表示装置の表示画面上の象限を区分する1例を示す説明図である。 本発明の第一の実施形態に係る入力装置において、各々のカメラからの視線位置を計算した後、重み付けの値によって、視線検出位置(P)を算出する方法のイメージを示している。 視線を検出するための一般的な角膜反射法を示す説明図である。 瞼孔の回転角を求めるための一般的な楕円パラメータ法を示す説明図である。 楕円パラメータ法による視線方向検出の原理を示す説明図である。 本発明の第一の実施形態に係る入力装置のシステム構成の1例を示す構成図である。
本発明は、ユーザの左右それぞれの目の視線方向を求め、求めた左右の目の視線方向の重み付け平均によりユーザの視点を求める装置を提供するものである。
より具体的には、左目用のカメラと右目用のカメラとを個別に用意し、楕円パラメータ法を用いて、左目用と右目用のそれぞれのカメラから得た視線位置を求める。
特に、カメラから得た視線位置を求める際には、予め表示画像の象限毎に重みを設定し、左右のカメラから得た各々の視線位置の座標に該重みを用いて、それぞれ重み付けすることにより、使用者の中央視線位置の決定精度を高める。
また、左目の瞼を閉じる動作と、右目の瞼を閉じる動作とから、マウスのクリック動作による入力手段と実質的に同等の入力手段を得るものである。
以下、本発明の第一の実施形態における入力装置ついて、図面を参照して詳細に説明する。
図1は、本発明の第一の実施形態に係る入力装置が視線方向を検出する方法を示す説明図である。
図1に示すように、本発明の第一の実施形態に係る入力装置の視線検出においては、左目用カメラと右目用カメラとを個別に用意し、右目、左目のそれぞれの回転角を求め、近赤外線光による眼球への影響を考えなくて良い楕円パラメータ法で得られたそれぞれのカメラから得た位置を、表示画像の象限別に重み付けを行なう。これにより、位置精度を高める方法を提供する。
また、左目用と、右目用に、各々カメラを個別に用意することにより、左目と右目のそれぞれの画像認識処理を個別に実施できるようにし、左目の瞼を閉じると左クリック動作、右目の瞼を閉じると右クリック動作に対応させる判定をすることにより、マウスのクリック動作による入力手段と実質的に同等の入力手段を提供するものである。
図2は、本発明の第一の実施形態に係る入力装置のハードウェア構成を示す構成図である。
図2に示す本発明の第一の実施形態に係る入力装置は、左目を撮影するための左目用カメラ101と、右目を撮影するための右目用カメラ102と、各々のカメラ101と102からの画像を画像認識処理するためのCPU103と、撮影画像や画像認識後の画像、計算過程の情報を一時的に記憶するためのメモリ105と、画像を表示するための表示装置104(入力機能も備えたもの)と、を具備している。表示装置104は使用者の指示を入力する入力機能を備えている。
ここで、左目用カメラ101及び右目用カメラ102は、表示装置104の表示画面(DD)の付近に配置されている。
なお、表示装置104は、HMD(Head Mounted Display)とは限らず、他の表示装置、例えば、携帯電話、スマートフォン、ゲーム機、タブレットPC、PC等に適用可能な一般的な表示装置であっても良い。
例えば、2つのカメラを備えたゲーム機においても、本発明の適用が可能である。
以下、本発明の第一の実施形態に係わる入力装置の動作を説明する。
まず、本装置の基本動作の概要を以下に纏める。
(1) 左目用、右目用の2つのカメラで左右の目の視線位置を検出する。
(2) 左目、右目の各視線位置に所定の手法で設定された重みを乗じる。
(3) この重み付けられた視線を基に使用者の(中心)視線を決定する。
(4) 表示装置104の表示画面上に視線の位置を表示する。
(5) 視線位置を決定できない状態(即ち、使用者が瞼を閉じた状態)となれば、これをクリック動作のトリガとする。
(6) 左右の目の上記状態を、左右の目で異なる種類のクリック動作(例えば、左クリックと右クリック)のトリガとする。
次に、本装置の具体的な動作を説明する。
左目用カメラ101で撮影された画像データは、メモリ105に格納される。
CPU103は、この格納された画像データの画像に対して、画像認識処理を行なう。
この画像認識処理は、例えば、2値化、エッジ強調、及びラベリングによるものである。
採用した楕円バラメータ法における楕円の検出方法としては、既に知られているHough変換、最小メジアン、内接する平行四辺形による楕円推定等の手法を用いることができるが、本発明の楕円の検出方法は、上記の手法に限定されるものではない。
CPU103は、上記の画像認識処理を行なった後、楕円として認識した瞼孔の画像から、カメラから眼球への法線に対しての水平角及び垂直角を算出し、キャリブレーションによって得られた眼球中心位置と眼球半径との表示装置104上での距離から、ユーザの左目の視線が表示画面上のどの位置を指しているかを計算して求める。
また、右目用カメラ102から撮影された画像に対しても、上記の左目用カメラ101で撮影された画像データの処理と同様の処理を行なうことによって、ユーザの右目の視線が表示画面上のどの位置を指しているかを計算して求める。
さらに、以下では、「カメラ」の呼称を左目用カメラ101のこととし、この左目用カメラ101で撮影された画像データの画像に対する処理として説明するが、右目用カメラ102から撮影された画像に対しても、下記と同様の処理を行なうものとする。
図3は、表示装置104の表示画面上の象限を区分する1例を示す説明図である。
図3に示すように、表示装置104の表示画面DD(領域)において、象限を12(D1〜D12)に分割する。
以下、図3を参照して、カメラから眼球(Eb)への法線位置と、表示画面上の視線検出位置による象限区分の1例と、重み付けの1例について説明する。
従来の課題に記載した通り、楕円パラメータ法は、楕円が円に近いほど、精度が落ちることが知られている。
つまり、カメラと眼球の法線位置から距離の差があるほど、楕円となり、差が無いほど円に近くなる。
そこで、本発明の第一の実施形態に係る入力装置では、例えば、以下のように重み付けを行う。
まず、法線位置NLLから最も距離の少ない象限D5に対する重み付けは、0.3とする。
次に、法線位置NLLから、象限D5の次に距離の少ない象限(D1〜D4,D7〜D9)に対する重み付けは0.5とする。
最後に、法線位置NLLから最も距離の遠い象限(D10〜D12)の重み付けは0.8とする。
なお、図3では、説明を簡単にするために、表示装置104の表示画面DDを12個の象限(D1〜D12)に区分しているが、本発明は、区分の数を12に限定されるものではない。
また、表示装置104の表示画面DDの大きさや、求める精度により、区分の数及び重み付けの係数を変えることができる。
図4は、本発明の第一の実施形態に係る入力装置において、各々のカメラからの視線位置を計算した後、重み付けの値によって、視線検出位置を算出する方法の概念図を示している。
仮に、左目からの視線検出位置を座標(x,y)とし、重み付け(WL)を0.8(WL=0.8)とし、また、右目からの視線検出位置を座標(x,y)とし、重み付け(WL)を0.3とした場合(WR=0.3)、使用者の視線中央位置の座標(x,y)は、(3)式と(4)式で求められる。

x=x−(x−x)×(0.8/(0.8+0.3))…(3)

y=y−(y−y)×(0.8/(0.8+0.3))…(4)

第一の実施形態では、2つのカメラ(左目用カメラ101と右目用カメラ102)を用いて、左目と、右目の各々の状態を撮影し、使用者の視線中央位置の座標を求めているため、瞼孔を楕円として検出できない期間(より具体的には、目をつむっている時間帯)をマウスのクリックに相当する動作として、左目の瞼を閉じると左クリック動作に対応し、右目の瞼を閉じると右クリック動作に対応すると判定することができる。
但し、この際、いずれか片方の目の瞼を閉じることで、重み付けの該片方の座標が消失することから、ポインティング位置がずれる可能性があるが、この点については、両目の楕円を検出できなくなった場合、ポインティング位置を、最後に両目の楕円を検出した位置から動かさないように処理する。
また、単純な瞬きをクリックと誤認識する可能性が有るが、この問題点については、楕円を検出できない期間(より具体的には、瞼を閉じている時間帯)が、所定の一定時間より短い場合は、クリックとして認識しないように、楕円を検出できない期間における閾値を設けることで回避するものとする。
第一の実施形態に係る入力装置によれば、2つのカメラを用いて左目、右目の各々から求めた視線の位置情報に重み付けを行なうことにより、精度が高い視線検出を行なうことができる。
また、左目と右目に対して、個別にカメラを少なくとも1つ対応させることで、左目と右目それぞれの画像認識処理を効率良く行なうことができ、更に、マウスの左クリック、右クリックに相当する動作を提供することができる。
さらに、PCの操作を、使用者の視線(目の動き)によって行うことができることにより、病気などによって体を動かすのが不自由なユーザーや、PCに不慣れなユーザーに対して、PC利用の利便性を向上することができる。
図8は、本発明の一実施形態に係る入力装置のCPU103の構成を1例を示すブロック図である。
図8に示す入力装置のCPU103は、左目の視線位置を検出する左目視線位置検出部1031と、右目の視線位置を検出する右目視線位置検出部1032と、左目の視線位置を座標値で決定する左目視線位置決定部1033と、右目の視線位置を座標値で決定する右目視線位置決定部1034と、左右の目の視線位置に予め重みを付与する(即ち、重み付けする)重み付け部1037と、左右の視線位置から中央視線位置を決定する視線位置決定部1038と、決定された中央視線位置を反映した情報入力を行う入力部1039と、を備えている。
重み付け部1037は、右目重み付け部1035と、左目重み付け部1036と、を備える。
(第二の実施形態)
第一の実施形態では、左目用と、右目用とに各々1つずつのカメラを使用し、計2つのカメラを使用するものであったが、第二の実施形態として、左目と右目の各々に対して、個別にそれぞれ複数のカメラを使用してもよく、これによって視線検出位置の精度を高めることができる。
また、第一の実施形態では、表示画面上をいくつかの象限に区分する方法を採用したが、第二の実施形態として、カメラと眼球の法線位置と、視線検出位置の距離に比例して重み付け係数を算出してもよい。
本願は、2011年4月7日に、日本に出願された特願2011−085210号に基づき優先権を主張し、その内容をここに援用する。
左目用と右目用との2つのカメラの各々の撮影データによる各々の視線検出位置に対して、それぞれの視線検出位置に応じて実証されている精度に基づく重み付けを行うことを可能にして、精度の高い視線位置を決定することができる入力装置を提供することができる。
101 左目用カメラ
102 右目用カメラ
103 CPU
104 表示装置(入力機能も備えたもの)
105 メモリ
1031 左目視線位置検出部
1032 右目視線位置検出部
1033 左目視線位置決定部
1034 右目視線位置決定部
1037 重み付け部
1038 視線位置決定部
1039 入力部

Claims (10)

  1. 表示装置の表示画面領域を複数の象限に分割すると共に、前記複数の象限の各々には使用者の右目の視線位置と左目の視線位置とにそれぞれ対応した、精度を示す重みの値を予め付与しておく重み付け部と、
    前記使用者の右目の視線位置を検出するために配された右目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の右目視線位置を検出して座標で示す右目視線位置検出部と、
    前記検出された右目視線位置に対応する前記の精度を示す重みを、前記右目視線位置の座標値に積算して右目視線決定位置の座標値を決定する右目視線位置決定部と、
    前記使用者の左目の視線位置を検出するために配された左目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の左目視線位置を検出して座標で示す左目視線位置検出部と、
    前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定部と、
    前記決定した右目視線の座標値と、前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定部と、
    前記中央視線位置を反映した入力処理を行う入力部と、
    を備えたことを特徴とする入力装置。
  2. 前記右目視線位置検出部及び前記左目視線位置検出部は、各々、視線位置の検出方法として楕円パラメータ法を用いることを特徴とする請求項1記載の入力装置。
  3. 前記重み付け部は、前記使用者の右目に対応する前記精度を示す重みの値として、前記象限の内、前記右目用カメラと前記使用者の右目眼球とを結ぶ法線と距離が近い象限には大きな重み値を付与し、該法線と距離が遠い象限には小さな重み値を付与することを特徴とする請求項1または請求項2記載の入力装置。
  4. 前記重み付け部は、前記使用者の左目に対応する前記精度を示す重みの値として、前記象限の内、前記左目用カメラと前記使用者の左目眼球とを結ぶ法線と距離が近い象限には大きな重み値を付与し、該法線と距離が遠い象限には小さな重み値を付与することを特徴とする請求項1乃至3のいずれか1項に記載の入力装置。
  5. 前記右目視線位置決定部は、前記使用者の右目に対応する前記精度を示す重みの値として、前記重み付け部により付与された重みを使用することを特徴とする請求項3記載の入力装置。
  6. 前記左目視線位置決定部は、前記使用者の左目に対応する前記精度を示す重みの値として、前記重み付け部により付与された重みを使用することを特徴とする請求項4記載の入力装置。
  7. 前記右目視線位置決定部は、前記使用者の右目に対応して使用する前記精度を示す重みの値として、前記右目用カメラと前記使用者の右目眼球とを結ぶ法線と、前記右目視線位置検出部が検出した前記右目視線位置との間の距離が近い前記右目視線位置には大きな値を使用し、前記法線と前記視線位置との間の距離が遠い前記右目視線位置には小さな値を使用することを特徴とする請求項1記載の入力装置。
  8. 前記左目視線位置決定部は、前記使用者の左目に対応して使用する前記精度を示す重みの値として、前記左目用カメラと前記使用者の左目眼球とを結ぶ法線と、前記左目視線位置検出部が検出した前記左目視線位置との間の距離が近い前記左目視線位置には大きな値を使用し、前記法線と前記視線位置との間の距離が遠い前記左目視線位置には小さな値を使用することを特徴とする請求項1記載の入力装置。
  9. 表示装置の表示画面領域を複数の象限に分割すると共に、前記複数の象限の各々には使用者の右目の視線位置と左目の視線位置とにそれぞれ対応した、精度を示す重みの値を予め付与しておく重み付けステップと、
    前記使用者の右目の視線位置を検出するために配された右目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の右目視線位置を検出して座標で示す右目視線位置検出ステップと、
    前記検出された右目視線位置に対応する前記の精度を示す重みを、前記右目視線位置の座標値に積算して右目視線決定位置の座標値を決定する右目視線位置決定ステップと、
    前記使用者の左目の視線位置を検出するために配された左目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の左目視線位置を検出して座標で示す左目視線位置検出ステップと、
    前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定ステップと、
    前記決定した右目視線の座標値と、前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定ステップと、
    前記中央視線位置を反映した入力処理を行う入力ステップと、
    を有することを特徴とする入力方法。
  10. 表示装置の表示画面領域を複数の象限に分割すると共に、前記複数の象限の各々には使用者の右目の視線位置と左目の視線位置とにそれぞれ対応した、精度を示す重みの値を予め付与しておく重み付けステップと、
    前記使用者の右目の視線位置を検出するために配された右目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の右目視線位置を検出して座標で示す右目視線位置検出ステップと、
    前記検出された右目視線位置に対応する前記の精度を示す重みを、前記右目視線位置の座標値に積算して右目視線決定位置の座標値を決定する右目視線位置決定ステップと、
    前記使用者の左目の視線位置を検出するために配された左目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の左目視線位置を検出して座標で示す左目視線位置検出ステップと、
    前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定ステップと、
    前記決定した右目視線の座標値と、前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定ステップと、
    前記中央視線位置を反映した入力処理を行う入力ステップと、
    を有することを特徴とする、入力装置を制御するためのコンピュータプログラム。
JP2013508889A 2011-04-07 2012-04-04 入力装置及び入力方法並びにコンピュータプログラム Pending JPWO2012137801A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011085210 2011-04-07
JP2011085210 2011-04-07
PCT/JP2012/059155 WO2012137801A1 (ja) 2011-04-07 2012-04-04 入力装置及び入力方法並びにコンピュータプログラム

Publications (1)

Publication Number Publication Date
JPWO2012137801A1 true JPWO2012137801A1 (ja) 2014-07-28

Family

ID=46969195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013508889A Pending JPWO2012137801A1 (ja) 2011-04-07 2012-04-04 入力装置及び入力方法並びにコンピュータプログラム

Country Status (4)

Country Link
US (1) US20140043229A1 (ja)
EP (1) EP2696262A1 (ja)
JP (1) JPWO2012137801A1 (ja)
WO (1) WO2012137801A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9035874B1 (en) * 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
EP3078343A4 (en) * 2014-07-22 2017-08-16 Olympus Corporation Medical system
CN104391574A (zh) * 2014-11-14 2015-03-04 京东方科技集团股份有限公司 视线处理方法、系统、终端设备及穿戴式设备
KR20160094190A (ko) * 2015-01-30 2016-08-09 한국전자통신연구원 시선 추적 장치 및 방법
JP2016163150A (ja) * 2015-02-27 2016-09-05 株式会社リコー 通信端末、面談システム、通信方法及びプログラム
CN106294911B (zh) * 2015-06-04 2019-09-10 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN106293031B (zh) 2015-06-04 2019-05-21 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN106296796B (zh) * 2015-06-04 2019-08-13 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
WO2017066296A1 (en) * 2015-10-16 2017-04-20 Magic Leap, Inc. Eye pose identification using eye features
JP6900994B2 (ja) * 2015-12-01 2021-07-14 株式会社Jvcケンウッド 視線検出装置及び視線検出方法
US10409368B2 (en) * 2016-07-27 2019-09-10 Fove, Inc. Eye-gaze detection system, displacement detection method, and displacement detection program
EP3672478A4 (en) 2017-08-23 2021-05-19 Neurable Inc. BRAIN COMPUTER INTERFACE WITH HIGH SPEED EYE TRACKING

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3263278B2 (ja) 1995-06-19 2002-03-04 株式会社東芝 画像圧縮通信装置
JPH09163267A (ja) * 1995-12-06 1997-06-20 Sony Corp 光学視覚装置
JP2000148381A (ja) 1998-11-05 2000-05-26 Telecommunication Advancement Organization Of Japan 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体
JP2001134371A (ja) 1999-11-05 2001-05-18 Shimadzu Corp 視線検出装置
WO2004049734A1 (ja) * 2002-11-28 2004-06-10 Seijiro Tomita 立体映像信号生成回路及び立体映像表示装置
JP4951751B2 (ja) * 2005-04-26 2012-06-13 国立大学法人静岡大学 瞳孔検出に基づくポインティング装置及び方法
JP5159041B2 (ja) * 2006-01-30 2013-03-06 株式会社東芝 超音波診断装置およびその画像処理プログラム
JP4824420B2 (ja) * 2006-02-07 2011-11-30 アイテック株式会社 視線ベクトル検出方法及び同装置

Also Published As

Publication number Publication date
WO2012137801A1 (ja) 2012-10-11
EP2696262A1 (en) 2014-02-12
US20140043229A1 (en) 2014-02-13

Similar Documents

Publication Publication Date Title
WO2012137801A1 (ja) 入力装置及び入力方法並びにコンピュータプログラム
US11880043B2 (en) Display systems and methods for determining registration between display and eyes of user
JP6601417B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP3557377A2 (en) Neural network training for three dimensional (3d) gaze prediction with calibration parameters
EP3547216B1 (en) Deep learning for three dimensional (3d) gaze prediction
US11715231B2 (en) Head pose estimation from local eye region
US11693475B2 (en) User recognition and gaze tracking in a video system
US11163995B2 (en) User recognition and gaze tracking in a video system
US10671890B2 (en) Training of a neural network for three dimensional (3D) gaze prediction
US11822718B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
JP2012065781A (ja) 視線検出装置および補正係数算出プログラム
JP2018205819A (ja) 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法
JP7081599B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Lander et al. hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation
US20230047470A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
JPWO2018220963A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102325684B1 (ko) 두부 착용형 시선 추적 입력 장치 및 이를 이용하는 입력 방법
WO2019116675A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018120299A (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
US20230306789A1 (en) Spoof detection using head pose to eye gaze correspondence
JP2017111550A (ja) 読書範囲検出装置、読書範囲検出方法及び読書範囲検出用コンピュータプログラム
WO2024059927A1 (en) Methods and systems for gaze tracking using one corneal reflection
WO2020185219A1 (en) Detecting eye tracking calibration errors