JP5387557B2 - 情報処理装置及び方法、並びにプログラム - Google Patents

情報処理装置及び方法、並びにプログラム Download PDF

Info

Publication number
JP5387557B2
JP5387557B2 JP2010290417A JP2010290417A JP5387557B2 JP 5387557 B2 JP5387557 B2 JP 5387557B2 JP 2010290417 A JP2010290417 A JP 2010290417A JP 2010290417 A JP2010290417 A JP 2010290417A JP 5387557 B2 JP5387557 B2 JP 5387557B2
Authority
JP
Japan
Prior art keywords
image
line
sight
detecting
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010290417A
Other languages
English (en)
Other versions
JP2012137970A (ja
Inventor
達也 出嶌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010290417A priority Critical patent/JP5387557B2/ja
Priority to US13/336,235 priority patent/US8523358B2/en
Priority to CN201110443180.7A priority patent/CN102609085B/zh
Publication of JP2012137970A publication Critical patent/JP2012137970A/ja
Application granted granted Critical
Publication of JP5387557B2 publication Critical patent/JP5387557B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、情報処理装置及び方法、並びにプログラムの技術に関し、特に、頭部の束縛がない状態でユーザが眼を動かすだけで、マウス操作と等価な操作を実現可能にする技術に関する。
従来より、パーソナルコンピュータ等の情報処理装置に対して情報を入力する操作として、入力機器を用いた入力操作が用いられている。特に、このような入力機器を用いた入力操作としては、マウスを用いた入力操作、即ちいわゆるマウス操作が広く用いられている。マウス操作の代表的な操作としては、アイコン等を選択するために、当該アイコン等までマウスポインタを移動させて、クリックする操作が知られている。
近年、マウス操作と等価な入力操作(以下、「マウス等価操作」と呼ぶ)を、マウスを用いずに、マウスポインタを含む画面を見るユーザの眼の動きだけで行いたいという要求が存在する。
近年、このような要求に応えるために、人間の眼球の視線位置を検出する技術が研究開発されている(特許文献1乃至3参照)。
特開平9−18760号公報 特開2001−61785号公報 特開平6−347866号公報
しかしながら、特許文献1乃至3に記載された技術は、ユーザが頭部を固定してファインダを覗いたり、ヘッド・マウント・ディスプレイを頭部に装着したり、といった頭部を何かしらで束縛することが前提とされている。
しかしながら、マウス等価操作をするだけのために頭部が束縛されることは、ユーザにとって不快であり、このような頭部の束縛がない状態でマウス等価操作を実現することが要望されている状況である。
本発明は、このような状況に鑑みてなされたものであり、頭部の束縛がない状態でユーザが眼を動かすだけで、マウス等価操作を実現可能にすることを目的とする。
本発明の1態様によると、
表示部を備えた情報処理装置であって、
接続された撮像手段から供給される撮像データ内にある眼球の特定部位を表す画像を第1の画像として検出する第1の画像検出手段と、
前記撮像データ上での前記第1の画像の位置を特定する第1検出手段と、
前記撮像データ内から前記眼球に写りこんだ特定形状の物体を表す画像を第2の画像として検出する第2の画像検出手段と、
前記撮像データ上での前記第2の画像の位置を特定する第2検出手段と、
前記第1の画像の位置と、前記第2の画像の位置との関係に基づき、前記撮像手段で撮像された眼球における視線移動量を検出する視線移動量検出手段と、
前記視線移動量検出手段により検出された前記視線移動量に基づいてマウスポインタを前記表示部内で移動させるマウスポインタ制御手段と、
前記第1の画像の位置と前記第2の画像の位置の変化の基準となる基準ズレ量を設定する基準ズレ量設定手段と、を有し、
前記基準ズレ量設定手段は、前記マウスポインタの移動にあわせて前記基準ズレ量を更新することを特徴とする情報処理装置を提供する。
本発明の別の態様によると、上述した本発明の一態様に係る情報処理装置に対応する情報処理方法及びプログラムを提供する。
本発明によれば、頭部の束縛がない状態でユーザが眼を動かすだけで、マウス等価操作が実現可能になる。
本発明の情報処理装置の一実施形態としての視線入力装置の外観構成を示す背面からの斜視図である。 図1の視線入力装置による視線位置を検出する手法を説明する図であって、表示部が映り込んだ眼球を撮像した結果を示す図である。 図2の撮像画像における瞳領域4の部分についての拡大図である。 図2の撮像画像における表示部像領域5の部分についての拡大図である。 瞳中心と像中心との相対的位置関係を表すズレ量について説明する図であって、図2の撮像画像における瞳領域4の部分についての拡大図である。 図1の視線入力装置の機能的構成を示す機能ブロック図である。 図6の視線入力装置が実行する情報入力処理の流れの一例を示すフローチャートである。 図7の情報入力処理のうち、SW処理の詳細な流れの一例を示すフローチャートである。 図7の情報入力処理のうち、基準検出処理の詳細な流れの一例を示すフローチャートである。 図7の情報入力処理のうち、視線検出処理の詳細な流れの一例を示すフローチャートである。 図10の視線検出処理によって決定される、マウスポインタ移動の方向を説明する図である。 図9の基準検出処理のうち、像中心検出処理の詳細な流れの一例を示すフローチャートである。 図9の基準検出処理のうち、像中心検出処理の詳細な流れの一例であって、図12の例とは異なる例を説明するフローチャートである。 図9の基準検出処理のうち、像中心検出処理の詳細な流れの一例であって、図12乃至図13の例とは異なる例を説明するフローチャートである。 図6の視線入力装置のハードウェアの構成を示すブロック図である。
以下、本発明の一実施形態を図面に基づいて説明する。
図1は、本発明の情報処理装置の一実施形態としての視線入力装置1の外観構成例を示す背面からの斜視図である。
図1に示すように、視線入力装置1は、デジタルフォトフレームとして構成されている。視線入力装置1の正面(図1に図示されていない方の面)には、表示部11と、撮像部12と、が設けられている。
ユーザは、頭部を何ら束縛されることなく、その眼球2で表示部11を見ながら視線を動かすだけで、マウス等価操作を行うことができる。
即ち、視線入力装置1は、ユーザの眼球2の視線位置を検出し、その検出結果に基づいてマウス等価操作を認識し、マウス等価操作により指示される情報(マウスポインタの移動指示やクリックによる選択指示等)を入力して、対応する処理を実行できる。
ここで、図2乃至図5を参照して、本実施形態で採用されている、ユーザの眼球2の視線位置の検出手法の一例について、具体的に説明する。
図2は、視線入力装置1による視線位置を検出する手法を説明する図であって、表示部11が映り込んだ眼球2を撮像した結果を示す図である。
即ち、図2には、撮像部12が眼球2を撮像した結果得られる画像(以下、「撮像画像」と呼ぶ)の一例が示されている。
撮像画像には、眼球2の像の領域3(以下、「眼球領域3」と呼ぶ)が含まれている。眼球領域3には、眼球2の瞳の像の領域(以下、「瞳領域4」と呼ぶ)と、眼球2に映り込んだ表示部11の像の領域(以下、「表示部像領域5」と呼ぶ)と、が含まれている。
なお、撮像部12の撮像対象の眼球2は、左右どちらのものでも構わないが、本実施形態では左目のものが予め採用されている。ただし、眼球2として右目のものが予め採用されていてもよいし、事後的に左右の何れかを選択できるようにしてもよい。
さらに、撮像部12の撮像対象は両目であってもよく、この場合、視線入力装置1は、後述するクリック等価操作等、様々なマウス等価操作を両目の動作の組み合わせとして検出することができる。
ここで、本実施形態の「視線検出」としては、とある時点におけるユーザの眼球2の視線が向いている絶対的な方向を特定するものではなく、過去の特定の時点から検出時点までの間における眼球2の視線の移動ベクトル(移動量及び移動方向)を検出するものが採用されている。
視線の移動ベクトルを検出するために、連続して撮像された複数の撮像画像から、次の2つの基準点が特定されて用いられる。即ち、視線と共に動く基準点(以下、「移動基準点」と呼ぶ)と、当該移動基準点の座標を設定するための不動の原点となる基準点(以下、「不動基準点」と呼ぶ)といった2点が撮像画像から特定されて用いられる。
従来、移動基準点としては瞳領域4の位置(を代表する点)が、不動基準点としては眼球領域3の位置(を代表する点)が、それぞれ一般的に用いられてきた。
撮像画像のデータから瞳孔を正確に検出する技術自体は公知であり、瞳領域4の位置は、当該技術により検出された瞳孔の中心点によって代表させることができる。しかしながら、眼球領域3全体の位置を正確に検出することは、眼球2と固定的な位置関係にある測定装置を設けない限り非常に困難である。このような測定装置を設けなくとも目頭や目尻などの特徴部分は検出できるが、このような特徴部分は、瞳孔ほど鮮明ではなく、眼球領域3の正確な位置を特定するためには利用できない。
それ故、眼球領域3の位置を特定するためには、結局のところ、瞳孔を最も重要な特徴部分として検出することになる。この場合、当然ながら、瞳孔に基づいてそれぞれ特定された、眼球領域3の位置と瞳領域4の位置とを区別することは実質上できない。
このように、瞳領域4以外の特徴部分によって眼球領域3の位置を検出できる技術がない限り、眼球領域3の位置と瞳領域4の位置とを分離して検出することは非常に困難である。
それ故、特許文献1乃至3のような従来技術では、眼球の位置をある程度固定する必要があり、何かしらのユーザの頭部の束縛がなされることが前提となっていた。
しかしながら、このような頭部の束縛はユーザにとって不快であり、煩わしさに耐えない。
そこで、本実施形態では、頭部の束縛がない状態でユーザが眼を動かすだけでマウス等価操作を実現可能にすべく、次のような視線検出の手法が採用されている。
即ち、不動基準点として、従来の眼球領域3の位置の代わりに、瞳領域4の位置とは独立して検出することが可能な表示部像領域5の位置が採用される。この場合、不動基準点としての表示部像領域5の位置に対する、移動基準点としての瞳領域4の位置の相対的変化を検出することで、視線検出が実現される。
さらに以下、図3乃至図5を参照して、本実施形態の視線検出の手法について詳述する。
図3は、図2の撮像画像における瞳領域4の部分についての拡大図である。
図3に示すように、本実施形態では、瞳領域4の位置を代表する瞳中心Mは、例えば、瞳領域4の重心として特定することができる。
ここで、本実施形態では、撮像画像における所定領域の重心は、当該所定領域を構成する全画素の座標の平均値として求められるものとする。
即ち、撮像画像において、瞳領域4の重心の横座標は、瞳領域4を構成する全画素の各横座標の平均値として算出される。同様に、撮像画像においては、瞳領域4の重心の縦座標は、瞳領域4を構成する全画素の各縦座標の平均値として算出される。
このようにして算出された瞳中心Mが、本実施形態の移動基準点として用いられることになる。
ここで、本実施形態では、撮像画像の各画素の座標として、当該撮像画像の右下隅の画素を原点として、原点から当該画素までの距離を、横方向と縦方向の画素数で測ったものが採用されている。
即ち、本実施形態では、撮像画像のうち、横方向の最下線に沿って右から左に向かう軸が、横座標を示す軸であり、X軸として採用されている。一方、撮像画像のうち、縦方向の最右線に沿って下から上に向かう軸が、縦座標を示す軸であり、Y軸として採用されている。
このような座標が本実施形態で採用されているのは、眼球2が表示部11と差し向かいになっているため、眼球2の視線がユーザから見て左から右に動く時、連続して撮像される複数の撮像画像の中では、瞳中心Mは逆に右から左に動くという鏡像関係を考慮したためである。また、後述する視線検出処理において、表示部11の座標系のX軸の方向を、一般的通念に従い、左から右に向かって定義できるようにするためである。
なお、瞳中心Mを特定する手法は、特に本実施形態の手法に限定されず、瞳領域4の位置を代表する一点を瞳中心Mとして特定できる手法であれば足る。
図4は、図2の撮像画像における表示部像領域5の部分についての拡大図である。
図4に示すように、表示部像領域5の像中心Zは、表示部像領域5の位置を代表する点、即ち表示部像領域5の略中心の点であるため、本実施形態の不動基準点として用いられる。
像中心Zは、例えば、次のようにして特定することができる。
表示部像領域5は、眼球2に像として映り込んだ表示部11が撮像された結果得られた領域であるため湾曲しているが、略長方形として近似的に取り扱うことが可能である。即ち、表示部像領域5は、図4に示す4つの頂点V1乃至V4からなる略長方形として近似的に取り扱うことができる。このように取り扱うことで、撮像画像から4つの頂点V1乃至V4を検出し、これらの4つの頂点V1乃至V4の重心を像中心Zとして容易に算出することができる。
即ち、撮像画像において、像中心Zの横座標は、4つの頂点V1乃至V4の横座標の平均値として算出される。同様に、像中心Zの縦座標は、4つの頂点V1乃至V4の縦座標の平均値として算出される。
このようにして算出された像中心Zが、本実施形態の不動基準点として用いられることになる。
なお、像中心Zを特定する手法は、特に本実施形態の手法に限定されず、表示部像領域5の位置を代表する一点を像中心Zとして特定できる手法であれば足る。
また、像中心Zを算出するという観点では、表示部像領域を湾曲した形状として撮像画像から忠実に切り出して用いる必要は特にない。例えば、表示部像領域5の境界部分に内接する正確な長方形を切り出し、当該長方形を用いて像中心Zを算出することも可能である。即ち、このような長方形の形状のように、データとして扱い易くなる形状で表示部像領域5を切り出すようにしてもよい。
次に、瞳中心M(移動基準点)と像中心Z(不動基準点)との相対的位置関係に基づく、視線検出の手法について説明する。
ユーザが表示部11を注視している限り、ユーザの眼球2の視線が動いた場合、眼球領域3の中で、瞳領域4は視線と共に動くが、表示部像領域5は略静止している(図2参照)。
ここで注目すべき点は、眼球領域3全体は、ユーザが顔を動かせば、撮像画像の中で動いてしまうのであるが、ユーザが表示部11を注視している限り、眼球領域3に対して表示部像領域5は相対的に略静止しているという点である。
また、上述したように、瞳領域4の位置に対して、眼球領域3の位置を独立に特定することは難しいが、表示部領域5の位置を独立に特定することは容易に可能である点も注目すべきである。
これらの注目すべき点を考慮すると、眼球領域3に対して相対的に略静止している表示部領域5の像中心Zを、眼球領域3の位置に代わる不動基準点として採用し、瞳中心M(移動基準点)と像中心Z(不動基準点)との相対的位置関係を表わすズレ量を導入することで、視線検出が容易に可能になる。
図5は、瞳中心Mと像中心Zとの相対的位置関係を表すズレ量について説明する図であって、図2の撮像画像における瞳領域4の部分についての拡大図である。
図5に示すように、撮像画像の座標系において、像中心Zから瞳中心Mに向かうベクトルV(x,y)をズレ量として定義すると、このズレ量の変化は、ユーザの眼球2の視線位置の変化に比例していると把握することができる。よって、このズレ量の変化を検出することによって、視線検出が容易に可能になる。
ここで、ズレ量の変化を検出するためには、変化の基準になるズレ量(以下、「基準ズレ量」と呼ぶ)が必要になるため、本実施形態では、この基準ズレ量の初期設定をするためのキャリブレーションが行われる。
即ち、ユーザは、表示部11の中央位置を注視しながら、視線入力装置1に対する所定の操作を行うことで、キャリブレーションが行われる。
ここで、視線入力装置1に対する所定の操作は、特に限定されないが、本実施形態では、図示はしないが、視線入力装置1に設けられている専用の物理スイッチ(以下、「キャリブレーションスイッチ」と呼ぶ)の押下操作が採用されている。
即ち、本実施形態のキャリブレーションは、キャリブレーションスイッチの押下操作を契機として実行され、この時に検出された像中心Zから瞳中心Moに向かうズレ量Vo(xo,yo)が、基準ズレ量の初期値として設定される。
なお、初期値と記述したのは、基準ズレ量Vo(xo,yo)は、後述するように逐次更新されていくからである。ただし、この段階で基準ズレ量Vo(xo,yo)の更新の概念を持ち出すと混乱を生ずる恐れがあるため、基準ズレ量Vo(xo,yo)の更新については、ここでは考慮しないで話を進める。
この場合、ユーザの視線の移動ベクトルは、キャリブレーション以後に検出されたズレ量V(x,y)と基準ズレ量Vo(xo,yo)との差分ベクトル△V(△x,△y)の比例ベクトルとして表わすことができる。
ここで、視線の移動ベクトルの単位は何でもよいので、本実施形態では、比例定数を1として、差分ベクトル△V(△x,△y)がそのまま視線の移動ベクトルとして採用されるものとする。
このようにして、本実施形態では、視線の移動ベクトル△V(△x,△y)を検出することによって、視線検出が実現される。
ここで、キャリブレーション時に、表示部11の中央位置をマウスポインタの初期位置として設定することで、視線の移動ベクトル△V(△x,△y)に基づいて、マウスポインタの初期値からのズレ量を算出することが容易に可能になる。そして、このマウスポインタの初期値からのズレ量に従って、マウスポインタの移動処理も容易に可能になる。
なお、ユーザが目を閉じたり表示部11から視線を外したりした場合、視線の移動ベクトル△V(△x,△y)の検出は不可能になるが、そのような場合、視線入力装置1は、マウスポインタの移動処理を停止させ、視線の移動ベクトル△V(△x,△y)が再検出できるタイミングまで待機すれば足りる。
視線入力装置1は、視線の移動ベクトル△V(△x,△y)を再び検出した時、ユーザの姿勢がそれほど変わっていなければ、前回のキャリブレーションは依然有効であるため、マウスポインタをユーザの視線に追随させて移動させる処理を再開することができる。
勿論、ユーザが視線を激しく動かしたり、大きく姿勢を変えたりすれば、ユーザの視線位置とマウスポインタの位置とが一致しなくなる場合もある。しかしながら、そのような場合であっても、視線入力装置1は、キャリブレーションを再び行うことにより、ユーザの視線位置とマウスポインタの位置とを一致させることが容易にできる。
以上、瞳中心Mと像中心Zとの相対的位置関係に基づく視線検出の手法について説明した。
次に、図1の視線入力装置1が有する機能のうち、このような視線検出の手法に従った入力処理の実行機能を発揮させるための機能的構成について説明する。
図6は、図1の視線入力装置1の機能的構成を示す機能ブロック図である。
視線入力装置1は、上述した表示部11及び撮像部12に加えてさらに、操作部13と、主制御部14と、音声出力部15と、を備えている。
操作部13は、上述したキャリブレーションスイッチ等の各種物理スイッチで構成されている。
例えば、視線入力装置1は、動作モードとして、視線の動きを活用したマウス等価操作を受け付けて動作するモード(以下、「視線モード」と呼ぶ)と、従来から存在する、通常のマウス操作を受け付けて動作するモード(以下、「通常モード」と呼ぶ)と、を有している。
このため、図示はしないが、視線モードを選択指示するためのスイッチ(以下、「視線モードスイッチ」と呼ぶ)や、通常モードを選択指示するためのスイッチ(以下、「通常モードスイッチ」と呼ぶ)が、操作部13の一部として設けられている。
ここで、視線モードスイッチが押下操作された後、即ち視線モードに切り替えられた後、最初の視線検出が行われるまでの間に、上述のキャリブレーションが行われている必要がある。
このため、視線モードスイッチが押下操作される度にキャリブレーションを行う仕様にすることで、視線モードスイッチに対して、視線モードの選択指示機能に加えて、キャリブレーションの開始指示機能も割り当てられたことと等価になる。よって、操作部13の構成要素としてキャリブレーションスイッチは必ずしも必須ではない。
しかしながら、使い易さの観点からすると、視線モードの選択指示機能と、キャリブレーションの開始指示機能とは、それぞれ別のスイッチに割り当てた方がユーザには分かり易くなり好適であるため、本実施形態ではキャリブレーションスイッチが視線モードスイッチとは独立して設けられている。
なお、通常モードに対応すべく、マウス等の入力機器も視線入力装置1に接続可能である。ただし、マウス等の入力機器がなくとも、視線入力装置1は視線モードで動作可能である。このため、マウス等の入力機器は、操作部13の構成要素として必須なものでない。従って、マウス等の入力機器は、操作部13の構成要素として含めないものとして取り扱う。
操作部13の視線モードスイッチが押下操作されて、視線入力装置1が視線モードで動作する場合、主制御部14においては、図6に示すように、基準検出部21と、視線検出部22と、操作内容入力部23と、表示制御部24と、音声出力制御部25と、が機能する。
基準検出部21は、ユーザの眼球2が撮像された結果得られる撮像画像のデータを撮像部12から取得して、当該撮像画像のデータから、視線検出を行うための基準となる情報(以下、「基準情報」と呼ぶ)を検出する。
例えば、基準検出部21は、撮像画像のデータから、瞳領域4の位置を特定し、さらに、移動基準点としての瞳中心Mの座標を、基準情報の1つとして検出する。
また例えば、基準検出部21は、撮像画像のデータから、表示部像領域5の位置を特定し、さらに、不動基準点としての像中心Zの座標を、基準情報の1つとして検出する。
具体的には例えば、基準検出部21は、撮像画像のうち瞳中心Mを中心とした所定範囲の中から、平均輝度が所定の閾値以上となる長方形の領域であって、幅と高さが所定の条件を満たす領域を、表示部像領域5として特定する。
ここで、所定の条件として、幅と高さが所定の範囲内に収まると同時に、幅と高さの比が所定の範囲内に収まる、という条件が本実施形態では採用されている。
このような条件を課すのは、表示部領域5として誤認するおそれがある像、例えば眼球2に映り込んだ明るい長方形の像、具体的には例えば蛍光灯や遠方の窓の像を排除するためである。
その後、基準検出部21は、このようにして特定した表示部像領域5から、上述したようにして像中心Zの座標を算出する。
なお、基準検出部21は、このようにして検出した瞳中心Mや像中心Zの各座標を基準情報として視線検出部22に供給するようにしてもよいが、本実施形態では、上述したズレ量V(x,y)をさらに求めて、それを基準情報として視線検出部22に供給する。
具体的には例えば、基準検出部21は、キャリブレーション時においては、瞳中心Moや像中心Zの各座標を検出すると、上述の基準ズレ量Vo(xo,yo)の初期設定をし、それを基準情報の1つとして視線検出部22に供給する。
また、基準検出部21は、その後に基準ズレ量Vo(xo,yo)を更新する毎に(更新の詳細については後述する)、それを基準情報の1つとして視線検出部22に供給する。
また、基準検出部21は、所定の時間間隔毎に、瞳中心Mや像中心Zの各座標を検出し、その検出結果に基づいて上述のズレ量V(x,y)を検出し、それを基準情報の1つとして視線検出部22に供給する。
視線検出部22は、これらの基準情報に基づいて、ユーザの眼球2の視線を検出する。
即ち、視線検出部22は、ズレ量V(x,y)が供給される毎に、当該ズレ量V(x,y)と、その段階で保持している基準ズレ量Vo(xo,yo)とを用いて、視線の移動ベクトル△V(△x,△y)を算出することで、視線検出を行う。
視線検出部22は、視線検出の結果、即ち視線の移動ベクトル△V(△x,△y)に基づいて、マウス等価操作の1つがなされたこと、即ち、マウスポインタの移動指示と等価な操作がなされたことを認識して、その認識結果を操作内容入力部23に通知する。
換言すると、視線検出部22は、視線の移動ベクトル△V(△x,△y)に対応するマウスポインタの移動量(その移動量分だけ移動させる指示)を、次のようにして認識する。
即ち、視線検出部22は、視線の横方向(X軸方向)の移動量△xが所定の閾値を超えた場合に、移動量△xに所定の比例定数を乗じた量を、マウスポインタの横方向の移動量として認識する。
同様に、視線検出部22操作内容は、視線の縦方向(Y軸方向)の移動量△yが所定の閾値を超えた場合に、移動量△yに所定の比例定数を乗じた量を、マウスポインタの縦方向の移動量として認識する。
これらの認識結果は、マウス等価操作の内容として視線検出部22から操作内容入力部23に供給される。
操作内容入力部23は、視線検出部22から供給されたマウス等価操作の内容を入力し、当該内容に応じた処理を実行する。
例えば、マウスポインタの移動量が視線検出部22から供給された場合、操作内容入力部23は、当該移動量を入力して、入力した移動量だけマウスポインタを移動させる処理を実行する。即ち、操作内容入力部23は、マウスポインタの移動量を表示制御部64に通知する。
表示制御部64は、マウスポインタを含むGUI(Graphical User Interface)用の画面を表示部11に表示させる制御を実行する。
即ち、表示制御部64は、操作内容入力部23から通知された移動量に基づいて、表示部11の座標系におけるマウスポインタの位置を更新する。これにより、表示部11に表示されたGUI用の画面内において、マウスポインタが実際に移動する(そのような動画像が表示される)ことになる。
ここで、表示部11の座標系においては、右向きのX軸と上向きのY軸が採用されているものとする。
これにより、前述の如く、瞳中心Mが撮像画像の座標系において左に動いた時、マウスポインタは表示部11の座標系において右に動くという鏡像関係を満たすことができる。なお、この詳細については、図11を参照して後述する。
この後、視線検出部22は、基準ズレ量Vo(xo,yo)もマウスポインタの移動にあわせて更新する。
即ち、視線検出部22は、マウスポインタを横方向に△xに比例する移動量だけ移動させた場合、基準ズレ量Voの横方向の要素xoに対して移動量△xを加算する(即ち、xo=xとする)ように、基準ズレ量Vo(xo,yo)を更新する。同様に、視線検出部22は、マウスポインタを縦方向に△yに比例する移動量だけ移動させた場合、基準ズレ量Voの縦方向の要素yoに対して移動量△yを加算する(つまり、yo=yとする)ように、基準ズレ量Vo(xo,yo)を更新する。
このようにして基準ズレ量Vo(xo,yo)が更新されて、その更新結果が視線検出部22に保持されると、次回からは、新しいマウスポインタの位置からの視線の移動の検出が可能になる。
なお、上述のように、所定の閾値を超えた場合にのみマウスポインタの位置を更新するのは、人間の視線が常に揺らいでいるという性質のため、マウスポインタも無用に揺らいでしまう現象を回避するためである。
また、視線検出部22は、マウス等価操作のうち、クリック操作と等価の操作も、撮像画像のデータから検出された眼球の状態に基づいて認識することができる。
即ち、視線検出部22は、瞬きを検出する公知の手法に従って、撮像画像のデータから瞬き動作を検出する。この場合、視線検出部22は、所定の時間内に2回連続して瞬き動作を検出した場合、クリック操作と等価の操作が行われたと認識し、その認識結果を操作内容入力部23に供給する。
操作内容入力部23は、このような認識結果が供給されると、クリック操作に対応付けられた指示内容、例えばアイコンの選択の指示等の内容を入力し、入力した内容に応じた処理(アイコンの選択等の処理)を実行する。
なお、マウス操作には、クリック操作として、いわゆる左クリックと右クリックが存在する。このような左クリックと右クリックとに区別する必要がある場合には、例えば左目の2回連続の瞬き動作に対して左クリックと等価な操作を割り当て、右目の2回連続の瞬き動作に対して右クリックと等価な操作を割り当てればよい。
さらに、操作内容入力部23は、マウス等価操作の内容を入力した場合、その内容に応じた音声の出力指示を示す情報を、音声出力制御部25に供給する。
音声出力制御部25は、操作内容入力部23から供給された情報で特定される音声、例えばクリックと等価な操作がなされた場合にはいわゆるクリック音を音声出力部15から出力させる制御を実行する。
なお、操作部13の通常モードスイッチが押下操作されて、視線入力装置1が通常モードで動作する場合、主制御部14においては、操作内容入力部23と、表示制御部24と、音声出力制御部25と、が機能する。ただし、通常モードにおける動作については、従来と何ら変わりがないため、ここではその説明は省略する。
以上、図6を参照して、視線入力装置1の機能的構成について説明した。
ただし、上述した図6の機能的構成は例示に過ぎず、上述の各種機能を装置全体として発揮可能であれば、視線入力装置1は任意の機能的構成を取ることができる。
次に、図7乃至図14を参照して、図6の機能的構成を有する視線入力装置1が実行する処理のうち、マウス等価操作又は通常のマウス操作の内容を入力する処理(以下、「情報入力処理」と呼ぶ)の流れについて説明する。
図7は、図6の視線入力装置1が実行する情報入力処理の流れの一例を説明するフローチャートである。
情報入力処理は、例えば、視線入力装置1の電源が投入されて、ユーザにより所定の操作がなされたことを契機として開始され、次のようなステップS1乃至S12の処理が実行される。
ステップS1において、主制御部14は、視線入力装置1の全体を初期設定するためのイニシャライズ処理を実行する。
具体的には例えば、主制御部14は、後述するステップS2のSW処理により設定される動作モードの初期設定として、通常モードを設定する。
なお、本実施形態では、動作モードの初期設定として視線モードを設定することは禁止されているものとする。視線モードの開始時にはキャリブレーションの実行が伴うので、ユーザが視線モードを開始するという明示の指示が必要なためである。
ステップS2において、主制御部14は、SW(スイッチ)処理を実行する。
SW処理とは、複数の選択肢が存在するモードについて所定の選択肢を選択したり、複数の状態が存在するフラグについて初期状態を選択したりして、設定する処理をいう。
例えば本実施形態のSW処理では、動作モードとして、通常モードと視線モードとのうちユーザにより選択されたモードが設定される。
なお、SW処理のさらなる詳細については、図8を参照して後述する。
ステップS3において、主制御部14は、視線モードが設定されているか否かを判定する。
ステップS2のSW処理において通常モードが設定された場合、ステップS3においてNOであると判定されて、処理はステップS4に進む。この場合、上述したように、ユーザは通常のマウス操作を行うことになるので、図6の主制御部14においては、操作内容入力部23、表示制御部24、及び音声出力制御部25が機能する。
ステップS4において、操作内容入力部23は、通常のマウス操作を認識する。
その後、処理はステップS9に進む。ただし、ステップS9以降の処理については、後述する。
これに対して、ステップS2のSW処理において視線モードが設定された場合、ステップS3においてYESであると判定されて、処理はステップS5に進む。
ステップS5において、基準検出部21は、基準検出処理を実行する。
基準検出処理とは、上述した図2乃至図5を参照して主要な処理を説明済みであるが、眼球2が撮像された結果得られる撮像画像のデータから、基準情報を検出する処理、即ち、瞳中心M(移動基準点)と像中心Z(不動基準点)とを検出し、それらの検出結果に基づいてズレ量V(x,y)を算出したり、基準ズレ量Vo(xo,yo)を算出(更新を含む)する処理をいう。なお、基準検出処理のさらなる詳細については、図9を参照して後述する。
ステップS6において、主制御部14は、ステップS5の基準検出処理において、不動基準点となる像中心Zの検出に成功したか否かを判定する。
ステップS5の基準検出処理において像中心Zの検出に失敗した場合、続く視線検出処理(後述のステップS8の処理)の実行が不可能になるため、ステップS6においてNOであると判定されて、処理はステップS7に進む。
ステップS7において、主制御部14は、所定のエラー処理を実行する。
その後、処理はステップS5の基準検出処理に戻される。即ち、ステップS5の基準検出処理で像中心Zの検出に成功するまでの間、ステップS5乃至S7のループ処理が繰り返される。
初回も含め所定の回のステップS5の基準検出処理で像中心Zの検出が成功すると、次のステップS6においてYESであると判定されて、処理はステップS8に進む。
ステップS8において、視線検出部22は、視線検出処理を実行する。
視線検出処理とは、ステップS5の基準検出処理で検出されたズレ量V(x,y)及び基準ズレ量(xo,yo)に基づいて視線の移動ベクトル△V(△x,△y)を求めることによって、視線検出を行い、その視線検出結果に基づいてマウスポインタの移動指示を認識する(マウスポインタの移動量を決定する)等の処理をいう。また、ユーザの瞬きを検出し、クリック操作と等価の操作を認識する処理も、視線検出処理の一部として含まれている。要するに、視線検出処理とは、視線検出を行い、その検出結果等に基づいてマウス等価操作の内容を認識する処理をいう。
なお、視線検出処理のさらなる詳細については、図10を参照して後述する。
ステップS9において、操作内容入力部23は、ステップS8の視線検出処理において認識されたマウス等価操作の内容を入力する入力処理を実行し、入力した内容に応じた処理を適宜実行する。
ステップS10において、表示制御部64は、ステップS9の処理で入力されたマウス等価操作の内容に応じたGUI用の画面、例えば、マウスポインタを移動させたりする画面を、表示部11に表示させる表示処理を実行する。
ステップS11において、音声出力部15は、ステップS9の処理で入力されたマウス等価操作の内容に応じた音声、例えばいわゆるクリック音を、音声出力部15から発音させる発音処理を実行する。
ステップS12において、主制御部14は、処理の終了が指示されたか否かを判定する。
処理の終了の指示は、特に限定されず、例えば視線入力装置1の電源が遮断される指示等、各種各様の指示を処理の終了の指示として採用することができる。
処理の終了がまだ指示されていない場合、ステップS12においてNOであると判定されて、処理はステップS2に戻され、それ以降の処理が繰り返される。
即ち、処理の終了が指示されるまでの間、ステップS2乃至S12の処理が繰り返し実行され、ユーザがマウス等価操作又は通常のマウス操作を行う度に、その操作の内容が入力され、入力された内容に応じた処理が実行される。
その後、処理の終了が指示されると、ステップS12においてYESであると判定されて、視線入力処理の全体が終了となる。
以上、図7を参照して、視線入力処理の流れについて説明した。
次に、このような視線入力処理のうち、ステップS2のSW処理の詳細な流れについて説明する。
図8は、SW処理の詳細な流れを説明するフローチャートである。
ステップS21において、主制御部14は、操作部13から全てのスイッチ状態を取得する。
ここで、スイッチ状態とは、ON状態又はOFF状態を意味する。また、スイッチ状態が取得されるスイッチは、本実施形態では、通常モードスイッチ、視線モードスイッチ、及びキャリブレーションスイッチである。
ステップS22において、主制御部14は、キャリブレーションスイッチがON状態であるか否かを判定する。キャリブレーションスイッチがOFF状態であった場合、ステップS22においてNOであると判定され、処理はステップS23に進む。
ステップS23において、主制御部14は、CFフラグを「0」に設定する。
ここで、CFフラグとは、キャリブレーション処理が必要か否かを示すフラグである。即ち、CFフラグが「1」に設定されている場合には、キャリブレーション処理が不要であることを意味する。一方、本ステップS23の処理後のように、CFフラグが「0」に設定されている場合には、キャリブレーション処理が不要であることを意味する。
この後、処理はステップS25に進む。ただし、ステップS25以降の処理については後述する。
これに対して、キャリブレーションスイッチがON状態であった場合、ステップS22においてYESであると判定され、処理はステップS24に進む。
ステップS24において、主制御部14は、CFフラグを「1」に設定する。即ち、この場合には、キャリブレーション処理が必要である旨が設定されたことになる。
ステップS25において、主制御部14は、視線モードスイッチがON状態であるか否かを判定する。
視線モードスイッチがOFF状態であった場合、ステップS25においてNOであると判定され、処理はステップS28に進む。ただし、ステップS28以降の処理については後述する。
これに対して、視線モードスイッチがON状態であった場合、ステップS25においてYESであると判定され、処理はステップS26に進む。
ステップS26において、主制御部14は、視線入力装置1の動作モードとして視線モードを設定する。
ステップS27において、主制御部14は、CFフラグを「1」に設定する。
この場合、ステップS23の処理でCF=0に設定されていたとしても、視線モードスイッチの押下操作が優先されて、CF=1に設定され、キャリブレーション処理が必要である旨の設定がなされる。
このようにして、ステップS27の処理が終了した場合、又はステップS25においてNOであると判定される(視線モードスイッチがOFF状態である)場合には、処理はステップS28に進む。
ステップS28において、主制御部14は、通常モードスイッチがON状態であるか否かを判定する。通常モードスイッチがOFF状態であった場合、ステップS28においてNOであると判定され、SW処理は終了する。
これに対して、通常モードスイッチがON状態であった場合、ステップS28においてYESであると判定され、処理はステップS29に進む。
ステップS29において、主制御部14は、視線入力装置1の動作モードとして通常モードを設定する。
これにより、SW処理は終了する。
SW処理が終了すると、即ち、図7のステップS2の処理は終了し、処理はステップS3に進む。
すると、上述したように、ステップS3の処理で、視線入力装置1の動作モードが視線モードであるか否かが判定され、視線モードであれば、ステップS5の基準検出処理が実行されることになる。
そこで、以下、ステップS5の基準検出処理の詳細な流れについて引き続き説明する。
図9は、基準検出処理の詳細な流れを説明するフローチャートである。
ステップS41において、基準検出部21は、ユーザの眼球2が撮像された結果得られる撮像画像のデータを撮像部12から取得する。
ステップS42において、基準検出部21は、ステップS41の処理でデータとして取得した撮像画像から、瞳領域4を検出する。
ステップS43において、基準検出部21は、ステップS42の処理で検出した瞳領域4から、その重心を、移動基準点としての瞳中心Mとして特定する。
ステップS44において、基準検出部21は、像中心検出処理を実行する。
像中心検出処理とは、上述した不動基準点としての像中心Zを検出する処理をいう。
なお、像中心検出処理のさらなる詳細については、図12乃至図14を参照して後述する。
ステップS45において、基準検出部21は、像中心検出処理が成功したか否かを判定する。
像中心検出処理が失敗した場合、ステップS45においてNOであると判定され、処理はステップS46に進む。
ステップS46において、基準検出部21は、基準検出処理失敗のフラグを立てる。
これにより、基準検出処理は終了する。即ち、図7のステップS5の処理は終了して、次のステップS6の処理でNOであると判定されて、ステップS7のエラー処理が実行されることになる。
これに対して、像中心検出処理が成功した場合、ステップS45においてYESであると判定され、処理はステップS47に進む。
ステップS47において、基準検出部21は、ステップS43の処理で特定された瞳中心Mと、ステップS44の像中心検出処理で特定された像中心Zとに基づいて、ズレ量V(x,y)を求め、視線検出部22に供給する。
ステップS48において、基準検出部21は、CF=1であるか否かを判定する。
CF=0である場合、即ち、キャリブレーションが不要である場合、ステップS48においてNOであると判定され、基準検出処理は終了する。即ち、図7のステップS5の処理を終了して、処理はステップS6に進む。
これに対して、CF=1である場合、即ち、キャリブレーションが必要である場合、ステップS48においてYESであると判定され、処理はステップS49に進む。
ステップS49において、基準検出部21は、キャリブレーション処理を実行して、基準ズレ量Vo(xo,yo)として、ステップS47の処理で求めたズレ量V(x,y)に初期設定又は更新する(Vo(xo,yo)=V(x,y))。
ステップS50において、基準検出部21は、CF=0に設定する。即ち、キャリブレーションは実行されたので、現段階ではキャリブレーションが不要の旨の設定がなされる。
これにより、基準検出処理は終了し、即ち、図7のステップS5の処理は終了し、処理はステップS6に進む。
この場合、ステップS6においてYESであると判定され、ステップS8の視線検出処理が実行されることになる。
そこで、以下、ステップS8の視線検出処理の詳細な流れについて引き続き説明する。
図10は、視線検出処理の詳細な流れを説明するフローチャートである。
ステップS61において、視線検出部22は、基準検出部21から通知されたズレ量V(x,y)と基準ズレ量Vo(xo,yo)との差分ベクトルとして、視線の移動ベクトル△V(△x,△y)を算出する(△V(△x,△y)=V(x,y)−Vo(xo,yo))。
ステップS62において、視線検出部22は、ステップS61の処理で算出した視線の移動ベクトル△Vの横方向(X軸方向)の要素△xの絶対値が10pixを超えている(|△x|>10pix)か否かを判定する。
ここでは、マウスポインタの横方向の移動指示のためにユーザが視線を動かしたと信頼していえる視線の横方向の移動量が、撮像画像の画素に換算して、11画素(pix)分と設定されている。
このため、視線の移動ベクトル△Vの横方向(X軸方向)の要素△xの絶対値が10pix以下の場合には、ユーザはマウスポインタを移動させるつもりがないのに、視線の揺らぎ等で若干視線が移動した可能性があるとして、マウスポインタの移動の指示操作は認識されない。
従って、このような場合には、ステップS62においてNOであると判定され、マウスポインタの移動の指示操作を認識するための処理であるステップS63及びS64の処理は実行されずに、処理はステップS65に進む。ただし、ステップS65以降の処理については、後述する。
これに対して、視線の移動ベクトル△Vの横方向(X軸方向)の要素△xの絶対値が10pixを超えた場合、マウスポインタの横方向の移動指示のためにユーザが視線を動かしたものと認識されて、その結果として、ステップS62においてYESであると判定され、処理はステップS63に進む。
ステップS63において、視線検出部22は、視線の移動ベクトル△Vの横方向(X軸方向)の要素△xに応じたマウスポインタ移動の発生を操作内容入力部23に通知する。
ステップS64において、視線検出部22は、マウスポインタの移動に対応して、基準ズレ量Voの横方向(X軸方向)の要素xoを、現在のズレ量Vの横方向(X軸方向)の要素xに更新する(xo=x)。
これにより、次回の視線検出処理のステップS61の処理では、今回の現在のズレ量Vの横方向(X軸方向)の要素xが基準となって、視線の移動ベクトル△V(△x,△y)が求められることになる。
このようにして、ステップS64の処理が終了した場合、又はステップS62の処理でNOであると判定された場合、処理はステップS65に進む。
ステップS65において、視線検出部22は、ステップS61の処理で算出した視線の移動ベクトル△Vの縦方向(Y軸方向)の要素△yの絶対値が10pixを超えている(|△y|>10pix)か否かを判定する。
ここでは、マウスポインタの縦方向の移動指示のためにユーザが視線を動かしたと信頼していえる視線の縦方向の移動量が、撮像画像の画素に換算して、11画素(pix)分と設定されている。
このため、視線の移動ベクトル△Vの縦方向(Y軸方向)の要素△yの絶対値が10pix以下の場合には、ユーザはマウスポインタを移動させるつもりがないのに、視線の揺らぎ等で若干視線が移動した可能性があるとして、マウスポインタの移動の指示操作は認識されない。
従って、このような場合には、ステップS65においてNOであると判定され、マウスポインタの移動の指示操作を認識するための処理であるステップS66及びS67の処理は実行されずに、処理はステップS68に進む。ただし、ステップS68以降の処理については、後述する。
これに対して、視線の移動ベクトル△Vの縦方向(Y軸方向)の要素△yの絶対値が10pixを超えた場合、マウスポインタの縦方向の移動指示のためにユーザが視線を動かしたものと認識されて、その結果として、ステップS65においてYESであると判定され、処理はステップS66に進む。
ステップS66において、視線検出部22は、視線の移動ベクトル△Vの縦方向(Y軸方向)の要素△yに応じたマウスポインタ移動の発生を操作内容入力部23に通知する。
ステップS67において、視線検出部22は、マウスポインタの移動に対応して、基準ズレ量Voの縦方向(Y軸方向)の要素yoを、現在のズレ量Vの縦方向(Y軸方向)の要素yに更新する(yo=y)。
これにより、次回の視線検出処理のステップS61の処理では、今回の現在のズレ量Vの縦方向(Y軸方向)の要素yが基準となって、視線の移動ベクトル△V(△x,△y)が求められることになる。
このようにして、ステップS67の処理が終了した場合、又はステップS65の処理でNOであると判定された場合、処理はステップS68に進む。
ステップS68において、視線検出部22は、撮像画像のデータから、ユーザの瞬きを検出できたか否かを判定する。
ユーザの瞬きを検出できなかった場合、ステップS68においてNOであると判定され、視線検出処理は終了する。
即ち、図7のステップS8の処理は終了し、処理はステップS9に進む。この場合、ステップS63とS66のうち少なくとも一方の処理が実行されているならば、ステップS9の処理で、マウスポインタの移動の指示が入力されて、次のステップS10の処理でマウスポインタが移動する(そのようなGUI用の画像が表示される)。
これに対して、ユーザの瞬きを検出できた場合、ステップS68においてYESであると判定され、処理はステップS69に進む。
ステップS69において、視線検出部22は、今回検出された瞬きが、前回検出された瞬きから200mS以内に発生したか否かを判定する。
今回と前回の瞬きの間隔が200mS以内でなかった場合、ユーザがクリック操作と等価の操作をするために瞬きを2回したわけではないと認識され、その結果、ステップS69においてNOであると判定され、視線検出処理は終了する。
即ち、図7のステップS8の処理は終了し、処理はステップS9に進む。この場合も、ステップS63とS66のうち少なくとも一方の処理が実行されているならば、ステップS9の処理で、マウスポインタの移動の指示が入力されて、次のステップS10の処理でマウスポインタが移動する(そのようなGUI用の画像が表示される)。
これに対して、今回と前回の瞬きの間隔が200mS以内であった場合、ユーザがクリック操作と等価の操作をするために瞬きを2回したものであると認識され、その結果、ステップS69においてYESであると判定され、処理はステップS70に進む。
ステップS70において、視線検出部22は、マウスクリックの発生を操作内容入力部23に通知する。
これにより、視線検出処理は終了し、即ち、図7のステップS8の処理は終了し、処理はステップS9に進む。
この場合、ステップS9の処理で、クリック操作に対応付けられた指示(例えばアイコンの選択等の指示)が入力されて、指示に従った処理が適宜実行される。
以上、図10を参照して、図7の視線入力処理のうち、ステップS8の視線検出処理の流れについて説明した。
なお、ステップS62及びS65で採用されている10pixや、ステップS69で採用されている200msといった値は、例示に過ぎず、その趣旨(誤検出防止)を逸脱しない範囲内で自在に変更可能な値である。
ここで、図11を参照して、視線検出処理によって決定される、マウスポインタ移動の方向について説明しておく。
図11は、視線検出処理によって決定される、マウスポインタ移動の方向を説明する図である。
図11(A)は、撮像画像の座標系の原点を像中心Zに取り直した座標系において、瞳中心Mが動く方向を示した図である。像中心Zを原点に取れば、瞳中心Mの座標はズレ量V(x,y)と一致した座標(x,y)で表される。
また、図11(B)は、表示部11の座標系において、中央位置を原点に取った場合に、図11(A)の視線位置の移動に応じてマウスポインタが動く方向を示した図である。
図11(A)において、瞳中心Mが、初期ズレ量Voの座標(xo,yo)から、現在のズレ量V(x,y)まで左上方向に動いた時、図11(B)に示すように、マウスポインタは右上に動くことになる。
これは、上述の通り、図11(A)における撮像された瞳中心Mの移動方向と図11(B)におけるユーザから見た視線位置の移動方向が鏡像関係になっているためである。
ここで話を変えて、図9の基準検出処理(図7のステップS5の処理)のうち、ステップS34の像中心検出処理の3つの例についてそれぞれ説明する。
図12は、像中心検出処理の詳細な流れの一例を説明するフローチャートである。
ステップS81において、基準検出部21は、撮像画像の瞳領域4の近傍で、具体的には瞳中心Mを中心とした一定範囲内の領域で、縦横のサイズと縦横の比が所定の範囲内で、平均的に明るい長方形の領域の検出を試みる。
ステップS82において、基準検出部21は、ステップS81の処理の試みによって領域を検出できたか否かを判定する。
ステップS81の処理の試みによって領域を検出できなかった場合、ステップS82においてNOであると判定され、処理はステップS83に進む。
ステップS83において、基準検出部21は、像中心検出失敗を表すフラグを立てる。これにより、像中心検出処理は終了する。即ち、図9のステップS44の処理が終了し、処理はステップS45に進む。この場合、ステップS45の処理でNOであると判定されて、基準検出失敗のフラグが立てられ、基準検出処理が終了し、即ち、図7のステップS5の処理が終了し、ステップS6の処理でNOであると判定された後、ステップS7のエラー処理が実行されることになる。
これに対して、ステップS81の処理の試みによって領域を検出できた場合、ステップS82においてYESであると判定され、処理はステップS84に進む。
ステップS84において、基準検出部21は、検出した領域を表示部像領域5として、その重心を、像中心Zの座標として算出する。
これにより、像中心検出処理は終了する。即ち、図9のステップS44の処理が終了し、処理はステップS45に進む。この場合、ステップS45の処理でYESであると判定されて、ズレ量V(x,y)等が求められた後、基準検出処理が終了する。即ち、図7のステップS5の処理が終了し、ステップS6の処理でYESであると判定された後、ステップS8の視線検出処理が実行されることになる。
図13は、像中心検出処理の詳細な流れの一例であって、図12の例とは異なる例を説明するフローチャートである。
ステップS101において、基準検出部21は、撮像画像の瞳領域4の近傍で、具体的には瞳中心Mを中心とした一定範囲内の領域で、表示部11の中心点から発信された認識信号(その認識信号が眼球2に写った様子を示す像を撮像部12が撮像した結果えられる撮像画像内の領域)の検出の試みを、適当な公知の技術等を用いて行う。
即ち、このような試みで検出が成功した領域が、表示部像領域5として特定されることになる。
なお、この例では、表示制御部64は、表示部11を制御して、認識信号で変調した光を発光する機能を持っているものとする。
ステップS102乃至S104の各々の処理及びそれらの処理の流れは、図12の例のステップS82乃至S84と基本的に同様であるので、ここではその説明は省略する。
図14は、像中心検出処理の詳細な流れの一例であって、図12及び図13の例とは異なる例を説明するフローチャートである。
ステップS121において、基準検出部21は、撮像画像の瞳領域4の近傍で、具体的には瞳中心Mを中心とした一定範囲内の領域で、最も明るい画素を含む明るい画素が連続する領域で、所定の時間の間動かない領域の検出を試みる。
即ち、このような試みで検出が成功した領域が、表示部像領域5として特定されることになる。
なお、「所定の時間」は、特に限定されないが、200ms程度以下にすると好適である。200msを超えると、視線検出の反応が遅くなる可能性があるからである。
ステップS122乃至S124の各々の処理及びそれらの処理の流れは、図12の例のステップS82乃至S84と基本的に同様であるので、ここではその説明は省略する。
以上説明したように、本実施形態に係る視線入力装置1は、表示部11と、撮像部12と、基準検出部21と、視線検出部22と、を備えている。
表示部11は、所定形状の表示領域を有し、当該表示領域に画像を表示させる。
撮像部12は、表示領域が映り込んだユーザの眼球2を撮像することによって、撮像画像のデータを生成する。
基準検出部21は、撮像部12により生成された撮像画像のデータから、ユーザの視線移動に伴って動く移動基準点と、ユーザの視線移動があっても略静止していると判断できる不動基準点とを検出し、不動基準点から移動基準点までを示すベクトルをズレ量V(x,y)として生成する。
視線検出部22は、過去に生成された基準ズレ量Vo(xo,yo)と、今回生成されたズレ量V(x,y)とに基づいて、ユーザの視線の移動量として移動ベクトル△V(△x,△y)を検出する。
これにより、視線入力装置1は、ユーザの頭部を何ら束縛することなく、視線検出によってマウス等価操作を受け付けることができるので、ユーザは頭部も両手も自由な状態でマウス等価操作をすることができる。
ここで、タッチパネルはパネルの表面に指の油が付くし、タッチパッドは指が擦れる感触を嫌がるユーザが多い。また、リモートコントローラは操作に手間が掛かる。視線入力装置1は、これらのユーザインタフェース全ての欠点を無くして、快適なユーザインタフェースを実現できる。
また、ユーザは、表示部11を注視している限り、視線検出は確実に行われるので、安定したマウス等価操作が実現できる。ユーザが視線を外しても、同じ姿勢で注視し直すだけで、マウス等価操作を再開できる。
なお、本発明は上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、上述の実施形態では、視線モードスイッチとキャリブレーションスイッチとに対して、同一のキャリブレーション機能が割り当てられていたが、別々の種類のキャリブレーション機能がそれぞれ割り当てられていてもよい。
即ち、ユーザが視線モードスイッチを押下操作をする時は、それまで通常モードで移動させていたマウスポインタを注視している場合が多いと思われるので、マウスポインタの現在位置を初期位置とする、というキャリブレーションも可能である。
これに対して、ユーザがキャリブレーションスイッチを押下する時は、キャリブレーションをやり直すという意識が強いと思われるので、上述の実施形態のように、表示部11の中央位置をマウスポインタの初期位置とする、というキャリブレーションを実行することができる。
また例えば、上述の実施形態では、本発明が適用される情報処理装置は、デジタルフォトフレームとして構成される視線入力装置1であるとして説明した。
しかしながら、本発明は、特にこれに限定されず、上述の視線検出を実行可能な電子機器一般に適用することができる。具体的には例えば、本発明は、パーソナルコンピュータ、携帯型ナビゲーション装置、ポータブルゲーム機、携帯電話、携帯情報端末等に幅広く適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
図15は、上述した一連の処理をソフトウェアにより実行させる場合の、視線入力装置1のハードウェア構成を示すブロック図である。
視線入力装置1は、上述した表示部11、撮像部12、操作部13、及び音声出力部15の他、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、バス104と、入出力インターフェース105と、記憶部106と、通信部107と、ドライブ108と、を備えている。
CPU101は、ROM102に記録されているプログラム、又は、記憶部106からRAM103にロードされたプログラムに従って各種の処理を実行する。
RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータ等も適宜記憶される。
例えば、上述した図6の機能的構成のうち、主制御部14は、CPU101というハードウェアと、ROM102等に記憶されたプログラム(ソフトウェア)との組み合わせとして構成することができる。
CPU101、ROM102、及びRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インターフェース105も接続されている。入出力インターフェース105には、表示部11、撮像部12、操作部13、音声出力部15、記憶部106、通信部107、及びドライブ108が接続されている。
記憶部106は、ハードディスク等で構成され、撮像部12から出力された撮像画像のデータを一時記憶する。また、記憶部106は、各種画像処理に必要な各種データ、例えば、画像のデータ、各種フラグの値、閾値等も記憶する。
通信部107は、インターネット等を介して他の装置との間で行う通信を制御する。
ドライブ108には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア111が適宜装着される。ドライブ108によって読み出されたコンピュータプログラムは、必要に応じて記憶部106等にインストールされる。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディア111により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。
リムーバブルメディア111は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されているROM102や、記憶部106に含まれるハードディスク等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
1・・・視線入力装置、2・・・眼球、3・・・眼球領域、4・・・瞳領域、5・・・表示部像領域、11・・・表示部、12・・・撮像部、13・・・操作部、14・・・主制御部、15・・・音声出力部、21・・・基準検出部、22・・・視線検出部、23・・・操作内容入力部、24・・・表示制御部、25・・・音声出力制御部、101・・・CPU、102・・・ROM、103・・・RAM、106・・・記憶部、107・・・通信部、111・・・リムーバブルメディア

Claims (6)

  1. 表示部を備えた情報処理装置であって、
    接続された撮像手段から供給される撮像データ内にある眼球の特定部位を表す画像を第1の画像として検出する第1の画像検出手段と、前記撮像データ上での前記第1の画像の位置を特定する第1検出手段と、
    前記撮像データ内から前記眼球に写りこんだ特定形状の物体を表す画像を第2の画像として検出する第2の画像検出手段と、前記撮像データ上での前記第2の画像の位置を特定する第2検出手段と、
    前記第1の画像の位置と、前記第2の画像の位置との関係に基づき、前記撮像手段で撮像された眼球における視線移動量を検出する視線移動量検出手段と、
    前記視線移動量検出手段により検出された前記視線移動量に基づいてマウスポインタを前記表示部内で移動させるマウスポインタ制御手段と、
    前記第1の画像の位置と前記第2の画像の位置の変化の基準となる基準ズレ量を設定する基準ズレ量設定手段と、を有し、
    前記基準ズレ量設定手段は、前記マウスポインタの移動にあわせて前記基準ズレ量を更新することを特徴とする情報処理装置。
  2. 前記第2の画像検出手段は、縦横のサイズと縦横の比が所定の範囲内である画像を前記第2の画像として検出する請求項1に記載の情報処理装置。
  3. 前記表示部は、第2の画像を表示し、
    前記眼球に映り込んだ画像は、前記表示部に表示された前記第2の画像である請求項に記載の情報処理装置。
  4. 前記情報処理装置はさらに、瞬きを所定時間内に所定回数の動作が行われたかを検出する瞬き検出手段と、前記動作を検出した場合にマウスのクリック操作がなされたことを示す通知信号を発生させる通知手段とを有する請求項に記載の情報処理装置。
  5. 表示部を備え、接続された撮像手段から供給される撮像データ内の画像から視線の移動量を検出する情報処理装置に用いられるコンピュータを、
    前記撮像手段から供給される撮像データ内にある眼球の特定部位を表す画像を第1の画像として検出する第1の画像検出手段と、
    前記撮像データ上での前記第1の画像の位置を特定する第1検出手段と、
    前記撮像データ内から前記眼球に写りこんだ特定形状の物体を表す画像を第2の画像として検出する第2の画像検出手段と、
    前記撮像データ上での前記第2の画像の位置を特定する第2検出手段と、
    前記第1の画像の位置と、前記第2の画像の位置との関係に基づき、前記撮像手段で撮像された眼球における視線移動量を検出する視線移動量検出手段と、
    前記視線移動量検出手段により検出された前記視線移動量に基づいてマウスポインタを前記表示部内で移動させるマウスポインタ制御手段と、
    前記第1の画像の位置と前記第2の画像の位置の変化の基準となる基準ズレ量を設定する基準ズレ量設定手段と、して機能させるプログラムであって、
    前記基準ズレ量設定手段は、前記マウスポインタの移動にあわせて前記基準ズレ量を更新することを特徴とする
  6. 表示部を備え、接続された撮像手段から供給される撮像データ内の画像から視線の移動量を検出する情報処理方法であって、
    前記撮像手段から供給される撮像データ内にある眼球の特定部位を表す画像を第1の画像として検出する第1の画像検出ステップと、
    前記撮像データ上での前記第1の画像の位置を特定する第1検出ステップと、
    前記撮像データ内から前記眼球に写りこんだ特定形状の物体を表す画像を第2の画像として検出する第2の画像検出ステップと、前記撮像データ上での前記第2の画像の位置を特定する第2検出ステップと、
    前記第1の画像の位置と、前記第2の画像の位置との関係に基づき、前記撮像手段で撮像された眼球における視線移動量を検出する視線移動量検出ステップと、
    前記視線移動量検出ステップにより検出された前記視線移動量に基づいてマウスポインタを前記表示部内で移動させるマウスポインタ制御ステップと、
    前記第1の画像の位置と前記第2の画像の位置の変化の基準となる基準ズレ量を設定する基準ズレ量設定ステップと、を含む情報処理方法であって、
    前記基準ズレ量設定ステップは、前記マウスポインタの移動にあわせて前記基準ズレ量を更新することを特徴とする
JP2010290417A 2010-12-27 2010-12-27 情報処理装置及び方法、並びにプログラム Active JP5387557B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010290417A JP5387557B2 (ja) 2010-12-27 2010-12-27 情報処理装置及び方法、並びにプログラム
US13/336,235 US8523358B2 (en) 2010-12-27 2011-12-23 Information processing apparatus, method, and storage medium storing program
CN201110443180.7A CN102609085B (zh) 2010-12-27 2011-12-27 信息处理装置及方法、以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010290417A JP5387557B2 (ja) 2010-12-27 2010-12-27 情報処理装置及び方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2012137970A JP2012137970A (ja) 2012-07-19
JP5387557B2 true JP5387557B2 (ja) 2014-01-15

Family

ID=46316322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010290417A Active JP5387557B2 (ja) 2010-12-27 2010-12-27 情報処理装置及び方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8523358B2 (ja)
JP (1) JP5387557B2 (ja)
CN (1) CN102609085B (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919010B1 (ko) * 2012-03-08 2018-11-16 삼성전자주식회사 안구 동작에 기초한 디바이스의 제어 방법 및 이를 위한 디바이스
CN102880290B (zh) * 2012-08-24 2016-06-22 中兴通讯股份有限公司 一种显示控制方法、装置及终端
JP5229928B1 (ja) * 2012-08-30 2013-07-03 広太郎 海野 注視位置特定装置、および注視位置特定プログラム
KR102007817B1 (ko) * 2012-12-21 2019-08-07 엘지디스플레이 주식회사 기준 데이터 보정방법과 이를 이용한 터치 스크린 장치
US10884577B2 (en) * 2013-01-15 2021-01-05 Poow Innovation Ltd. Identification of dynamic icons based on eye movement
US9167147B2 (en) 2013-02-15 2015-10-20 International Business Machines Corporation Mobile device field of view region determination
US9041645B2 (en) 2013-02-15 2015-05-26 International Business Machines Corporation Transparent display field of view region determination
US9179833B2 (en) 2013-02-28 2015-11-10 Carl Zeiss Meditec, Inc. Systems and methods for improved ease and accuracy of gaze tracking
US11747895B2 (en) * 2013-03-15 2023-09-05 Intuitive Surgical Operations, Inc. Robotic system providing user selectable actions associated with gaze tracking
US9582075B2 (en) * 2013-07-19 2017-02-28 Nvidia Corporation Gaze-tracking eye illumination from display
KR102037417B1 (ko) 2013-08-13 2019-10-28 삼성전자주식회사 홍채 영상 촬영 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 홍채 영상 촬영 장치
KR20150032019A (ko) * 2013-09-17 2015-03-25 한국전자통신연구원 시선 추적 기반의 사용자 인터페이스 방법 및 그 장치
WO2015104884A1 (ja) * 2014-01-08 2015-07-16 ソニー株式会社 情報処理システム、情報処理方法およびプログラム
CN104808836B (zh) * 2014-01-23 2017-12-01 京瓷办公信息系统株式会社 电子设备及操作支援方法
US9733728B2 (en) * 2014-03-03 2017-08-15 Seiko Epson Corporation Position detecting device and position detecting method
EP3137968B1 (en) * 2014-04-29 2019-10-16 Hewlett-Packard Development Company, L.P. Gaze detector using reference frames in media
CN104090659B (zh) * 2014-07-08 2017-04-05 重庆金瓯科技发展有限责任公司 基于人眼图像和视线追踪的操作指针指示控制设备
JP6365267B2 (ja) * 2014-11-27 2018-08-01 富士通株式会社 表示装置、表示方法及び表示プログラム
DE102015204281A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt
CN106325480A (zh) * 2015-06-30 2017-01-11 天津三星电子有限公司 基于视线追踪的鼠标控制设备及其方法
CN106708251A (zh) * 2015-08-12 2017-05-24 天津电眼科技有限公司 一种基于眼球追踪技术的智能眼镜控制方法
JP2017091327A (ja) * 2015-11-12 2017-05-25 富士通株式会社 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
CN105700677A (zh) * 2015-12-29 2016-06-22 努比亚技术有限公司 一种移动终端及其控制方法
CN105930044A (zh) * 2016-04-20 2016-09-07 乐视控股(北京)有限公司 一种显示页面定位的方法和系统
JP2018194998A (ja) * 2017-05-16 2018-12-06 富士通周辺機株式会社 情報処理装置及び情報処理方法
CN107357430A (zh) * 2017-07-13 2017-11-17 湖南海翼电子商务股份有限公司 自动记录阅读位置的方法与装置
US10782793B2 (en) * 2017-08-10 2020-09-22 Google Llc Context-sensitive hand interaction
US10552986B1 (en) * 2018-07-20 2020-02-04 Banuba Limited Computer systems and computer-implemented methods configured to track multiple eye-gaze and heartrate related parameters during users' interaction with electronic computing devices
CN109460202A (zh) * 2018-09-29 2019-03-12 努比亚技术有限公司 一种显示控制方法、终端及计算机可读存储介质
US11720178B2 (en) 2019-03-15 2023-08-08 Sony Group Corporation Information processing device, information processing method, and computer-readable recording medium
JP7433860B2 (ja) * 2019-11-26 2024-02-20 キヤノン株式会社 電子機器及び電子機器の制御方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4836670A (en) * 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
JPH06289985A (ja) * 1993-03-31 1994-10-18 Sega Enterp Ltd 入力装置
JPH06347866A (ja) 1993-06-10 1994-12-22 Nikon Corp 視線検出装置、角膜曲率中心位置検出装置および瞳孔中心位置検出装置
US5471542A (en) * 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
JP3453911B2 (ja) * 1995-03-02 2003-10-06 富士ゼロックス株式会社 視線認識装置
JPH0918760A (ja) 1995-06-30 1997-01-17 Canon Inc 視線検出装置およびこれに用いる撮像装置
JP3814322B2 (ja) * 1996-01-24 2006-08-30 キヤノン株式会社 データ入力装置及びデータ入力方法
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
JPH10187334A (ja) * 1996-12-26 1998-07-14 Canon Inc 情報入力方法および情報入力装置と情報入力用記憶媒体
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
WO1999003066A1 (de) * 1997-07-09 1999-01-21 Siemens Aktiengesellschaft Verfahren und vorrichtung zum erfassen einer reflektierenden fläche eines menschen
US6106119A (en) * 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
JP2001061785A (ja) 1999-08-26 2001-03-13 Shimadzu Corp 視線検出方法及びその装置
JP2004318823A (ja) * 2003-03-28 2004-11-11 Seiko Epson Corp 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
JP4517049B2 (ja) * 2003-12-25 2010-08-04 国立大学法人静岡大学 視線検出方法および視線検出装置
JP4491604B2 (ja) * 2004-12-17 2010-06-30 国立大学法人静岡大学 瞳孔検出装置
US20060209013A1 (en) * 2005-03-17 2006-09-21 Mr. Dirk Fengels Method of controlling a machine connected to a display by line of vision
JP2006323769A (ja) * 2005-05-20 2006-11-30 Tokai Univ 対面入力装置
JP2007029126A (ja) 2005-07-22 2007-02-08 System Artware:Kk 視線検出装置
JP2007066274A (ja) * 2005-08-26 2007-03-15 Tokyo Institute Of Technology 画像認識方式
JP4609253B2 (ja) 2005-09-08 2011-01-12 オムロン株式会社 なりすまし検出装置及び顔認証装置
JP2007271773A (ja) * 2006-03-30 2007-10-18 Fujitsu Hitachi Plasma Display Ltd プラズマディスプレイ装置
TWI432172B (zh) * 2008-10-27 2014-04-01 Utechzone Co Ltd Pupil location method, pupil positioning system and storage media
TWI398796B (zh) * 2009-03-27 2013-06-11 Utechzone Co Ltd Pupil tracking methods and systems, and correction methods and correction modules for pupil tracking
JP2010233896A (ja) 2009-03-31 2010-10-21 Fujifilm Corp 超音波診断装置
JP2010262478A (ja) * 2009-05-07 2010-11-18 Toyota Motor Corp 車両制御システム及び安全確認判定装置

Also Published As

Publication number Publication date
CN102609085B (zh) 2014-10-15
US20120162603A1 (en) 2012-06-28
JP2012137970A (ja) 2012-07-19
CN102609085A (zh) 2012-07-25
US8523358B2 (en) 2013-09-03

Similar Documents

Publication Publication Date Title
JP5387557B2 (ja) 情報処理装置及び方法、並びにプログラム
US20210295602A1 (en) Systems, Methods, and Graphical User Interfaces for Displaying and Manipulating Virtual Objects in Augmented Reality Environments
JP6131540B2 (ja) タブレット端末、操作受付方法および操作受付プログラム
CN105765513B (zh) 信息处理装置、信息处理方法和程序
EP2862042B1 (en) User interface interaction for transparent head-mounted displays
EP2866123A2 (en) Screen operation apparatus and screen operation method
EP3144775B1 (en) Information processing system and information processing method
US10642348B2 (en) Display device and image display method
CN106605187B (zh) 信息处理装置、信息处理方法以及程序
KR20150116871A (ko) Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택
KR20150090840A (ko) 디스플레이 화면의 영역을 보호하는 디바이스 및 방법
WO2009147870A1 (ja) 入力検出装置、入力検出方法、プログラム、および記録媒体
US20150199111A1 (en) Gui system, display processing device, and input processing device
WO2014201831A1 (en) Wearable smart glasses as well as device and method for controlling the same
US20210117048A1 (en) Adaptive assistive technology techniques for computing devices
US11915671B2 (en) Eye gaze control of magnification user interface
KR20160109443A (ko) 시선 추적을 이용한 디스플레이 장치 및 방법
US20220413606A1 (en) Optical system providing accurate eye-tracking and related method
JP2016071539A (ja) 電子機器
KR102005406B1 (ko) 디스플레이 장치 및 그 제어 방법
WO2023166893A1 (ja) 情報処理システム、情報処理方法、及び情報処理プログラム
JP2014106677A (ja) 表示制御装置、表示方法、および表示プログラム
JP7314196B2 (ja) 端末装置、端末装置の制御方法および端末装置の制御プログラム
JP7383471B2 (ja) 電子機器およびその制御方法
US12008160B2 (en) Eye tracking based selection of a user interface (UI) element based on targeting criteria

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130923

R150 Certificate of patent or registration of utility model

Ref document number: 5387557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150