JP5766763B2 - スクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法及び該方法を実現するために用いるコンピュータシステムとコンピュータプログラム - Google Patents

スクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法及び該方法を実現するために用いるコンピュータシステムとコンピュータプログラム Download PDF

Info

Publication number
JP5766763B2
JP5766763B2 JP2013216902A JP2013216902A JP5766763B2 JP 5766763 B2 JP5766763 B2 JP 5766763B2 JP 2013216902 A JP2013216902 A JP 2013216902A JP 2013216902 A JP2013216902 A JP 2013216902A JP 5766763 B2 JP5766763 B2 JP 5766763B2
Authority
JP
Japan
Prior art keywords
clickable
screen
coordinates
clickable object
point coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013216902A
Other languages
English (en)
Other versions
JP2014235729A (ja
Inventor
ポ‐ツン,リン
スン‐カン,シ
Original Assignee
ユーテックゾーン カンパニー リミテッド
ユーテックゾーン カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユーテックゾーン カンパニー リミテッド, ユーテックゾーン カンパニー リミテッド filed Critical ユーテックゾーン カンパニー リミテッド
Publication of JP2014235729A publication Critical patent/JP2014235729A/ja
Application granted granted Critical
Publication of JP5766763B2 publication Critical patent/JP5766763B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Description

本発明は、眼球追跡技術を運用し且つグラフィカルユーザインターフェース(GUI)に作動するコンピュータシステムに関し、特に、利用者の目を通じてカーソル制御をサポートする技術に関する。
利用者がコンピュータを操作する利便性を図るため、現有のコンピュータ内のOS、例えばWindows(登録商標)或いはLinux(登録商標)には、グラフィカルユーザインターフェース(GUI)が提供されることで、利用者とコンピュータのインタラクションが便利になっている。この種のグラフィカルユーザインターフェース内には通常ウインドウ及び例えばスクロールバー、アイコン(Icon)、ボタン等の各種クリック可能なオブジェクトをクリック又は選択のために提供されている。例を挙げると、利用者がマウスでデスクトップ(desktop)上のあるアプリケーションプログラムを示すアイコン(Icon)を押すと、該某アプリケーションプログラムを起動させることができ、このアプリケーションプログラムを操作ウインドウ内で実行できる。利用者が更に別のアイコンを押すと別の操作ウインドウが現れて別のアプリケーションプログラムが実行され、画面が表示される。この種のよく見られるコンピュータ操作インターフェースは、一般の人々にとって非常に便利であるが、筋萎縮性側索硬化症及び筋萎縮症、脳性麻痺、脊髓の損傷、多発性硬化症を患う、又は脳卒中により四肢を動かせない、更には話すことができない特定疾患患者が使用しようとしても難しいものであった。
前段落で記述した特定疾患患者が、自由に使用できる主な器官として目があり、現在多種類の技術が開発されてこの種の特定疾患患者が目で対外的にコミュニケーションを行うことや、更に目でコンピュータを使用することをサポートし、例えば利用者がコンピュータのスクリーンを見る時、該利用者の視線を該スクリーン上における集中位置(座標)を取得することで、ウインドウ上のカーソル移動を制御する。
しがしながら、従来の技術において、現在この種の特定疾患患者が、便利で且つ速やかに、目でグラフィカルユーザインターフェース内の各種クリック可能なオブジェクトをクリックさせることは、まだ見られないため、この種の特定疾患患者がコンピュータを使用する際やはり不便である。
台湾特許公告番号第I362005,I356328号 台湾特許公開番号第201124917号 台湾特許公開番号第201035813号 台湾特許公開番号第201016185号
そこで、本発明は上記のような従来技術の問題点に鑑みて、鋭意研究を重ねた結果、以下の発明を完成するに至った。
本発明は、該スクリーンに表示された画面上の1つの位置を示し、利用者の目が該位置を注視している注視点座標を受信することと、該画面内のクリック可能なオブジェクトを得ることと、上記表示するクリック可能なオブジェクト内から上記注視点座標を含むクリック可能なオブジェクトを見つけ出すことと、カーソルを見付けた該クリック可能なオブジェクトに移動させ、好しくは該クリック可能なオブジェクトの中心部に移動させることと、を含むスクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法を提供する。
上記該画面内のクリック可能なオブジェクトを得ることについて、画面内の一番下のレイヤの親ウインドウを取得すること、画面内の注視点座標を含む一番上のレイヤの子ウインドウをサーチすることと、該一番上のレイヤの子ウインドウにあるクリック可能なオブジェクトを見つけ出すステップで達成できる。
この他に、該注視点座標を含むクリック可能なオブジェクトを見付からない状況において、該注視点座標を中心とし、複数の該注視点座標を囲う付近座標帯を確立するステップと、いずれかのクリック可能なオブジェクトの座標が上記複数の付近座標帯にあるか否かについて上記クリック可能なオブジェクトの座標と付近座標帯を比較するステップと、複数のクリック可能なオブジェクトの座標が上記座標帯にある場合、上記該付近座標帯にある複数のクリック可能なオブジェクトのうちのどのクリック可能なオブジェクトの中心点座標が注視点座標に一番近いかを比較するステップと、該カーソルを注視点座標までの距離が一番近いクリック可能なオブジェクトの中心点座標に移動するステップとを実行できる。具体的に言うと、それら付近座標帯は計8つの点があり、且つ、うちの4つの点が各々該正方形の4つの頂角に位置し、他の4つの点が各々該正方形の各辺長の間中に位置する。この他に、前記の比較を行う時、付近座標帯上の8つの点座標のみを比較することで、クリック可能なオブジェクトの座標がこの8つの点座標にあるか否かを判断し、1個のクリック可能なオブジェクトのみが上記8つの点座標にある場合、カーソルを該クリック可能なオブジェクト上の中心部に移動させる。複数のクリック可能なオブジェクトが上記8つの点座標にある場合、上記複数のクリック可能なオブジェクトのうちのどのクリック可能なオブジェクトの中心座標が、該注視点座標に一番近いかを比較し、カーソルを、該注視点座標までの距離が一番近いクリック可能なオブジェクト上の中心部に移動させる。
本発明は、上記スクリーンと画像取込み装置とを含み、画像処理プロセスとカーソル位置決め処理プロセスを実行できるコンピュータシステムを提供する。該画像処理プロセスの実行を通じて、該コンピュータシステムは該画像取込み装置で撮影した画像に基づき上記注視点座標を算出でき、次に該カーソル位置決め処理プロセスを実行する。該カーソル位置決め処理プロセスは、上記本発明に係わる方法で記載されている各ステップを含む。
本発明は、更にコンピュータで読み込むことができるメディアを含むコンピュータプログラム製品を提供する。該コンピュータで読み込むことができるメディアは、上記本発明に係わる方法を実行させることができるプログラムコードを有する。
本発明は、利用者がスクリーン上の1つの位置を注視した時、該スクリーン内のカーソルを制御して該位置を占拠する1個のクリック可能なオブジェクトの中央部、若しくは該位置までの距離が一番近い1個のクリック可能なオブジェクトの中央部に迅速に移動させ、これを介して該利用者が目でコンピュータを使用できるという利便性を促進する。
本発明の上記特徴と利点を更に明確で理解してもらうため、以下に実施例を挙げ、添付する図面を基に詳細な説明を行う。
本発明に係るコンピュータシステムの好ましい実施例の操作を示す図である。 本発明に係るコンピュータシステムの一例を示すシステムブロック図である。 本発明に係るコンピュータシステムがそのスクリーン内に表示する見本画面の一例を示す図である。 本発明に係る方法に使用する各ステップを説明するためのフローチャートの一例を示す図である。 本発明に係る方法に使用する各ステップを説明するためのフローチャートの一例を示す図である。 本発明に係る方法に使用する各ステップを説明するためのフローチャートの一例を示す図。 本発明に係る、付近座標帯の一例を示す図である。
本発明に係るコンピュータシステム1の好ましい実施例の操作を図1を参照しながら説明する。該コンピュータシステム1は、スクリーン10と画像取込み装置11と上記スクリーン10の裏にある一コンピュータ動作メカニズムとを備える。図2は、該コンピュータシステム1を示すシステムブロック図である。該コンピュータ動作メカニズムは、中央処理装置(CPU)及びランダムアクセスメモリ(RAM)の処理コアを有する処理ユニット100と、ストレージユニット101(例えばハードディスク)と、周辺接続インターフェース102(例えばネットワークカードインターフェース)と、を含むものとするが、これに限定されることはない。該ストレージユニット101内には、グラフィカルユーザインターフェース(GUI)のOS、例えばWindows(登録商標)OSと、該処理ユニット100が画像処理プロセス及びカーソル位置決め処理プロセスを実行させることができるプログラムコードを保存している。該コンピュータシステム1がプログラムコードをロードすると共に実行するために、これらプログラムコードを、予めコンピュータで読み込むことができるメディア(例えば光ディスク)にダビングさせることも可能である。
画像取込み装置11は、該周辺接続インターフェイス102を経由して該処理ユニット100に接続される。画像取込み装置11は、主にCCD或いはCOM撮影ユニット111(図1参照)と2組の赤外線LED光源110(図1参照)とを含む。上記2組の赤外線LED光源110を先に利用者の顔に照射してから該撮影ユニット111で該利用者を撮影することで、画像取込み装置11は、目を含む画像を連続して取得する。
該ストレージユニット101は、グラフィカルユーザインターフェース(GUI)のOS、例えばWindows(登録商標)OSを保存しており、また該ストレージユニット101は、該処理ユニット100が画像処理プロセス及びカーソル位置決め処理プロセスを実行させることができるプログラムコードを保存している。該コンピュータシステム1がロードすると共に実行するために、これらプログラムコードを予めコンピュータで読み込むことができるメディア(例えば光ディスク)にダビングさせることも可能である。コンピュータシステム1は、該OSの下で操作され、また該スクリーン10を通じてカーソル3(或いはマウスポインタと称す)と複数のクリック可能なオブジェクト200を表示する。
図3は、図1のスクリーン10内の画面210を示している。画面210は複数のオブジェクトからなり、例えば1つの一番下のレイヤの親ウインドウ20、複数の子ウインドウ21、22及び複数のクリック可能なオブジェクト200を表示する。この実施例において、一番下のレイヤの親ウインドウ20は、実質上Windowsデスクトップ(desktop)であり、子ウインドウ22が一番上のレイヤの子ウインドウである。また上記クリック可能なオブジェクト200が一番下のレイヤの親ウインドウ20内にある複数のアイコン(Icon)である。各ウインドウ20、21と22に属する各々ボタン、スクロールバーは、各種クリックにより、ウインドウ20、21と22をそれぞれコントロールする。上記画面210内にある全てのオブジェクトは、クリック可能なもの又はクリック不可能なもの、更に隠蔽されているものを問わず、いずれもアプリケーションプログラムインターフェース(Application Programming Interface、API)を通じてOSが提供する資源内からこれらオブジェクトの属性、イベント等の情報を取得できる。前記クリック可能なオブジェクト200に関しては、アイコン(Icon)を例とすると、取得可能な属性は左上隅の座標、長さ・幅の寸法を含むものとするが、これに限定されることはなく、これら情報を取得すると、1つのアイコン(Icon)が画面210内を占拠する位置とその範囲を知ることができる。同じように、例えばボタン等その他のクリック可能なオブジェクト200が画面210内を占拠する位置と範囲も得ることができる。
筋萎縮性側索硬化症或いは筋萎縮症、脳性麻痺、脊髓の損傷、多発性硬化症を患い、又は脳卒中により四肢を動かせない、更には話すことができない特定疾患患者は、眼球だけを動かすことができるが、一般の人々が行うように、マウスでカーソルを移動させると共に画面210上の任意のクリック可能なオブジェクト200をクリックしようとすることは困難である。本発明に係わる方法を行うことで、この種の特定疾患患者が目でカーソル3を制御して、クリックしようとするクリック可能なオブジェクト200に迅速にカーソル3を移動させることができる。そして該特定疾患患者の凝視方式で該クリック可能なオブジェクト200(目で該クリック可能なオブジェクトをクリックすることに相当)をトリガーすることで、該クリック可能なオブジェクト200に対応するアプリケーションプログラム或いは機能が起動する。
図1、図3に示すように、利用者(上記特定疾患患者を例とする)は、該スクリーン10を見ると共に例えば1個のアイコン(Icon)のような1個のクリック可能なオブジェクト200aをクリックしようとする時、目で画面210内のクリック可能なオブジェクト200aを注視し、実質的にスクリーン10内の1つの位置を注視する。上記コンピュータシステム1は、画像取込み装置11を通じて該利用者の顔を、目を含んだ画像として撮影することができる。次に、コンピュータシステム1は、上述に言及した画像処理プロセスの実行を介して上記画像取込み装置11から得られた画像を分析と処理することで、画面210上の注視点座標を演算して取得する。この画面210上の注視点座標を得るプロセスは、例えば特許文献1、特許文献2、特許文献3及び特許文献4などのような従来の技術で開示される一部の技術内容で運用することも可能である。上記注視点座標は、スクリーン10の画面210上の1つの位置を表わす。利用者は、クリック可能なオブジェクト200aを注視していると自ら感じているが、上記画像に基づいて算出した該注視点座標を表わす位置が、クリック可能なオブジェクト200aの座標或いは占拠する範囲内にちょうど位置するわけではない。しかしながら、本発明では、コンピュータシステム1が算出した該注視点座標を、利用者が注視する1つの位置であるとする。
コンピュータシステム1が、演算して注視点座標を得た後、次に上述に言及したカーソル位置決め処理プロセスを実行する。このプロセスは、具体的に本発明に係わる方法における一連のステップである。図4は、本発明に係わる方法の好ましい実施例のフローチャートである。図4は本発明のスクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法が開示され、その方法には以下のステップを含む。尚、以下の示す各フローチャートは、主に処理ユニット100が実行する。
a)上記注視点座標を受信する。
b)スクリーン10内に表示された画面210のクリック可能なオブジェクト200情報を得る。
c)上記表示されるクリック可能なオブジェクト200内から上記注視点座標を含むクリック可能なオブジェクト200を見つけ出す。
d)該カーソル3を、見付けたクリック可能なオブジェクト200の上に移動させる。
ステップbにおいて、主にスクリーン10の画面210にある全てのオブジェクトを得る。これらオブジェクトは、利用者の目で見た画面が構成される。これらオブジェクト属性の読み取りを通じて、例えば不可視オブジェクト、寸法が0のオブジェクトなど、ニーズに適していないオブジェクトとの識別を行うことができる。これらのニーズに適しないオブジェクトを排除した後、例えばアイコン(Icon)、ボタン等のクリック可能なオブジェクト200が残る。現在スクリーン10に表示される画面210は、図3に示すように複数の子ウインドウ21、22を含む場合、図5に示す以下のステップを通じて画面210内に表示されるクリック可能なオブジェクト200情報を得る。
b1)画面210内の一番下のレイヤの親ウインドウ20を取得する。
b2)画面210内の注視点座標を含む一番上のレイヤの子ウインドウ22をサーチする。
b3)一番上のレイヤの子ウインドウ22内のクリック可能なオブジェクト200を見つけ出す。これらは ステップb内で言及したクリック可能なオブジェクト200である。
図4のステップcにおいて、該注視点座標と各クリック可能なオブジェクト200の座標及びオブジェクト200が占拠する範囲を比較すると、該注視座標がどのクリック可能なオブジェクト200にあるかが分かり、こうすると該注視点座標を含むクリック可能なオブジェクト200を見つけ出すことができる。
図4のステップdにおいて、好ましい実施例は、カーソル3を、見つけ出したクリック可能なオブジェクト200上の中心部に自動で移動させる。こうすることで該利用者は、カーソル3を、注視しているクリック可能なオブジェクト200の上に移動されることが明確に分かる。
上記に従うと、ステップcにおいて該注視点座標を含むクリック可能なオブジェクト200を見つけ出すことができるが、該注視点座標が任意のクリック可能なオブジェクト200の範囲に無いなど、見付からない状況が起きる可能性がある。この状況において、更に図6に示す以下のステップを実行できる。
c1) 該注視点座標を中心とし、複数の該注視点座標を囲う付近座標帯を確立する。
c2) いずれかのクリック可能なオブジェクト200の座標が上記複数の付近座標帯にあるか否かを判定するため、上記クリック可能なオブジェクト200の座標と付近座標帯を比較する。複数のクリック可能なオブジェクト200の座標が上記座標帯にある場合、上記該付近座標帯にある複数のクリック可能なオブジェクト200のうち、どのクリック可能なオブジェクト200の中心点座標が、注視点座標に一番近いかを比較する。
c3) 該カーソル3を注視点座標までの距離が一番近いクリック可能なオブジェクト200の中心点座標に移動させる。
好しくは、ステップc1において、それら付近座標帯は、画面210において注視点座標を中心とする1つの正方形であり、本例では具体的に図7に示す通りとする。好ましい実施例において、上記付近座標帯で形成される正方形の面積を20pixelとすることができる。それら付近座標帯は、計8つの点で且つ、うちの4つの点A〜Dが各々該正方形の4つの頂角に位置し、他の4つの点E〜Hが各々該正方形の各辺長の間中に位置する。好ましい実施例において、ステップc2は付近座標帯上のA−Hの8つの点座標のみにクリック可能なオブジェクト200の座標があるか否かを比較する。1個のクリック可能なオブジェクト200が上記8つの点座標にある場合、直接カーソル3が該クリック可能なオブジェクト200上の中心部に移動する。複数のクリック可能なオブジェクト200が上記A−Hの8つの点座標にある場合、上記複数のクリック可能なオブジェクト200のうちのどのクリック可能なオブジェクト200の中心座標が、該注視点座標に一番近いかを比較し、またカーソル3を、該注視点座標までの距離が一番近いクリック可能なオブジェクト200上の中心部に移動させる。
ステップc1〜c2を経た後、該注視点座標までの距離が一番近い任意のクリック可能なオブジェクト200が見付からない場合、カーソル3の移動操作を実行しない。この時、コンピュータシステム1は、更に画像取込み装置11を通じて改めて該利用者の画像を撮影し直し、次に上記画像処理プロセス及びカーソル位置決め処理プロセスを再実行する。カーソル3を該注視点座標が位置するクリック可能なオブジェクト200、若しくは該注視点座標までの距離が一番近いクリック可能なオブジェクト200上に移動すると、利用者は凝視方式を通じて該クリック可能なオブジェクト200をトリガーできる。本発明の一好ましい実施例において、コンピュータシステム1は画面210の側辺に1個の機能ウインドウを表示し、該機能ウインドウ内に複数の図案を設ける。複数の図案は、各々1つの特定操作機能を表わす。これら機能は、例えばマウスの左ボタンシングルクリックをシミュレーションする機能、マウスの右ボタンシングルクリックをシミュレーションする機能、マウスドラッグ&ドロップ動作をシミュレーションする機能、ズームをシミュレーションする機能等である。これら機能は、凝視方式でトリガーする。
上記の説明から分かるように、本発明は、利用者がオブジェクト位置に照準することを効果的に補助できる。従来の技術では、ウインドウ画面に多くのオブジェクトを配置した場合、コンピュータシステムでは、カーソルの位置決めエラーを非常に起こしやすく、利用者がクリックしたくないオブジェクト位置に位置決めしてしまう。利用者もオブジェクトが多すぎて、多くの集中力及び時間を照準或いはオブジェクト位置決めに掛けることとなる。本発明に係わるカーソル位置決め方式により、カーソル照準の正確性をアップすると共に利用者のオブジェクトに照準する時間を節約できる。
本発明は、実施例に基づいて以上の通り開示するが、本実施例はあくまで一例であり、この例によって何ら制限されるものではない。本発明の精神と範囲から逸脱することなく上記の実施形態を様々に変更できるのは、当業者には明らかである。したがって、 本発明の範囲は、下記の特許請求の範囲及びその法的効力によって決定されるべきである。
1 コンピュータシステム
10 スクリーン
100 処理ユニット
101 ストレージユニット
102 周辺接続インターフェース
11 画像取込み装置
110 赤外線LED光源
111 撮影ユニット
200、200a クリック可能なオブジェクト
20 一番下のレイヤの親ウインドウ
21、22 子ウインドウ
210 画面
3 カーソル

Claims (8)

  1. スクリーンに表示された画面であって、親ウインドウと複数の子ウインドウとからなる画面上の1つの位置を示し、利用者の目が前記位置を注視している注視点座標を受信するステップと、
    前記親ウインドウと複数の子ウインドウ内の第1のクリック可能なオブジェクト全ての情報を得るステップと、
    画面上の親ウインドウの情報を取得するステップと、
    複数の子ウインドウのうち画面の一番上のレイヤにある子ウインドウであり、該子ウインドウの情報として前記注視点座標を含んでいる子ウインドウをサーチするステップと、
    前記第1のクリック可能なオブジェクトから一番上のレイヤの子ウインドウ内の第2のクリック可能なオブジェクトを決定するステップと、
    前記注視点座標を含む前記第2のクリック可能なオブジェクトを1つ見つけ出すステップと、
    カーソルを、前記1つの第2のクリック可能なオブジェクトに移動させるステップと、
    を含む、スクリーン内のカーソルを、クリック可能なオブジェクトに移動させる方法。
  2. 前記カーソルを、前記1つの第2のクリック可能なオブジェクトの中心部に移動させる請求項1に記載の方法。
  3. 前記1つの第2のクリック可能なオブジェクトを見付からない場合、
    前記注視点座標を囲う付近座標帯を確立するステップと、
    いずれかの前記第1のクリック可能なオブジェクトの座標が前記付近座標帯にあるか否かを判定するため、前記第1のクリック可能なオブジェクトの座標と前記付近座標帯を比較するステップと、
    複数の前記第1のクリック可能なオブジェクトの座標が前記付近座標帯にある場合、前記付近座標帯にある複数の前記第1のクリック可能なオブジェクトのうちのどの第1のクリック可能なオブジェクトの中心点座標が、前記注視点座標に一番近いかを選択するステップと、
    前記カーソルを、選択される前記第1のクリック可能なオブジェクトの中心点座標に移動するステップと、
    を実行する請求項1乃至2のうちのいずれか1項に記載の方法。
  4. 前記付近座標帯は、計8つの点があり、且つ、うちの4つの点が各々正方形の4つの頂角に位置し、他の4つの点が各々前記正方形の各辺長の間中に位置する請求項3に記載の方法。
  5. 比較を行う時、前記第1のクリック可能なオブジェクトの座標と前記付近座標帯上の8つの点座標とを比較することで、いずれの前記第1のクリック可能なオブジェクトの座標が前記8つの点座標にあるか否かを判断する、請求項4に記載の方法。
  6. 前記カーソルを、選択した前記第1のクリック可能なオブジェクトの中心部に移動することを特徴とする請求項3に記載の方法。
  7. 画像取込み装置によって利用者の顔を撮影して目を含む画像を取得するコンピュータシステムであって、
    前記画像取込み装置によって撮像される画像を取得する取得部と、
    前記画像から、前記コンピュータシステムの画面上の1つの位置を表わした注視点座標であり、ユーザが注視した座標を算出するために、請求項1に記載の方法内のステップを実行する処理ユニットを含むコンピュータシステム。
  8. コンピュータに実行させるためのプログラムであり、
    コンピュータで読み込むことができるメディアに記憶され前記コンピュータに請求項1に記載の方法を実行させるためのプログラム。
JP2013216902A 2013-06-03 2013-10-18 スクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法及び該方法を実現するために用いるコンピュータシステムとコンピュータプログラム Active JP5766763B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW102119654 2013-06-03
TW102119654A TWI509463B (zh) 2013-06-03 2013-06-03 一種使螢幕中的游標移至可按物件的方法及用於實現該方法的電腦系統與電腦程式產品

Publications (2)

Publication Number Publication Date
JP2014235729A JP2014235729A (ja) 2014-12-15
JP5766763B2 true JP5766763B2 (ja) 2015-08-19

Family

ID=49447997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013216902A Active JP5766763B2 (ja) 2013-06-03 2013-10-18 スクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法及び該方法を実現するために用いるコンピュータシステムとコンピュータプログラム

Country Status (5)

Country Link
US (1) US20140359521A1 (ja)
EP (1) EP2811369A1 (ja)
JP (1) JP5766763B2 (ja)
CN (1) CN104216510B (ja)
TW (1) TWI509463B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017113757A1 (zh) * 2015-12-31 2017-07-06 北京小鸟看看科技有限公司 一种环绕式界面布局方法、三维沉浸式环境下内容切换方法和列表切换方法
CN107833263A (zh) * 2017-11-01 2018-03-23 宁波视睿迪光电有限公司 面部跟踪方法及装置
CN113544626A (zh) 2019-03-15 2021-10-22 索尼集团公司 信息处理装置、信息处理方法和计算机可读记录介质
US20230266817A1 (en) * 2022-02-23 2023-08-24 International Business Machines Corporation Gaze based text manipulation

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916370A (ja) * 1995-06-29 1997-01-17 Victor Co Of Japan Ltd 表示オブジェクト選択方式
JP2000047823A (ja) * 1998-07-31 2000-02-18 Shimadzu Corp 情報処理装置
US6664990B1 (en) * 1999-12-07 2003-12-16 International Business Machines Corporation Computer display pointer with alternate hot spots
US6717600B2 (en) * 2000-12-15 2004-04-06 International Business Machines Corporation Proximity selection of selectable item in a graphical user interface
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
JP3810012B2 (ja) * 2003-08-11 2006-08-16 株式会社日立ケーイーシステムズ 障害者用パソコン入力装置
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
JP2006285715A (ja) * 2005-04-01 2006-10-19 Konica Minolta Holdings Inc 視線検出システム
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
GB0618978D0 (en) * 2006-09-27 2006-11-08 Malvern Scient Solutions Ltd Method of employing gaze direction tracking for cursor control in a computer
TW201001236A (en) 2008-06-17 2010-01-01 Utechzone Co Ltd Method of determining direction of eye movement, control device and man-machine interaction system
TW201005651A (en) 2008-07-24 2010-02-01 Utechzone Co Ltd Page-turning method for electronic document through eyeball control and system thereof, pupil position determination method and pupil analysis module
TWI432172B (zh) * 2008-10-27 2014-04-01 Utechzone Co Ltd Pupil location method, pupil positioning system and storage media
TWI398796B (zh) 2009-03-27 2013-06-11 Utechzone Co Ltd Pupil tracking methods and systems, and correction methods and correction modules for pupil tracking
WO2010118292A1 (en) * 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
TWI447659B (zh) 2010-01-15 2014-08-01 Utechzone Co Ltd 瞳孔或臉部特徵對位方法與裝置
US8209630B2 (en) * 2010-01-26 2012-06-26 Apple Inc. Device, method, and graphical user interface for resizing user interface content
TWI419014B (zh) * 2010-12-10 2013-12-11 Acer Inc 防止誤觸控的方法

Also Published As

Publication number Publication date
US20140359521A1 (en) 2014-12-04
TW201447641A (zh) 2014-12-16
CN104216510A (zh) 2014-12-17
CN104216510B (zh) 2018-01-09
JP2014235729A (ja) 2014-12-15
TWI509463B (zh) 2015-11-21
EP2811369A1 (en) 2014-12-10

Similar Documents

Publication Publication Date Title
US9996983B2 (en) Manipulation of virtual object in augmented reality via intent
US11650659B2 (en) User input processing with eye tracking
Zhang et al. Sideways: A gaze interface for spontaneous interaction with situated displays
US9996155B2 (en) Manipulation of virtual object in augmented reality via thought
KR20150116897A (ko) Nui 관여의 검출
US20160349972A1 (en) Data browse apparatus, data browse method, and storage medium
JP5766763B2 (ja) スクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法及び該方法を実現するために用いるコンピュータシステムとコンピュータプログラム
JP2021514089A (ja) 物理的操作を用いたオブジェクト作成
US10395101B2 (en) Interest degree determination device, interest Degree determination method, and non-transitory computer-readable recording medium
Hohlfeld et al. On the applicability of computer vision based gaze tracking in mobile scenarios
JP2015152938A (ja) 情報処理装置、情報処理方法、及びプログラム
US10324582B2 (en) Medical image display apparatus, method for controlling the same
JP2020081280A (ja) 画像表示制御システム、画像表示システム及び画像解析装置
US11449701B2 (en) Non-transitory computer readable medium storing image processing program, image processing apparatus, and non-transitory computer readable medium storing program
TW543323B (en) Multiple camera control system
US11036352B2 (en) Information processing apparatus and information processing method with display of relationship icon
US10572722B2 (en) Display apparatus and display method
JP5762075B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10146904B2 (en) Methods and systems and dynamic visualization
US20220366560A1 (en) Measurement apparatus and measurement method
JP2018005815A (ja) 入力システム及びその入力装置
Brandon et al. Virtual Visit: A Web-based Assistive Interface for Touring Cultural Spaces Remotely
JP2024024307A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150224

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150617

R150 Certificate of patent or registration of utility model

Ref document number: 5766763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250