JP6092173B2 - Electronic device and operation method thereof - Google Patents
Electronic device and operation method thereof Download PDFInfo
- Publication number
- JP6092173B2 JP6092173B2 JP2014213572A JP2014213572A JP6092173B2 JP 6092173 B2 JP6092173 B2 JP 6092173B2 JP 2014213572 A JP2014213572 A JP 2014213572A JP 2014213572 A JP2014213572 A JP 2014213572A JP 6092173 B2 JP6092173 B2 JP 6092173B2
- Authority
- JP
- Japan
- Prior art keywords
- eye movement
- interface
- user
- pupil
- bright spot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000004424 eye movement Effects 0.000 claims description 105
- 210000001747 pupil Anatomy 0.000 claims description 54
- 238000001514 detection method Methods 0.000 claims description 47
- 230000006870 function Effects 0.000 claims description 45
- 210000001508 eye Anatomy 0.000 claims description 24
- 230000001939 inductive effect Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 210000005252 bulbus oculi Anatomy 0.000 description 10
- 230000000694 effects Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 2
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 206010002026 amyotrophic lateral sclerosis Diseases 0.000 description 1
- 206010008129 cerebral palsy Diseases 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 201000006417 multiple sclerosis Diseases 0.000 description 1
- 201000006938 muscular dystrophy Diseases 0.000 description 1
- 208000020431 spinal cord injury Diseases 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Input From Keyboards Or The Like (AREA)
- Eye Examination Apparatus (AREA)
Description
本発明は電子装置とその操作方法に関するものであり、特にアイトラッキング技術を組み込んだ電子装置とその操作方法に関するものである。 The present invention relates to an electronic device and an operation method thereof, and more particularly to an electronic device incorporating an eye tracking technique and an operation method thereof.
現在アイトラッキング技術は主に侵襲性(invasive)と非侵襲性(non-invasive)の2つに分けられる。侵襲性のアイトラッキング技術は主に眼球へのサーチコイルの設置もしくは眼電図(electrooculogram)の使用である。非侵襲性のアイトラッキング技術はフリーヘッド式もしくはヘッドマウント式に分けられる。科学技術の発達に伴い、アイトラッキング技術は例えば、神経科学,心理学,経営工学,人間工学,マーケティング広告,コンピューター科学など各分野において大幅に応用されている。 At present, eye tracking technology is mainly divided into two types, invasive and non-invasive. Invasive eye tracking techniques are mainly the placement of a search coil on the eye or the use of an electrooculogram. Non-invasive eye tracking technology can be divided into free head type or head mounted type. With the development of science and technology, eye tracking technology has been widely applied in various fields such as neuroscience, psychology, management engineering, ergonomics, marketing advertising, and computer science.
アイトラッキング技術は言語障害者や身体障害者のコミュニケーションを実行し必要なものを補助し、運動障害者に更に多大な利便性をもたらす。例えば、筋萎縮性側索硬化症,筋ジストロフィー,脳性麻痺,多発性硬化症,脳血管発作,脊髄損傷を患う運動障害者などにとって,アイトラッキング技術を組み込んだ電子製品の補助により、マウスの代わりに眼を用いてコミュニケーション,インターネット及びメディアの娯楽活動などを可能とする。 Eye tracking technology provides communication for disabled people and disabled people, assists them with what they need, and provides greater convenience for people with motor disabilities. For example, for ambulatory patients with amyotrophic lateral sclerosis, muscular dystrophy, cerebral palsy, multiple sclerosis, cerebrovascular attacks, spinal cord injury, etc. Enables communication, internet and media entertainment activities using the eyes.
しかしながら、上述の侵襲性と非侵襲性の2種類のアイトラッキング技術は高価なハードとソフトの設備が必要であり、さらに複雑な校正プログラムを必要とすることから、実行状態の安定性は良くなく、さらにコストも相当高く、アイトラッキング技術を普及させることができない。 However, the above-described two types of invasive and non-invasive eye tracking technologies require expensive hardware and software facilities, and further require a complicated calibration program, so the stability of the execution state is not good. Furthermore, the cost is considerably high, and the eye tracking technology cannot be spread.
これらの問題を解決するため、本発明の電子装置の操作方法は、複数の操作エリアを有するグラフィカルインターフェースを表示ユニットに表示するステップと、スキャンモードにおいて、スキャン順序に基づいて前記複数の操作エリアを逐一ハイライト表示とし、前記複数の操作エリアの中の一つがハイライト表示である時、その前の操作エリアのハイライト表示を取り消すステップと、スキャンモードにおいてトリガー信号を受信する時、スキャンプロセスを一時停止させ、選定エリアに対応するグループインターフェースを表示ユニットに表示し、その中の前記選定エリアはトリガー信号を受信する時、前記操作エリアハイライト表示のエリアとし、且つ、前記グループインターフェースは前記グラフィカルインターフェースの上層に表示され、前記グループインターフェースと前記グラフィカルインターフェースの両者のサイズは同じ、もしくは前記グループインターフェースのサイズは前記グラフィカルインターフェースのサイズより小さい、ステップと、眼球運動検出モジュールによって使用者の前記グループインターフェースにおける眼球運動を検出するステップと、眼球運動に基づいてグループインターフェースの複数の機能オプションから一つの機能オプションを選び操作を実行するステップであり、前記グラフィカルインターフェースが表示される前記複数の操作エリアの数は前記グループインターフェースが表示される前記複数の機能オプションの数より多い、ステップと、を含む。 In order to solve these problems, an operation method of an electronic device according to the present invention includes a step of displaying a graphical interface having a plurality of operation areas on a display unit; When one of the plurality of operation areas is highlighted, the step of canceling highlight display of the previous operation area and when receiving a trigger signal in the scan mode, the scanning process is performed. The group interface corresponding to the selected area is temporarily displayed on the display unit, and when the trigger signal is received, the selected area is set as the operation area highlighted display area , and the group interface is On top of the graphical interface Shown, both the size of the group interface and the graphical interface are the same, or the size of the group interface is smaller than the size of the graphical interface, the steps, the eye movement in the group interface of the user by the eye movement detecting module Detecting and selecting one function option from a plurality of function options of the group interface based on the eye movement and executing the operation , and the number of the plurality of operation areas in which the graphical interface is displayed is the group interface There greater than the number of said plurality of functional options that are displayed, comprising the steps, a.
本発明の1つの実施形態において、前記操作方法は、スキャンモードにおいてトリガー信号を受信する時、眼球運動検出モジュールを駆動して操作を実行する。 In one embodiment of the present invention, when the operation method receives a trigger signal in the scan mode, the operation method is performed by driving the eye movement detection module.
本発明の1つの実施形態において、前記眼球運動検出モジュールによって使用者のグループインターフェースにおける眼球運動を検出するステップは、像取得ユニットにより使用者のイメージシーケンスを取得し、イメージシーケンスの分析により眼球運動検出モジュールに使用者の眼球運動を追跡させるステップをさらに含む。 In one embodiment of the present invention, the step of detecting the eye movement at the user group interface by the eye movement detection module acquires an image sequence of the user by an image acquisition unit, and detects an eye movement by analyzing the image sequence. The method further includes causing the module to track the user's eye movement.
本発明の1つの実施形態において、該イメージシーケンスの分析により使用者の眼球運動を追跡させる前記ステップは、イメージシーケンスにおいて使用者の瞳孔の位置と発光ユニットの放射する光が使用者の目を照らして形成される反射点である輝点の位置を検出するステップと、瞳孔の位置と輝点の位置の間の水平距離が誤差範囲内である時、眼球運動が前方を直視していると判定し、瞳孔の位置と輝点の位置の間の水平距離が誤差範囲を超え、かつ瞳孔の位置が輝点の位置の左方に位置する時、眼球運動が左方への移動であると判定し、瞳孔の位置と輝点の位置の間の水平距離が誤差範囲を超え、かつ瞳孔の位置が輝点の位置の右方に位置する時、眼球運動が右方への移動であると判定し、瞳孔の位置と輝点の位置の垂直距離に基づいて眼球運動が上方へ移動であるか下方への移動であるかを判断するステップと、瞳孔の位置と輝点の位置の両者の位置対応関係によって、現在の眼球運動の注視点を判断するステップとをさらに含む。 In one embodiment of the present invention, the step of tracking the user's eye movement by analyzing the image sequence illuminates the user's eyes with the position of the user's pupil and the light emitted by the light emitting unit in the image sequence. The step of detecting the position of the bright spot, which is the reflection point formed in this way, and when the horizontal distance between the pupil position and the bright spot position is within the error range, it is determined that the eye movement is directly looking forward If the horizontal distance between the pupil position and the bright spot position exceeds the error range, and the pupil position is to the left of the bright spot position, the eye movement is determined to move to the left. When the horizontal distance between the pupil position and the bright spot position exceeds the error range, and the pupil position is located to the right of the bright spot position, the eye movement is determined to move to the right. And based on the vertical distance between the pupil position and the bright spot position A step of eye movement to determine whether a downward movement or a movement upward, the position relationship of both the position of the bright spot in the pupil, and determining the gaze point of the current eye movement Further included.
本発明の1つの実施形態において、前記眼球運動検出モジュールによって使用者の眼球運動を検出するステップの前に、使用者が見る表示ユニットの指定位置に導くことにより、眼球運動検出モジュールの基準情報を校正するステップをさらに含む。 In one embodiment of the present invention, before the step of detecting the eye movement of the user by the eye movement detection module, the reference information of the eye movement detection module is obtained by guiding the eye movement to the designated position of the display unit to be viewed by the user. The method further includes the step of calibrating.
本発明の1つの実施形態において、前記スキャンモードにおいて、眼球運動検出モジュールによって使用者の眼球運動を検出するステップと、眼球運動に基づいてトリガー信号を受信するかを判断するステップをさらに含む。 In one embodiment of the present invention, the scan mode further includes detecting a user's eye movement by the eye movement detection module and determining whether to receive a trigger signal based on the eye movement.
本発明の1つの実施形態において、前記トリガー信号は入力ユニットから発生する。 In one embodiment of the invention, the trigger signal is generated from an input unit.
本発明の1つの実施形態において、前記グラフィカルインターフェースが表示される複数の操作エリアの数はグループインターフェースが表示される複数の機能オプションの数より多く、且つ、グループインターフェースはグラフィカルインターフェースの上層に表示され、グループインターフェースとグラフィカルインターフェースの両者のサイズは同じ、もしくはグループインターフェースのサイズはグラフィカルインターフェースのサイズより小さい。 In one embodiment of the present invention, the number of operation areas in which the graphical interface is displayed is greater than the number of function options in which the group interface is displayed, and the group interface is displayed in an upper layer of the graphical interface. The size of both the group interface and the graphical interface is the same, or the size of the group interface is smaller than the size of the graphical interface.
また、本発明はさらに電子装置を提供する。この電子装置は、電子装置の使用者に向けて配置される像取得ユニットと、複数の操作エリアを有するグラフィカルインターフェースを表示する表示ユニットと、表示ユニットと像取得ユニットに接続され、複数のモジュールを実行する処理ユニットとを含む。前記複数のモジュールは、スキャンモジュールとインターフェース切替モジュールと眼球運動検出モジュールとを有する。スキャンモジュールは、スキャンモードにおいて、スキャン順序に基づいて前記複数の操作エリアを逐一ハイライト表示にし、且つ前記複数の操作エリア中の一つがハイライト表示である時、その前の操作エリアのハイライト表示を取り消す。インターフェース切替モジュールは、スキャンモードにおいてトリガー信号を受信する時、スキャンプロセスを一時停止させ、選定エリアが対応するグループインターフェースを表示ユニットに表示し、その中の選定エリアはトリガー信号を受信する時、前記複数の操作エリアのハイライト表示のエリアとする。眼球運動検出モジュールは、像取得ユニットを駆動して使用者のイメージシーケンスを取得し、イメージシーケンスの分析により使用者のグループインターフェースにおける眼球運動を検出し、且つ眼球運動に基づいて、グループインターフェースの複数の機能オプションから一つの機能オプションを選び、操作を実行する。この電子装置において、前記グラフィカルインターフェースが表示される前記複数の操作エリアの数は前記グループインターフェースが表示される前記複数の機能オプションの数より多く、且つ、前記グループインターフェースは前記グラフィカルインターフェースの上層に表示され、前記グループインターフェースと前記グラフィカルインターフェースの両者のサイズは同じ、もしくは前記グループインターフェースのサイズは前記グラフィカルインターフェースのサイズより小さくされている。
The present invention further provides an electronic device. The electronic device is connected to the image acquisition unit disposed toward the user of the electronic device, a display unit that displays a graphical interface having a plurality of operation areas, and the display unit and the image acquisition unit. Processing unit to be executed. The plurality of modules include a scan module, an interface switching module, and an eye movement detection module. In the scan mode, the scan module highlights the plurality of operation areas one by one based on the scan order, and highlights the previous operation area when one of the plurality of operation areas is highlighted. Cancel the display. The interface switching module temporarily stops the scanning process when receiving a trigger signal in the scan mode, and displays a group interface corresponding to the selected area on the display unit, and when the selected area receives the trigger signal, This area is a highlight display area of multiple operation areas. The eye movement detection module drives the image acquisition unit to acquire the user's image sequence, detects the eye movement in the user's group interface by analyzing the image sequence, and based on the eye movement, Select a function option from the function options and execute the operation. In this electronic device, the number of the plurality of operation areas in which the graphical interface is displayed is larger than the number of the function options in which the group interface is displayed, and the group interface is displayed on an upper layer of the graphical interface. The size of both the group interface and the graphical interface is the same, or the size of the group interface is smaller than the size of the graphical interface .
以上のように、本発明は電子装置とその操作方法を提供し、アイトラッキング技術に基づきグラフィカルインターフェースに対して簡便かつ快速な操作を実行できる。 As described above, the present invention provides an electronic device and an operation method thereof, and can perform a simple and quick operation on a graphical interface based on an eye tracking technique.
本発明の上述した特徴と利点を更に明確化するために、以下、幾つかの実施例を挙げて図面と共に詳細な内容を説明する。 In order to further clarify the above-described features and advantages of the present invention, several embodiments will be described below in detail with reference to the drawings.
図1は本発明の一実施例による電子装置のブロック図である。図1を参照すると、電子装置100は像取得ユニット110、表示ユニット120、処理ユニット130、及び記憶ユニット140を備える。像取得ユニット110は使用者のイメージシーケンスを取得するために、電子装置100の使用者に向けて配置される。例えば、像取得ユニット110は表示ユニット120の上方等に設置しても良く、さらに像取得ユニット110は表示ユニット120に内蔵もしくは表示ユニット120に外付けしても良い。像取得ユニット110は例えばCCDレンズ,CMOSレンズ或は赤外線レンズを有する撮影機/カメラである。
FIG. 1 is a block diagram of an electronic device according to an embodiment of the present invention. Referring to FIG. 1, the
表示ユニット120はグラフィカルインターフェースを表示し、使用者が表示ユニット120の画面を見て操作を実行する。表示ユニット120はどのような種類の表示装置でも良く、例えば液晶モニター,LEDモニター或はフレキシブルモニターである。本発明において、グラフィカルインターフェースは複数の操作エリアを有し、さらに各操作エリアは複数の機能オプションの集合であり、各操作エリアに対応するグループインターフェースを備える。
The
処理ユニット130は例えばCPU,画像処理ユニット(GPU),もしくはその他のプログラム可能なマイクロプロセッサ等の装置であり、像取得ユニット110、表示ユニット120及び記憶ユニット140に接続する。
The
記憶ユニット140は例えば任意の固定式もしくはリムーバブルのRAM,ROM,フラッシュメモリ,ハードディスク,その他の類似の装置もしくはこれらの装置の組合せである。本実施例において、記憶ユニット140は処理ユニット130が実行する複数のモジュールを保存する。これらのモジュールはスキャンモジュール141,インターフェース切替モジュール143及び眼球運動検出モジュール145を含む。さらに別の実施例では、スキャンモジュール141,インターフェース切替モジュール143、眼球運動検出モジュール145は一つもしくは複数のデジタル論理ゲートを組合せたチップでも良い。
The
また、記憶ユニット140はグラフィカルインターフェースのデータ及び複数のグループインターフェースのデータを保存する。グラフィカルインターフェースのデータはグラフィカルインターフェースのサイズ、表示される複数の操作エリアの各サイズ、及び各操作エリアはどこのグループインターフェースのデータに対応するかを定義する。即ち、一つの操作エリアは一つのグループインターフェースのデータに対応する。N個の操作エリアが設定されたなら、N個のグループインターフェースのデータに対応して設定される。また、各グループインターフェースのデータは、対応するグループインターフェースのサイズ、表示される機能オプションのサイズ及び各機能オプションに対応する機能が定義される。
The
スキャンモジュール141はスキャンモードにおいて、スキャン順序に基づいてグラフィカルインターフェースの複数の操作エリアをプリセット時間おきに逐一ハイライト表示にし、且つその中の一つの操作エリアをハイライト表示にする時、その前の操作エリアのハイライト表示を取り消す。前記スキャン順序は例えば左から右、それから上から下、しかしながら本発明においてはこれに制限しない。インターフェース切替モジュール143はスキャンモードにおいて電子装置100がトリガー信号を受信する時、前記操作エリアのハイライト表示のエリアを選定エリアとし、選定エリアに対応するグループインターフェースを表示ユニット120に表示する。眼球運動検出モジュール145は像取得ユニット110を駆動し使用者のイメージシーケンスを取得し、且つ眼球運動に基づいて、グループインターフェースの複数の機能オプションから一つ選び操作を実行する。
In the scan mode, the
以下に前記電子装置100と併せてその操作方法の各ステップを説明する。図2A及び図2Bは本発明の一実施例による電子装置の操作方法のフローチャート図である。図1と図2Aを参照すると、まずステップS205において表示ユニット130はグラフィカルインターフェースを表示ユニット120に表示し、前記グラフィカルインターフェースは複数の操作エリアを有する。例えば、処理ユニット130は記憶ユニット140からグラフィカルインターフェースのデータを読み取り、グラフィカルインターフェースのデータの定義に基づいてグラフィカルインターフェースを表示する。本発明において、グラフィカルインターフェースは例えば表示ユニット120のすべての画面を占めるものであり、画面は4×3,6×4,5×5等の方式で区切られた12,24,25個等の操作エリアとなる。しかしながら、前記複数の操作エリアは例を説明しただけであり、本発明においてはこれに制限しない。
Hereinafter, each step of the operation method will be described together with the
グラフィカルインターフェースを表示した後、処理ユニット130はスキャンモジュール141を起動し、ステップS210に示すように、スキャンモジュール141はスキャンモードにおいて、スキャン順序に基づきグラフィカルインターフェースの複数の操作エリアを逐一ハイライト表示にする。例えば、目標とする操作エリアを他の操作エリアとは違う色で現したり、もしくは目標とする操作エリアを立体効果,陰影効果,或いは浮きあがり効果等で現す。さらにスキャンモジュール141はその中の一つの操作エリアをハイライト表示とする時、その前の操作エリアのハイライト表示を取り消す。
After displaying the graphical interface, the
例を挙げると、図3A〜図3Dは本発明の一実施例によるスキャン順序に基づいてグラフィカルインターフェースの複数の操作エリアを逐一ハイライト表示にする部分的なプロセスの概略図である。本実施例において、グラフィカルインターフェース300は24個の操作エリアA1〜A6,B1〜B6,C1〜C6,D1〜D6を有し、スキャン順序は左から右に、それから上から下である。最初に、図3Aが示すように、スキャンモジュール141は操作エリアA1をハイライト表示にする。本発明において、ハイライト表示は目標とする操作エリアの外枠を太い黒枠で表示する。しかしながら、他の実施例においては目標とする操作エリアを立体表示にしても良く、本発明においてはこれに制限しない。
For example, FIGS. 3A-3D are schematic views of a partial process for highlighting a plurality of operating areas of a graphical interface step by step based on a scan order according to one embodiment of the present invention. In this embodiment, the
プリセット時間が経過した後、図3Bが示すように、スキャンモジュール141は操作エリアA1の右方の操作エリアA2をハイライト表示にし、操作エリアA1のハイライト表示を取り消す。次のプリセット時間が経過した後、図3Cが示すように、スキャンモジュール141は操作エリアA3をハイライト表示にし、操作エリアA2のハイライト表示を取り消す。さらに次のプリセット時間が経過した後、図3Dが示すように、スキャンモジュール141は操作エリアA4をハイライト表示にし、操作エリアA3のハイライト表示を取り消す。ここから類推すると、操作エリアA1〜A6を逐一ハイライト表示にした後、スキャンモジュール141は下の一列の操作エリアB1〜B6を逐一ハイライト表示にし、続いて、さらに下の一列の操作エリアC1〜C6を逐一ハイライト表示にし、最後に一番下の列の操作エリアD1〜D6を逐一ハイライト表示にする。前記プロセスはスキャンモードにおけるグラフィカルインタフェース300の表示方式である。また、前記プリセット時間は例えば0.5秒や1秒であり、使用者がプリセット時間の長さを自分で設定できる。
After the preset time has elapsed, as shown in FIG. 3B, the
図2Aを再び参照すると、ステップS215では、処理ユニット130がスキャンモードにおいてトリガー信号を受信する時、インタフェース切替モジュール143によって選定エリアに対応するグループインターフェースを表示ユニット120に表示する。前記選定エリアはトリガー信号を受信する時、前記複数の操作エリアのハイライト表示のエリアであることを指す。つまり、各操作エリアは全て対応するグループインターフェースを有し、さらに各グループインターフェースは複数の機能オプションを有する。
Referring back to FIG. 2A, in step S215, when the
具体的には、図2Bを参照すると、ステップS215はステップS231〜S233に細かく分けられ、ステップS231において、処理ユニット130はスキャンモードにおいてトリガー信号を受信するかを判断する。本発明において、トリガー信号はマウス,キーボード或はボタン等入力ユニットにより発生する。もしくは、眼球運動検出モジュール145によって該眼球運動を検出し、さらに眼球運動に基づいてトリガー信号を受信するかを判断する。トリガー信号を受信していない場合、スキャンモードを維持し、各操作エリアを逐一ハイライト表示にし、トリガー信号を受信するかを引き続き検出する。
Specifically, referring to FIG. 2B, step S215 is subdivided into steps S231 to S233, and in step S231, the
トリガー信号を受信する場合、ステップS232のように、インターフェース切替モジュール143はトリガー信号を受信する時、ハイライト表示の操作エリアを選定エリアとする。続いて、ステップS233において、インターフェース切替モジュール143は選定エリアに対応するグループインターフェースを表示する。
When receiving the trigger signal, as in step S232, when the
図3Dの操作エリアA4を選定エリアとすることを例にする、即ち、スキャンモードにおいて、操作エリアA4がハイライト表示である時トリガー信号を受信すると、操作エリアA4を選定エリアとし、さらに、操作エリアA4が対応するグループインターフェースを表示ユニット120に表示する。本発明において、グラフィカルインターフェースに表示される複数の操作エリアの数はグループインターフェースに表示される複数の機能オプションの数より多い。さらに、グループインターフェースはグラフィカルインターフェースの上層に表示される。また、グループインターフェースとグラフィカルインターフェースの両者のサイズは同じでも良く、もしくはグループインターフェースのサイズはグラフィカルインターフェースのサイズより小さい。
The operation area A4 in FIG. 3D is taken as an example of selection. That is, when a trigger signal is received when the operation area A4 is highlighted in the scan mode, the operation area A4 is selected as the selection area. The group interface corresponding to the area A4 is displayed on the
例えば、インターフェース切替モジュール143は記憶ユニット140から操作エリアA4が対応するグループインターフェースのデータを読み取り、グループインターフェースのサイズ、表示される機能オプションのサイズ及び各機能オプションが対応する機能を取得し、それらをグループインターフェースに表示する。下記に3つの例を用いてグループインターフェースの表示を説明する。しかしながら、本発明においてはこれに制限しない。
For example, the
図4Aから図4Cは本発明の一実施例によるグループインターフェースの概略図である。図4Aのグループインターフェース410は垂直に展開され、グラフィカルインターフェース300の上層に位置し、そのサイズはグラフィカルインターフェース300より小さい。グループインターフェース410は機能オプションF1〜機能オプションF3を有する。図4Bのグループインターフェース420は水平に展開され、グラフィカルインターフェース300の上層に位置する。グループインターフェース420は機能オプションF1〜機能オプションF3を有し、そのサイズはグラフィカルインターフェース300より小さい。図4A及び図4Bのグループインターフェース410及び420のように表示される時、使用者は最下層のグラフィカルインターフェース300の遮られていない操作エリアを見ることができる。本発明において、機能オプションF1〜機能オプションF3は一つのグループに集積され、且つ操作エリアA4に対応する。スキャンモードにおいて操作エリアA4を選択する時、それに対応するグループの機能オプションF1〜F3が表示される。
4A to 4C are schematic views of a group interface according to an embodiment of the present invention. The
図4Cのグループインターフェース430はフルスクリーン方式で展開され、そのサイズとグラフィカルインターフェース300のサイズはほぼ同じである(他の実施例においては完全に同じでも良い)、さらにグループインターフェース430はグラフィカルインターフェース300の上層に位置する。グループインターフェース430はフルスクリーン方式で展開されるために、表示できる機能オプションの数は図4A及び図4Bのグループインターフェース410及び420が示す数より多い。ここで、グループインターフェース430は機能オプションF1〜機能オプションF9を有する。
The
図2Aを再び参照すると、グループインターフェースを開いた後、ステップS220において、眼球運動検出モジュール145によって使用者の眼球運動を検出する。具体的には、トリガー信号を受信する時、眼球運動検出モジュール145を駆動して操作を実行する。即ち、像取得ユニット110により使用者のイメージシーケンスを取得し、イメージシーケンスの分析により眼球運動検出モジュール145に使用者の眼球運動を追跡させる。例を挙げると、図2BのステップS241とS242を参照すると、ステップS241において、眼球運動検出モジュール145はイメージシーケンスにおいて使用者の瞳孔の位置と輝点の位置を検出する。前記輝点の位置とは発光ユニットの放射する光が使用者の目を照らして形成される反射点のことである。続いて、ステップS242において、眼球運動検出モジュール145は瞳孔の位置と輝点の位置の両者の位置対応関係によって、現在の眼球運動の注視点を判断し、注視点により使用者が選択したい機能オプションが何であるかを判断する。しかしながら、前記注視点の判断は一つの実行方式であり、白目と眼球との間の比率により瞳孔の変位を判断することで注視点を取得しても良く、本発明においてはこれに制限しない。
Referring back to FIG. 2A, after opening the group interface, the eye movement of the user is detected by the eye
最後に、ステップS225において、眼球運動に基づいて、処理ユニット130はグループインターフェースの複数の機能オプションから一つ選び操作を実行する。例えば、図4Aのグループインターフェース410を例とすると、眼球運動検出モジュール145は使用者の注視点が機能オプションF1に位置すると検出する時、処理ユニット130は機能オプションF1が対応する機能を実行する。
Finally, in step S225, based on the eye movement, the
また、眼球運動検出モジュール145の実行時間はスキャンモードにおいてトリガー信号を受信する時でも良く、処理ユニット130は眼球運動検出モジュール145を駆動し操作を実行する。つまり、スキャンモードにおいて、眼球運動検出モジュール145が眼球運動を検出することはない。また、前記トリガー信号は例えばマウス,キーボード,或いはボタン等の入力ユニットにより発生し、処理ユニット130は埋込式制御ユニットによって入力ユニットからトリガー信号を受信するかを判断しても良い。
The execution time of the eye
例えば、図5は本発明の一実施例による別の電子装置のブロック図である。本実施例において、前述した図1の電子装置100に相当する機能は相当する符号により標示され、関連の説明を省略する。電子装置500は埋込式制御ユニット510及び入力ユニット520を含む。
For example, FIG. 5 is a block diagram of another electronic device according to one embodiment of the present invention. In the present embodiment, the functions corresponding to the
埋込式制御ユニット510は処理ユニット130及び入力ユニット520に接続される。処理ユニット130は埋込式制御ユニット510によって入力ユニット520からトリガー信号を受信するかを判断し、さらに、トリガー信号を受信する時メッセージをスキャンモジュール141及びインターフェース切替モジュール143に伝送し、スキャンモジュール141にスキャンプロセスを一時停止させ、インターフェース切替モジュール143により選定エリアに対応するグループインターフェースを表示ユニット120に表示する。
The embedded
また、処理ユニット130もスキャンモードにおいて眼球運動検出モジュール145を駆動し使用者の眼球運動を検出し、その検出結果に基づいてトリガー信号を受信するかを判断する。さらに、処理ユニット130は眼球運動に基づいてトリガー信号を受信したことを判断する時、メッセージをスキャンモジュール141及びインターフェース切替モジュール143に伝送し、スキャンモジュール141にスキャンプロセスを一時停止させ、インターフェース切替モジュール143により選定エリアに対応するグループインターフェースを表示ユニット120に表示する。例えば、処理ユニット130は、眼球運動検出モジュール145に検出された眼球運動がウィンクである時、トリガー信号が受信されたと判断する。しかしながら、本発明においてはこれに制限しない。スキャンモードにおけるトリガー信号は入力ユニット520から発生する、もしくは使用者の眼球運動に基づいて発生する、または音声制御により発生しても良い。
The
下記に再度例を用いて眼球運動を検出する実施方法を説明する。 An implementation method for detecting eye movement will be described below again using an example.
ここで、像取得ユニット110によって使用者のイメージシーケンスを取得し、イメージシーケンスの分析により眼球運動検出モジュール145に使用者の眼球運動を追跡させる。例えば、眼球運動検出モジュール145はイメージシーケンスにおいて使用者の瞳孔の位置と輝点の位置を検出し、さらに瞳孔の位置と輝点の位置の両者の位置対応関係によって、現在の眼球運動の注視点を判断する。前記輝点の位置とは発光ユニットの放射する光が使用者の目を照らして形成される反射点のことである。
Here, the user's image sequence is acquired by the
具体的には、像取得ユニット110は眼のイメージを撮影し、さらに像取得ユニット110内は発光ユニットを内蔵し、光を使用者の目に放射し、撮影されるイメージの中に反射点を生じさせる。これにより、眼球運動検出モジュール145は光が使用者の目を照らして形成される反射点である輝点の位置と瞳孔の位置の両者の位置対応関係を単純に利用して注視点を判断する。
Specifically, the
例えば、使用者の眼球が前方を直視する時、目のイメージにおいて瞳孔の位置と輝点の位置は垂直線上にほぼ位置する、即ち、瞳孔の位置と輝点の位置の水平距離は誤差の範囲内にある。そのため、瞳孔の位置と輝点の位置の水平距離が上述の誤差範囲を超え、かつ瞳孔の位置が輝点の位置の左方に位置する時、使用者の眼球が左方に移動することを示す。また、瞳孔の位置と輝点の位置の水平距離が上述の誤差範囲を超え、かつ瞳孔の位置が輝点の位置の右方に位置する時、使用者の眼球が右方に移動することを示す。また、瞳孔の位置と輝点の位置の垂直距離に基づいて眼球が上方もしくは下方に移動するかを判断する。 For example, when the user's eyeball is looking directly forward, the pupil position and the bright spot position are almost on the vertical line in the eye image, that is, the horizontal distance between the pupil position and the bright spot position is within the error range. Is in. Therefore, when the horizontal distance between the pupil position and the bright spot position exceeds the above error range, and the pupil position is located to the left of the bright spot position, the user's eyeball is moved to the left. Show. In addition, when the horizontal distance between the pupil position and the bright spot position exceeds the above error range, and the pupil position is located to the right of the bright spot position, the user's eyeball moves to the right. Show. Further, it is determined whether the eyeball moves upward or downward based on the vertical distance between the pupil position and the bright spot position.
例を挙げると、図6Aと図6Bは本発明の一実施例による瞳孔の位置と輝点の位置の両者の位置対応関係の概略図である。本実施例の図6A及び図6Bのグループインターフェースはフルスクリーン表示を例としている。しかしながら、グループインターフェースのサイズはフルスクリーンより小さい場合、下記実施方式を適用する。図6Aは画面を2×2方式で区切られた4個の機能オプションであり、図6Bは画面を3×3方式で区切られた9個の機能オプションである。本実施例における各機能オプションの瞳孔の位置と輝点の位置は説明の簡易化のためだけであり、表示画面に上述の位置を表示するのを表しているわけではない。 For example, FIGS. 6A and 6B are schematic views of the positional correspondence between both the pupil position and the bright spot position according to an embodiment of the present invention. The group interface shown in FIGS. 6A and 6B of this embodiment is an example of full screen display. However, when the size of the group interface is smaller than the full screen, the following implementation method is applied. FIG. 6A shows four function options in which the screen is divided in a 2 × 2 system, and FIG. 6B shows nine function options in which the screen is divided in a 3 × 3 system. The position of the pupil and the position of the bright spot of each function option in this embodiment are only for the sake of simplification of description, and do not represent displaying the above-mentioned positions on the display screen.
図6Aと図6Bのように、眼球が左方に移動すると、瞳孔の位置が輝点の位置の左方に位置する、また、眼球が右方に移動すると、瞳孔の位置が輝点の位置の右方に位置する。また、眼球が上方に移動するほど、瞳孔の位置と輝点の位置の垂直距離が大きくなり、逆に眼球が下方に移動するほど、瞳孔の位置と輝点の位置の垂直距離が小さくなる。上述の定義によると、使用者の目のイメージから瞳孔の位置と輝点の位置を探し出した後、使用者の注視点がどの操作エリアにあるか知ることができる。 As shown in FIGS. 6A and 6B, when the eyeball moves to the left, the position of the pupil is located to the left of the position of the bright spot. When the eyeball moves to the right, the position of the pupil becomes the position of the bright spot. Located to the right of In addition, as the eyeball moves upward, the vertical distance between the pupil position and the bright spot position increases. Conversely, as the eyeball moves downward, the vertical distance between the pupil position and the bright spot position decreases. According to the above definition, after searching for the position of the pupil and the position of the bright spot from the image of the user's eyes, it is possible to know in which operation area the user's gaze point is.
また、本実施例において、処理ユニット130が実行する複数のモジュールは誘導校正モジュール530をさらに含む。眼球運動検出モジュール145は使用者の眼球運動を検出する前、誘導校正モジュール530は使用者が見る表示ユニット120の指定位置に導くことにより、眼球運動検出モジュール145の基準情報を校正する。例えば、誘導校正モジュール530は使用者が見る表示ユニット120の中央位置に導くことにより、以降における比較の基準情報とする表示ユニット120の中央位置に対応する輝点の位置と瞳孔の位置を取得する。
In the present embodiment, the plurality of modules executed by the
上述の方式以外にも、眼球運動検出モジュール145は瞳孔の位置と輝点の位置を表示ユニット120に対応する座標に換算しても良く、これにより注視点を更に正確に識別できる。具体的には、毎回表示ユニット120は一つの操作エリアを表示して使用者に見せ、そして瞳孔の中心と輝点の両者の参考距離と参考角度を計算し、それから別の操作エリアを表示して使用者に見せ、予定数の操作エリアを表示し終える。これにより各操作エリアと前記参考距離と前記参考角度の間の関係を取得することができる。
In addition to the above-described method, the eye
瞳孔の位置と反射点の両者の参考距離と参考角度の定義は以下の通りである。図7A及び図7Bは本発明の一実施例による瞳孔の中心と反射点の両者の距離情報と角度情報の概略図である。図7Aは眼のイメージであり、図7Bは図7Aの範囲700の拡大図である。図7Bにおいて、瞳孔の中心C1によってy軸(垂直軸)及びx軸(水平軸)を定義し、瞳孔の中心C1と反射点C2両者のy軸上の参考距離Lを計算し、さらに瞳孔の中心C1に相対する反射点C2のベクトルVとy軸との間の参考角度θを計算する。
The definition of the reference distance and reference angle of both the pupil position and the reflection point is as follows. 7A and 7B are schematic diagrams of distance information and angle information of both the center of the pupil and the reflection point according to an embodiment of the present invention. FIG. 7A is an eye image, and FIG. 7B is an enlarged view of
事前に使用者が各操作エリアを見ることで複数の瞳孔の中心と反射点の両者の参考距離Lと参考角度θを取得し、さらに前記の参考距離L及び参考角度θと表示ユニット120の複数の操作エリアは正規分布図を形成する。その後、眼球運動検出モジュール145が使用者の眼球運動を検出する時、瞳孔の位置と反射点の両者の参考距離L及び参考角度θを取得後、対応する前記の正規分布図は一つの座標点を取得でき、該座標点を内挿法によって表示ユニット120に対応する位置座標に換算する。これにより更に正確に視線者の注視点を得ることができる。
The user obtains the reference distance L and the reference angle θ of both the center of the plurality of pupils and the reflection point by looking at each operation area in advance, and further, the reference distance L and the reference angle θ and the plurality of
以上のように、上述の実施例において、最初にスキャンモードを起動し、使用者に最初の選択をさせる(第1段階)。使用者が一つの操作エリア(例えば一つのアイコン)を選定した後、眼球運動検出モードを実行し(第2段階)、第1段階で選定した操作エリアに付属する機能オプションが表示される(例えばアイコン表示)。また、眼球運動検出モジュールを起動し、眼球運動による更に細かな選定の実行を使用者に提供する。第1段階はスキャンモードであるので、比較的多くの操作エリアを表示できる(例えば16個以上、もしくは24個以上)。眼球運動検出の正確性を上げるために、第2段階において表示される機能オプションの数は減らし、例えば表示を3〜9個の機能オプションのみとし、上述の2つの段階を経て、画面に毎回現れる使用者に選択させる項目を減らすことができる(操作エリア,機能オプション)。さらに、眼球運動検出モードにおいて提供する項目が減るので、校正プログラムは簡易化され、1点の校正を行うだけでよくなり、従来のアイトラッキング技術の福祉機器が必要とする複雑な校正プログラムを改善した。また、身体に追加の装置を装着する必要は無く、使用者は高価な費用を負担する必要も無く、位置設定機能の正確な効果を得ることができる。 As described above, in the above-described embodiment, the scan mode is first activated and the user is made to make the first selection (first stage). After the user selects one operation area (for example, one icon), the eye movement detection mode is executed (second stage), and the function options attached to the operation area selected in the first stage are displayed (for example, Icon display). Also, the eye movement detection module is activated to provide the user with a finer selection by eye movement. Since the first stage is the scan mode, a relatively large number of operation areas can be displayed (for example, 16 or more, or 24 or more). In order to improve the accuracy of eye movement detection, the number of function options displayed in the second stage is reduced. For example, only 3 to 9 function options are displayed, and the screen appears every time through the above two stages. Items to be selected by the user can be reduced (operation area and function options). In addition, since the number of items provided in the eye movement detection mode is reduced, the calibration program is simplified and only one point of calibration is required, improving the complicated calibration program required by conventional eye tracking technology welfare equipment. did. Further, it is not necessary to attach an additional device to the body, and the user does not need to pay an expensive cost, and the accurate effect of the position setting function can be obtained.
本発明は以上の実施例のように示したが、本発明は、これに限られるものではなく、当業者が本発明の精神の範囲から逸脱しない範囲において、変更又は修正することが可能であるが故に本発明の保護範囲は均等の範囲にまで及ぶものとする。 Although the present invention has been shown as in the above embodiments, the present invention is not limited to this and can be changed or modified by those skilled in the art without departing from the spirit of the present invention. Therefore, the protection scope of the present invention extends to an equivalent range.
本発明はスキャン技術とアイトラッキング技術を組み合わせたものであり、スキャンモードにおいて大きな範囲のグループ選択を行い、眼球運動を利用し、機能オプションの選定を行う。スキャン技術とアイトラッキング技術間に技術面とコスト面の優れたバランスを取ることで、アイトラッキング技術は高価なハードの設備を必要とせず、グラフィカルインターフェースに対して簡便且つ快速な操作を可能にさせる。 The present invention is a combination of scanning technology and eye tracking technology. In the scanning mode, a large range of groups is selected, and eyeball movement is used to select functional options. By providing an excellent balance between scanning and eye-tracking technology in terms of technology and cost, eye-tracking technology does not require expensive hardware and allows simple and fast operation of the graphical interface. .
100:電子装置
110:像取得ユニット
120:表示ユニット
130:処理ユニット
140:記憶ユニット
141:スキャンモジュール
143:インターフェース切替モジュール
145:眼球運動検出モジュール
300:グラフィカルインターフェース
410:グループインターフェース
420:グループインターフェース
430:グループインターフェース
510:埋込式制御ユニット
520:入力ユニット
530:誘導校正モジュール
700:範囲
DESCRIPTION OF SYMBOLS 100: Electronic device 110: Image acquisition unit 120: Display unit 130: Processing unit 140: Storage unit 141: Scan module 143: Interface switching module 145: Eye movement detection module 300: Graphical interface 410: Group interface 420: Group interface 430: Group interface 510: Embedded control unit 520: Input unit 530: Inductive calibration module 700: Range
Claims (14)
スキャンモードにおいて、スキャン順序に基づいて前記複数の操作エリアを逐一ハイライト表示とし、前記複数の操作エリアの中の一つがハイライト表示である時、その前の操作エリアのハイライト表示を取り消すステップと、
前記スキャンモードにおいてトリガー信号を受信する時、スキャンプロセスを一時停止させ、選定エリアに対応するグループインターフェースを表示ユニットに表示し、その中の前記選定エリアは前記トリガー信号を受信する時、前記複数の操作エリアのハイライト表示のエリアとし、且つ、前記グループインターフェースは前記グラフィカルインターフェースの上層に表示され、前記グループインターフェースと前記グラフィカルインターフェースの両者のサイズは同じ、もしくは前記グループインターフェースのサイズは前記グラフィカルインターフェースのサイズより小さい、ステップと、
眼球運動検出モジュールによって使用者の前記グループインターフェースにおける眼球運動を検出するステップと、
前記眼球運動に基づいて前記グループインターフェースの複数の機能オプションから一つの機能オプションを選び、操作を実行するステップであり、前記グラフィカルインターフェースが表示される前記複数の操作エリアの数は前記グループインターフェースが表示される前記複数の機能オプションの数より多い、ステップと、
を含むことを特徴とする電子装置の操作方法。 Displaying a graphical interface having a plurality of operation areas on the display unit;
In the scan mode, a step of highlighting the plurality of operation areas one by one based on a scan order and canceling highlight display of the previous operation area when one of the plurality of operation areas is highlight display When,
When the trigger signal is received in the scan mode, the scan process is temporarily stopped, and a group interface corresponding to the selected area is displayed on the display unit, and the selected area therein receives the trigger signal, The group interface is displayed in an upper layer of the graphical interface, and the size of both the group interface and the graphical interface is the same, or the size of the group interface is the graphical interface. Smaller than the size of the step,
Detecting eye movement at the user's group interface by an eye movement detection module;
Selecting a function option from a plurality of function options of the group interface based on the eye movement and executing an operation , wherein the number of the plurality of operation areas in which the graphical interface is displayed is displayed by the group interface greater than the number of said plurality of functional options, the steps,
A method for operating an electronic device, comprising:
像取得ユニットにより前記使用者のイメージシーケンスを取得し、前記イメージシーケンスの分析により前記眼球運動検出モジュールに前記使用者の前記眼球運動を追跡させるステップをさらに含むことを特徴とする請求項1又は2に記載の電子装置の操作方法。 Detecting the eye movement at the group interface of the user by the eye movement detection module;
3. The method according to claim 1, further comprising: acquiring an image sequence of the user by an image acquisition unit, and causing the eye movement detection module to track the eye movement of the user by analyzing the image sequence. A method for operating the electronic device according to claim 1.
前記瞳孔の位置と前記輝点の位置の間の水平距離が誤差範囲内である時、前記眼球運動が前方を直視していると判定し、
前記瞳孔の位置と前記輝点の位置の間の前記水平距離が前記誤差範囲を超え、かつ前記瞳孔の位置が前記輝点の位置の左方に位置する時、前記眼球運動が左方への移動であると判定し、
前記瞳孔の位置と前記輝点の位置の間の前記水平距離が前記誤差範囲を超え、かつ前記瞳孔の位置が前記輝点の位置の右方に位置する時、前記眼球運動が右方への移動であると判定し、
前記瞳孔の位置と前記輝点の位置の垂直距離に基づいて前記眼球運動が上方へ移動であるか下方への移動であるかを判断するステップと、
前記瞳孔の位置と前記輝点の位置の両者の位置対応関係によって、現在の前記眼球運動の注視点を判断するステップとをさらに含むことを特徴とする請求項3に記載の電子装置の操作方法。 The step of tracking the eye movement of the user by analyzing the image sequence includes reflecting the position of the user's pupil and the light emitted from the light emitting unit in the image sequence formed by illuminating the user's eyes. Detecting a position of a bright spot that is a point;
When the horizontal distance between the position of the pupil and the position of the bright spot is within an error range, it is determined that the eye movement is looking directly forward.
When the horizontal distance between the position of the pupil and the position of the bright spot exceeds the error range, and the position of the pupil is located to the left of the position of the bright spot, the eye movement moves to the left. It is determined that it is moving,
When the horizontal distance between the position of the pupil and the position of the bright spot exceeds the error range, and the position of the pupil is located to the right of the position of the bright spot, the eye movement moves to the right. It is determined that it is moving,
Determining whether the eye movement is an upward movement or a downward movement based on a vertical distance between the position of the pupil and the position of the bright spot;
The method of operating an electronic device according to claim 3, further comprising: determining a current gazing point of the eye movement based on a positional correspondence relationship between the position of the pupil and the position of the bright spot. .
前記使用者が見る表示ユニットの指定位置に導くことにより、前記眼球運動検出モジュールの基準情報を校正するステップをさらに含むことを特徴とする請求項1〜4のいずれか一項に記載の電子装置の操作方法。 Before detecting the eye movement of the user by the eye movement detection module,
5. The electronic device according to claim 1, further comprising a step of calibrating reference information of the eye movement detection module by being guided to a designated position of the display unit viewed by the user. 6. How to operate.
前記眼球運動検出モジュールによって前記使用者の前記眼球運動を検出するステップと、
前記眼球運動に基づいて前記トリガー信号を受信するか判断するステップをさらに含むことを特徴とする請求項1〜5のいずれか一項に記載の電子装置の操作方法。 In the scan mode,
Detecting the eye movement of the user by the eye movement detection module;
The method of operating an electronic device according to claim 1, further comprising a step of determining whether to receive the trigger signal based on the eye movement.
複数の操作エリアを有するグラフィカルインターフェースを表示する表示ユニットと、
前記表示ユニットと前記像取得ユニットに接続され、複数のモジュールを実行する処理ユニットとを含み、
前記複数のモジュールは
スキャンモードにおいて、スキャン順序に基づいて前記複数の操作エリアを逐一ハイライト表示にし、且つ前記複数の操作エリアの一つがハイライト表示である時、その前の操作エリアのハイライト表示を取り消すスキャンモジュールと、
前記スキャンモードにおいてトリガー信号を受信する時、スキャンプロセスを一時停止させ、選定エリアに対応するグループインターフェースを前記表示ユニットに表示し、その中の前記選定エリアは前記トリガー信号を受信する時、前記複数の操作エリアのハイライト表示のエリアとするインターフェース切替モジュールと、
像取得ユニットを駆動して使用者のイメージシーケンスを取得し、前記イメージシーケンスの分析により前記使用者の前記グループインターフェースにおける眼球運動を検出し、且つ前記眼球運動に基づいて、前記グループインターフェースの複数の機能オプションから一つの機能オプションを選び、操作を実行する眼球運動検出モジュールとを有し、
前記グラフィカルインターフェースが表示される前記複数の操作エリアの数は前記グループインターフェースが表示される前記複数の機能オプションの数より多く、
且つ、前記グループインターフェースは前記グラフィカルインターフェースの上層に表示され、前記グループインターフェースと前記グラフィカルインターフェースの両者のサイズは同じ、もしくは前記グループインターフェースのサイズは前記グラフィカルインターフェースのサイズより小さい、
ことを特徴とする電子装置。 An image acquisition unit arranged towards the user of the electronic device;
A display unit for displaying a graphical interface having a plurality of operation areas;
A display unit and a processing unit connected to the image acquisition unit and executing a plurality of modules;
In the scan mode, the plurality of modules highlights the plurality of operation areas one by one based on the scan order, and when one of the plurality of operation areas is highlighted, highlights the previous operation area. A scan module to cancel the display;
When the trigger signal is received in the scan mode, the scan process is temporarily stopped, and a group interface corresponding to the selected area is displayed on the display unit, and the selected area therein receives the trigger signal, An interface switching module to be the highlighted display area of the operation area,
Driving an image acquisition unit to acquire an image sequence of the user, detecting eye movements in the group interface of the user by analysis of the image sequence, and based on the eye movements, select one of the functions options from the function option, have a and eye movement detection module to perform the operation,
The number of the plurality of operation areas in which the graphical interface is displayed is greater than the number of the function options in which the group interface is displayed.
And the group interface is displayed in an upper layer of the graphical interface, and the size of both the group interface and the graphical interface is the same, or the size of the group interface is smaller than the size of the graphical interface.
An electronic device characterized by that.
前記イメージシーケンスにおいて前記使用者の瞳孔の位置と発光ユニットの放射する光が前記使用者の目を照らして形成される反射点である輝点の位置を検出し、
前記瞳孔の位置と前記輝点の位置の間の水平距離が誤差範囲内である時、前記眼球運動が前方を直視していると判定し、
前記瞳孔の位置と前記輝点の位置の間の前記水平距離が前記誤差範囲を超え、かつ前記瞳孔の位置が前記輝点の位置の左方に位置する時、前記眼球運動が左方への移動であると判定し、
前記瞳孔の位置と前記輝点の位置の間の前記水平距離が前記誤差範囲を超え、かつ前記瞳孔の位置が前記輝点の位置の右方に位置する時、前記眼球運動が右方への移動であると判定し、
前記瞳孔の位置と前記輝点の位置の垂直距離に基づいて前記眼球運動が上方へ移動であるか下方への移動であるかを判断し、
さらに前記瞳孔の位置と前記輝点の位置の両者の位置対応関係によって、現在の前記眼球運動の注視点を判断することを特徴とする請求項8又は9に記載の電子装置。 The eye movement detection module includes:
In the image sequence, the position of the pupil of the user and the position of a bright spot which is a reflection point formed by the light emitted from the light emitting unit illuminating the eyes of the user are detected,
When the horizontal distance between the position of the pupil and the position of the bright spot is within an error range, it is determined that the eye movement is looking directly forward.
When the horizontal distance between the position of the pupil and the position of the bright spot exceeds the error range, and the position of the pupil is located to the left of the position of the bright spot, the eye movement moves to the left. It is determined that it is moving,
When the horizontal distance between the position of the pupil and the position of the bright spot exceeds the error range, and the position of the pupil is located to the right of the position of the bright spot, the eye movement moves to the right. It is determined that it is moving,
Determining whether the eye movement is upward or downward based on a vertical distance between the position of the pupil and the position of the bright spot;
Further electronic apparatus according the position relationship of both the position of said bright spot of the pupil, in claim 8 or 9, characterized in that determining the gaze point of the current of the eye movement.
前記処理ユニット及び前記入力ユニットに接続され、前記入力ユニットから前記トリガー信号を受信するかを判断し、さらに、前記処理ユニットは前記トリガー信号を受信する時、メッセージを前記スキャンモジュール及び前記インターフェース切替モジュールに伝送し、前記スキャンモジュールにスキャンプロセスを一時停止させ、前記インターフェース切替モジュールにより前記選定エリアに対応する前記グループインターフェースを前記表示ユニットに表示させる埋込式制御ユニットをさらに含むことを特徴とする請求項8〜12のいずれか一項に記載の電子装置。 An input unit;
It is connected to the processing unit and the input unit to determine whether to receive the trigger signal from the input unit, and when the processing unit receives the trigger signal, a message is sent to the scan module and the interface switching module. The embedded control unit further includes an embedded control unit that causes the scan module to temporarily stop a scan process and to display the group interface corresponding to the selected area on the display unit by the interface switching module. Item 13. The electronic device according to any one of Items 8 to 12 .
前記グラフィカルインターフェースのデータは前記グラフィカルインターフェースのサイズ、表示される前記複数の操作エリアの各サイズ及び各前記複数の操作エリアに対応する前記複数のグループインターフェースのデータの中の一つを定義し、
各前記複数のグループインターフェースのデータは対応する前記複数のグループインターフェースのサイズ、表示される前記複数の機能オプションのサイズ及び各前記複数の機能オプションに対応する機能を定義することを特徴とする請求項8〜13のいずれか一項に記載の電子装置。 A storage unit connected to the processing unit for storing the module, data of the graphical interface and data of a plurality of group interfaces;
The graphical interface data defines one of a size of the graphical interface, each size of the plurality of operation areas to be displayed, and data of the plurality of group interfaces corresponding to each of the plurality of operation areas,
The data of each of the plurality of group interfaces defines a size of the corresponding group interface, a size of the plurality of function options to be displayed, and a function corresponding to each of the plurality of function options. The electronic device according to any one of 8 to 13 .
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW103113043 | 2014-04-09 | ||
TW103113043A TW201539251A (en) | 2014-04-09 | 2014-04-09 | Electronic apparatus and method for operating electronic apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015201161A JP2015201161A (en) | 2015-11-12 |
JP6092173B2 true JP6092173B2 (en) | 2017-03-08 |
Family
ID=54552328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014213572A Active JP6092173B2 (en) | 2014-04-09 | 2014-10-20 | Electronic device and operation method thereof |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6092173B2 (en) |
TW (1) | TW201539251A (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018074055A1 (en) * | 2016-10-19 | 2018-04-26 | ソニー株式会社 | Information processing device, information processing method and program |
TWI725351B (en) * | 2018-11-02 | 2021-04-21 | 宏正自動科技股份有限公司 | Electronic device and output image determination method |
CN112347812B (en) * | 2019-08-07 | 2024-04-19 | 群创光电股份有限公司 | Method for detecting fingerprint by electronic device |
CN112540084A (en) * | 2019-09-20 | 2021-03-23 | 联策科技股份有限公司 | Appearance inspection system and inspection method |
CN116069165B (en) * | 2023-02-14 | 2024-02-09 | 中国民用航空总局第二研究所 | Target interface determining method for remote tower optical system |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05241063A (en) * | 1992-02-28 | 1993-09-21 | Nikon Corp | Camera provided with line of sight position detector |
JPH09190325A (en) * | 1996-01-09 | 1997-07-22 | Canon Inc | Display device |
JPH10301743A (en) * | 1997-04-23 | 1998-11-13 | Nec Corp | Public facility device and user terminal for operating the same device and operating device for the same device |
JPH11259226A (en) * | 1998-03-13 | 1999-09-24 | Canon Inc | Sight line input intention communication device |
JP2003067804A (en) * | 2001-08-29 | 2003-03-07 | Victor Co Of Japan Ltd | Electronic vote input system and electronic vote input device used in electronic vote input system |
SE529156C2 (en) * | 2005-10-28 | 2007-05-15 | Tobii Technology Ab | Computer apparatus controlling system has data-manipulation window presented at position relative to active control object such that center of window is located within small offset distance from center of control object |
JP4649319B2 (en) * | 2005-11-21 | 2011-03-09 | 日本電信電話株式会社 | Gaze detection device, gaze detection method, and gaze detection program |
JP4757091B2 (en) * | 2006-04-28 | 2011-08-24 | 本田技研工業株式会社 | Operation device for on-vehicle equipment |
JP2009187443A (en) * | 2008-02-08 | 2009-08-20 | Dainippon Printing Co Ltd | Automated teller machine and method for acquiring personal identification number for automated teller machine |
JP4956591B2 (en) * | 2009-08-19 | 2012-06-20 | 株式会社コナミデジタルエンタテインメント | Selection device, selection method, and program |
JP2011159004A (en) * | 2010-01-29 | 2011-08-18 | Kazuyuki Takehara | Intention transmission apparatus |
JP5664064B2 (en) * | 2010-09-22 | 2015-02-04 | 富士通株式会社 | Gaze detection device and correction coefficient calculation program |
JP5719216B2 (en) * | 2011-04-05 | 2015-05-13 | 日本放送協会 | Gaze measurement apparatus and gaze measurement program |
JP2013143012A (en) * | 2012-01-11 | 2013-07-22 | Tokai Rika Co Ltd | Eye-gaze input device |
-
2014
- 2014-04-09 TW TW103113043A patent/TW201539251A/en unknown
- 2014-10-20 JP JP2014213572A patent/JP6092173B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015201161A (en) | 2015-11-12 |
TW201539251A (en) | 2015-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7191714B2 (en) | Systems and methods for direct pointing detection for interaction with digital devices | |
US10429941B2 (en) | Control device of head mounted display, operation method and operation program thereof, and image display system | |
EP3227760B1 (en) | Pointer projection for natural user input | |
JP5949319B2 (en) | Gaze detection apparatus and gaze detection method | |
JP6092173B2 (en) | Electronic device and operation method thereof | |
JP6056323B2 (en) | Gaze detection device, computer program for gaze detection | |
JP2022535316A (en) | Artificial reality system with sliding menu | |
US10456072B2 (en) | Image interpretation support apparatus and method | |
US20150238087A1 (en) | Biological information measurement device and input device utilizing same | |
KR102099223B1 (en) | System and method for diagnosing for strabismus, aparratus for acquiring gaze image, computer program | |
US20210022606A1 (en) | Image processing method, program, image processing device, and ophthalmic system | |
US20210153794A1 (en) | Evaluation apparatus, evaluation method, and evaluation program | |
US20210290130A1 (en) | Evaluation device, evaluation method, and non-transitory storage medium | |
US10928899B2 (en) | Handling multiple eye-gaze tracking (EGT) sources in virtual, augmented, or mixed reality (XR) applications | |
WO2016208261A1 (en) | Information processing device, information processing method, and program | |
US20200225741A1 (en) | Systems and methods for eye-gaze tracking (egt) handoff | |
JP2020106772A (en) | Display device, display method, and program | |
KR101396488B1 (en) | Apparatus for signal input and method thereof | |
JP2016126687A (en) | Head-mounted display, operation reception method, and operation reception program | |
US10747308B2 (en) | Line-of-sight operation apparatus, method, and medical device | |
US20210290133A1 (en) | Evaluation device, evaluation method, and non-transitory storage medium | |
US12064180B2 (en) | Display apparatus, display method, and display program | |
JP2016035654A (en) | Sight line detecting device, and sight line input system | |
JPH09204287A (en) | Method and device for selecting processing | |
US20210244270A1 (en) | Visual performance examination device, visual performance examination method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6092173 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |