JP7153096B2 - System and method enabling communication by eye feedback - Google Patents

System and method enabling communication by eye feedback Download PDF

Info

Publication number
JP7153096B2
JP7153096B2 JP2021009022A JP2021009022A JP7153096B2 JP 7153096 B2 JP7153096 B2 JP 7153096B2 JP 2021009022 A JP2021009022 A JP 2021009022A JP 2021009022 A JP2021009022 A JP 2021009022A JP 7153096 B2 JP7153096 B2 JP 7153096B2
Authority
JP
Japan
Prior art keywords
eye
user
pupil
orientation
option
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021009022A
Other languages
Japanese (ja)
Other versions
JP2021073589A (en
Inventor
リショニ,シャイ
ケルナー,タル
コーンベルグ,イタイ
レズキン,オル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eyefree Assisting Communication Ltd
Original Assignee
Eyefree Assisting Communication Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eyefree Assisting Communication Ltd filed Critical Eyefree Assisting Communication Ltd
Publication of JP2021073589A publication Critical patent/JP2021073589A/en
Application granted granted Critical
Publication of JP7153096B2 publication Critical patent/JP7153096B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、アイトラッキングと、インタフェース及びユーザコミュニケーションプラットフォームとに関する。 The present invention relates to eye tracking and interfaces and user communication platforms.

変性疾患は、身体組織の構造及び機能の低下を特徴とする。変性疾患は、多くの場合、人の運動能力を損なう、筋肉に対する制御の喪失及び運動機能の低下につながる。その結果、個人は、言葉によって及び/又は手の動きによってコミュニケーションをとることに対して、重度の困難あるいは完全な不能を経験し得る。変性疾患は、必ずしも、人の心及び認知機能を全く又は運動機能の低下と同じ速度で減退させることはない。このように、完全な認知活動を有する人が、身体的及び言語的に自身の環境とインタラクトする能力を失うことがある。そのような人の心は、基本的にその体内にとらわれる又は閉じ込められると考えられ得る。 Degenerative diseases are characterized by deterioration of the structure and function of body tissues. Degenerative diseases often lead to loss of control over muscles and decreased motor function, impairing a person's ability to exercise. As a result, individuals may experience severe difficulty or a complete inability to communicate verbally and/or by hand movements. Degenerative diseases do not necessarily cause a person's mental and cognitive function to decline at all or at the same rate as motor function declines. Thus, a person with full cognitive activity may lose the ability to physically and linguistically interact with their environment. Such a person's mind can be thought of as essentially trapped or confined within its body.

変性疾患の幾つかの例には、デュシェンヌ型筋ジストロフィー(DMD)、マシャドジョセフ病(MJD)、多発性硬化症(MS)、筋ジストロフィー(MD)、パーキンソン病及び筋萎縮性側索硬化症(ALS)が含まれる。ルー・ゲーリック病及びシャルコー病としても知られる筋萎縮性側索硬化症(ALS)は、ニューロン死を伴う疾患であり、こわばった筋肉、筋肉の痙攣、及び筋肉の萎縮による徐々に悪化する衰弱を特徴とする。ALSは、一般的に、話すこと、嚥下、及び呼吸に困難を生じさせる。ALS患者は、自身の発話能力及び自身の上肢の使用を徐々に失う、完全に機能した認知能力を備えた人々のサブグループを代表する。 Some examples of degenerative diseases include Duchenne muscular dystrophy (DMD), Machado Joseph disease (MJD), multiple sclerosis (MS), muscular dystrophy (MD), Parkinson's disease and amyotrophic lateral sclerosis (ALS). is included. Amyotrophic lateral sclerosis (ALS), also known as Lou Gehrig's disease and Charcot's disease, is a disease with neuronal death that causes progressive weakness due to stiff muscles, muscle spasms, and muscle atrophy. Characterized by ALS commonly causes difficulties with speaking, swallowing, and breathing. ALS patients represent a subgroup of fully functioning, cognitively capable people who gradually lose their ability to speak and use their upper extremities.

変性疾患を患う人々とは別に、他のグループの人々も、自身の知力は保持しながら、身体能力の喪失を経験し得る(すなわち、完全な認知能力を維持しながら、会話によってコミュニケーションをとることに困難を有する)。例えば、閉じ込め症候群(LIS)又はパーキンソン病若しくはハンチントン病のような神経変性疾患を患う人々、脳卒中及び他の事故の犠牲者(例えば、交通事故)、喉に挿入された呼吸管があるため、話すことができない人工呼吸器につながれた患者(人工呼吸器装着患者)、自身の四肢を動かすことができないほど弱った又は自身の四肢を動かすことができない人々、麻痺状態にある人々、又は脳が適切に機能していても、技術的制約のために自身の環境とインタラクトできない状態に達した他の人々である。従って、このような個人は、自身の環境において、他の人々とコミュニケーションをとる能力が著しく制限を受ける。コミュニケーションの欠如は、分離及び孤立の感情を引き起こす可能性があり、患者がストレスを受け、かつ不可欠な要望を効果的に伝える又は重要な援助を得ることができない状況(場合によっては、生命に関わり得る)につながり得る。 Apart from people with degenerative diseases, other groups of people can also experience loss of physical abilities while retaining their intellectual abilities (i.e., being unable to communicate by speech while retaining full cognitive abilities). (has difficulty in For example, people with locked-in syndrome (LIS) or neurodegenerative diseases such as Parkinson's or Huntington's disease, victims of strokes and other accidents (e.g. car accidents), have breathing tubes inserted in their throats and therefore speak Patients on a ventilator who cannot move their own limbs (ventilated patients), those who are too weak or unable to move their own limbs, those who are paralyzed, or whose brain is adequate other people who are functioning in the environment but have reached a state where they are unable to interact with their environment due to technical limitations. Such individuals are therefore severely limited in their ability to communicate with others in their environment. Lack of communication can lead to feelings of detachment and isolation, situations in which the patient is stressed and unable to effectively communicate essential needs or obtain vital help (in some cases, life-threatening situations). get).

考えられる方法の1つは、そのような個人に対して、彼らの目に関連した特徴に基づいて、コミュニケーションの代替形態を可能にすることである。例えば、人の目線の方向又は焦点を用いて、彼らの周囲に対して、命令を提供する、又は情報を伝達することができる。このような代替的な非言語的コミュニケーション形態を支援するツールが存在するが、それらは、一般的に比較的高価で、煩雑で、及び/又は動かせない(位置が固定されている)。これらのツールは、多くの場合、専用コンピュータの使用を必要とし、ツールを使用する人の不変の姿勢を条件とする。これらのツールは、画面上の表示に対する目の位置をトラッキングし、画面上のマウスカーソルの動作を模倣するように目の動きを変換することができる。従って、患者の焦点が、ポインタ(又はカーソル)の地理的位置に変換され、患者は、コンピュータマウスの操作と同様に、彼/彼女の目を使って、コンピュータを制御することができる。例えば、瞳孔が、空間内の一点として識別され、人が、コンピュータマウスを制御するやり方と同様に、自身の目を用いてコンピュータを制御することを可能にする。マウス制御は、必ずしも正確とは限らず、閉じ込め症候群の患者は、一般的に、例えば取り付けられた医療機器(例えば、人工呼吸器)により、頭(又は他の身体部分)を自由に動かすことができない。ユーザの正確な視線位置を決定することに依存するこのようなツールは、一般的に、比較的頻繁な再較正も必要とし、積極的なユーザの参加を必要とする。較正プロセスは、通常、画面の前の複数の位置におけるユーザの正確な固定を必要とし、従って、比較的手間及び時間がかかる。また、較正プロセスは、たびたび第三者の援助を必要とする場合があり、これは、費用がかかり、あるいは不便である場合がある。 One possible way is to allow such individuals alternative forms of communication based on their eye-related characteristics. For example, a person's eye direction or focus can be used to provide commands or convey information to their surroundings. Tools exist to support such alternative non-verbal forms of communication, but they are generally relatively expensive, cumbersome, and/or immovable (fixed in position). These tools often require the use of a dedicated computer and are subject to the constant posture of the person using the tool. These tools can track eye position relative to the on-screen display and transform eye movements to mimic the movement of an on-screen mouse cursor. Thus, the patient's focus is translated into the geographic location of the pointer (or cursor) and the patient can use his/her eyes to control the computer, similar to manipulating a computer mouse. For example, the pupil is identified as a point in space, allowing a person to use their eyes to control a computer, similar to how a computer mouse is controlled. Mouse control is not always accurate, and patients with locked-in syndrome are generally allowed to move their head (or other body parts) freely, e.g., due to attached medical equipment (e.g., ventilators). Can not. Such tools that rely on determining the user's exact gaze position typically also require relatively frequent recalibration and require active user participation. The calibration process usually requires precise fixation of the user at multiple positions in front of the screen and is therefore relatively laborious and time consuming. Also, the calibration process can often require the assistance of a third party, which can be costly or inconvenient.

“Eye Tracker with Visual Feedback”という名称のBouvinらに対する米国特許第8,120,577号明細書は、アイトラッカー検出された、グラフィックディスプレイ上の注視点の移動シーケンスに応じた制御コマンドのコンピュータへの入力を開示している。 U.S. Pat. No. 8,120,577 to Bouvin et al., entitled "Eye Tracker with Visual Feedback," discloses sending control commands to a computer in response to eye tracker-detected movement sequences of gaze points on a graphic display. Disclose input.

“Mobile Terminal and Control Method Thereof”という名称のNaらに対する米国特許出願公開第2013/0293488号明細書は、ユーザのアイジェスチャを捕捉するように構成されたカメラと、捕捉されたアイジェスチャに基づいて、ディスプレイ上にアイトラッキングモードガイドを表示し、捕捉された第2のアイジェスチャに基づいて、アイトラッキングモードガイドに含まれる特定の機能を選択するように構成されたコントローラとを含むモバイル端末を開示している。 U.S. Patent Application Publication No. 2013/0293488 to Na et al., entitled "Mobile Terminal and Control Method Thereof," describes a camera configured to capture a user's eye gestures and a method based on the captured eye gestures. , a controller configured to display an eye-tracking mode guide on a display and to select a particular function included in the eye-tracking mode guide based on a captured second eye gesture. is doing.

“Eye Gaze User”という名称のMaltzに対する米国特許第8,593,375号明細書は、角度精度と時間平均化とのトレードオフを視線方向センサに適応させるように設計された視線制御デバイス用のソフトウェア制御ユーザインタフェースを開示している。 U.S. Pat. No. 8,593,375 to Maltz, entitled "Eye Gaze User," is for a gaze control device designed to accommodate the trade-off between angular accuracy and temporal averaging for gaze direction sensors. A software controlled user interface is disclosed.

“Eye Gaze User”という名称のMaltzに対する米国特許第8,593,375号明細書は、角度精度と時間平均化とのトレードオフを視線方向センサに適応させるように設計された視線制御デバイス用のソフトウェア制御ユーザインタフェースを開示している。 U.S. Pat. No. 8,593,375 to Maltz, entitled "Eye Gaze User," is for a gaze control device designed to accommodate the trade-off between angular accuracy and temporal averaging for gaze direction sensors. A software controlled user interface is disclosed.

“Microdisplay with Eye Gaze Detection”という名称のBellに対する米国特許第6,456,262号明細書は、表示された画像要素を、注視することによって選択することができるマイクロディスプレイを開示している。 US Pat. No. 6,456,262 to Bell entitled "Microdisplay with Eye Gaze Detection" discloses a microdisplay in which displayed image elements can be selected by gaze.

“Apparatus and Method for Inputting Keys Using Biological Signals in Head Mounted Display Information Terminal”という名称のMinらに対する米国特許出願公開第2006/0061544号明細書は、生体信号をキー入力として検知及び受信するEOG(眼電図)入力ユニット及びEMG(筋電図)入力ユニットを備えた生体信号検知ユニットを用いて検知されたユーザの生体信号に従って選択されたキーをユーザが入力するヘッドマウントディスプレイを開示している。 U.S. Patent Application Publication No. 2006/0061544 to Min et al., entitled "Apparatus and Method for Inputting Keys Using Biological Signals in Head Mounted Display Information Terminal," describes an EOG (Electronic Eye Group) that detects and receives biological signals as key inputs. Fig. ) Discloses a head-mounted display in which a user inputs keys selected according to the user's biosignals detected using a biosignal detection unit comprising an input unit and an EMG (electromyography) input unit.

アイトラッキングを用いて操作されるシステムの一例は、「EyeWriter(商標)」(notimpossiblelabs.com又はhttp://www.eyewriter.org/)である。EyeWriter(商標)は、ALSを患うグラフィティアーティストのために開発されたものである。 An example of a system operated using eye tracking is "EyeWriter™" (notimpossiblelabs.com or http://www.eyewriter.org/). EyeWriter™ was developed for graffiti artists with ALS.

従って、本発明の一態様によれば、ユーザが目に基づいたフィードバックを用いてコミュニケーションをとることを可能にするシステムが提供される。このシステムは、相対的な目の向きのセンサ、選択インタフェース及びプロセッサを含む。選択インタフェースは、一連のコミュニケーションオプションをユーザに選択可能に提示するように構成される。相対的な目の向きのセンサは、ユーザの目から反射する光を検出し、相関信号を提供するように構成される。プロセッサは、相対的な目の向きのセンサ及び選択インタフェースと通信可能に結合される。プロセッサは、相関信号を受信及び処理することによって、ユーザの相対的な目の向きを決定するように構成され、相対的な目の向きは、少なくともユーザの頭の向きに対する目の瞳孔の相対的な向きを含む。プロセッサは、決定された相対的な目の向きに基づいて、選択されたコミュニケーションオプションを決定し、選択されたコミュニケーションオプションを実行する命令を提供するようにさらに構成される。システムは、ユーザの目を照らす少なくとも1つの光源をさらに含んでもよい。光源は、赤外線(IR)光源でもよく、相対的な目の向きのセンサは、目から反射されたIR光を検出してもよい。選択インタフェースは、視覚インタフェース、可聴インタフェース、及び/又は触覚インタフェースを含んでもよい。光源及び/又は相対的な向きのセンサは、ユーザによって装着されるウェアラブルヘッドギアに結合されてもよい。選択インタフェースは、モバイルコンピュータデバイス上で動作してもよい。相対的な目の向きのセンサは、ユーザの目の画像を捕捉するように構成された少なくとも1つの画像センサを含んでもよく、プロセッサが、捕捉画像の画像処理によって相対的な目の向きを決定する。プロセッサは、瞳孔の瞬間的な相対的な向きを検出することによって、又は瞳孔の過渡変化を検出することによって、相対的な目の向きを決定してもよい。プロセッサは、相対的な目の向きのセンサ及び/又は選択インタフェースと通信可能に無線結合されてもよい。コミュニケーションオプションは、可聴アラーム、メニュー選択、言語選択、確認メッセージ、文、フレーズ、単語、音節、文字、モバイルコンピュータデバイス起動選択、視覚インタフェース動作停止選択、Eメール/SMS/MMSの送信命令、及び/又はコンピュータアプリケーションの実行命令を含んでもよい。視覚インタフェースは、色の調整、形状の調整、及び/又は記号画像によって、少なくとも1つのコミュニケーションオプションを表示してもよい。 Thus, according to one aspect of the present invention, a system is provided that enables users to communicate using eye-based feedback. The system includes a relative eye orientation sensor, a selection interface and a processor. The selection interface is configured to selectably present a series of communication options to the user. A relative eye orientation sensor is configured to detect light reflected from the user's eyes and provide a correlation signal. A processor is communicatively coupled to the relative eye orientation sensor and selection interface. The processor is configured to determine a relative eye orientation of the user by receiving and processing the correlation signal, the relative eye orientation being at least a relative eye pupil relative to the user's head orientation. including orientation. The processor is further configured to determine a selected communication option based on the determined relative eye orientation and provide instructions for performing the selected communication option. The system may further include at least one light source for illuminating the user's eyes. The light source may be an infrared (IR) light source, and the relative eye orientation sensor may detect IR light reflected from the eye. The selection interface may include visual, audible, and/or tactile interfaces. The light sources and/or relative orientation sensors may be coupled to wearable headgear worn by the user. The selection interface may operate on a mobile computing device. The relative eye orientation sensor may include at least one image sensor configured to capture an image of the user's eye, wherein the processor determines the relative eye orientation through image processing of the captured image. do. The processor may determine the relative eye orientation by detecting the instantaneous relative orientation of the pupils or by detecting transient changes in the pupils. The processor may be communicatively wirelessly coupled to the relative eye orientation sensor and/or the selection interface. Communication options include audible alarms, menu selections, language selections, confirmation messages, sentences, phrases, words, syllables, characters, mobile computing device activation selections, visual interface deactivation selections, instructions to send email/SMS/MMS, and/or Or it may contain instructions for executing a computer application. The visual interface may display at least one communication option through color adjustments, shape adjustments, and/or symbolic images.

従って、本発明の別の局面によれば、ユーザが目に基づいたフィードバックを用いてコミュニケーションをとることを可能にする方法が提供される。本方法は、選択インタフェースを有するユーザに対して、一連のコミュニケーションオプションを選択可能に提示する手順と、ユーザの目から反射された光を検出し、相対的な目の向きのセンサを用いて相関信号を提供する手順とを含む。本方法は、相関信号を処理することによって、ユーザの相対的な目の向きを決定する手順をさらに含み、相対的な目の向きは、少なくともユーザの頭の向きに対する目の瞳孔の相対的な向きを含む。本方法は、決定された相対的な目の向きに基づいて、選択されたコミュニケーションオプションを決定する手順と、選択されたコミュニケーションオプションを実行する命令を提供する手順とをさらに含む。本方法は、少なくとも1つの光源を用いて、ユーザの目を照らす手順をさらに含んでもよい。目は、IR光を用いて照らされてもよく、相対的な目の向きのセンサは、目から反射されたIR光を検出するように構成される。コミュニケーションオプションは、視覚的、可聴的、及び/又は触覚感知可能なやり方で、選択インタフェースによって提示されてもよい。ユーザの目から反射された光を検出する手順は、少なくとも1つの画像センサを用いて、目の画像を捕捉することを含んでもよく、相対的な目の向きは、捕捉画像の画像処理によって決定される。相対的な目の向きは、瞳孔の瞬間的な相対的な向きを検出することによって、又は瞳孔の過渡変化を検出することによって、決定されてもよい。コミュニケーションオプションは、可聴アラーム、メニュー選択、言語選択、確認メッセージ、文、フレーズ、単語、音節、文字、モバイルコンピュータデバイス起動選択、視覚インタフェース動作停止選択、Eメール/SMS/MMS送信命令、及び/又はコンピュータアプリケーションの実行命令を含んでもよい。本方法は、連続する捕捉画像を比較することによって、目の瞳孔の相対的変化を検出することと、捕捉画像内の瞳孔をマーキングすることによって、瞳孔の位置を示す関心領域をトラッキングすることと、2Dグリッドの中心として基準点を設定し、目の動きをグリッド上の座標に変換することと、瞳孔が、グリッドの中心にあることを決定した際に、基準点座標系を構築するための基準点を選択することと、ユーザの動きの範囲を決定することとによって較正を行う手順をさらに含んでもよい。 Thus, according to another aspect of the invention, a method is provided for enabling a user to communicate using eye-based feedback. The method comprises the steps of selectably presenting a series of communication options to a user having a selection interface and detecting and correlating light reflected from the user's eyes using relative eye orientation sensors. and a procedure for providing a signal. The method further includes determining the relative eye orientation of the user by processing the correlation signal, wherein the relative eye orientation is at least the relative eye orientation of the pupils of the eyes to the orientation of the user's head. including orientation. The method further includes determining a selected communication option based on the determined relative eye orientation, and providing instructions for performing the selected communication option. The method may further comprise illuminating the user's eye with at least one light source. The eye may be illuminated with IR light, and the relative eye orientation sensor is configured to detect the IR light reflected from the eye. Communication options may be presented by the selection interface in a visual, audible, and/or tactile manner. The step of detecting light reflected from the user's eye may include capturing an image of the eye using at least one image sensor, the relative eye orientation being determined by image processing of the captured image. be done. Relative eye orientation may be determined by detecting the instantaneous relative orientation of the pupils or by detecting transient changes in the pupils. Communication options include audible alarms, menu selections, language selections, confirmation messages, sentences, phrases, words, syllables, characters, mobile computing device activation selections, visual interface deactivation selections, email/SMS/MMS sending instructions, and/or It may also include instructions for executing a computer application. The method includes detecting relative changes in the pupil of the eye by comparing successive captured images and tracking a region of interest indicating the position of the pupil by marking the pupil in the captured images. , to set the reference point as the center of the 2D grid, transform the eye movements into coordinates on the grid, and to construct the reference point coordinate system when the pupil is determined to be at the center of the grid. The procedure may further include calibrating by selecting reference points and determining the range of motion of the user.

本発明は、図面と併せた以下の詳細な説明から、より詳しく理解及び認識されるだろう。 The invention will be better understood and appreciated from the following detailed description in conjunction with the drawings.

図1は、本発明の一実施形態に従って構築され、及び動作する、ユーザが目に基づいたフィードバックを用いてコミュニケーションをとることを可能にするシステムの模式図である。FIG. 1 is a schematic diagram of a system that enables users to communicate using eye-based feedback, constructed and operative in accordance with one embodiment of the present invention. 図2は、図1のディスプレイ上に表示された設定メニュー及び単語メニューの図である。2 is a diagram of a settings menu and a word menu displayed on the display of FIG. 1; FIG. 図3Aは、図1のディスプレイ上に表示された文字グループメニューの図である。3A is an illustration of a letter group menu displayed on the display of FIG. 1; FIG. 図3Bは、ディスプレイ上に表示される画像が異なるセクションに分割され、及び選択が行われている、図3Aの文字グループメニューの図である。FIG. 3B is an illustration of the letter group menu of FIG. 3A with the image displayed on the display divided into different sections and selections made. 図4は、図1のディスプレイ上に表示された文字サブメニューの図である。4 is an illustration of a textual submenu displayed on the display of FIG. 1; FIG. 図5Aは、図1のカメラによって捕捉された、瞳孔が上象限内にあるユーザの目の画像の図である。図5Bは、図1のカメラによって捕捉された、瞳孔が下象限内にあるユーザの目の画像の図である。図5Cは、図1のカメラによって捕捉された、瞳孔が左象限内にあるユーザの目の画像の図である。図5Dは、図1のカメラによって捕捉された、瞳孔が右象限内にあるユーザの目の画像の図である。図5Eは、図1のカメラによって捕捉された、瞳孔のないユーザの目の画像の図である。図5Fは、図1のカメラによって捕捉された、瞳孔が中心にあるユーザの目の画像の図である。FIG. 5A is an illustration of an image of a user's eye captured by the camera of FIG. 1 with the pupil in the upper quadrant. FIG. 5B is an illustration of an image of a user's eye captured by the camera of FIG. 1 with the pupil in the lower quadrant. FIG. 5C is an illustration of an image of a user's eye captured by the camera of FIG. 1 with the pupil in the left quadrant. FIG. 5D is an illustration of an image of a user's eye captured by the camera of FIG. 1 with the pupil in the right quadrant; FIG. 5E is an image of a user's eye without a pupil captured by the camera of FIG. FIG. 5F is an illustration of an image of a user's eye with the pupil in the center captured by the camera of FIG. 図6は、本発明の一実施形態に従って動作する、ユーザが目に基づいたフィードバックを用いてコミュニケーションをとることを可能にする方法のフロー図である。FIG. 6 is a flow diagram of a method for enabling users to communicate using eye-based feedback, operating in accordance with one embodiment of the present invention.

本発明は、ユーザが目に基づいたフィードバックによってコミュニケーションをとることを可能にするシステム及び方法を提供することによって、先行技術の欠点を克服する。具体的には、ユーザは、彼/彼女の目の相対的な向きを操作することによって、彼/彼女が見ている概略の方向を示す形態の非常に基本的なアイジェスチャを用いることよって、視覚/音声/触覚インタフェースを介して、彼/彼女に提示されたコミュニケーションオプションを選択することができる。このシステムは、例えばIR光源及びIRカメラ又は他のセンサを用いることによって、目からの赤外線(又は他の光)の反射を検出することによって、眼窩に対する瞳孔の向き又は頭の向きを示す、ユーザの相対的な目の向きを決定する。従って、本発明は、洗練され、入手しやすく、比較的安価で、可動性のあるコミュニケーションの代替形態を提供することによって、閉じ込め症候群(LIS)の患者、ALS患者などの、認知的な意識を維持しながら、言葉による及び/又は手話によるコミュニケーションが困難である又は不能であることを特徴とする個人の生活の質を向上させるのに役立つ。より一般的には、本発明は、他の方法でコミュニケーションをとることに制約を示さない人々を含む、どのような個人によっても使用することができる。さらに、このシステムは、ユーザがそれ以外の場合には従事している間に、デバイスの通信及び動作を可能にする。 The present invention overcomes the shortcomings of the prior art by providing systems and methods that allow users to communicate by eye-based feedback. Specifically, the user can manipulate the relative orientation of his/her eyes by using very basic eye gestures in the form of indicating the general direction in which he/she is looking. Via a visual/audio/tactile interface, he/she can select communication options presented to him/her. The system indicates the orientation of the pupil relative to the eye socket or the orientation of the head by detecting infrared (or other light) reflections from the eye, for example by using an IR light source and an IR camera or other sensor. determine the relative eye orientation of the Accordingly, the present invention provides an alternative form of communication that is sophisticated, accessible, relatively inexpensive, and mobile, thereby enhancing cognitive awareness in patients with locked-in syndrome (LIS), ALS patients, and the like. While maintaining, it helps improve the quality of life of individuals characterized by difficulty or inability to communicate in verbal and/or sign language. More generally, the present invention can be used by any individual, including those who do not exhibit restrictions on communicating in other ways. Additionally, the system allows communication and operation of the device while the user is otherwise engaged.

これより、通常100で参照される、本発明の一実施形態に従って構築され、及び動作する、ユーザが目に基づいたフィードバックを用いてコミュニケーションをとることを可能にするシステムの模式図である図1を参照する。システム100は、主ディスプレイ102、画像プロセッサ104、光源106、カメラ108、音声ユニット112、及び補助ディスプレイ124を備えたコンピュータデバイス114を含む。プロセッサ104は、主ディスプレイ102、カメラ108、音声ユニット112、及びコンピュータデバイス114と通信可能に結合される。コンピュータデバイス114は、有線又は無線通信リンク116(例えば、双方向Bluetooth接続)を経由して、プロセッサ104と通信可能に結合されてもよい。 FIG. 1 is a schematic diagram of a system that enables users to communicate using eye-based feedback, constructed and operative in accordance with one embodiment of the present invention, hereafter generally referenced at 100. See System 100 includes a computing device 114 with primary display 102 , image processor 104 , light source 106 , camera 108 , audio unit 112 , and auxiliary display 124 . Processor 104 is communicatively coupled with primary display 102 , camera 108 , audio unit 112 and computing device 114 . Computing device 114 may be communicatively coupled with processor 104 via a wired or wireless communication link 116 (eg, a two-way Bluetooth connection).

光源106は、光118を放射することによって、ユーザ150の少なくとも一方の目を照らすように構成される。光源106は、赤外線(IR)スペクトルの光などの不可視光を放射するように構成されてもよい。IR光は、照明条件の悪い暗い部屋の中でも効果的に使用することができ、かつ目の効果的な照明を可能にするので、特に望ましい。代替的に、ユーザ150の目を照らすために、他の光波長(非IR光)が用いられてもよい。光源106は、一般的に、目に安全な光(例えば、可視又は赤外線波長にある)を放射する。目に安全な光は、表示画像の可視光経路を妨げることなく、望ましい光路でシステム100の様々な光学素子を通過する(すなわち、望ましい方向に光学素子を透過する又は光学素子から反射される)ことができる。一例として、光源106は、アレイに(例えば、各LEDを正方形の各角に備えた正方形パターンに)配置された4つのIRのLED光によって具現化されてもよい。代替的に、光源106は、太陽放射又は室内照明などの周辺光によって具現化されてもよい。 Light source 106 is configured to illuminate at least one eye of user 150 by emitting light 118 . Light source 106 may be configured to emit non-visible light, such as light in the infrared (IR) spectrum. IR light is particularly desirable because it can be used effectively even in dark rooms with poor lighting conditions and because it allows effective illumination of the eye. Alternatively, other light wavelengths (non-IR light) may be used to illuminate the user's 150 eyes. Light source 106 generally emits eye-safe light (eg, in visible or infrared wavelengths). Eye-safe light passes through the various optical elements of system 100 in the desired optical path (i.e., is transmitted through or reflected from the optical elements in the desired direction) without interfering with the visible light path of the displayed image. be able to. As an example, light source 106 may be embodied by four IR LED lights arranged in an array (eg, in a square pattern with each LED at each corner of the square). Alternatively, light source 106 may be embodied by ambient light such as solar radiation or room lighting.

カメラ108は、ユーザ150の少なくとも一方の目の画像を捕捉するように構成される。カメラ108の目線(LOS)は、ユーザ150が顔を向けている概略の方向に向けて位置合わせされる。カメラ108の視野(FOV)は、目を画像フレーム内に維持しながら、ユーザ150による可能な頭の動きの範囲に関連付けられる。システム100は、単一のカメラ108を用いて可能となるよりも広い全体的なFOVの撮像を可能にする、異なるFOVを持つ複数のカメラ108を含んでもよい。 Camera 108 is configured to capture an image of at least one eye of user 150 . The line of sight (LOS) of camera 108 is aligned toward the general direction in which user 150 is facing. The field of view (FOV) of camera 108 is related to the range of possible head movements by user 150 while keeping the eye within the image frame. The system 100 may include multiple cameras 108 with different FOVs that allow imaging of a wider overall FOV than possible with a single camera 108 .

カメラ108は、任意の波長範囲(例えば、可視又は不可視スペクトルの光、紫外線、赤外線、レーダ波、マイクロ波、RFなど)の任意の形態の電磁放射の取得を含む、現実世界のシーンの画像表現を取得可能な任意の種類のデバイスでもよい。例えば、カメラ108は、可視から近赤外線(NIR)スペクトルで動作する相補型金属酸化膜半導体(CMOS)又は電荷結合素子(CCD)カメラでもよい。一般的に、カメラ108は、光源106の動作可能波長範囲に一致する又は少なくとも部分的に重なるスペクトル領域で動作する。カメラ108の主要構成要素は、フィルタ111、画像センサ110、レンズ(不図示)、及び電子回路(不図示)である。画像センサ110は、選択された波長の光のみを検出するように構成されてもよい(すなわち、狭帯域センサ)。代替的に、フィルタ111は、所望の波長以外の光が画像センサ110に到達することを阻止するように構成されてもよい(例えば、帯域通過フィルタを用いて)。 The camera 108 provides an image representation of a real-world scene, including acquisition of any form of electromagnetic radiation in any wavelength range (e.g., light in the visible or invisible spectrum, ultraviolet, infrared, radar waves, microwaves, RF, etc.). can be any kind of device capable of obtaining For example, camera 108 may be a complementary metal-oxide-semiconductor (CMOS) or charge-coupled device (CCD) camera operating in the visible to near-infrared (NIR) spectrum. Generally, camera 108 operates in a spectral region that matches or at least partially overlaps the operable wavelength range of light source 106 . The main components of camera 108 are filter 111, image sensor 110, lens (not shown), and electronics (not shown). Image sensor 110 may be configured to detect only selected wavelengths of light (ie, a narrowband sensor). Alternatively, filter 111 may be configured to block light other than desired wavelengths from reaching image sensor 110 (eg, with a bandpass filter).

センサ110は、例えば、フォトダイオード、CCD、又は別の種類の光検出素子でもよい。カメラ108は、一般的に、後続の処理及び/又は送信のために電子信号に変換され得るビデオ画像を表す一連の連続した画像フレームなどの少なくとも1つの画像フレームを取得するように動作する。一例として、カメラ108は、改造されたウェブカメラ、デジタルカメラ及び/又は携帯電話カメラによって具現化されてもよい。従って、本明細書で使用される「画像」という用語は、あらゆるスペクトル領域で取得されたシーンのあらゆる光学的又はデジタル表現を含む、上記の画像センサからの、あらゆる出力形態を指し、単一の画像フレーム及び一連の画像フレーム(すなわち、「ビデオ画像」)の両方を包含する。 Sensor 110 may be, for example, a photodiode, CCD, or another type of photodetector. Camera 108 generally operates to capture at least one image frame, such as a series of consecutive image frames representing a video image that can be converted into an electronic signal for subsequent processing and/or transmission. By way of example, camera 108 may be embodied by a modified webcam, digital camera, and/or cell phone camera. Accordingly, the term "image" as used herein refers to any form of output from the image sensor described above, including any optical or digital representation of a scene captured in any spectral region, and is a single It includes both image frames and sequences of image frames (ie, "video images").

カメラ108は、ユーザ150の相対的な目の向きを決定するために使用されるセンサの1つの種類例として提供されるが、システム100は、代替的に、カメラ108の代わりに、異なる種類のセンサを含んでもよい。例えば、システム100は、代替的に、ユーザ150に対して個々に又は適宜の構成(センサアレイなど)に配置された少なくとも1つの別個の光センサを含んでもよい。従って、ユーザ150の相対的な目の向きの決定は、以下にさらに説明されるように、カメラ画像の画像解析に基づくのではなく、上記別個のセンサによって検出された反射光の解析に基づいて行われてもよい。 Although camera 108 is provided as an example of one type of sensor used to determine the relative eye orientation of user 150, system 100 may alternatively substitute camera 108 for a different type of sensor. A sensor may be included. For example, system 100 may alternatively include at least one separate optical sensor positioned individually or in a suitable configuration (such as a sensor array) with respect to user 150 . Accordingly, determination of the relative eye orientation of user 150 is based on analysis of reflected light detected by the separate sensor, rather than image analysis of camera images, as further described below. may be done.

主ディスプレイ102及び補助ディスプレイ124は、ユーザ150が見ることができる視覚情報を表示するように構成される。表示情報は、(以下にさらに詳述されるように)例えば英数字及び/又は記号を含むグラフィックメニュー又は表の形態で、選択可能なオプションを有するグラフィック制御要素を含んでもよい。主ディスプレイ102は、コンピュータモニタ、テレビモニタ、タブレット又は携帯電話のディスプレイ、プラズマ又はLCD画面、発光ダイオード(LED)ディスプレイ、三次元表示ディスプレイ(例えば、ホログラフィックディスプレイ)などを含む(但し、これらに限定されない)、任意の適宜のフォーマット又は基礎技術を用いて視覚情報を提示することが可能な任意のデバイス又は機構でもよい。主ディスプレイ102は、ヘルメット、ヘッドバンド、バイザー、眼鏡、ゴーグルなどの、ユーザ150によって装着されるウェアラブル装置内に埋め込まれたヘッドマウントディスプレイ(HMD)によって具現化されてもよい。システム100は、代替的に、主ディスプレイ102及び補助ディスプレイ124に加えて、又はそれらの代わりに、可聴及び/又は触覚感知できるフォーマットで情報を提示する可聴インタフェース及び/又は触覚インタフェースを含んでもよい。 Primary display 102 and auxiliary display 124 are configured to display visual information viewable by user 150 . The display information may include graphic control elements having selectable options, for example in the form of graphic menus or tables containing alphanumeric characters and/or symbols (as further detailed below). Primary display 102 includes, but is not limited to, computer monitors, television monitors, tablet or cell phone displays, plasma or LCD screens, light emitting diode (LED) displays, three-dimensional viewing displays (e.g., holographic displays), and the like. not), and may be any device or mechanism capable of presenting visual information using any suitable format or underlying technology. Primary display 102 may be embodied by a head-mounted display (HMD) embedded within a wearable device worn by user 150, such as a helmet, headband, visor, glasses, goggles, or the like. System 100 may alternatively include audible and/or tactile interfaces that present information in an audible and/or tactile perceptible format in addition to or in place of primary display 102 and auxiliary display 124.

プロセッサ104は、様々なシステム構成要素から命令及びデータを受信する。プロセッサ104は、カメラ108によって捕捉された画像フレームに対する画像処理及び解析を行い、かつ画像特徴から情報を抽出するようにも構成される。プロセッサ104は、システム100の他の構成要素から離れた場所に位置してもよい。例えば、プロセッサ104は、通信媒体又はネットワーク上でアクセス可能なリモートコンピュータ、又はリモートコンピュータシステム若しくはマシンなどのサーバの一部でもよい。代替的に、プロセッサ104は、ユーザ150に隣接して位置してもよく、及び/又はシステム100の他の構成要素内に統合されてもよい。プロセッサ104は、十分な演算能力を備えた低コストプロセッサ(例えば、Odroid U3又はRaspberry pi2)によって具現化されてもよく、及びテキストを音声に変換するエンジン及びBluetooth機能を含んでもよい。 Processor 104 receives instructions and data from various system components. Processor 104 is also configured to perform image processing and analysis on image frames captured by camera 108 and extract information from image features. Processor 104 may be located remotely from other components of system 100 . For example, processor 104 may be part of a server, such as a remote computer or remote computer system or machine accessible over a communication medium or network. Alternatively, processor 104 may be located adjacent to user 150 and/or integrated within other components of system 100 . Processor 104 may be embodied by a low-cost processor with sufficient computing power (eg, Odroid U3 or Raspberry pi2) and may include a text-to-speech engine and Bluetooth functionality.

音声ユニット112は、可聴出力を生成するように構成される。可聴出力は、単純なビープ音又はアラームタイプの音声通知からより複雑な音声パターンに及ぶ、変化するトーン又は強度の様々な種類の音を含んでもよい。システム100は、一般的に、複数の形態の可聴出力を生成するように構成されてもよい複数の音声ユニット112を含んでもよい。音声ユニット112は、ヘッドフォンなどの少なくとも1つのスピーカによって具現化されてもよい。 Audio unit 112 is configured to produce an audible output. The audible output may include various types of sounds of varying tones or intensities, ranging from simple beeps or alarm-type audio notifications to more complex audio patterns. System 100 may generally include multiple audio units 112 that may be configured to produce multiple forms of audible output. Audio unit 112 may be embodied by at least one speaker, such as headphones.

コンピュータデバイス114は、スマートフォン、タブレットコンピュータ、及び/又はデジタル音楽プレイヤーなどのモバイルコンピュータデバイス、又はデスクトップコンピュータなどの固定式コンピュータデバイスによって具現化されてもよい。 Computing device 114 may be embodied by a mobile computing device such as a smart phone, tablet computer, and/or digital music player, or a stationary computing device such as a desktop computer.

システム100は、ユーザ150の近くにシステム100の要素を支持するための支持フレーム(不図示)を含んでもよく、又はそれを用いて使用されてもよい。支持フレームは、眼鏡(spectacle)又はメガネ(eye-glasses)によって具現化されてもよい。支持フレームは、強く、かつ可撓性のある可動アームを用いて、光源106及びカメラ108を支持してもよい。可撓性可動アームは、カメラ108を支持するのに十分な弾性及び剛性を有するが、カメラ108の撮像範囲、位置及び/又は視野角を調整するために曲げられるのに十分な可撓性を有する材料から作ることができる。ユーザ150に対する重量及び圧力を低減するために、軽量材料が使用されてもよい。例えば、カメラ108は、ユーザ150の顔に装着されたヘッドギアにワイヤを介して取り付けられてもよく、及びカメラ108がユーザ150の少なくとも一方の目を撮像するように、ユーザ150の顔に向けられてもよい。この位置合わせは、ユーザ150の頭の動きを変化させる間に目の位置合わせを維持するために、又はユーザ150の他の身体的要件に適応するために、自動的に又は手動で再調整されてもよい。LIS患者は、人工呼吸器又は他の医療機器につながれている場合があるので、支持フレームの操作性は、システム100の位置が完全に固定された場合に生じる支障又は制約を最小限に抑えながら、このような患者が、システム100を便利に利用することを可能にすることができる。また、支持フレームは、特定のユーザ150の要件を満たすように、例えば異なる種類の人工呼吸器を持つ人々によって利用可能となるように、調整可能であってもよく、及び/又は構成されてもよい。安定性及び支持を提供する代替技術は、システム100の要素を隣接するカウンター、乗り物、又は車椅子に取り付けることによる。 System 100 may include or be used with a support frame (not shown) for supporting the elements of system 100 near user 150 . The support frame may be embodied by spectacles or eye-glasses. The support frame may support light source 106 and camera 108 using strong and flexible movable arms. The flexible movable arm has sufficient elasticity and stiffness to support the camera 108, but is flexible enough to be bent to adjust the imaging range, position and/or viewing angle of the camera 108. It can be made from any material you have. Lightweight materials may be used to reduce weight and pressure on user 150 . For example, the camera 108 may be attached via wires to headgear worn on the user's 150 face and pointed at the user's 150 face such that the camera 108 images at least one eye of the user 150. may This alignment may be automatically or manually readjusted to maintain eye alignment during changes in user's 150 head movements or to accommodate other physical requirements of user 150. may Since a LIS patient may be on a ventilator or other medical equipment, the operability of the support frame should be minimized while minimizing the hindrance or restriction that would occur if the position of system 100 were completely fixed. , such patients may be able to conveniently utilize the system 100 . Also, the support frame may be adjustable and/or configured to meet the requirements of a particular user 150, such as to be usable by people with different types of ventilators. good. An alternative technique for providing stability and support is by mounting elements of system 100 to adjacent counters, vehicles, or wheelchairs.

システム100の構成要素及びデバイスは、ハードウェア、ソフトウェア、又はそれらの組み合わせに基づいてもよい。システム100の各デバイス又は構成要素に関連付けられた機能性が、単一の位置又は複数の位置に存在し得る複数のデバイス又は構成要素間で分散されてもよいことが理解される。例えば、プロセッサ104に関連付けられた機能性が、複数の処理ユニット(画像処理機能用の専用画像プロセッサなど)の間で分散されてもよい。システム100は、任意選択的に、開示の要旨の実施を可能にする、図1に不図示の追加の構成要素を含んでもよく、及び/又はそれらに関連付けられてもよい。例えば、システム100は、電力を様々な構成要素に提供する電源(不図示)を含んでもよく、及び画像フレーム又は他の種類のデータの一時記憶のためのメモリ又は記憶ユニット(不図示)をさらに含んでもよい。 Components and devices of system 100 may be based on hardware, software, or a combination thereof. It is understood that the functionality associated with each device or component of system 100 may be distributed among multiple devices or components, which may reside in a single location or multiple locations. For example, the functionality associated with processor 104 may be distributed among multiple processing units (such as a dedicated image processor for image processing functions). System 100 may optionally include and/or be associated with additional components not shown in FIG. 1 that enable implementation of the disclosed subject matter. For example, system 100 may include a power supply (not shown) that provides power to the various components, and may also include a memory or storage unit (not shown) for temporary storage of image frames or other types of data. may contain.

これより、例示目的で、LIS患者などの言葉によるコミュニケーションが困難又は不能であることを特徴とするユーザ150の観点から、システム100の動作を説明する。ユーザ150は、複数のコマンド選択などの、主ディスプレイ102及び/又は補助ディスプレイ124上に提示された視覚情報を見る。カメラ108は、光源106によって照らされたユーザ150の目の画像を捕捉し、プロセッサ104は、捕捉された画像を受信及び処理して、ユーザ150の相対的な目の向きを決定する。相対的な目の向きは、頭の向きに概ね一致する彼/彼女が顔を向けている方向に対するユーザ150が見ている概略の方向(例えば、「上」、「下」、「左」、「右」、「正面」)を表す。従って、相対的な目の向きは、眼窩内の瞳孔の向き又はユーザの頭の向きに対する瞳孔の向きと見なすことができる。例えば、プロセッサ104は、目の捕捉画像を、少なくとも1つの前の捕捉画像と比較することによって、瞳孔の瞬間的な相対的な向き(眼窩又はユーザ150の頭の向きに対する)を決定し、/又は瞳孔の向きにおける過渡変化を検出する。代替的に、プロセッサ104は、カメラ108によって捕捉された画像ではなく、別個のIRセンサなどの別個の光センサによって検出されたユーザ150の目からの反射信号を処理する。例えば、プロセッサ104は、ユーザの目の周りの異なる位置に配置された複数の別個のセンサ(例えば、目の外周の周りで均等に分散された4つのセンサ)の各検出を比較し、センサ検出の特徴(例えば、どのセンサが目から反射された光を検出したか、検出された反射の強度及び/又は到来角)、並びに各センサに対する瞳孔の相対的近接に基づいて、ユーザ150の相対的な目の向きを決定してもよい。 For illustrative purposes, operation of the system 100 will now be described from the perspective of a user 150 characterized by difficulty or inability to verbal communication, such as a LIS patient. User 150 sees visual information presented on primary display 102 and/or auxiliary display 124, such as multiple command selections. Camera 108 captures images of the eyes of user 150 illuminated by light source 106 and processor 104 receives and processes the captured images to determine the relative eye orientation of user 150 . The relative eye orientation is the general direction in which the user 150 is looking relative to the direction he/she is facing (e.g., "up," "down," "left," "up," "down," "left," "right", "front"). Thus, the relative eye orientation can be viewed as the orientation of the pupil in the eye socket or the orientation of the pupil relative to the orientation of the user's head. For example, the processor 104 determines the instantaneous relative orientation of the pupil (relative to the eye socket or orientation of the user's 150 head) by comparing the captured image of the eye to at least one previous captured image; or to detect transient changes in pupil orientation. Alternatively, processor 104 processes reflected signals from user's 150 eyes detected by a separate optical sensor, such as a separate IR sensor, rather than images captured by camera 108 . For example, the processor 104 compares each detection of multiple separate sensors placed at different locations around the user's eye (e.g., four sensors evenly distributed around the circumference of the eye) to determine the sensor detection (e.g., which sensors detected the light reflected from the eye, the intensity and/or angle of arrival of the detected reflections), and the relative proximity of the pupil to each sensor, user's 150 relative You may determine the orientation of your eyes.

ディスプレイ102は、オプション選択表又はメニューを介して複数のオプションを提示する。ユーザ150は、選択するオプションを、彼/彼女の相対的な目の向きが、ディスプレイ102上に提示されたそのオプションの相対的方向と相関するようにアイジェスチャを行うことによって示す。従って、プロセッサ104は、ユーザ150の相対的な目の向きを決定し、決定された相対的な目の向きに基づいて、ユーザ150によって選択されたオプションを決定する。例えば、相対的な目の向きが「右」であると決定されると(すなわち、瞳孔の向きは、ユーザ150の眼窩内の右側にある)、メニューの右側に表示されたオプションが選択されると見なされる。ユーザ選択は、ユーザの正確な注視方向又は目線の決定を必要とせずに(すなわち、ディスプレイ102上の一意的な座標位置を決定するなどの特定の座標系に関してユーザ150が見ている特定の点又は空間座標を決定することなく)、ユーザ150が見ている極めて概略の(曖昧な)方向(例えば、「右」、「左」、「上」、「下」、「正面」)に一致する相対的な目の向きにのみ基づいて決定されることに留意されたい。 Display 102 presents multiple options via an option selection table or menu. User 150 indicates an option to select by making an eye gesture such that his/her relative eye orientation correlates with the relative orientation of that option presented on display 102 . Accordingly, processor 104 determines the relative eye orientation of user 150 and determines the option selected by user 150 based on the determined relative eye orientation. For example, if the relative eye orientation is determined to be "right" (i.e., the orientation of the pupil is to the right within the user's 150 eye socket), then the option displayed on the right side of the menu is selected. considered to be User selection can be made without requiring determination of the user's exact gaze direction or line of sight (i.e., the particular point that user 150 is looking at with respect to a particular coordinate system, such as determining a unique coordinate position on display 102). or without determining spatial coordinates), match the very approximate (vague) direction in which the user 150 is looking (e.g., "right", "left", "up", "down", "front") Note that the determination is based only on relative eye orientation.

プロセッサ104は、ユーザ150の決定された選択に基づいて、少なくとも1つのアクションを行うようにディスプレイ102、音声ユニット112、及び/又はコンピュータデバイス114に命令を提供する。これらのアクションは、例えば、単語、文字、フレーズ、文、又はアラーム警告サイレンを聞こえるように出力すること、異なるメニュー画面又は異なる1つ又は複数のメニューオプションを表示すること、テキストを表示すること、テキスト又はEメールメッセージを生成及び送信すること、及び/又はコンピュータデバイス114上で特定のアプリケーションを実行することでもよい。 Processor 104 provides instructions to display 102, audio unit 112, and/or computing device 114 to perform at least one action based on user's 150 determined selection. These actions are, for example, audibly outputting a word, letter, phrase, sentence, or an alarm warning siren; displaying a different menu screen or one or more menu options; displaying text; It may also generate and send text or email messages and/or run certain applications on computing device 114 .

これより、図2~4を参照して、システム100の選択プロセスをさらに説明する。図2に描かれる例示的表示画面200Sには、2つの別々のメニュー部分が示されている。上側のメニュー部分200は、ユーザ150がシステム100の設定パラメータを選択又は変更することを可能にするように配置された「設定メニュー」である。下側のメニュー部分202は、ユーザ150が、キーワード及びフレーズの所定のセットから特定の単語又は一連の単語(フレーズ)を選択することを可能にするように配置された「単語メニュー」である。1つ又は複数の設定オプション200A、200B、200C、200D、200E及び1つ又は複数の単語オプション202A、202B、202C、202D、202Eが、ある瞬間に、ディスプレイ102、124上に表示される。オプションの選択は、追加のオプションを有するサブメニューを表示させてもよい。 The selection process of system 100 will now be further described with reference to FIGS. The exemplary display screen 200S depicted in FIG. 2 shows two separate menu portions. The upper menu portion 200 is a “setting menu” arranged to allow the user 150 to select or change setting parameters of the system 100 . The lower menu portion 202 is a "word menu" arranged to allow the user 150 to select a particular word or series of words (phrases) from a predetermined set of keywords and phrases. One or more setting options 200A, 200B, 200C, 200D, 200E and one or more word options 202A, 202B, 202C, 202D, 202E are displayed on the display 102, 124 at any given moment. Selecting an option may cause a submenu with additional options to be displayed.

図示された例では、オプション200Aは、異なる言語の選択肢のサブメニューをもたらす「言語オプション」を表す。オプション200Bは、例えば特定のアイジェスチャ又は指示を行うことによって、ユーザ150によって再起動されるまで、待機(すなわち、停止又は低電力)動作モードにシステム100を切り替える「待機オプション」を表す。オプション200Cは、ユーザ150を支援する(例えば、システム100の特定の局面又は要素の使用方法の説明)ように設計された異なるオプションのサブメニューをもたらす「ヘルプオプション」を表す。オプション200Dは、選択されると、音声ユニット112が警報又は警告信号を発することを生じさせる「警告オプション」を表す。オプション200Dは、ユーザ150が窮地及び/又は生命に関わる状況にある場合に特に有用である。警報又は警告サイレンは、例えば続けざまに4回ウインクをするなどの特定のアイジェスチャ又は指示を行うユーザ150によって起動されてもよい。オプション200Eは、ユーザ150がコンピュータデバイス114上でプログラムアプリケーションを実行することを可能にする、プロセッサ104とコンピュータデバイス114との間の通信リンク116を確立する「モバイル接続オプション」を表す。 In the illustrated example, option 200A represents "Language Options" which brings up a sub-menu of different language options. Option 200B represents a "standby option" that switches system 100 to a standby (ie, off or low power) mode of operation until reactivated by user 150, such as by performing a particular eye gesture or instruction. Option 200C represents a "help option" that brings up a sub-menu of different options designed to assist user 150 (eg, explain how to use a particular aspect or element of system 100). Option 200D represents an "alert option" which, when selected, causes audio unit 112 to emit an alarm or warning signal. Option 200D is particularly useful when user 150 is in a critical and/or life-threatening situation. An alarm or warning siren may be activated by user 150 making a specific eye gesture or instruction, such as winking four times in quick succession. Option 200E represents a “mobile connectivity option” that establishes communication link 116 between processor 104 and computing device 114 that allows user 150 to run program applications on computing device 114 .

単語メニュー部分202を参照して、オプション202Aは、「こんにちは」という単語を表し、オプション202Bは、「さようなら」という単語を表し、オプション202Cは、「ありがとう」という単語を表し、オプション202Dは、「助けて」という単語を表す。例えば、オプション202Dの選択は、設定オプション200Dと同様に、音声ユニット112が警報信号又は警告サイレンを発することを生じさせることができる。オプション202Eは、「アプリケーション」という単語を表す。例えば、オプション202Eの選択は、設定オプション200Eと同様に、ユーザがコンピュータデバイス114上でプログラムアプリケーションを実行することを可能にするために、コンピュータデバイス114との通信リンク116を確立するようにプロセッサ104に命令することができる。 With reference to word menu portion 202, option 202A represents the word "hello", option 202B represents the word "goodbye", option 202C represents the word "thank you", and option 202D represents the word "thank you". Represents the word "help me". For example, selection of option 202D, like setting option 200D, may cause audio unit 112 to emit an alarm signal or warning siren. Option 202E represents the word "application". For example, selection of option 202E, similar to configuration option 200E, causes processor 104 to establish communication link 116 with computing device 114 to allow a user to run a program application on computing device 114. can be ordered to

ある例示的実施形態では、「設定」メニュー部分200又は「単語」メニュー部分202からの単一のオプションのみが、ある時点で、ディスプレイ102、124上に表示され、ユーザ150が、適切な目の動き又はジェスチャを実行することによって、現在表示されているメニューオプションを選択すること、又は他の利用可能なメニューオプションを見続けることを可能にする。例えば、各メニュー部分200、202からの個々のオプションは、ユーザ150の相対的な目の向きに応じて、周期的に順次提示されてもよい。具体的には、ユーザ150は、まず、上方向(U)を見ることによって、「設定メニュー」200を選択することができる。続いて、左方向(L1)を見ることによって、ユーザ150は、ディスプレイ102、124上に提示された「設定オプション」を、第1の順番で繰り返し表示させることができ、右方向(R1)を見ることによって、ユーザ150は、「設定オプション」を逆の順番で繰り返し表示させることができる。例えば、ディスプレイ102、124は、まず、設定オプション200A及び202Aのみを提示する。上(U)を見て、次に左(L1)方向を見ることによって、ユーザ150は、設定オプション200E(例えば、設定オプション200Aの代わりに)を表示するようにシステム100に命令することができる。あるいは、上(U)を見て、次に右(R1)方向を見ることによって、ユーザ150は、オプション200B(例えば、オプション200Aの代わりに)を表示するようにシステム100に命令することができる。同様に、まず下(D)を見ることによって、ユーザ150は、「単語メニュー」202を選択することができる。続いて、ユーザ150は、例えば、左(L2)を見ることによって単語オプションを第1の順番で繰り返し表示させる、又は右(R2)を見ることによって単語オプションを第2の順番で繰り返し表示させるなど、ディスプレイ上で「単語オプション」を順次繰り返し表示させることができる。例えば、下(D)を見て、次に左(L2)方向を見ることによって、ユーザ150は、単語オプション202E(例えば、オプション202Aの代わりに)を表示するようにシステム100に命令することができる。あるいは、下(D)を見て、次に右(R2)方向を見ることによって、ユーザ150は、オプション202B(例えば、オプション202Aの代わりに)を表示するようにシステム100に命令することができる。代替の方向構成を等しく適用できることに留意されたい。例えば、ユーザ150は、代替的に、視線を、左方向及び右方向ではなく、上方向及び下方向に向けることによって、メニューオプションを順次繰り返し表示させてもよく、ディスプレイ102、124は、上下構成ではなく、並列で異なるメニュー部分200、202を提示してもよい。 In one exemplary embodiment, only a single option from the "Settings" menu portion 200 or the "Words" menu portion 202 is displayed on the displays 102, 124 at any one time, allowing the user 150 to focus on the appropriate eye. Performing a movement or gesture allows selecting the currently displayed menu option or continuing to view other available menu options. For example, individual options from each menu portion 200 , 202 may be presented in periodic sequence depending on the relative eye orientation of the user 150 . Specifically, the user 150 can first select the “setting menu” 200 by looking upward (U). Subsequently, by looking to the left (L1), the user 150 may cycle through the "setting options" presented on the displays 102, 124 in a first order, and to the right (R1). Viewing allows the user 150 to cycle through the "setting options" in reverse order. For example, displays 102, 124 initially present only setting options 200A and 202A. By looking up (U) and then in the left (L1) direction, user 150 can instruct system 100 to display setting option 200E (eg, instead of setting option 200A). . Alternatively, by looking up (U) and then looking in the right (R1) direction, user 150 can instruct system 100 to display option 200B (eg, instead of option 200A). . Similarly, by first looking down (D), the user 150 can select the “word menu” 202 . Subsequently, the user 150 may, for example, look to the left (L2) to cause the word options to be repeatedly displayed in a first order, or to the right (R2) to cause the word options to be repeatedly displayed in a second order, and so on. , the "word option" can be repeatedly displayed on the display. For example, by looking down (D) and then in the left (L2) direction, user 150 may instruct system 100 to display word option 202E (eg, instead of option 202A). can. Alternatively, by looking down (D) and then looking in the right (R2) direction, user 150 can instruct system 100 to display option 202B (eg, instead of option 202A). . Note that alternative directional configurations are equally applicable. For example, the user 150 may alternatively cycle through the menu options by directing their gaze upward and downward instead of left and right, and the displays 102, 124 are arranged in an up-down configuration. Instead, different menu portions 200 and 202 may be presented in parallel.

ユーザ150は、自身の目を閉じる(ウインクする/まばたきする)、又は例えば前方の目の向きに対して斜めに又は傾斜角(例えば、45°の角度)を成すといった特定の方向を注視するなどの、所定の目に基づいたジェスチャ又は指示を使用することによって、メニュー200、202の一方からオプションを選択することができる。ユーザ150は、彼/彼女が選択プロセスを上手く実行できることを確実にするために、システム100の初期化プロセス中に、使用される適切な目に基づいたジェスチャを選択することができる(例えば、一部のユーザは、まばたきすることが難しい場合があり、従って、代替のジェスチャを選択してもよい)。選択されたジェスチャは、使用前に、システム100の事前セットアップ又は初期化の必要性を排除するために、予め選択されたデフォルトオプションでもよい。例えば、ユーザ150は、下(D)を見て、次に左(L2)及び/又は右(R2)方向を見ることによって、彼/彼女が所望のオプション(例えばオプション202C)に至るまで、単語メニュー202の異なるオプションを繰り返し表示させることができ、次に、下(D)を見て、ジェスチャを行う(例えば、ウインクする)ことによって、オプション202C(「ありがとう」という単語)を選択することができる。単語メニュー202における単語の選択は、選択された単語の可聴表示を提供するように音声ユニット112に命令する。例えば、オプション202Cの選択は、ユーザ150の近くにいる人達に、聞こえるように音声ユニット112から発せられた「ありがとう」という単語を聞かせる。 The user 150 closes (winks/blinks) their eyes, or gazes in a particular direction, for example obliquely or at an oblique angle (eg, a 45° angle) to the forward eye orientation, etc. Options can be selected from one of the menus 200, 202 by using predetermined eye-based gestures or indications. User 150 can select the appropriate eye-based gesture to be used during the initialization process of system 100 to ensure that he/she successfully performs the selection process (e.g., one Some users may find it difficult to blink, so may choose an alternative gesture). The selected gesture may be a pre-selected default option to eliminate the need for pre-setup or initialization of system 100 prior to use. For example, the user 150 may look down (D) and then look in the left (L2) and/or right (R2) directions until he/she reaches the desired option (e.g., option 202C). The different options of menu 202 can be cycled through, and then option 202C (the word "thank you") can be selected by looking down (D) and gesturing (eg, winking). can. Selection of a word in word menu 202 instructs audio unit 112 to provide an audible indication of the selected word. For example, selection of option 202C causes people in the vicinity of user 150 to hear the word “thank you” audibly emitted from audio unit 112 .

強調表示又は太字表示されたテキスト又はカラーフレームなどの一時的な視覚表示が、例えば、オプションが最初に又は暫定的に選択されたが、まだユーザ150によって認証されていないことを示すために、選択されたオプションに適用されてもよい。次に、選択されたオプションに関連付けられた関連機能性を実行する前に、確認用の目に関連したジェスチャ又は指示(2回まばたきするなど)が、ユーザ選択を認証するために必要とされてもよい。加えて、提示されたメニュー内の様々なオプションを区別することを助けるために、形状又は色が用いられてもよい。代替的に、暫定的なユーザ選択が、例えば部分的音声出力をユーザ150に向けることによって、聞こえるように示されてもよい。例えば、最初に(暫定的に)選択されたメニューオプションが、ユーザ150が装着しているオーディオヘッドフォンの単一のチャンネルにのみ放送され、モノ音響再生を提供する(例えば、ヘッドフォンの右耳/右チャンネルにのみ放送することによって)。ユーザ150が、その単語を彼の周囲の環境に聞かせたい場合には、選択された単語は、選択されたオプションに関連付けられた適切な音(又は複数の音)を、音声ユニット112上、及び任意選択的にユーザ150が装着したヘッドフォンの他方の音声チャンネル(例えば、ヘッドフォンの左耳/左チャンネル)上で放送させる、追加の目に関連した指示又はジェスチャ(例えば、まばだき)によって認証される。異なる音声ユニット112間で(例えば、ユーザによってのみ聞くことができるヘッドフォン及び周囲全体で聞くことができるスピーカ間で)、及び単一の音声ユニットの異なる音声チャンネル間で(すなわち、モノ放送)、部分的可聴表示を選択的に指向させることによって、ユーザ150は、システム100によって放送された可聴フィードバックを認識及び制御することができる。 A temporary visual indication, such as highlighted or bolded text or a colored frame, may indicate that the option has been initially or tentatively selected, but has not yet been validated by user 150, for example. may be applied to the options specified. A confirming eye-related gesture or instruction (such as blinking twice) is then required to authenticate the user selection before executing the associated functionality associated with the selected option. good too. Additionally, shapes or colors may be used to help distinguish between various options within the presented menu. Alternatively, a provisional user selection may be audibly indicated, for example, by directing a partial audio output to user 150 . For example, the initially (tentatively) selected menu option is broadcast to only a single channel of the audio headphones worn by the user 150, providing mono sound reproduction (e.g., right ear/right ear of the headphone). by broadcasting only to the channel). If the user 150 wants the word to be heard in his environment, the selected word will play the appropriate sound (or sounds) associated with the selected option on the audio unit 112 and Optionally authenticated by additional eye-related instructions or gestures (e.g., blinking) that are broadcast on the other audio channel of the headphones worn by the user 150 (e.g., the left ear/left channel of the headphones). be. Between different audio units 112 (e.g., between headphones that can only be heard by the user and speakers that can be heard all around), and between different audio channels of a single audio unit (i.e., mono broadcast), partial By selectively directing the audible display, user 150 is able to perceive and control the audible feedback broadcast by system 100 .

音声ユニット112は、代替的に、ディスプレイ102、124による視覚表示の代わりに(又はそれに加えて)、利用可能な選択オプションを可聴フォーマットでユーザ150に提示してもよい。例えば、ユーザ150が、各オプションに関連付けられた異なる目に関連したジェスチャの可聴表示と共に、利用可能なオプションを聞くように、設定メニュー200の設定オプション及び/又は単語メニュー202の単語オプションのリストが、ヘッドフォンを通してユーザ150に放送されてもよい。例えば、ユーザ150は、ユーザ選択を促す以下の音声シーケンスを聞くことができる:「左-こんにちは、右-さようなら、上-はい、下-いいえ、まばたき-メニューを繰り返して」。代替的に、ユーザ150は、単に、単一のオプション、例えば「言語」を聞くことができる。1つ又は複数のオプションが、ユーザ150にのみ放送されてもよい。ユーザ150は、指定された目に関連したジェスチャを実行することによって、異なるオプションメニュー間を移動する、又はオプションを選択することができる。例えば、ユーザ150は、一方の側(例えば、右又は左、上又は下)への一瞥を用いて、異なる単語オプションを繰り返し表示させ、まばたき又はウインクジェスチャを用いて選択を示すことができる。ユーザ選択に続いて、関連付けられた音声出力が、その周囲に対して公開で放送されてもよい。 Audio unit 112 may alternatively present available selection options to user 150 in an audible format instead of (or in addition to) visual representation by displays 102, 124. FIG. For example, a list of setting options in setting menu 200 and/or word options in word menu 202 may be provided so that user 150 hears the available options along with audible indications of different eye-related gestures associated with each option. , may be broadcast to user 150 through headphones. For example, user 150 may hear the following audio sequence prompting the user to select: "Left--Hello, Right--Bye, Up--Yes, Down--No, Blink--Repeat Menu." Alternatively, the user 150 can simply listen to a single option, eg "Language". One or more options may be broadcast only to users 150 . The user 150 can navigate between different option menus or select options by performing designated eye-related gestures. For example, user 150 may use a glance to one side (eg, right or left, up or down) to cycle through different word options, and may use a blink or wink gesture to indicate selection. Following user selection, the associated audio output may be publicly broadcast to the surroundings.

そのため、システム100の選択インタフェースは、視覚インタフェース(ディスプレイ102、124上に提示された視覚メニュー)、可聴インタフェース(プロセッサ104及び音声ユニット112によって提供される可聴メニュー)及び/又は触覚インタフェース(不図示)でもよい。従って、システム100は、ディスプレイ102、124がなくても、設定メニュー200及び単語メニュー202(図2)に相当する選択メニューを提示することができる。ディスプレイの排除は、患者のベッドの隣に設置され得るストレスとなるデバイスと同様に、回復期の患者(例えば、手術後)が、看護師に依頼する、又は家族とコミュニケーションをとることを可能にすることによって、医療機関の状況下において特に有益となり得ることが理解される。さらに、ディスプレイ102、124の排除は、システム100の構成要素の数の減少に役立ち、このことは、全体的なコストを低下させ、かつより大きな可動性及び利用可能性を提供することができる。 As such, the selection interface of system 100 may be a visual interface (visual menus presented on displays 102, 124), an audible interface (audible menus provided by processor 104 and audio unit 112) and/or a tactile interface (not shown). It's okay. Thus, the system 100 can present selection menus equivalent to the settings menu 200 and word menu 202 (FIG. 2) without the displays 102,124. Elimination of displays, as well as stressful devices that can be placed next to the patient's bed, allow recovering patients (e.g., after surgery) to ask nurses or communicate with family members. It is understood that doing so can be particularly beneficial in the setting of a medical institution. Additionally, the elimination of displays 102, 124 helps reduce the number of components of system 100, which can lower overall cost and provide greater mobility and availability.

例示的表示画面200S(図2)を参照して、ディスプレイ102、124は、代替的に、代わりに他方のメニュー200、202(又は現在表示されていない別の利用可能メニュー)を表示することを可能にする選択可能オプションをメニュー200、202の各々に提示しながら、ある瞬間に、単一のメニュー部分200、202のみを選択的に表示してもよい。例えば、設定メニュー200は、「単語メニューへの切り替え」オプション(不図示)を含んでもよく、それに応じて、単語メニュー202は、「設定メニューへの切り替え」オプション(不図示)を含んでもよく、2つの各メニュー200、202間のトグリングを可能にする。このような表示構成は、ユーザ150の目の動きを左又は右方向にのみ限定する(及び上方向及び下方向への目の動きの必要性を除去する)ことによって、選択プロセスの単純化に役立ち得る。単に彼/彼女の注視を概略の方向(例えば、左又は右)に変えるだけで、表示されたメニュー200、202を順次繰り返し表示させる機能は、ユーザ150が、比較的簡単かつ迅速に利用可能なメニューオプションの全てにアクセスすることを可能にすることがさらに理解されるだろう。例えば、ある特定のメニューが10個の可能なオプションから構成される場合、いずれのオプションも、メニューの5「サイクル」以内に到達することができる(例えば、単語メニュー202が5個のオプションを含む図2の例では、オプション202Dは、オプション202Aから開始して、左に2回、又は右に3回繰り返すことによって到達することができる)。単語メニュー202において提供される語彙は、問題となっているターゲットオーディエンス又はユーザにとって重要性が高く、及び高頻度であることが分かった特定数の予め決定された単語に限定されてもよい。ある単語メニュー202の利用可能な単語オプションは、部分的又は完全に、ユーザ150によって予め選択及び/又は編集されてもよい。単語メニュー202の語彙に関連付けられた各音声出力は、システム100の稼働前に前もって生成されてもよく(例えば、話される単語及び/又はフレーズに対応した様々な音声ファイルを事前に録音することによって)、又はリアルタイムで生成されてもよい(例えば、テキストを音声に変換する、又は発音表記音声合成器を用いて)。 Referring to exemplary display screen 200S (FIG. 2), displays 102, 124 alternatively display the other menu 200, 202 (or another available menu not currently displayed) instead. Only a single menu portion 200, 202 may be selectively displayed at a given moment, while each menu 200, 202 presents the selectable options that are enabled. For example, settings menu 200 may include a "switch to words menu" option (not shown) and, correspondingly, words menu 202 may include a "switch to settings menu" option (not shown). Allows toggling between each of the two menus 200,202. Such a display configuration helps simplify the selection process by limiting the user's 150 eye movements to only left or right directions (and eliminating the need for upward and downward eye movements). can be useful. The ability to cycle through the displayed menus 200, 202 simply by changing his/her gaze in a general direction (e.g., left or right) is relatively easy and quick to use for the user 150. It will further be appreciated that it allows access to all of the menu options. For example, if a particular menu consists of 10 possible options, any option can be reached within 5 "cycles" of the menu (e.g., word menu 202 contains 5 options). In the example of FIG. 2, option 202D can be reached by starting with option 202A and repeating left two times or right three times). The vocabulary provided in word menu 202 may be limited to a certain number of predetermined words found to be of high importance and high frequency to the target audience or user at issue. The available word options of a word menu 202 may be partially or fully pre-selected and/or edited by user 150 . Each audio output associated with the vocabulary of word menu 202 may be pre-generated (e.g., by pre-recording various audio files corresponding to spoken words and/or phrases) prior to operation of system 100. by), or may be generated in real-time (eg, by converting text to speech or using a phonetic transcription speech synthesizer).

上述の通り、文字グループメニューを示すメニューオプションを含む単語メニュー202など、あるメニューオプションが、表示することのできる異なるサブメニューを示してもよい。代替的に、単語メニュー202におけるモバイル接続オプション200E、202Eの選択は、異なるメニュー又はサブメニュー、例えば文字グループメニューを含むアプリケーションを実行中のコンピュータデバイス114との通信リンク116をプロセッサ104に形成させることができる。 As noted above, certain menu options may indicate different sub-menus that can be displayed, such as word menu 202, which includes menu options that indicate letter group menus. Alternatively, selection of mobile connectivity options 200E, 202E in word menu 202 causes processor 104 to form communication link 116 with computing device 114 running an application that includes a different menu or sub-menu, such as a letter group menu. can be done.

これより、通常300で参照される、選択用の異なる文字グループオプション302、304、306、308、310を含む、文字オプションメニュー例を提示するディスプレイ102、124上の例示的表示画面300Aの図である図3Aを参照する。文字グループメニュー300は、書かれたテキスト又はメッセージを作成するため、又は伝達される若しくは単語メニュー202に追加される単語のスペリングを伝えるために使用されてもよい。図3Aの図示された例では、オプション302は、「ABCDE」の文字グループを表し、オプション304は、「FGHIJ」の文字を表し、オプション306は、「KLMNO」の文字を表し、オプション308は、「PQRST」の文字を表し、オプション310は、「UVWXY」の文字を表す。文字グループオプション302、304、306、308、310は、各文字グループが、ディスプレイ102、124の離れた領域(すなわち、上、下、左、右、又は中央)に位置した十字形構成で提示される。図2を参照して先に説明したメニューオプションの選択と類似して、ユーザ150は、相対的な目の向き及び/又は目に関連したジェスチャのみを用いて、文字グループメニュー300の利用可能なオプションを選択することができる。例えば、ディスプレイ102、124上で文字グループメニュー300を見ながら、ユーザ150は、上方向(U)を注視することによってオプション302を選択することができ、左方向(L)を注視することによってオプション304を選択することができ、右方向(R)を注視することによってオプション308を選択することができ、又は下方向(D)を注視することによってオプション310を選択することができる。ユーザ150は、一方若しくは両方の目を閉じる(ウインクする/まばたきする)、又は前方の相対的な目の向きに対して斜めの若しくは傾斜した角度(例えば、45°の角度)で注視するなどの、所定の目に関連したジェスチャ又は指示を行うことによって、中央のオプション306を選択することができる。オプションは、上述の文字をアナウンスする音声ユニット112によって伝達されてもよい。 With reference now generally to 300 of an exemplary display screen 300A on a display 102, 124 presenting an example letter option menu including different letter group options 302, 304, 306, 308, 310 for selection. See one FIG. 3A. Letter group menu 300 may be used to compose written text or messages, or to convey the spelling of words that are conveyed or added to word menu 202 . In the illustrated example of FIG. 3A, option 302 represents the letters "ABCDE", option 304 represents the letters "FGHIJ", option 306 represents the letters "KLMNO", and option 308 represents the letters "KLMNO". Represents the letters "PQRST" and option 310 represents the letters "UVWXY". Character group options 302, 304, 306, 308, 310 are presented in a cross-shaped configuration with each character group located in a separate area (i.e., top, bottom, left, right, or center) of display 102, 124. be. Similar to the selection of menu options described above with reference to FIG. 2, user 150 can select the available options of character group menu 300 using only relative eye orientation and/or eye-related gestures. Options can be selected. For example, while viewing letter group menu 300 on display 102, 124, user 150 may select option 302 by gazing upward (U) and option 302 by gazing left (L). 304 can be selected, option 308 can be selected by gazing right (R), or option 310 can be selected by gazing down (D). User 150 may close (wink/blink) one or both eyes, or gaze at an oblique or oblique angle (eg, a 45° angle) relative to the forward relative eye orientation, etc. , the center option 306 can be selected by performing a predetermined eye-related gesture or indication. Options may be conveyed by voice unit 112 announcing the characters described above.

「G」の文字の選択が行われている、異なるセクションに分割された図3Aの例示的文字グループメニュー300を提示する、ディスプレイ102、124上の例示的表示画面300Bの図である図3Bを参照する。 FIG. 3B is an illustration of an exemplary display screen 300B on displays 102, 124 presenting the exemplary letter group menu 300 of FIG. 3A divided into different sections with selection of the letter "G"; refer.

文字グループメニュー300の文字グループオプション(例えば302又は304)の選択は、選択された文字グループの個々の文字を表す別のサブメニュー(すなわち400)の表示をもたらすことができる。例えば、ユーザ150が、文字グループオプション302(ABCDEの文字)を選択するために上を注視すると、ディスプレイ102、124は、関連付けられたABCDEの文字サブメニューを表示する。これより、通常400で参照される、選択用の異なる個々の文字オプション402、404、406、408、410を含む、ABCDEの文字サブメニューを提示する、ディスプレイ102、124上の例示的表示画面400Aの図である図4を参照する。文字サブメニュー400は、選択された文字グループオプション302(図3A)に相当する。メニュー400の図示された例では、オプション402は、「A」の文字を表し、オプション404は、「B」の文字を表し、オプション406は、「C」の文字を表し、オプション408は、「D」の文字を表し、オプション410は、「E」の文字を表す。文字グループメニュー300と同様に、個々の文字オプションもまた、各文字グループが、ディスプレイ102、124の離れた領域(すなわち、上、下、左、右、又は中央)に位置した十字形構成で提示される。ユーザ150は、相対的な目の向き及び/又は目に関連したジェスチャを用いて、個々の文字サブメニュー400の利用可能なオプションを選択することができる。例えば、ユーザ150は、上方向(U)を注視することによってオプション402を選択することができ、左方向(L)を注視することによってオプション404を選択することができ、右方向(R)を注視することによってオプション408を選択することができ、下方向(D)を注視することによってオプション410を選択することができる。ユーザ150は、一方又は両方の目を閉じる(ウインクする/まばたきする)などの、所定の目に関連したジェスチャ又は指示を行うことによって、中央のオプション406を選択することができる。 Selection of a character group option (eg, 302 or 304) of the character group menu 300 may result in the display of another submenu (ie, 400) representing individual characters of the selected character group. For example, when the user 150 gazes up to select the letter group option 302 (the letters ABCDE), the display 102, 124 displays the associated letter ABCDE submenu. Hereafter, an exemplary display screen 400A on displays 102, 124 presenting a letter submenu of ABCDE, generally referenced 400, with different individual letter options 402, 404, 406, 408, 410 for selection. Please refer to FIG. 4, which is a diagram of. Character submenu 400 corresponds to selected character group option 302 (FIG. 3A). In the illustrated example of menu 400, option 402 represents the letter 'A', option 404 represents the letter 'B', option 406 represents the letter 'C', and option 408 represents the letter 'C'. option 410 represents the letter "D" and option 410 represents the letter "E". Similar to character group menu 300, individual character options are also presented in a cross-shaped configuration with each character group located in a separate area (i.e., top, bottom, left, right, or center) of display 102, 124. be done. User 150 can select available options of individual character submenu 400 using relative eye orientation and/or eye-related gestures. For example, the user 150 can select option 402 by gazing upwards (U), select option 404 by gazing leftwards (L), and select option 404 by gazing rightwards (R). Option 408 can be selected by gazing, and option 410 can be selected by gazing down (D). User 150 may select center option 406 by performing a predetermined eye-related gesture or instruction, such as closing one or both eyes (winking/blinking).

サブメニュー400の個々の文字の選択は、ユーザ150による確認を必要とし得る、ディスプレイ102、124上に表示される選択された文字の視覚表示(例えば、選択された文字を強調表示する、又はその周りに視覚的な縁を提示することによる)をもたらしてもよい。代替的に、又は追加的に、選択された文字の音声表示が、音声ユニット112によって生成されてもよい。選択された文字は、ユーザ150によって作成中のテキストメッセージ又はテキストベースの命令にさらに加えられてもよい。例えば、上を見てオプション402を選択することにより、ディスプレイ102上に表示された文字「A」の視覚表示を提供し、ユーザ150によって作成中のメッセージのテキストに「A」の文字を入力しながら、「A」の文字の音を発するように音声ユニット112に命令する。完成された単語は、単語メニュー202に追加され、及び保存されてもよい。 Selection of individual letters of the submenu 400 may require confirmation by the user 150, a visual representation of the selected letter displayed on the display 102, 124 (e.g., highlighting the selected letter or by presenting a visual edge around it). Alternatively or additionally, a phonetic representation of the selected character may be generated by the phonetic unit 112 . The selected characters may also be added to text messages or text-based instructions being composed by user 150 . For example, looking up and selecting option 402 provides a visual representation of the letter "A" displayed on display 102 and causes user 150 to enter the letter "A" into the text of the message being composed. while instructing the voice unit 112 to produce the sound of the letter "A". The completed word may be added to word menu 202 and saved.

文字グループメニュー300又は個々の文字メニュー400は、代替的に、任意の数のオプション(必ずしも5個のオプションではない)を表示するように構成されてもよいことに留意されたい。例えば、ユーザ150が、「中央」のオプションの選択を示すための適切なアイジェスチャを実行することが難しい場合には、4個のオプションのみが表示されてもよい。このように、視覚的に提示されるメニューは、追加の目に関連したジェスチャの必要性を除去しながら、相対的な目の向き(例えば、上、下、左又は右)のより一般的な選択のみに基づいてユーザ選択を取得するように構成することができる。4個のオプションのみを含むメニューの中央の領域は、空けたままでもよく、又はメニューのタイトル(すなわち、選択可能なオプションではない)を表示してもよい。代替的に、システム100は、例えば、まばたきをコントロールすることが困難な、又は不随意のまばたきを経験する個人のために、選択を示すための4つの斜め方向(右上、左上、右下、左下)及び任意選択的な真っ直ぐな方向(例えば、真っ直ぐ下)を指定してもよい。 Note that character group menu 300 or individual character menu 400 may alternatively be configured to display any number of options (not necessarily five options). For example, if user 150 has difficulty performing a suitable eye gesture to indicate selection of the "middle" option, only four options may be displayed. In this way, visually presented menus can be more general relative eye orientation (e.g., up, down, left or right) while removing the need for additional eye-related gestures. It can be configured to obtain user selections based solely on the selection. The central area of the menu containing only four options may be left empty or may display the title of the menu (ie, no selectable options). Alternatively, system 100 may provide four diagonal directions (upper right, upper left, lower right, lower left) to indicate selection, for example, for individuals who have difficulty controlling blinking or experience involuntary blinking. ) and an optional straight direction (eg, straight down) may be specified.

異なるメニューオプションが、ディスプレイ102、124上のそれらの異なる相対的位置に加えて、各表示されるメニューオプションに対して追加の視覚的区別を提供するために、固有の視覚的効果又は特徴を有して表示されてもよい。例えば、異なるオプションが、ユーザ150によって、より簡単に認識され、識別され、及び互いに見分けることが可能となるように、各メニューオプションは、異なる色形状又は縁のスタイルで表示されてもよい。メニューは、ユーザ150が、前に選択されたオプション、前に表示されたメニュー、又はプリセットの決定されたアクションに戻ることを可能にする「リターンオプション」を含んでもよい。代替的に、システム100は、メニューオプションの最終選択に続いて、ユーザ150が、前のメニュー又はデフォルトメニューに自動的に戻ることができるように構成されてもよい。上述の通り、選択されたオプションに対して、オプションが最初に選択されたことを示す表示が提供されてもよい。表示は、例えば、強調表示又は太字表示されたテキスト、カラーフレーム、及び/又はユーザ150によって装着されたヘッドフォンの少なくとも一方の耳に発せられる可聴表示でもよい。次に、システム100は、選択されたオプションの選択を認証又は確認し、それによって、オプションが選択されたこと及び/又はどのオプションが選択されたかをユーザ150に知らせる視覚及び/又は音声表示を提供するための指定の確認ジェスチャ(2回まばたきするなど)を待ってもよい。 Different menu options, in addition to their different relative positions on the displays 102, 124, have unique visual effects or characteristics to provide additional visual distinction for each displayed menu option. may be displayed as For example, each menu option may be displayed with a different color shape or border style so that the different options can be more easily recognized, identified, and distinguished from each other by the user 150. The menus may include a "return option" that allows the user 150 to return to a previously selected option, a previously displayed menu, or a preset determined action. Alternatively, system 100 may be configured to allow user 150 to automatically return to a previous or default menu following final selection of a menu option. As noted above, for selected options, an indication may be provided that the option was first selected. The indication may be, for example, highlighted or bolded text, a color frame, and/or an audible indication emitted to at least one ear of headphones worn by user 150 . System 100 then authenticates or confirms selection of the selected option, thereby providing visual and/or audio indications to inform user 150 that the option has been selected and/or which option has been selected. It may wait for a specified confirmation gesture (such as blinking twice) to do so.

ユーザ150によるオプションの選択を実行するための目に関連したジェスチャは、個々のアクション又はジェスチャのシーケンスを含んでもよい。このようなシーケンスは、サブメニューの提示を回避しながら、提示されたメニューに関連付けられたサブメニューにおける利用可能なオプションの直接的選択を可能にすることもできる。例えば、ユーザ150は、図4の「個々の文字のサブメニュー」400を表示することなく、図3Aの「文字グループメニュー」300を見ながら、2つの連続した所定の目に関連したジェスチャを行うことによって、個々の文字を選択することができる。第1のジェスチャが、ある特定の文字グループ(例えば、文字グループ308)を選択し、次に、その文字グループ内の個々の文字の色又は位置に基づき得る第2のジェスチャが、ある特定の文字(例えば「S」の文字)を選択し、それによって、個々の文字のサブメニュー400の表示を回避する。例えば、各表示された文字グループ302、304、306、308、310内の個々の文字は、関連の方向に表示されたカラーインジケータによって示されてもよい各方向に対応するように色分けされてもよい。例えば、各文字グループの最初の文字「A」、「F」、「K」、「P」、及び「U」が、全て1つの色(例えばオレンジ色)で描写されてもよく、特定の方向(例えば上)を向く矢印によって表されるオレンジ色のカラーインジケータが、ディスプレイ102、124上に表示されてもよい。従って、まず左(L)を見ることによって、ユーザ150は、オプション304(すなわち、文字グループ「FGHIJ」全体)を選択し、続いて上(UP)(すなわち、オレンジ色のインジケータ方向に向けて)を見ることによって、ユーザ150は、文字グループ304の中からある特定の文字(例えば「F」の文字)を選択する。選択されたメニューオプションを表示するために使用される色は、視覚又は知覚能力の障害を特徴とするユーザ150であっても確実に知覚できるように、簡単に識別でき、かつ非常に目に付きやすい特定の色でもよい。ディスプレイ102、124によって表示されるメニューアイテムのグラフィック要素は、テキスト又は英数字に限定されず、例えば、「スペースバーアイコン」、「バックスペース/デリートアイコン」、「メインメニューに戻る又は帰るアイコン」などの様々なアクション又は選択可能なオプションを表す様々な種類の記号、アイコン、又は画像を含んでもよいことに留意されたい。視覚出力に関して、ユーザ150は、複数の画像、記号、又は絵(例えば、食べ物を載せた皿、水の入ったグラス、車、車椅子など)を有するオプションメニューが提供されてもよい。選択された絵は、補助ディスプレイ124などの外部画面上でユーザの周囲に対して表示されてもよく、又は別のデバイスへ(例えば、友人若しくは看護師の携帯電話へ)のメッセージにおいて送信されてもよい。代替的に、絵の選択は、適切な音声出力を生じさせることができ、例えば、食べ物の乗った皿の絵の選択は、「食べ物」という単語の可聴出力を生じさせる。 Eye-related gestures for effecting option selection by user 150 may include individual actions or sequences of gestures. Such a sequence may also avoid presenting a submenu while allowing direct selection of available options in a submenu associated with the presented menu. For example, the user 150 performs two consecutive predetermined eye-related gestures while viewing the "character group menu" 300 of FIG. 3A without displaying the "individual character submenu" 400 of FIG. allows you to select individual characters. A first gesture selects a particular character group (e.g., character group 308), and then a second gesture, which may be based on the color or position of individual characters within that character group, selects a particular character group. (eg the letter "S"), thereby avoiding the display of the individual letter submenu 400. For example, individual characters within each displayed character group 302, 304, 306, 308, 310 may be color-coded to correspond to each direction, which may be indicated by color indicators displayed in the associated direction. good. For example, the first letters 'A', 'F', 'K', 'P', and 'U' of each letter group may all be depicted in one color (e.g., orange) and may be drawn in a particular direction. An orange color indicator represented by an arrow pointing (eg, up) may be displayed on the display 102,124. Thus, by looking first to the left (L), user 150 selects option 304 (ie, the entire letter group "FGHIJ") and then up (UP) (ie, toward the orange indicator). , the user 150 selects a particular letter (eg, the letter “F”) from among the letter group 304 . The colors used to display the selected menu options are easily discernible and highly visible to ensure that even users 150 characterized by visual or sensory impairments can perceive them. It may be a specific color that is easy to wear. The graphical elements of the menu items displayed by the displays 102, 124 are not limited to text or alphanumeric characters, such as "spacebar icon", "backspace/delete icon", "back or return to main menu icon", etc. Note that various types of symbols, icons, or images representing various actions or selectable options of may be included. With respect to visual output, user 150 may be provided with an option menu having multiple images, symbols, or pictures (eg, plate of food, glass of water, car, wheelchair, etc.). The selected picture may be displayed to the user's surroundings on an external screen, such as auxiliary display 124, or sent in a message to another device (e.g., to a friend's or nurse's cell phone). good too. Alternatively, selection of a picture can result in an appropriate audio output, for example selection of a picture of a plate of food results in an audible output of the word "food".

システム100は、ユーザによって選択された最初の数文字に基づいて、完全な単語を予測し、提案することを支援する単語予測アプリケーションを含んでもよい。例えば、ユーザ150が以下の文字シーケンス:「H-E-L」を選択した場合、システム100は、ディスプレイ102、124上に、又は音声ユニット112を用いて、提案された単語を提示することによって、「help」又は「hello」という単語を提案することができる。システム100は、プロセッサ104によって決定された文脈に基づいて、全単語又は文完成を利用することさえできる。ユーザ150は、例えば、左又は右方向を見ることによって、ディスプレイ上で、異なる提案された完全な単語を繰り返し表示させることができる。ユーザ150による提案された単語の選択は、適切な目に関連したジェスチャ又は指示を用いて行うことができる。このようにして、ユーザ150による単語の選択を加速し、かつ精度を向上させることができる(ユーザ150が追加の文字の選択を継続する必要性を除去し、ユーザによる後続の不注意の間違った文字選択を避けることによって)。完成された単語は、聞こえるように又は視覚的に示すことができ、該当する場合は、音声ファイル及び/又はテキストファイルとして保存又は転送されてもよい。単語予測機能は、言語モデル及び語彙ライブラリに基づいてもよく、及び、例えばユーザの言語習慣を学習して、そのユーザに関連付けられた今後提案される単語完成を向上させるなどの適応性を有していてもよい。 The system 100 may include a word prediction application that helps predict and suggest complete words based on the first few letters selected by the user. For example, if the user 150 selects the following letter sequence: "HEL", the system 100 will present the suggested word on the display 102, 124 or by using the voice unit 112 , "help" or "hello". System 100 may even utilize whole word or sentence completions based on the context determined by processor 104 . The user 150 can cycle through different suggested complete words on the display, for example, by looking left or right. Suggested word selection by the user 150 can be made using appropriate eye-related gestures or indications. In this manner, word selection by the user 150 can be accelerated and improved in accuracy (eliminate the need for the user 150 to continue selecting additional letters and avoid subsequent inadvertent erroneous selection by the user). by avoiding character selection). The completed word can be audibly or visually indicated and, if applicable, saved or transferred as an audio and/or text file. The word prediction function may be based on language models and vocabulary libraries and is adaptive, such as learning a user's language habits to improve future suggested word completions associated with that user. may be

個々の文字のスペリングを伝えることによって単語を示すのではなく、ユーザ150は、表示された「単語メニュー」上で直接所望の単語を探してもよい。このようなメニューは、実際の単語、又はトピック若しくは主題(例えば、「食べ物」、「衣服」、「色」など)によって分類される単語のカテゴリを表す異なるオプションを含んでもよい。最初に表示された単語オプションの選択は、最初に選択された単語に続く論理的な単語オプションを有するサブメニューの表示を生じさせることができる。例えば、単語メニューは、まず、5つの異なるカテゴリを提示してもよい。ある特定のカテゴリが選択されると、そのカテゴリ内の5個の新しい単語のサブメニューが提示される。これらの新しい単語の各々が、さらなるサブカテゴリをもたらし、以下同様でもよい(例えば、「衣服」-「シャツ」-「ドレスシャツ」)。このようにして、可能性がある単語のかなり多い語彙が、ユーザ150に利用可能となる。例えば、各単語メニュー画面が合計5個のオプションを提示すると仮定すると、ユーザ150は、潜在的に、たった5個の目に関連したジェスチャを用いて、3000個を超える異なる単語にアクセスすることができる(すなわち、最初の4つのメニュー画面上の各オプションが、単語オプションのサブカテゴリを示す場合)。 Rather than suggesting words by conveying the spelling of individual letters, user 150 may search for the desired word directly on the displayed "word menu." Such menus may include different options representing actual words, or categories of words grouped by topic or subject (eg, "food", "clothes", "color", etc.). Selection of the first displayed word option can cause the display of a sub-menu with logical word options following the first selected word. For example, a word menu may initially present five different categories. When a particular category is selected, a submenu of 5 new words within that category is presented. Each of these new words may lead to additional subcategories, and so on (eg, "clothes"-"shirts"-"dress shirts"). In this way, a fairly large vocabulary of possible words is made available to the user 150 . For example, assuming each word menu screen presents a total of 5 options, user 150 could potentially access over 3000 different words using only 5 eye-related gestures. Yes (ie, if each option on the first four menu screens represents a subcategory of word options).

ユーザ150は、好ましい頻出の単語又は文を保存し、今後の動作セッションにおいて、当該単語/文に直接アクセスすることを可能にすることができる。システム100は、ユーザ150の好み及び習慣を適応的に学習し、それに応じて、異なるメニュー画面の利用可能な単語又はオプションを修正又は更新することもできる。ユーザによって以前に選択された好ましい又は頻出の単語又はオプションの優先順位を付けることによって、システム100の動作は、より効率的及びより直感的となることができる。システム100は、例えばインターネットを介したインタフェース(不図示)、プロセッサに結合された入力デバイス、又はコンピュータデバイス114のアプリケーションをさらに含むことによって、特定のユーザ(又は管理者)が、そのユーザ用の特定のメニューをカスタマイズすることを可能にすることができる。このようなメニューのカスタマイズは、個々のユーザ又は特定グループのユーザが、より関連性のある、又は当該ユーザ/グループによって頻繁にアクセスされる可能性の高い単語から選択することを可能にする。このカスタマイズは、様々な種類の特殊なニーズを持つ様々な異なるユーザに対応することにも役立つ。 The user 150 can save preferred frequent words or sentences and allow direct access to those words/sentences in future operational sessions. The system 100 can also adaptively learn the preferences and habits of the user 150 and modify or update the available words or options of different menu screens accordingly. By prioritizing preferred or frequent words or options previously selected by the user, operation of system 100 can be more efficient and more intuitive. System 100 may further include an interface (not shown), for example via the Internet, an input device coupled to the processor, or an application on computing device 114 to allow a particular user (or administrator) to access a particular menu can be customized. Such menu customization allows individual users or specific groups of users to select from words that are more relevant or likely to be accessed frequently by that user/group. This customization also helps accommodate different users with different kinds of special needs.

これより、図5A~5Fを参照する。図5A~5Fは、図1のシステム100のカメラ108によって捕捉されたユーザ150の目の画像例の模式図である。各画像(500A、500B、500C、500D、500E、500F)は、4つの象限:ユーザ150が上を見ていることに対応した上象限502;ユーザ150が下を見ていることに対応した下象限504;ユーザ150が右を見ていることに対応した左象限506;及びユーザ150が左を見ていることに対応した右象限508に分割される。プロセッサ104は、捕捉画像における目の瞳孔の大まかな又は概略の位置を決定する。例えば、プロセッサ104は、どの領域又は象限に瞳孔が位置する可能性が最も高いか(すなわち、その中に瞳孔の大部分が位置する)、又は瞳孔が画像の中心に又はその付近にあるかどうかを決定することができる。瞳孔が見つからない場合には、プロセッサ104は、目がまばたきをしている、又はウインクをしていると決定することができる。 Reference is now made to Figures 5A-5F. 5A-5F are schematic diagrams of example images of the eyes of user 150 captured by camera 108 of system 100 of FIG. Each image (500A, 500B, 500C, 500D, 500E, 500F) has four quadrants: an upper quadrant 502 corresponding to user 150 looking up; a lower quadrant 502 corresponding to user 150 looking down; A left quadrant 506 corresponding to user 150 looking to the right; and a right quadrant 508 corresponding to user 150 looking to the left. Processor 104 determines the rough or approximate position of the pupil of the eye in the captured image. For example, the processor 104 determines in which region or quadrant the pupil is most likely to be located (i.e., in which the majority of the pupil is located), or whether the pupil is at or near the center of the image. can be determined. If no pupil is found, processor 104 can determine that the eye is blinking or winking.

瞳孔の概略の位置及び/又は瞳孔の方向の変化(例えば、左、右、上又は下方向への動き)に基づいて、プロセッサ104は、ディスプレイ102、124上の対応する位置(上、下、左、右、又は中心)を決定し、従って、メニュー(200、300、400)の選択された/所望のオプションが表示される。例えば、画像500A(図5A)では、瞳孔Pは、個々の文字メニュー400(図4)のオプション402に対応する上象限502に位置する。各画像500B、500C、500D(図5B、5C、5D)において、瞳孔Pは、それぞれ、個々の文字メニュー400の各文字オプション410「E」、404「B」及び408「B」に対応する、下象限504、左象限506、及び右象限508に位置する(左象限506に位置する瞳孔Pは、ユーザが右方向を見ていることに対応し、右象限508に位置する瞳孔Pは、ユーザが左方向を見ていることに対応する(すなわち、捕捉画像は、ユーザのジェスチャを鏡のように映す)。プロセッサ104が、画像500E(図5E)に示されるように、1つの画像内に、又は最小シーケンスの連続画像を通して、瞳孔P(の少なくとも最小部分)を検出できない場合には、プロセッサ104は、ユーザ150がウインクしている(又はまばたきしている)と決定することができ、これは、メニュー画面上の中央に表示されたオプション(例えば、メニュー400のオプション406)の選択、又はオプション(例えば、文字410「E」)の選択若しくは確認に対応し得る。画像500F(図5F)に示されるように、1つの画像において又は最小シーケンスの連続画像を通して、瞳孔Pがその中心又はその付近にあるとプロセッサ104が検出すると、プロセッサ104は、ユーザ150が前方(上述の方向のいずれでもない)を見ていると判断することができ、これは、ユーザ150が、ある方向を見る又はアイジェスチャを行うまでシステム100が待つ待機モードに対応し得る。分割の実際の数は、異なってもよく、象限に限定されない。 Based on the general position of the pupil and/or the change in the direction of the pupil (eg, left, right, up or down movement), the processor 104 determines the corresponding position on the display 102, 124 (up, down, left, right or center), and thus the selected/desired option of the menu (200, 300, 400) is displayed. For example, in image 500A (FIG. 5A), pupil P is located in upper quadrant 502 corresponding to option 402 of individual text menu 400 (FIG. 4). In each image 500B, 500C, 500D (FIGS. 5B, 5C, 5D), the pupil P corresponds to each letter option 410 "E", 404 "B" and 408 "B" of the individual letter menu 400, respectively. located in the lower quadrant 504, the left quadrant 506, and the right quadrant 508 (the pupil P located in the left quadrant 506 corresponds to the user looking to the right, the pupil P located in the right quadrant 508 corresponds to the user corresponds to looking to the left (i.e., the captured image mirrors the user's gesture.) Processor 104 determines that in one image, as shown in image 500E (FIG. 5E). , or if (at least the smallest portion of) the pupil P cannot be detected through the minimum sequence of consecutive images, the processor 104 can determine that the user 150 is winking (or blinking), which may correspond to selecting an option (eg, option 406 of menu 400) displayed centrally on the menu screen, or selecting or confirming an option (eg, letter 410 "E") Image 500F (FIG. 5F). , when the processor 104 detects that the pupil P is at or near its center, either in one image or through a minimum sequence of successive images, the processor 104 detects that the user 150 is pointing forward (in any of the directions described above). not), which may correspond to a standby mode in which system 100 waits until user 150 looks in a certain direction or makes an eye gesture.The actual number of divisions may vary. well, it is not limited to quadrants.

代替的に、画像500を象限に分割する代わりに、瞳孔の位置(及び相対的な目の向き)を識別するための画像処理中に、画像は、追加の、又はより少ないセクションに分割されてもよい。例えば、プロセッサ104は、目の捕捉画像を、2つのセクション(例えば、中央の垂直仕切りによって分割された左セクション及び右セクション)にのみ分割することによって、瞳孔の左及び右の位置のみを決定してもよい。代替的に、プロセッサ104は、目の捕捉画像を、上及び下のセクション(すなわち、中央の水平境界線によって)に分割することによって、瞳孔の上及び下の位置のみを決定してもよい。さらに代替的に、目の画像は、瞳孔の角度位置及び/又は動き、並びにそれに対応する相対的な目の向きのより正確な決定を必要とするために、8つセクション(ハッシュタグ又はシャープ記号に似せて)に分割されてもよい。瞳孔の位置を識別するための処理を行う際に、画像を多数のセクションに分割することは、ユーザの前方注視に対して様々な斜めの又は傾斜した角度の(例えば、ユーザ150の前方注視方向に対して45°の角度の)瞳孔の位置/相対的な目の向きの決定を向上させることができる。 Alternatively, instead of dividing image 500 into quadrants, the image is divided into additional or fewer sections during image processing to identify pupil position (and relative eye orientation). good too. For example, the processor 104 may only determine the left and right positions of the pupil by dividing the captured image of the eye into only two sections (e.g., left and right sections separated by a central vertical divider). may Alternatively, processor 104 may determine only the upper and lower positions of the pupil by dividing the captured image of the eye into upper and lower sections (ie, by a central horizontal boundary). Still alternatively, the image of the eye has eight sections (hashtag or pound sign ) may be divided into Dividing the image into multiple sections, when processed to identify the location of the pupils, may provide different oblique or oblique angles to the user's forward gaze (e.g., the forward gaze direction of user 150). The determination of pupil position/relative eye orientation can be improved.

より一般的には、プロセッサ104は、目の画像を、特定のメニューオプションが提示されたディスプレイ102、124の特定のセクション又は部分と相関した異なるセクション、部分、又はセグメントに分割してもよい。例えば、文字グループメニュー300及び個々の文字メニュー400は、各メニューオプションを「十字」形状の構成で提示するので、プロセッサ104は、どのメニューオプションがユーザ150によって見られているかを示す瞳孔位置の決定を容易にするために、各処理画像を同様の十字形状に分割してもよい。プロセッサ104は、目の瞳孔Pに加えて、又はその代わりに、ユーザ150の相対的な目の向きを決定するための他の関連する目のパラメータ(例えば、角膜)のトラッキング又は位置特定を行ってもよい。 More generally, the processor 104 may divide the eye image into different sections, parts or segments correlated with the particular section or portion of the display 102, 124 in which the particular menu option was presented. For example, because letter group menu 300 and individual letter menu 400 present each menu option in a "cross" shaped configuration, processor 104 can determine the pupil position indicating which menu option is being viewed by user 150. , each processed image may be divided into similar cruciforms. In addition to or instead of the eye pupil P, the processor 104 may track or locate other relevant eye parameters (eg, the cornea) for determining the relative eye orientation of the user 150. may

プロセッサ104は、捕捉画像のシーケンスを通して、瞳孔Pの位置をトラッキングすることもできる。例えば、プロセッサ108は、基準画像(500REF)を利用することができ、その場合、後続の画像(又は後続画像のシーケンス)を基準画像500REFと比較することによって、瞳孔Pの位置が、基準画像500REFにおけるその位置と比較して変わったかどうか、並びに移動の測定量を決定することができる。このような処理は、元の基準画像及び後続の画像との差を検出及び測定するための計算された画像フィルタに基づいてもよい。捕捉画像のシーケンスを通した目の瞳孔位置のトラッキングに加えて、ユーザ150の相対的な目の向きの方向のみを決定することは、カメラ108の動き(例えば、画像間のユーザの目に対するカメラの動き)を安定させる又は補償する、又はバックグラウンドの変化を補償する必要性を低減させることに役立つことにさらに留意されたい。従って、較正プロセスが必要とされなくてもよい。 Processor 104 can also track the position of pupil P through the sequence of captured images. For example, the processor 108 can utilize a reference image (500REF), in which case the position of the pupil P can be determined by comparing a subsequent image (or sequence of subsequent images) to the reference image 500REF. It can be determined whether it has changed compared to its position in , as well as a measure of movement. Such processing may be based on computed image filters to detect and measure differences between the original reference image and subsequent images. In addition to tracking eye pupil position through a sequence of captured images, determining only the orientation of the user's 150 relative eye orientation can also be used to determine camera 108 movement (e.g., camera relative to user's eye between images). motion), or to reduce the need to compensate for background changes. Therefore, no calibration process may be required.

システム100の較正は必要とされないが、一般的又は工場較正、自動較正、及び手動較正を含む幾つかの較正方法が利用可能となり得る。 Calibration of system 100 is not required, but several calibration methods may be available, including general or factory calibration, automatic calibration, and manual calibration.

一般的較正プロセス例は、以下の通りである。第1のステップは、目の地理的領域(瞳孔領域を含む)に対する画面動き検出を行うことによって相対的変化を検出するために、連続画像を比較することである。画像の形状から導出された経験則に従って、画像において変化する領域が関心領域を表すと仮定することができる。第2のステップは、瞳孔Pの位置を示す関心領域を追従するために、捕捉画像内の空間中の点として瞳孔円をマーキングすることである。第3のステップは、二次元(x-y)軸グリッドの中心として基準点を設定し、目の動きをグリッド上の(x,y)座標に変換することである。十分に高い確率で、瞳孔Pが、中央にある(すなわち、グリッドの中心[0,0]に近い)ことを較正プロセスが決定した時点で、基準点(それに従って基準点座標系(グリッド)が構築される)が選択される。(x,y)座標は、4つの方向(上、下、左及び右)の各々における目の瞳孔Pの動きを表す。第4のステップは、ユーザの動きの範囲を決定してもよい。較正プロセスは、異なるユーザに関連付けられた特定の動きの範囲を適応的に学習してもよい。異なるユーザは、異なる目及び顔の特徴を含む異なる身体的特徴によって特徴付けられる。 An example of a general calibration process is as follows. The first step is to compare successive images to detect relative changes by performing screen motion detection on the geographic region of the eye (including the pupil region). According to a rule of thumb derived from the shape of the image, it can be assumed that the region of change in the image represents the region of interest. The second step is to mark the pupil circle as a point in space within the captured image to follow a region of interest that indicates the position of the pupil P. The third step is to set the reference point as the center of a two-dimensional (xy) axis grid and transform eye movements to (x,y) coordinates on the grid. With sufficiently high probability, when the calibration process has determined that the pupil P is centered (i.e., close to the center [0,0] of the grid), the reference point (and thus the reference point coordinate system (grid) is built) is selected. The (x,y) coordinates represent the movement of the eye's pupil P in each of the four directions (up, down, left and right). A fourth step may determine the range of motion of the user. The calibration process may adaptively learn the particular range of motion associated with different users. Different users are characterized by different physical characteristics, including different eye and facial features.

さらに、各ユーザの顔及び目に対するカメラ108の位置及び向きは、システム100の異なる動作セッション中に、おそらく変化する。その結果、システム100の較正プロセスは、各ユーザのx-y軸(グリッド)上の瞳孔Pの動きの範囲を適応的に学習し、必要に応じて、閾値(それを超えると、特定方向の瞳孔の動きに関する信号が送られる)に設定される範囲を調整する。最小継続時間(例えば、数ミリ秒)の瞳孔Pの非検出は、ユーザによるウインク又はまばたきを表すと見なされる。その時間は、ユーザの自然のまばたきに基づいたものなどの、意図しない選択識別を防止するために調整することができる。システム100の自動較正プロセス(ユーザを促さずに)は、各較正に対する外部(第三者)の支援の必要性を除去することにさらに留意されたい。さらに、システム(アルゴリズム)が、瞳孔Pを識別し、相対的な目の向きを理解する。瞳孔検出能力は、位置及び動きの範囲の識別及び比較、並びに画像500における瞳孔Pの有無の確実な検出を含む。これを行うために、複数の物体検出アルゴリズム及びそれらの組み合わせを用いて、明確性の問題及び比較的大量の計算要件に対処してもよい。専用の較正アルゴリズムは、システムが自動的にそれ自体を較正することを可能にする。代替的に、どのような物体認識ツール(特徴検出)も使用しない非自動較正アルゴリズムが使用されてもよい。すなわち、アルゴリズムは、目(瞳孔P)の正確な位置を識別せずに、システムの動作中に捕捉された画像を、手動較正中に捕捉された画像と比較する。 Moreover, the position and orientation of camera 108 with respect to each user's face and eyes will likely change during different operating sessions of system 100 . As a result, the calibration process of system 100 adaptively learns the range of movement of pupil P on each user's xy axis (grid) and, if necessary, thresholds (above which Adjust the range set for the pupil movement signal). A non-detection of the pupil P of minimal duration (eg, a few milliseconds) is taken to indicate a wink or blink by the user. The time can be adjusted to prevent unintended selection identification, such as based on the user's natural blinks. It is further noted that the automatic calibration process of system 100 (without prompting the user) eliminates the need for external (third party) assistance for each calibration. Additionally, a system (algorithm) identifies the pupil P and understands the relative eye orientation. Pupil detection capabilities include identifying and comparing positions and ranges of motion, and reliably detecting the presence or absence of pupil P in image 500 . To do this, multiple object detection algorithms and combinations thereof may be used to address the ambiguity issue and relatively large computational requirements. A proprietary calibration algorithm allows the system to automatically calibrate itself. Alternatively, a non-automatic calibration algorithm that does not use any object recognition tools (feature detection) may be used. That is, the algorithm compares images captured during system operation with images captured during manual calibration without identifying the exact position of the eye (pupil P).

システム100は、システム100の動作セッションに先立って、単一の初期化プロセスを行う一般的工場較正を行ってもよい。較正(又は初期化)は、動作セッションを通して、通常の使用中に識別される必要がある潜在的な相対的な目の向き(例えば、上、下、左、右及び中心)の各々に対して設計された異なるフィルタ又は所定の写真を用いて、自動的に実行されてもよい。プロセッサ104は、フィルタを画像500に適用することができ、現在処理中の画像500が基準画像500REFに相当する可能性を決定する。各基本状況又は状態に対応する基準画像500REF。システムは、基準画像500REFに基づいて、捕捉画像の等級分けを行い、最高の等級を持つオプションを選択してもよい。 System 100 may undergo a general factory calibration prior to an operating session of system 100, which is a single initialization process. Calibration (or initialization) is performed throughout the motion session for each of the potential relative eye orientations (e.g., up, down, left, right and center) that need to be identified during normal use. It may be done automatically, using different designed filters or a given photo. Processor 104 can apply the filter to image 500 to determine the likelihood that image 500 currently being processed corresponds to reference image 500REF. A reference image 500REF corresponding to each basic situation or state. The system may grade the captured images based on the reference image 500REF and select the option with the highest grade.

システム100は、自己較正又は「自動較正」(すなわち、ユーザに開始するように促す必要がなく、ユーザの意識的な認識なしに動作セッションの経過中に自動的に行われる)を用いて動作してもよい。システム100は、関連の基準に従って、較正プロセスを何時及びどのくらいの頻度で自動的に行うかを決定することができる。自動較正は、例えばシステムが画像中に瞳孔を識別できる時など、所定の条件が満たされた場合に行うことができる。 The system 100 operates using self-calibration or "auto-calibration" (i.e., done automatically during the course of an operating session without the need to prompt the user to initiate and without the user's conscious awareness). may The system 100 can determine when and how often to automatically perform the calibration process according to relevant criteria. Automatic calibration can occur when certain conditions are met, such as when the system can identify the pupil in the image.

システム100は、基準画像500REFを捕捉する前に、音声又は視覚命令、例えば、「右を見て下さい」を提供することによって、ユーザ150によるユーザ又は手動較正を用いて動作してもよい。例えばカメラのシャッター音に似せた音声表示が、画像が捕捉された後に、ユーザ150に画像が捕捉されたことを知らせるために提供されてもよい。基準画像500REFは、瞳孔の位置を特定し、ユーザ150の目の相対的境界線、又はある位置から別の位置に移動する際に(すなわち、「左を見る」から「右を見る」へ)瞳孔が接近する既定の境界領域を決定するために、同様に解析されてもよい。この境界領域をさらに用いて、瞳孔が境界を越えることが観察又は測定された際に、ユーザ150による相対的な目の向きの応答を生じさせることができ、その結果、それに応じてプロセッサ104が適切な応答を提供する。 System 100 may operate with user or manual calibration by user 150 by providing an audio or visual command, eg, "Look to the right" prior to capturing reference image 500REF. An audio indication, for example resembling a camera shutter sound, may be provided after the image is captured to inform the user 150 that the image has been captured. The reference image 500REF identifies the position of the pupil and the relative boundaries of the user's 150 eyes, or when moving from one position to another (i.e., "looking left" to "looking right"). A similar analysis may be performed to determine the predetermined boundary region that the pupil approaches. This boundary region can further be used to generate a relative eye orientation response by the user 150 when the pupil is observed or measured to cross the boundary, so that the processor 104 responds accordingly. Provide an appropriate response.

ノイズを減少させ、画像処理の品質を向上させるために、捕捉画像(信号)は、ノイズフィルタ(例えば、マルコフ信号ノイズフィルタ)にかけられてもよい。各画像500に関する出力が、右、左、上、下、閉じられた目、中心、又は識別なしとして決定される。最終出力(この場合、5つの異なるオプションの1つ)は、タイミングルールなどの追加の基準に基づいてもよい。例えば、閾値継続時間より長く(約0.2秒を超えてなど)瞳孔が識別されない場合、決定は、「まばたき」又は閉じられた目であり、この決定は、瞳孔が再び位置特定若しくは識別される(すなわち、瞳孔の動きが検出される)次の画像フレームまで、又は上述のような固有のアクションとして登録されるまで維持されてもよい。 To reduce noise and improve image processing quality, the captured image (signal) may be subjected to a noise filter (eg, a Markov signal noise filter). The output for each image 500 is determined as right, left, top, bottom, eyes closed, center, or no discrimination. The final output (in this case one of five different options) may be based on additional criteria such as timing rules. For example, if the pupil is not identified for longer than the threshold duration (such as greater than about 0.2 seconds), the determination is "blink" or closed eyes, and the determination is that the pupil is relocated or identified. until the next image frame (ie, when pupil movement is detected), or until registered as a unique action as described above.

本発明によれば、ユーザ命令は、正確な注視方向又は目線ではなく、曖昧な概略の目の方向(例えば、「右」、「左」、「上」、「下」、「正面」)に対応する彼/彼女の相対的な目の向きからのみ決定される。このような決定は、一般的に、ある特定の座標系に関して正確な座標を決定することによってユーザの正確な目線を識別するために必要とされる、より大規模で、時間のかかる処理と比較して、比較的基本的で、迅速な処理を伴う。従って、システム100は、ピンポイントの位置が必要とされる画面依存のマウストラッキングメカニズムとは対照的に、ユーザ選択の指示を提供するために曖昧な概略の方向決定を適用するジョイスティックのやり方に似たやり方で動作すると見なすことができる。 According to the present invention, user commands are directed to vague general eye directions (e.g., "right", "left", "up", "down", "front") rather than precise gaze directions or line of sight. It is determined only from the corresponding his/her relative eye orientation. Such determinations generally compare to the more extensive and time-consuming processing required to identify the user's exact eye gaze by determining the exact coordinates with respect to some particular coordinate system. are relatively basic and involve rapid processing. Thus, the system 100 mimics the way joysticks apply vague rough orientation to provide indications of user selection, as opposed to screen-dependent mouse-tracking mechanisms where pinpoint location is required. can be considered to work in a similar way.

これより、ユーザが目に基づいたフィードバックを用いてコミュニケーションをとることを可能にする方法のフロー図である図6を参照する。任意選択的手順601では、較正が行われる。システム構成要素の較正は、一度だけ(例えば、システム100の初期動作の前に)行われてもよく、又は必要に応じて定期的に(システム100の動作中に)行われてもよい。較正は、カメラ108によって捕捉された単一の目の反射画像のみを用いて、又は多数のそのような画像を比較及び解析することによって行われてもよい。さらに、較正は、特定のユーザに対して(すなわち、システム100を現在使用している特定のユーザに対して)独自に適応させてもよく、又は代替的に、多数の異なるユーザに適用できる一般的較正が実行されてもよい(例えば、システム100の早期の初期化段階中に)。 Reference is now made to Figure 6, which is a flow diagram of a method for enabling users to communicate using eye-based feedback. In optional procedure 601, calibration is performed. Calibration of system components may be performed once (eg, prior to initial operation of system 100) or may be performed periodically (during operation of system 100) as needed. Calibration may be performed using only a single eye reflection image captured by camera 108, or by comparing and analyzing a number of such images. Additionally, the calibration may be uniquely tailored to a particular user (i.e., the particular user currently using the system 100), or alternatively may be generic and applicable to many different users. A static calibration may be performed (eg, during an early initialization stage of system 100).

手順602では、一連のコミュニケーションオプションが、選択インタフェースを有するユーザに選択可能に提示される。図1及び3を参照して、ディスプレイ102(及び/又はディスプレイ124)は、ユーザがその中から選択する様々な視覚メニューオプション302、304、306、308及び310を備えたメニュー300を表示する。コミュニケーションオプションは、代替的に、音声又は触覚インタフェースを用いて提示されてもよい。 In procedure 602, a series of communication options are selectably presented to a user having a selection interface. 1 and 3, display 102 (and/or display 124) displays a menu 300 with various visual menu options 302, 304, 306, 308 and 310 for selection by the user. Communication options may alternatively be presented using an audio or tactile interface.

任意選択的手順604では、ユーザの少なくとも一方の目が、光源を用いて照らされる。図1を参照して、光源106は、ユーザ150の目に向けてIR光118を発する。 At optional step 604, at least one eye of the user is illuminated with a light source. Referring to FIG. 1, light source 106 emits IR light 118 towards user's 150 eyes.

手順606では、目から反射された光が検出され、相関信号が、相対的な目の向きのセンサによって提供される。図1を参照して、画像センサ110が、ユーザ150の目から反射されたIR光118を受信し、相関信号をプロセッサ104に中継する。目の向きのセンサは、代替的に、1つ又は複数の別個のセンサ又はセンサアレイなどの非画像センサによって具現化されてもよい。図5Aを参照して、画像センサ110は、瞳孔Pが画像500Aの上象限領域に位置する、ユーザ150の目の周りの領域の画像500Aを生成する。 In procedure 606, light reflected from the eye is detected and a correlation signal is provided by a relative eye orientation sensor. Referring to FIG. 1, image sensor 110 receives IR light 118 reflected from the eye of user 150 and relays a correlation signal to processor 104 . The eye orientation sensor may alternatively be embodied by a non-imaging sensor such as one or more separate sensors or sensor arrays. Referring to FIG. 5A, image sensor 110 produces image 500A of the area around the eye of user 150, with pupil P located in the upper quadrant region of image 500A.

手順608では、ユーザの頭の向きに対する瞳孔の相対的な向きを含む、相対的な目の向きを決定するために、相関信号が処理される。図1及び5Aを参照して、プロセッサ104は、画像センサ110によって捕捉された画像に基づいて(又は非画像センサによって捕捉された他の目の反射データを用いることによって)、ユーザ150の相対的な目の向きを決定する。決定された相対的な目の向きは、ユーザ150の頭の向き(頭の向きは、ユーザ150が顔を向けている概略の方向を表す)に対する瞳孔の相対的な向きを表す。例えば、図5Aを参照して、プロセッサ104は、瞳孔Pが上象限領域502に位置し、従ってユーザ150の相対的な目の向きが「上方」位置であることを、画像500Aから決定する。プロセッサ104は、瞳孔Pの瞬間的な相対的な向きを検出すること、又は瞳孔Pの過渡変化を検出することによって、ユーザ150の相対的な目の向きを決定してもよい。 In procedure 608, the correlation signal is processed to determine the relative eye orientation, including the orientation of the pupils relative to the orientation of the user's head. 1 and 5A, processor 104 calculates a relative image of user 150 based on images captured by image sensor 110 (or by using other eye reflection data captured by non-image sensors). determine the orientation of the eyes. The determined relative eye orientation represents the orientation of the pupils relative to the orientation of the head of the user 150 (the orientation of the head represents the general direction in which the user 150 is facing). For example, referring to FIG. 5A, processor 104 determines from image 500A that pupil P is located in upper quadrant region 502 and thus the relative eye orientation of user 150 is in the "up" position. The processor 104 may determine the relative eye orientation of the user 150 by detecting the instantaneous relative orientation of the pupil P or by detecting transient changes in the pupil P.

手順610では、ユーザの決定された相対的な目の向きに基づいて、選択されたコミュニケーションオプションが決定される。図1、5A及び3Aを参照して、プロセッサ104は、ユーザ150の決定された相対的な目の向きに応じて、ディスプレイ102上に(及び/又は音声ユニット112によって)提示されたオプションを選択する。例えば、ユーザ150の相対的な目の向きが「上方」位置であることをプロセッサ104が画像500Aから決定した場合、プロセッサ104は、メニュー300上に提示されたコミュニケーションオプション302(「ABCDE」)を選択する。 In procedure 610, a selected communication option is determined based on the determined relative eye orientation of the user. 1, 5A and 3A, processor 104 selects options presented on display 102 (and/or by audio unit 112) in response to the determined relative eye orientation of user 150. do. For example, if the processor 104 determines from the image 500A that the relative eye orientation of the user 150 is in the "up" position, the processor 104 selects the communication option 302 ("ABCDE") presented on the menu 300 as select.

手順612において、選択されたコミュニケーションオプションを実行する命令が提供される。図1を参照して、プロセッサ104は、選択されたコミュニケーションオプションに関連付けられた可聴表示を提供するように、音声ユニット112に命令する。例えば、音声ユニット112は、単語メニュー202の単語オプション202Aに関連付けられた「こんにちは」という単語などの、ユーザ150によって選択された単語を放送する。追加的に、プロセッサ104は、選択されたコミュニケーションオプションに関連付けられた視覚表示を提示するようにディスプレイ102に命令してもよい。例えば、ディスプレイ102は、「こんにちは」という単語オプション202Aなどの選択されたメニューオプションを強調表示する。代替的に、プロセッサ104は、選択されたアプリケーションを実行する、又は選択されたコミュニケーションオプションに関連付けられたアクションを行うように、コンピュータデバイス114に命令してもよい。例えば、コンピュータデバイス114は、例えば単語メニュー202の「Eメールアプリケーション」オプション202Eの選択に続いて、メッセージ又はEメールを送信する。 In procedure 612, instructions are provided to implement the selected communication option. Referring to FIG. 1, processor 104 instructs audio unit 112 to provide an audible indication associated with the selected communication option. For example, audio unit 112 broadcasts a word selected by user 150, such as the word “hello” associated with word option 202A of word menu 202. FIG. Additionally, processor 104 may direct display 102 to present a visual representation associated with the selected communication option. For example, display 102 highlights a selected menu option, such as "Hello" word option 202A. Alternatively, processor 104 may instruct computing device 114 to execute the selected application or perform an action associated with the selected communication option. For example, computing device 114 sends a message or email following, for example, selection of "email application" option 202E of word menu 202. FIG.

上述の通り、プロセッサ104は、目の動きを変換し、無線リンク(例えば、Bluetooth)を介して、その領域に存在し、かつユーザ150が彼/彼女の環境とコミュニケーションをとるために使用することができる異なるアプリケーションを動作させることが可能なコンピュータデバイス114(例えばスマートフォン)に動作を放送する。コンピュータデバイス114を用いて、テキストメッセージを送信する、異なるアプリケーションを実行する、及び/又は(選択表またはメニューを用いた制御用に設計されたプログラムを使用して)コンピュータを制御することができる。ユーザが、コンピュータデバイス114上でアプリケーションを動作させることを選択した後に、プロセッサ104は、通信リンク116上で、コンピュータデバイス114へ/からデータを送信及び受信し続けてもよい。 As described above, the processor 104 translates eye movements, via a wireless link (e.g., Bluetooth), into a field that is in the area and that the user 150 uses to communicate with his/her environment. The actions are broadcast to a computing device 114 (eg, a smart phone) capable of running different applications that can run different applications. The computer device 114 can be used to send text messages, run different applications, and/or control a computer (using programs designed for control using selection tables or menus). After the user selects to run an application on computing device 114 , processor 104 may continue to send and receive data to/from computing device 114 over communication link 116 .

本発明の一実施形態によれば、システム100を用いて、電動車椅子又はコンピュータ制御された家電などの外部デバイス又は装置を制御することができる。例えば、ユーザは、彼/彼女の相対的な目の向き(例えば、上、下、左、右)を用いて、選択された方向(例えば、前方、後方、左、右)を示すことによって、電動車椅子を案内又はナビゲートすることができる。ユーザは、ディスプレイ102、124上に提示された「電動車椅子ナビゲーション」メニューの特定のメニューオプションの方向を見ることによって指示を提供してもよい。システム100は、指示された選択(例えば、車椅子を左に回転)を決定し、電動車椅子に選択されたオプションを行わせる。システム100は、無線通信リンク(例えば、通信リンク116)を介して、上記外部デバイスと通信可能に結合されてもよい。 According to one embodiment of the present invention, system 100 can be used to control external devices or apparatus such as power wheelchairs or computer controlled appliances. For example, a user may indicate a selected direction (e.g., forward, backward, left, right) using his/her relative eye orientation (e.g., up, down, left, right) to A power wheelchair can be guided or navigated. The user may provide directions by looking in the direction of a particular menu option of the “powered wheelchair navigation” menu presented on display 102 , 124 . The system 100 determines the indicated selection (eg, rotate wheelchair left) and causes the power wheelchair to perform the selected option. System 100 may be communicatively coupled to such external devices via wireless communication links (eg, communication link 116).

システム100が、ユーザ150の相対的な目の向きのみを決定することによって、視覚の完全な活用、又は満足なレベルの視力がユーザ150に備わっていることを必要としない、目に基づいたコミュニケーションを提供するので、ユーザ150は、代替的に、視覚に障害のある、又は完全な視覚能力を欠いた個人でもよいことにさらに留意されたい。 eye-based communication in which the system 100 determines only the relative eye orientation of the user 150 and does not require the user 150 to have full use of vision or a satisfactory level of vision; It is further noted that user 150 may alternatively be an individual who is visually impaired or lacks complete visual ability, as it provides .

従って、本発明は、環境と効果的なコミュニケーションをとるための手段を提供することにより、特殊なニーズを持つ個人の生活の質の向上に役立つ、簡単かつ直感的な操作の、比較的手頃な価格で、かつ入手しやすい解決策を提供する。システムは、可動性があり、携帯可能で、多くの状況及び位置(横たわっている、座っている、頭を下に向けるなど)での使用に適している。さらに、本発明のシステムは、較正のために第三者の支援を必要としない。 Accordingly, the present invention provides a simple and intuitive operation, relatively affordable device that helps improve the quality of life of individuals with special needs by providing a means to effectively communicate with the environment. Provide affordable and affordable solutions. The system is mobile, portable, and suitable for use in many situations and positions (lying, sitting, head down, etc.). Furthermore, the system of the present invention does not require third party assistance for calibration.

本発明のシステム及び方法は、閉じ込め症候群(LIS)を特徴とする個人に限定されず、視覚障害を持つ人々を含む、他のタイプの人々による使用にも同様に等しく適応できることが理解されるだろう。本発明のシステム及び方法は、目からの光反射を検出するためのセンサ(埋め込みカメラなど)を少なくとも含む、スマートフォン、タブレットコンピュータ、又はデジタル音楽プレイヤーなどのコンピュータデバイス上のアプリケーションに組み込まれてもよい。従って、本発明は、彼/彼女の相対的な目の向きと相関したアイジェスチャを用いてユーザによって提供される命令のみに基づいて、メッセージを作成及び送信する、又は第三者との電話での会話を開始するなどの様々なコミュニケーションアクションを、コンピュータデバイスを用いて容易にする及び開始することができる。 It is understood that the systems and methods of the present invention are not limited to individuals characterized by locked-in syndrome (LIS), but are equally equally adaptable for use by other types of people, including those with visual impairments. deaf. The systems and methods of the present invention may be incorporated into applications on computing devices such as smart phones, tablet computers, or digital music players that at least include sensors (such as embedded cameras) for detecting light reflections from the eyes. . Thus, the present invention composes and sends messages, or telephonically communicates with third parties, based solely on commands provided by a user using eye gestures correlated with his/her relative eye orientation. A variety of communication actions can be facilitated and initiated using a computing device, such as starting a conversation.

当業者が本発明を実施できるように、開示の要旨の特定の実施形態を記載したが、前述の記載は、単なる例であることが意図されたものである。それは、以下の特許請求の範囲を参照することによって決定されるべきである開示の要旨の範囲を限定するために使用されないものとする。 Although specific embodiments of the disclosed subject matter have been described to enable those skilled in the art to practice the invention, the foregoing description is intended to be exemplary only. It shall not be used to limit the scope of the disclosed subject matter, which should be determined by reference to the claims that follow.

Claims (13)

コミュニケーションをとるシステムにおいて、
一連のコミュニケーションオプションをユーザに選択可能に提示するように構成された可聴選択インタフェースであって、可聴な各コミュニケーションオプションは、可聴な各コミュニケーションオプションに関連付けられた異なるアイジェスチャの決定時に選択されるように構成されている、可聴選択インタフェースと、
前記ユーザの目の連続画像のシーケンスを捕捉するように構成された少なくとも1つのカメラと、
前記少なくとも1つのカメラ及び前記可聴選択インターフェースと通信可能に、任意選択的に無線で、結合されたプロセッサであって、前記プロセッサが、
(i)捕捉された画像を受信及び処理し、眼窩内の目の瞳孔の向きである目の相対的な向きを決定し、前記目の相対的な向きの決定は、
a.前記捕捉された画像の瞳孔をマークして、瞳孔の検出と位置を示す関心領域を追跡すること、
b.基準点を2Dグリッドの中心として設定して、前記グリッドの中心を基準にした基準点の座標系を構築すること、
c.瞳孔の位置を前記グリッド上の座標に変換すること、
を具えており、
(ii)前記2Dグリッドの少なくとも2つのセクションのどのセクションに前記関心領域が位置するかを決定することによって、前記目の相対的な向きに基づいてアイジェスチャを決定し、
(iii)前記決定されたアイジェスチャに基づいて、ユーザ選択されたコミュニケーションオプションを決定、かつ
(iv)前記ユーザ選択されたコミュニケーションオプションを実行する命令を提供するように構成されたプロセッサと、
を含むことを特徴とするシステム。
In a communication system,
An audible selection interface configured to selectably present a series of communication options to a user, each audible communication option being selected upon determination of a different eye gesture associated with each audible communication option. an audible selection interface , comprising:
at least one camera configured to capture a sequence of sequential images of the user's eye;
a processor communicatively coupled, optionally wirelessly, with said at least one camera and said audible selection interface, said processor comprising:
(i) receiving and processing the captured image to determine a relative eye orientation, which is the orientation of the pupil of the eye within the orbit, said determination of the relative eye orientation comprising:
a. marking the pupil in the captured image and tracking a region of interest indicating detection and location of the pupil;
b. setting a reference point as the center of a 2D grid and constructing a coordinate system of the reference points relative to the center of the grid;
c. transforming the position of the pupil into coordinates on the grid;
and
(ii) determining an eye gesture based on the relative orientation of the eyes by determining in which of at least two sections of the 2D grid the region of interest is located;
(iii) a processor configured to determine a user-selected communication option based on the determined eye gesture, and (iv) provide instructions to perform the user-selected communication option;
A system characterized by comprising:
請求項1に記載のシステムにおいて、前記ユーザの前記目を照らすように構成された少なくとも1つの光源であって、発光ダイオード(LED)を任意選択的に含む少なくとも1つの光源をさらに含むことを特徴とするシステム。 3. The system of claim 1, further comprising at least one light source configured to illuminate the eye of the user, the light source optionally comprising a light emitting diode (LED). system. 請求項2に記載のシステムにおいて、前記光源が、赤外線(IR)光源を含み、前記少なくとも1つのカメラが、前記目から反射されたIR光を検出するように構成されることを特徴とするシステム。 3. The system of claim 2, wherein the light source comprises an infrared (IR) light source and the at least one camera is configured to detect IR light reflected from the eye. . 請求項1に記載のシステムにおいて、前記アイジェスチャが、
前記眼窩に対して上向きと、
前記眼窩に対して下向きと、
前記眼窩に対して横向きと、
前記眼窩に対して斜め向きと、
前記眼窩に対して傾斜した向きと、
前記眼窩の向きに一致した正面の向きと、
前記目のウインクと、
前記目のまばたきと、
からなるリストから選択されることを特徴とするシステム。
2. The system of claim 1, wherein the eye gesture comprises:
upward with respect to the eye socket;
downward with respect to the eye socket;
transversely to the eye socket;
obliquely with respect to the eye socket;
an oblique orientation with respect to the eye socket;
a frontal orientation that matches the orientation of the eye socket;
winking the eye;
blinking said eye; and
A system characterized by being selected from a list consisting of:
請求項2に記載のシステムにおいて、前記光源及び前記少なくとも1つのカメラの少なくとも一方が、前記ユーザによって装着されるウェアラブルヘッドギアに結合され、又は、前記選択インタフェースが、モバイルコンピュータデバイス上で動作することを特徴とするシステム。 3. The system of claim 2, wherein at least one of the light source and the at least one camera are coupled to wearable headgear worn by the user, or the selection interface operates on a mobile computing device. characterized system. 請求項1に記載のシステムにおいて、前記コミュニケーションオプションの少なくとも1つが、
可聴アラームと、
メニュー選択と、
言語選択と、
確認メッセージと、
文と、
フレーズと、
単語と、
音節と、
文字と、
モバイルコンピュータデバイス起動選択と、
視覚インタフェース動作停止選択と、
Eメール/SMS/MMSの送信命令と、
コンピュータアプリケーションの実行命令と、
からなるリストから選択されることを特徴とするシステム。
2. The system of claim 1, wherein at least one of said communication options includes:
an audible alarm;
menu selection and
language selection and
confirmation message and
sentence and
phrase and
word and
syllables and
letters and
a mobile computing device boot selection;
a visual interface deactivation selection;
an email/SMS/MMS transmission instruction;
computer application execution instructions;
A system characterized by being selected from a list consisting of:
コミュニケーションをとる方法において、前記方法が、
選択インタフェースにより、ユーザに対して、一連のコミュニケーションオプションを、可聴的に、選択可能に提示する手順であって、可聴な各コミュニケーションオプションは、可聴な各コミュニケーションオプションに関連付けられた異なるアイジェスチャの決定時に選択されるように構成されている、手順と、
少なくとも1つのカメラにより、前記ユーザの目の連続画像のシーケンスを捕捉する手順と、
前記目の画像を処理して目の相対的な向きを決定する手順であって、前記ユーザの眼窩内の瞳孔の向きである相対的な向きを決定し、前記目の相対的な向きの決定は、
a.前記捕捉された画像の瞳孔をマークして、瞳孔の検出と位置を示す関心領域を追跡すること、
b.基準点を2Dグリッドの中心として設定して、前記グリッドの中心を基準にした基準点の座標系を構築すること、
c.瞳孔の位置を前記グリッド上の座標に変換すること、
を具える、手順と、
前記2Dグリッドの少なくとも2つのセクションのどのセクションに前記関心領域が位置するかを決定することによって、前記目の相対的な向きに基づいて前記ユーザのアイジェスチャを決定する手順と、
前記決定されたアイジェスチャに基づいて、ユーザ選択されたコミュニケーションオプションを決定する手順と、
前記ユーザ選択されたコミュニケーションオプションを実行する命令を提供する手順と、
により特徴付けられる方法。
A method of communicating, the method comprising:
A procedure for audibly and selectably presenting a series of communication options to a user via a selection interface, each audible communication option having a different eye gesture determination associated with each audible communication option. a procedure configured to be selected when
capturing a sequence of sequential images of the user's eye with at least one camera;
A procedure for processing said eye image to determine relative eye orientation, comprising: determining a relative orientation that is an orientation of a pupil in said eye socket of said user; teeth,
a. marking the pupil in the captured image and tracking a region of interest indicating detection and location of the pupil;
b. setting a reference point as the center of a 2D grid and constructing a coordinate system of the reference points relative to the center of the grid;
c. transforming the position of the pupil into coordinates on the grid;
a step comprising
determining an eye gesture of the user based on the relative orientation of the eyes by determining in which of at least two sections of the 2D grid the region of interest is located;
determining a user-selected communication option based on the determined eye gesture;
providing instructions to implement the user-selected communication option;
A method characterized by
請求項7に記載の方法において、少なくとも1つの光源を用いて、前記ユーザの前記目を照らす手順をさらに含み、任意選択的に、目を照らすのにIR光が用いられ、前記少なくとも1つのカメラが、前記目から反射されたIR光を検出するように構成され、任意選択的に、前記光源及び前記少なくとも1つのカメラが、前記ユーザによって装着されるウェアラブルヘッドギアに結合されることを特徴とする方法。 8. The method of claim 7, further comprising illuminating said eyes of said user with at least one light source, optionally IR light being used to illuminate said eyes, said at least one camera is configured to detect IR light reflected from said eye, and optionally said light source and said at least one camera are coupled to wearable headgear worn by said user. Method. 請求項7に記載の方法において、前記アイジェスチャが、
前記眼窩に対して上向きと、
前記眼窩に対して下向きと、
前記眼窩に対して横向きと、
前記眼窩に対して斜め向きと、
前記眼窩に対して傾斜した向きと、
前記眼窩の向きに一致した正面の向きと、
前記目のウインクと、
前記目のまばたきと、
からなるリストから選択されることを特徴とする方法。
8. The method of claim 7, wherein the eye gesture is
upward with respect to the eye socket;
downward with respect to the eye socket;
transversely to the eye socket;
obliquely with respect to the eye socket;
an oblique orientation with respect to the eye socket;
a frontal orientation that matches the orientation of the eye socket;
winking the eye;
blinking said eye; and
, wherein the method is selected from a list consisting of
請求項7に記載の方法において、前記ユーザコミュニケーションオプションが、
可聴アラームと、
メニュー選択と、
言語選択と、
確認メッセージと、
文と、
フレーズと、
単語と、
音節と、
文字と、
モバイルコンピュータデバイス起動選択と、
視覚インタフェース動作停止選択と、
Eメール送信命令と、
SMS/MMS送信命令と、
コンピュータアプリケーションの実行命令と、
からなるリストから選択されることを特徴とする方法。
8. The method of claim 7, wherein the user communication option comprises:
an audible alarm;
menu selection and
language selection and
confirmation message and
sentence and
phrase and
word and
syllables and
letters and
a mobile computing device boot selection;
a visual interface deactivation selection;
an e-mail transmission command;
an SMS/MMS transmission command;
computer application execution instructions;
, wherein the method is selected from a list consisting of
コミュニケーションをとるシステムにおいて、
一連のコミュニケーションオプションをユーザに選択可能に提示するように構成された可聴選択インタフェースであって、可聴な各コミュニケーションオプションは、可聴な各コミュニケーションオプションに関連付けられた異なるアイジェスチャの決定時に選択されるように構成されている可聴選択インタフェースと、
目の画像を捕捉するように構成された少なくとも1つのカメラと、
前記少なくとも1つのカメラ及び前記選択インターフェースと通信可能に、任意選択的に無線で、結合されたプロセッサと、
を具え、
前記プロセッサは、前記目の画像のデータを受信及び処理して、
(i)前記画像を少なくとも2つのセクションに分割し、
(ii)前記目の画像の前記少なくとも2つのセクションのうちの1つにおいて、眼の瞳孔の大まかな位置を決定し、
(iii)前記目の画像の前記少なくとも2つのセクションのうちの1つにおける大まかな瞳孔の位置に基づいてアイジェスチャを決定し、
(iv)決定されたアイジェスチャに基づいて、ユーザーが選択したコミュニケーションオプションを決定し、
(v)前記ユーザーが選択したコミュニケーションオプションを実行するための命令を提供する、
ことを特徴とするシステム。
In a communication system,
An audible selection interface configured to selectably present a series of communication options to a user, each audible communication option being selected upon determination of a different eye gesture associated with each audible communication option. an audible selection interface configured in a
at least one camera configured to capture an image of the eye;
a processor communicatively, optionally wirelessly, coupled to said at least one camera and said selection interface;
with
The processor receives and processes the eye image data,
(i) dividing the image into at least two sections;
(ii) determining the approximate location of the pupil of the eye in one of the at least two sections of the image of the eye;
(iii) determining an eye gesture based on approximate pupil position in one of said at least two sections of said eye image;
(iv) determining a user-selected communication option based on the determined eye gesture;
(v) providing instructions for implementing said user-selected communication options;
A system characterized by:
請求項11に記載のコミュニケーションをとるシステムにおいて、前記選択インターフェースが可聴インターフェースであることを特徴とするシステム。 12. The system for communicating according to claim 11, wherein said selection interface is an audible interface. 請求項11または12に記載のコミュニケーションをとるシステムにおいて、
前記眼の瞳孔の大まかな位置の決定は、
(i)前記捕捉された画像の瞳孔をマークして、瞳孔の検出と位置を示す関心領域を追跡すること、
(ii)基準点を2Dグリッドの中心として設定して、前記グリッドの中心を基準にした基準点の座標系を構築すること、
(iii)瞳孔の位置を前記グリッド上の座標に変換すること、
を含むことを特徴とするシステム。
A communicating system according to claim 11 or 12, wherein
Determining the approximate position of the pupil of the eye comprises:
(i) marking the pupil in the captured image and tracking a region of interest indicating detection and location of the pupil;
(ii) setting a reference point as the center of a 2D grid to construct a coordinate system of the reference points relative to the center of said grid;
(iii) transforming the position of the pupil into coordinates on the grid;
A system characterized by comprising:
JP2021009022A 2015-03-10 2021-01-22 System and method enabling communication by eye feedback Active JP7153096B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562130637P 2015-03-10 2015-03-10
US62/130,637 2015-03-10

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017566228A Division JP7016263B2 (en) 2015-03-10 2016-03-02 Systems and methods that enable communication through eye feedback

Publications (2)

Publication Number Publication Date
JP2021073589A JP2021073589A (en) 2021-05-13
JP7153096B2 true JP7153096B2 (en) 2022-10-13

Family

ID=56879968

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017566228A Active JP7016263B2 (en) 2015-03-10 2016-03-02 Systems and methods that enable communication through eye feedback
JP2021009022A Active JP7153096B2 (en) 2015-03-10 2021-01-22 System and method enabling communication by eye feedback

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017566228A Active JP7016263B2 (en) 2015-03-10 2016-03-02 Systems and methods that enable communication through eye feedback

Country Status (6)

Country Link
US (1) US11883101B2 (en)
EP (2) EP3809241B1 (en)
JP (2) JP7016263B2 (en)
CN (1) CN107850939A (en)
IL (2) IL303037A (en)
WO (1) WO2016142933A1 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TR201613586A2 (en) * 2016-09-28 2016-11-21 Kuersat Cagiltay ELECTRONIC AND MOTORIZED WHEELCHAIR SYSTEM CONTROLLED BY EYE MOVEMENTS
JP6460425B2 (en) * 2017-06-02 2019-01-30 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
EP3721320B1 (en) * 2017-12-07 2022-02-23 Eyefree Assisting Communication Ltd. Communication methods and systems
CN108245748A (en) * 2017-12-21 2018-07-06 北京怡和嘉业医疗科技股份有限公司 The method that mask, respirator system and the respirator system perform
EP3506055A1 (en) * 2017-12-28 2019-07-03 Vestel Elektronik Sanayi ve Ticaret A.S. Method for eye-tracking calibration with splash screen
CN109002186B (en) 2018-06-28 2020-12-25 北京金山安全软件有限公司 Input prediction method and device
US11393318B2 (en) * 2018-10-05 2022-07-19 Cleveland State University Systems and methods for privacy-aware motion tracking with automatic authentication
CN113383295A (en) * 2019-02-01 2021-09-10 苹果公司 Biofeedback methods to adjust digital content to elicit greater pupil radius response
US10809637B1 (en) * 2019-05-30 2020-10-20 Applied Materials, Inc. Learning based digital corrections to compensate variations on lithography systems with multiple imaging units
SE1950971A1 (en) * 2019-08-23 2021-02-24 Your Speech Factory Ab Electronic device and method for conducting a users gaze direction
CN110619303A (en) * 2019-09-16 2019-12-27 Oppo广东移动通信有限公司 Method, device and terminal for tracking point of regard and computer readable storage medium
KR102128894B1 (en) * 2019-10-10 2020-07-01 주식회사 메디씽큐 A method and system for eyesight sensing of medical smart goggles
US10860098B1 (en) 2019-12-30 2020-12-08 Hulu, LLC Gesture-based eye tracking
US20220104959A1 (en) * 2020-10-07 2022-04-07 Jay Curtis Beavers Systems, methods, and techniques for eye gaze control of seat and bed positioning
WO2023002488A1 (en) 2021-07-22 2023-01-26 Eyefree Assisting Communication Ltd. A system for communication with a patient based on the determined sedation state
CN113589958A (en) * 2021-08-05 2021-11-02 西交利物浦大学 Text input method, device, equipment and storage medium
US20240019930A1 (en) * 2021-10-28 2024-01-18 Lifedrive Llc Drive Manager For Power Wheelchair And Related Methods
JP2023127116A (en) * 2022-03-01 2023-09-13 日新電機工作株式会社 Information processing system, information processing method, and information processing program
US11995231B2 (en) * 2022-07-21 2024-05-28 Dell Products Lp System and method for headset haptic or audio confirmation feedback for gaze activation
CN116421135A (en) * 2023-04-27 2023-07-14 北京京东拓先科技有限公司 Vision testing method, device, electronic equipment and storage medium
CN116708974B (en) * 2023-08-01 2023-10-17 清华大学 Universal camera interference method and system for head-mounted active vision camera

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137789A (en) 1998-10-29 2000-05-16 Sharp Corp Image processor
JP2005100366A (en) 2003-08-18 2005-04-14 Yamaguchi Univ Visual line input communication method using eyeball motion
JP2007531579A (en) 2004-04-01 2007-11-08 ウィリアム・シー・トーチ Biosensor, communicator and controller for monitoring eye movement and methods for using them
WO2008059878A1 (en) 2006-11-15 2008-05-22 Panasonic Corporation Adjusting device for brain wave identification method, adjusting method and computer program
JP2012048358A (en) 2010-08-25 2012-03-08 Sony Corp Browsing device, information processing method and program
US20130332827A1 (en) 2012-06-07 2013-12-12 Barnesandnoble.Com Llc Accessibility aids for users of electronic devices

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8120A (en) 1851-05-27 Cabkiaorb
US577A (en) 1838-01-20 Uvtachine for threshing grain and shelling corn
US4836670A (en) * 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
US4973149A (en) * 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
US4950069A (en) * 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
JPH0749744A (en) * 1993-08-04 1995-02-21 Pioneer Electron Corp Head mounting type display input device
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US6456262B1 (en) 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
US6943754B2 (en) * 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US20050045373A1 (en) 2003-05-27 2005-03-03 Joseph Born Portable media device with audio prompt menu
KR100594117B1 (en) 2004-09-20 2006-06-28 삼성전자주식회사 Apparatus and method for inputting key using biosignal in HMD information terminal
JP4654434B2 (en) * 2004-11-24 2011-03-23 国立大学法人佐賀大学 Gaze direction identification system
EP1943583B1 (en) * 2005-10-28 2019-04-10 Tobii AB Eye tracker with visual feedback
ES2605367T3 (en) * 2006-01-26 2017-03-14 Nokia Technologies Oy Eye tracking device
US7766479B2 (en) * 2006-03-31 2010-08-03 National University Corporation Shizuoka University View point detecting device
JP4685708B2 (en) * 2006-05-22 2011-05-18 富士通株式会社 Mobile terminal device
US20100149073A1 (en) * 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
CN101893934A (en) 2010-06-25 2010-11-24 宇龙计算机通信科技(深圳)有限公司 Method and device for intelligently adjusting screen display
US8593375B2 (en) 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
WO2012083415A1 (en) * 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
US8888287B2 (en) * 2010-12-13 2014-11-18 Microsoft Corporation Human-computer interface system having a 3D gaze tracker
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
KR101355895B1 (en) * 2011-10-20 2014-02-05 경북대학교 산학협력단 Apparatus for deciding user's intention and method therof
US8955973B2 (en) * 2012-01-06 2015-02-17 Google Inc. Method and system for input detection using structured light projection
US9171198B1 (en) * 2012-04-02 2015-10-27 Google Inc. Image capture technique
KR101850035B1 (en) * 2012-05-02 2018-04-20 엘지전자 주식회사 Mobile terminal and control method thereof
US9823742B2 (en) * 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
US20140026101A1 (en) * 2012-07-20 2014-01-23 Barnesandnoble.Com Llc Accessible Menu Navigation Techniques For Electronic Devices
KR102163996B1 (en) * 2013-04-03 2020-10-13 삼성전자 주식회사 Apparatus and Method for improving performance of non-contact type recognition function in a user device
KR102181897B1 (en) * 2013-05-09 2020-11-23 에스케이플래닛 주식회사 Device and method for mobile tooltip using eye detecting
US20140368442A1 (en) * 2013-06-13 2014-12-18 Nokia Corporation Apparatus and associated methods for touch user input
US20140375541A1 (en) * 2013-06-25 2014-12-25 David Nister Eye tracking via depth camera
WO2017216118A1 (en) * 2016-06-13 2017-12-21 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and eye tracking system for performing a calibration procedure for calibrating an eye tracking device
US9779478B1 (en) * 2016-10-04 2017-10-03 Oculus Vr, Llc Rendering composite content on a head-mounted display including a high resolution inset

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137789A (en) 1998-10-29 2000-05-16 Sharp Corp Image processor
JP2005100366A (en) 2003-08-18 2005-04-14 Yamaguchi Univ Visual line input communication method using eyeball motion
JP2007531579A (en) 2004-04-01 2007-11-08 ウィリアム・シー・トーチ Biosensor, communicator and controller for monitoring eye movement and methods for using them
WO2008059878A1 (en) 2006-11-15 2008-05-22 Panasonic Corporation Adjusting device for brain wave identification method, adjusting method and computer program
JP2012048358A (en) 2010-08-25 2012-03-08 Sony Corp Browsing device, information processing method and program
US20130332827A1 (en) 2012-06-07 2013-12-12 Barnesandnoble.Com Llc Accessibility aids for users of electronic devices

Also Published As

Publication number Publication date
US11883101B2 (en) 2024-01-30
JP2018519601A (en) 2018-07-19
IL254315A0 (en) 2017-11-30
IL303037A (en) 2023-07-01
WO2016142933A1 (en) 2016-09-15
EP3809241C0 (en) 2023-12-13
JP7016263B2 (en) 2022-02-04
US20200022577A1 (en) 2020-01-23
JP2021073589A (en) 2021-05-13
EP3268847A4 (en) 2018-10-24
CN107850939A (en) 2018-03-27
EP3809241A1 (en) 2021-04-21
EP3809241B1 (en) 2023-12-13
EP3268847A1 (en) 2018-01-17

Similar Documents

Publication Publication Date Title
JP7153096B2 (en) System and method enabling communication by eye feedback
US9916006B2 (en) Eye-wearable device user interface and method
US10564714B2 (en) Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
EP3335096B1 (en) System and method for biomechanically-based eye signals for interacting with real and virtual objects
CN106471419B (en) Management information is shown
US20190324535A1 (en) Communication and control system and method
US20180173319A1 (en) Systems and methods for gaze-based media selection and editing
US20210382559A1 (en) Ui for head mounted display system
US9557812B2 (en) Eye gaze user interface and calibration method
KR20190100957A (en) Automatic control of wearable display device based on external conditions
US8593375B2 (en) Eye gaze user interface and method
CN111656304B (en) Communication method and system
JP2000250699A (en) Visual line input device
US20240103679A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20240152244A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
JP2000023065A (en) Goggles display with sight line input
US20240104859A1 (en) User interfaces for managing live communication sessions
US20240103616A1 (en) User interfaces for gaze tracking enrollment
US20240118746A1 (en) User interfaces for gaze tracking enrollment
US20240103678A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
US20240103608A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US20240153205A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US20240103686A1 (en) Methods for controlling and interacting with a three-dimensional environment
WO2024064230A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
WO2024064372A1 (en) Devices, methods, and graphical user interfaces for providing computer-generated experiences

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7153096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150