JP5888205B2 - 画像表示装置並びに情報入力装置 - Google Patents

画像表示装置並びに情報入力装置 Download PDF

Info

Publication number
JP5888205B2
JP5888205B2 JP2012243065A JP2012243065A JP5888205B2 JP 5888205 B2 JP5888205 B2 JP 5888205B2 JP 2012243065 A JP2012243065 A JP 2012243065A JP 2012243065 A JP2012243065 A JP 2012243065A JP 5888205 B2 JP5888205 B2 JP 5888205B2
Authority
JP
Japan
Prior art keywords
eye
user
blinking
image display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012243065A
Other languages
English (en)
Other versions
JP2014092931A (ja
JP2014092931A5 (ja
Inventor
雄司 北澤
雄司 北澤
和田 成司
成司 和田
耕太 相澤
耕太 相澤
豊 福山
豊 福山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2012243065A priority Critical patent/JP5888205B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to BR112015009223A priority patent/BR112015009223A2/pt
Priority to RU2015115667A priority patent/RU2644265C2/ru
Priority to EP13773867.0A priority patent/EP2895061B1/en
Priority to US14/437,690 priority patent/US9841812B2/en
Priority to PCT/JP2013/005380 priority patent/WO2014068832A1/en
Priority to CN201380056001.1A priority patent/CN104755023B/zh
Publication of JP2014092931A publication Critical patent/JP2014092931A/ja
Publication of JP2014092931A5 publication Critical patent/JP2014092931A5/ja
Application granted granted Critical
Publication of JP5888205B2 publication Critical patent/JP5888205B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods

Description

本明細書で開示する技術は、ユーザーが頭部に装着して画像の視聴に利用される画像表示装置、並びに、ユーザーが頭部に装着して入力操作を行なう情報入力装置に係り、特に、装着したユーザーの眼の動作に基づいて操作を行なう画像表示装置並びに情報入力装置に関する。
頭部に装着して画像の視聴に利用される頭部装着型の画像表示装置、すなわち、ヘッド・マウント・ディスプレイが知られている。頭部装着型画像表示装置は、例えば左右の眼毎の画像表示部を持ち、また、ヘッドフォンと併用することで、視覚及び聴覚を制御できるように構成されている。また、頭部装着型画像表示装置は、左右の眼に違う画像を映し出すことも可能であり、左右の眼に視差のある画像を表示すれば3次元画像を提示することができる。
頭部装着型画像表示装置を、遮光性のタイプと透過性のタイプに分類することもできる。遮光性の頭部装着型画像表示装置は、頭部に装着した際に、ユーザーの眼を直接覆うように構成され、画像視聴時にユーザーの没入感が増す。一方、透過性の頭部装着型画像表示装置の場合、ユーザーが頭部に装着して画像を表示している間も、画像越しに外景を眺める(すなわち、シースルーする)ことができるので、屋外での使用時や歩行中の使用時において、ユーザーは障害物との衝突などの危険から回避することができる。
多くの頭部装着型画像表示装置は、DVDプレイヤーやブルーレイ・ディスク(BD)プレイヤーなどのAV再生装置に接続して、コンテンツを鑑賞するのに利用される(例えば、特許文献1を参照のこと)。ここで、視聴時において、ユーザーは、ヘッドフォンの音量の増大/低下や、コンテンツの再生開始、停止、早送り、早戻しなどの指示を機器に対して行なう必要がある。
例えば、メニューの表示や選択した項目の確定を行うためのメニュー・ボタンや、着目するメニュー項目を移動させるためのアップボタン及びダウンボタン、音量を調節するためのボリューム・ダイアルなどを有するコントローラーを接続した頭部装着型画像表示装置について提案がなされている(例えば、特許文献2を参照のこと)。ところが、頭部装着型画像表示装置を装着中のユーザーは、コントローラーを手探りで扱うことになり、誤操作を生じ易い。とりわけ、遮光性の頭部装着型画像表示装置の場合、ユーザーはほとんど目隠し状態となるので、コントローラーの操作は難しくなる。
頭部装着型画像表示装置は、使用中はユーザーに密着していることから、ユーザーの生体情報を取得し易い。この点に着目し、装着中のユーザーから計測した生体情報に基づいてUI(User Interface)操作を行なう試みがなされている。例えば、頭部に密着しているという装置構成を活かして、ユーザーの眼の動作に関する情報を比較的容易に得ることができる。
当該技術分野では、カメラを用いて眼を撮影し、画像処理により眼球の運動やまばたき動作を捕捉する方法が知られている。例えば、赤外線の眼球からの反射を検出して視線の位置や瞬きを検出して画面操作を行なう視線入力装置を備え、手を使わずにビデオ再生の操作やパーソナル・コンピューターの入力操作を行なうゴーグル型ディスプレイについて提案がなされている(例えば、特許文献3を参照のこと)。
しかしながら、頭部装着型画像表示装置の中に、視界の妨げとならないように視線入力装置を設置しなければならず、設計・製作上の制約が多い。また、とりわけ遮光性の画像表示装置の場合、ほぼ暗所で眼球を撮影することになるので、視線入力に高感度カメラを使用するとともに高精細な画像処理が必要となり、装置コストの増大を招来する。
また、角膜の正電荷と網膜の負電荷により発生した眼電位を、目の周辺に貼り付けた複数の電極により測定すること、すなわち眼球電位法(EOG:Electro−Oculography)により、視線を検出するヘッド・マウント・ディスプレイなどについて提案がなされている(例えば、特許文献4を参照のこと)。しかしながら、電極から入力される電位差信号には、眼球の動作に伴う眼電位と、まばたき動作に伴う筋電位と、脳波が混在しており、これらを分離して扱う(例えば、まばたき動作に基因する電位差信号のみを抽出する)必要がある。このヘッド・マウント・ディスプレイの場合、ユーザーの視線位置が移動する際の眼球の急速なサッケード運動を眼電位信号から検出し、また、まばたきにより発生する急峻な電圧変化を除去している。
本明細書で開示する技術の目的は、ユーザーが頭部に装着して利用し、ユーザーの眼の動作に基づいて好適に操作を行なうことができる、優れた画像表示装置並びに情報入力装置を提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
表示部と、
ユーザーのまばたき動作を検出するまばたき動作検出部と、
前記まばたき動作検出部が検出したまばたき動作に応じた制御を行なう制御部と、
を具備する画像表示装である。
本願の請求項2に記載の技術によれば、請求項1に記載の画像表示装置の前記まばたき動作検出部は、前記ユーザーの左眼近傍に配置される第1の検出用電極と、前記ユーザーの右眼近傍に配置される第2の検出用電極と、前記第1及び第2の検出用電極間のほぼ中央に配置される参照用電極を備え、前記第1の検出用電極と前記参照用電極間で得られる第1の電位信号と前記第2の検出用電極と前記参照用電極間で得られる第2の電位信号の組み合わせに基づいて、左眼並びに右眼のまばたき動作を検出するように構成されている。
本願の請求項3に記載の技術によれば、請求項2に記載の画像表示装置の前記まばたき動作検出部は、前記第1の検出用電極並びに前記第2の検出用電極をそれぞれ左眼並びに右眼のほぼ真上又はほぼ真に配置して、黒目の移動により発生する眼電位の影響を抑制するように構成されている。
本願の請求項4に記載の技術によれば、請求項2に記載の画像表示装置の前記まばたき動作検出部は、左眼からの距離と右眼からの距離がほぼ等しくなる場所に前記参照用電極を配置して、左眼の黒目の移動に伴う眼電位と右眼の黒目の移動に伴う眼電位を相殺するように構成されている。
本願の請求項5に記載の技術によれば、請求項2に記載の画像表示装置の前記まばたき動作検出部は、前記参照用電極を前記第1及び前記第2の検出用電極から近い場所に配置して、前記ユーザーの脳波の影響を抑制するように構成されている。
本願の請求項6に記載の技術によれば、請求項2に記載の画像表示装置の前記まばたき動作検出部は、前記ユーザーの左眼近傍に配置される第1の検出用電極と、前記第1の電位信号並びに前記第2の電位信号の信号値の閾値、電位信号が変化する速度の閾値、並びに加速度の閾値との比較に基づいて、左眼並びに右眼の各まばたき動作を検出するように構成されている。
本願の請求項7に記載の技術によれば、請求項6に記載の画像表示装置の前記まばたき動作検出部は、ユーザー毎のまばたき動作の検出に使用する電位信号の信号値の閾値、電位信号が変化する速度の閾値、並びに加速度の閾値を学習するように構成されている。
本願の請求項8に記載の技術によれば、請求項1に記載の画像表示装置の前記制御部は、前記まばたき動作検出部が検出したまばたき動作に応じて前記表示部の表示画面に対するUI操作を行なうように構成されている。
本願の請求項9に記載の技術によれば、請求項8に記載の画像表示装置の前記制御部は、左眼のみのまばたき動作、右眼のみのまばたき動作、両眼のまばたき動作の各々に応じた前記UI操作を行なうように構成されている。
本願の請求項10に記載の技術によれば、請求項8に記載の画像表示装置の前記制御部は、前記表示画面上で、左眼のみのまばたき動作毎に左方向へのカーソル移動、右眼のみのまばたき動作毎に右方向へのカーソル移動、両眼のまばたき動作に応じた現在のカーソル位置の選択を行なうように構成されている。
また、本願の請求項11に記載の技術は、
ユーザーの頭部に装着して用いられる情報入力装置であって、
前記ユーザーの左眼近傍に配置される第1の検出用電極と、前記ユーザーの右眼近傍に配置される第2の検出用電極と、前記第1及び第2の検出用電極間のほぼ中央に配置される参照用電極を備え、前記第1の検出用電極と前記参照用電極間で得られる第1の電位信号と前記第2の検出用電極と前記参照用電極間で得られる第2の電位信号の組み合わせに基づいて、左眼並びに右眼のまばたき動作を検出するまばたき動作検出部と、
前記まばたき動作検出部が検出したまばたき動作に応じた入力操作情報を外部に出力するインターフェースと、
を具備する情報入力装置である。
また、本願の請求項12に係る技術は、
表示部と、
ユーザーの眼近傍の電位信号を検出する電位信号検出部と、
前記電位信号検出部の検出結果に応じた制御を行なう制御部と、
を具備する画像表示装置である。
本明細書で開示する技術によれば、ユーザーが頭部に装着して利用し、ユーザーの眼の動作に基づいて好適に操作を行なうことができる、優れた画像表示装置並びに情報入力装置を提供することができる。
本明細書で開示する技術を適用した画像表示装置並びに情報入力装置は、当該装置を装着したユーザーの左右の眼付近で検出した筋電位信号に基づいて、ユーザーのまばたき動作を正確に検出することができ、左右のまばたき動作の組み合わせに基づいて手を使わないUI操作を行なうことができる。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本提案に係る画像表示装置を前方から眺めた斜視図である。 図2は、本提案に係る画像表示装置を後方から眺めた斜視図である。 図3は、本提案に係る画像表示装置の側面図である。 図4は、額当て部102に装備された装着センサーの構成例を示した図である。 図5は、額当て部102に装備された高さ調節機構を示した図である。 図6は、額当て部102に装備された高さ調節機構を示した図である。 図7は、本明細書で開示する技術を適用した画像表示装置700の内部構成例を示した図である。 図8は、まばたき動作検出用の筋電位センサーを額当て部102に配設した例を示した図(正面図)である。 図9は、まばたき動作検出用の筋電位センサーを額当て部102に配設した例を示した図(上面図)である。 図10は、ユーザーの眼が水平方向に移動するときにまばたき動作検出用電極801、802に入力される眼電位信号を説明するための図である。 図11は、ユーザーの両眼が右側を向いたときに参照用電極803に入力される眼電位信号を説明するための図である。 図12は、ユーザーの両眼が左側を向いたときに参照用電極803に入力される眼電位信号を説明するための図である。 図13は、まばたき動作検出用の筋電位センサーを額当て部102に配設した他の例を示した図(正面図)である。 図14は、図8及び図9に示した筋電位センサーの出力信号を処理する回路の構成を模式的に示した図である。 図15は、左眼のまばたき動作検出用電極801及び右眼のまばたき動作検出用電極802からそれぞれ得られる電位信号を示したタイミング・チャートである。 図16は、意図的なまばたき動作時と、無意識なまばたきを行なったときの筋電位レベルを重ねて示したタイミング・チャートである。 図17は、意図的なまばたき動作時と、無意識なまばたきを行なったときの筋電位レベルを重ねて示したタイミング・チャートである。 図18は、ユーザーのまばたき動作を利用したUI操作例を示した図(1回の左眼のまばたき動作に応じてメニュー・バー上のカーソル位置が左方向へ1つずつ移動する様子を示した図)である。 図19は、ユーザーのまばたき動作を利用したUI操作例を示した図(1回の右眼のまばたき動作に応じてメニュー・バー上のカーソル位置が右方向へ1つずつ移動する様子を示した図)である。 図20は、ユーザーのまばたき動作を利用したUI操作例を示した図(両眼同時のまばたき動作に応じてメニュー・バー上の現在のカーソル位置が選択された様子を示した図)である。 図21は、ユーザーのまばたき動作を利用したUI操作例を示した図(両眼同時のまばたき動作に応じて選択されたメニューからメニュー項目一覧がプルダウン表示される様子を示した図)である。 図22は、ユーザーのまばたき動作を利用したUI操作例を示した図(プルダウン・メニュー上で左眼又は右眼のまばたき動作に応じてカーソル位置が上下に移動する様子を示した図)である。 図23は、ユーザーのまばたき動作を利用したUI操作例を示した図(プルダウン・メニュー上で左眼又は右眼のまばたき動作に応じてカーソル位置が上下に移動する様子を示した図)である。 図24は、ユーザーのまばたき動作を利用したUI操作例を示した図(プルダウン・メニュー上で両眼同時のまばたき動作に応じてメニュー項目が選択された様子を示した図)である。 図25は、ユーザーのまばたき動作を利用したUI操作例を示した図(両眼まばたき動作を2回連続して選択を確定させる様子を示した図)である。 図26は、本明細書で開示する技術を適用した情報入力装置2600の内部構成例を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.装置構成
図1には、本提案に係る画像表示装置を前方から眺めた様子を示している。また、図2には、本提案に係る画像表示装置を後方から眺めた様子を示している。図示の画像表示装置は、帽子形状に類似した頭部装着型の構造体であり、本体の前部に重量物が集中していても、装置の荷重を頭部全体に分散させて、ユーザーの負担を軽減して装着することができる。
また、図3には、本提案に係る画像表示装置を側面から眺めた様子を示している。本提案に係る画像表示装置は、表示系統を含む大部分の部品を含んだ本体部101と、本体部101の上面から突設した額当て部102と、後方で上バンド104及び下バンド105に分岐されるヘッド・バンドと、左右のヘッドフォンからなる。本体部101内には、表示部や回路基板が収容される。また、本体部101の下方には、鼻背に倣うように鼻当て部103が形設されている。
ユーザーが画像表示装置を適切な頭部位置に装着したとき、額当て部102がユーザーの額に当接するとともに、ヘッド・バンドの上バンド104及び下バンド105がそれぞれ頭部の後方に当接する。すなわち、額当て部102、上バンド104、下バンド105の3点支持によって、ヘッド・マウント・ディスプレイがユーザーの頭部に装着される。額当て部102にユーザーの額が当接した状態でヘッド・バンドを締め付けることで、画像表示装置本体がユーザーの頭部から回転しないように支持することができる。
額当て部102には、画像表示装置をユーザーの頭部に装着した際に、額の頭部に当接する動きに連動して、画像表示装置がユーザーに装着されたことを検出する装着センサーが装備されている。図4には、額当て部102に装備された装着センサーの構成例を図解している。図示の例では、額当て部102は、回転軸142によって、画像表示装置の外筐に回動可能に支持されている。額当て部102は、非装着時には、スプリング144の復元力によって、画像表示装置の後方、すなわち装着するユーザーの額側へ向かった非装着位置へ押し出されている。そして、装着時には、ユーザーの額が当接することによって、前方の装着位置へ押し戻される。また、回転軸142には、前方に突設したアーム143が取り付けられている。装着時には、額当て部102は、回転軸142回りに約10度回転する。したがって、ユーザーが装着して額当て部102が前方へ押し戻されると、アーム143が連動して、その先端部でタクト・スイッチ141を操作する。タクト・スイッチ141の操作から、画像表示装置がユーザーの頭部に装着されたことを検出することができる。
また、額当て部102は、高さ調節機構を装備している。図5には、高さ調節機構の作用によって、額当て部102の高さが切り換わる様子を示している。同図において、下ポジションに設定された額当て部102を実線で示し、上ポジションに設定された額当て部102を破線で示している。図示のように、額当て部102の高さを下ポジションから上ポジションまで調節することにより、ユーザーの頭のサイズの個人差の対応範囲を広げることができる。
額当て部102の高さ調節は、特定の機構に限定されない。例えば、額当て部102を脱着可能に構成し、下ポジションの取り付け位置と上ポジションの取り付け位置を設けることで、額当て部102を取り付け直す操作で、容易に高さを調整することができる。図6左には下ポジションに取り付けられた額当て部102を、図6右には上ポジションに取り付けられた額当て部102を、それぞれ断面で示している。
図1乃至図6に示した画像表示装置は、頭部に装着したユーザーの眼を直接覆うように構成された遮光性タイプであり、画像視聴時にユーザーの没入感が増す一方、ユーザーは目隠し状態となる。この画像表示装置は、ユーザーの頭部に装着した状態では、額当て部102がユーザーの顔面と常に密着している。顔面における額の位置や高さには個人差があるが、図6に示したように高さ調整により密着性が確保される。したがって、ユーザーの頭部から電位を検出するための電極を、額当て部102や鼻当て部103に配設することができる。
図7には、本明細書で開示する技術を適用した画像表示装置700の内部構成例を示している。以下、各部について説明する。
制御部701は、ROM(Read Only Memory)701AやRAM(Random Access Memory)701Bを備えている。ROM701A内には、制御部701で実行するプログラム・コードや各種データを格納している。制御部701は、RAM701Bへロードしたプログラムを実行することで、画像の表示制御を始め、当該装置700全体の動作を統括的にコントロールする。ROM701Aに格納するプログラムやデータとして、画像の表示制御プログラムや、環境情報取得部704で取得した環境情報の処理プログラム、状態情報取得部705で取得した状態情報の処理プログラム、当該装置700に固有の識別情報などを挙げることができる。
入力操作部702は、キーやボタン、スイッチなど、ユーザーが入力操作を行う1以上の操作子を備え、操作子を介したユーザーの指示を受け付けて、制御部701に出力する。また、入力操作部702は、リモコン受信部703で受信したリモコン・コマンドからなるユーザーの指示を同様に受け付けて、制御部701に出力する。但し、当該装置700を装着中のユーザーにとっては、入力操作部702やリモコン(図示しない)への操作は、ほぼ目隠し状態での手探り操作となる。
環境情報取得部704は、当該装置700の周辺環境に関する環境情報を取得して、制御部701に出力する。環境情報取得部704は、環境情報として、例えば、環境光強度、音響強度、位置若しくは場所、温度、天気、時刻、周囲画像などを取得する。また、環境情報取得部704は、これらの環境情報を取得するために、光量センサーや、マイクロフォン、GPS(Global Positioning System)センサー、温度センサー、湿度センサー、時計、イメージ・センサー(カメラ)、放射線センサーなどの各種の環境センサー(いずれも図7には図示しない)を備えていてもよい。あるいは、当該装置700自体は環境センサーを備えず、環境センサーを装備する外部の装置(図示しない)から環境情報取得部704が環境情報を取得するように構成してもよい。
状態情報取得部705は、当該装置700を利用するユーザーの状態に関する状態情報を取得して、制御部701に出力する。状態情報取得部705は、状態情報として、例えば、ユーザーの作業状態(ユーザーの装着の有無)や、ユーザーの行動状態(装着中のユーザーの頭部の姿勢、歩行などの移動、瞼の開閉状態)、精神状態(内部画像を観察中に没頭若しくは集中しているかなどの興奮度、覚醒度、感情や情動など)、さらには生理状態を取得する。また、状態情報取得部705は、これらの状態情報をユーザーから取得するために、機械スイッチなどからなる装着センサー(図4を参照のこと)や、ジャイロ・センサー、加速度センサー、速度センサー、圧力センサー、体温センサー、発汗センサー、筋電位センサー、眼電位センサー、脳波センサーなどの各種の状態センサー(いずれも図7には図示しない)を備えていてもよい。
本実施形態では、状態情報取得部705は当該装置700を装着中のユーザーの眼周辺の筋電位を測定する筋電位センサーを備えている。制御部701は、取得した筋電位に基づいてユーザーのまばたき動作を検出して、当該装置700に対する操作情報を得るようになっているが、この点の詳細については後述に譲る。
通信部706は、他の装置との通信処理、並びに通信信号の変復調並びに符号化復号処理を行なう。例えば、通信部706は、表示出力するための画像信号を、画像ソースとなる外部機器(図示しない)から受信する。通信部706で受信し復調及び復号処理された、内側画像若しくは外側画像、あるいはその他の受信データは制御部701に供給される。また、制御部701は、外部機器への送信データを通信部706から送出する。
通信部706の構成は任意である。例えば、通信相手となる外部機器との送受信動作に使用する通信規格に応じて、通信部706を構成することができる。通信規格は、有線、無線のいずれの形態であってもよい。ここで言う通信規格として、MHL(Mobile High−definition Link)やUSB(Universal Serial Bus)、HDMI(High Definition Multimedia Interface)、Bluetooth(登録商標)通信、赤外線通信などを挙げることができる。
画像処理部707は、制御部701から出力される画像信号に対して画質補正などの信号処理をさらに行なうとともに、表示パネル709の画面に合わせた解像度に変換する。そして、表示駆動部708は、表示パネル709の画素を行毎に順次選択するとともに線順次走査して、信号処理された画像信号に基づく画素信号を供給する。
表示パネル709は、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイで構成される。虚像光学部710は、表示パネル709の表示画像を拡大投影して、ユーザーには拡大虚像として観察させる。
画像表示装置700は、ユーザーの眼を直接覆うように構成された遮光性タイプであり、装着中のユーザーは目隠し状態となることから、入力操作部702やリモコンに対する入力操作は、難しい作業になる。そこで、本実施形態では、状態情報取得部705がユーザー状態として取得する左右の眼のまばたき動作に基づく入力操作を行なうようにしている。
ユーザーの眼の運動により入力操作を行なう他の方法として、まばたき動作ではなく、視線方向で入力操作を行なうヘッド・マウント・ディスプレイやウェアラブル装置も知られている(例えば、特許文献3、4を参照のこと)。しかしながら、視線方向を正確に特定することは困難であり、複数のメニュー・ボタンが密接して表示される場合などは、誤って隣のメニュー・ボタンを指示してしまうことも想定される。これに対し、まばたき動作は、瞼を閉じたかどうかを判定するだけの離散的な出力であり、ユーザーの指示を明瞭に解釈することができると思料される。
まばたき動作を利用したUI操作は、ユーザーにとって単純であり、利用し易い。ユーザーは、左眼のみのまばたき動作、右眼のみのまばたき動作、両眼同時のまばたき動作の3通りの入力が可能である。例えば、左眼のみのまばたき動作を左方向へのカーソル移動、右眼のみのまばたき動作を右方向へのカーソル移動というUI操作にそれぞれ割り付けることができる。左眼のまばたき動作でカーソルが左へ移動し、右眼のまばたき動作でカーソルが右へ移動するというUI操作は、ユーザーが直感的に理解し易い。
B.ユーザーのまばたき動作の検出
カメラの撮影画像などを画像処理して眼球の運動やまばたき動作を捕捉する方法が当該技術分野で広く知られている。しかしながら、頭部に装着される画像表示装置の中に、視界の妨げとならないように視線入力装置を設置しなければならず、設計・製作上の制約が多い。
そこで、本実施形態では、装着中のユーザーの眼周辺の筋電位を測定する筋電位センサーを装備して、取得した筋電位に基づいてユーザーのまばたき動作を検出するようにしている。検出した筋電位を閾値と比較することによって、まばたき動作したかどうかを判定することができるので、カメラの撮影画像の画像処理や、視線方向の検出に比較すると、簡便な処理で済む。
眼のまばたき動作により発生する筋電位を検出するには、筋電位の変化を捕捉する検出用電極と、基準となる筋電位を得るための参照用電極の組み合わせが必要である。また、図1乃至図6に示した画像表示装置の構成では、額当て部102とユーザーの顔面との密着性が確保されているので、本実施形態では、額当て部102に検出用電極及び参照用電極を配設している。勿論、装置構成の変更に応じて、電極を配置する場所を額当て部102以外に適宜移動すればよい。
図8並びに図9には、まばたき動作検出用の電極からなる筋電位センサーを額当て部102に配設した例を示している。但し、図8は、ユーザーの顔正面から眺めた図、図9は、ユーザーの頭部情報から眺めた図である。図示の例では、当該装置を装着したユーザーの左眼のほぼ真上に、左眼のまばたき動作検出用の電極801が当接するとともに、当該装置を装着したユーザーの右眼のほぼ真上に、右眼のまばたき動作検出用の電極802が当接する。また、図8及び図9に示す例では、各検出用電極801、802で共用する参照用電極803が検出用電極801、802間のほぼ中央付近に配設されている。
検出用電極801、802、並びに参照用電極803の電極素材として、例えば以下のようなものを使用することができる。
(1)導電ゲル電極(生体電気計測用ディスポーザブル電極、電気刺激用電極など)
(2)ドライ電極(導電性を持たせた糸を編んだ導電布、絶縁性の布に導電性物質を蒸着又は塗布した布など)
(3)非接触容量結合電極
ここで、図8及び図9に示すように人間の額に当接された電極には、まばたきを行なう筋肉の運動により発生する筋電位の他に、眼球の運動により発生する眼電位の成分が入力される。眼電位は、角膜の正電荷と網膜の負電荷により発生し、黒目が近付くと正電位が現れ、逆に黒目が離れると負電位が現れることが知られている。眼球の運動は、基本的には左右すなわち水平方向の黒目の移動である。左眼の黒目が移動しても、左眼のほぼ真上に配設された検出用電極801と黒目との距離はほとんど変わらないことから、検出用電極801に入力される電位信号は、左眼の眼球運動による眼電位の変化の影響をほとんど受けない。同様に、右眼の黒目が移動しても、右眼のほぼ真上に配設された検出用電極802と黒目との距離はほとんど変わらないことから、検出用電極802に入力される電位信号は、右眼の眼球運動による眼電位の変化の影響をほとんど受けない。図10に示すように、黒目の各位置P1、P2、P3での検出用電極801又は802までの距離L1、L2、L3の差は小さく、よって、眼電位の影響はほぼ等しいということができる。また、検出用電極801、802を眼のほぼ真上でなく、ほぼ真下に配置しても、同様に眼球運動による眼電位の変化の影響をほとんど受けないということができる。
他方、参照用電極803は、左眼からの距離と右眼からの距離がほぼ等しい場所に配設されている。図11に示すように、ユーザーの両眼が右側を向いたときには、右眼の黒目が遠ざかることによって現れる負電位と、左眼の黒目が近づくことによって現れる正電位とが相殺されるので、両眼の眼球運動による眼電位の変化の影響をほとんど受けない。同様に、図12に示すように、ユーザーが左側を向いたときには、右眼の黒目が近づくことによって現れる正電位と、左眼の黒目が遠ざかることによって現れる負電位とが相殺されるので、両眼の眼球運動による眼電位の変化の影響をほとんど受けない。参照用電極803を顔面(額)のほぼ中央に配設すると、ユーザーの視線がどの位置にあったとしても、左右いずれか一方の黒目が近づくと他方の黒目は遠ざかるので、眼球電位の変化は左右の眼で相殺される。
要するに、図8及び図9に示したように、左眼のほぼ真上に左眼のまばたき動作検出用の電極801、右眼のほぼ真上に右眼のまばたき動作検出用の電極802、各検出用電極801、802のほぼ中央付近に参照用電極803を配設するという筋電位センサーの構成であれば、眼電位の影響を抑制して、まばたき動作を検出することが可能である。また、上記のような各電極801〜803の位置関係を保つことができる限りにおいては、額当て部102以外の場所に筋電位センサーを配置してもよい。
図13には、まばたき動作検出用の筋電位センサーを額当て部102に配設した他の例を示している。図8及び図9に示した例では、2つの検出用電極801、802で1つの参照用電極803を共用するように構成されている。これに対し、図13に示す例では、左右で参照用電極を共用せず、検出用電極801用の参照用電極803L、並びに、検出用電極802用の参照用電極803Rがそれぞれ個別に配設されている。
なお、特許文献2(前述)には、めがね型構成において、鼻パッドに検出用電極を配置するとともに、テンプルの先端の耳たぶに当接する部位に参照用電極を配置して、眼電位信号に基づいて視線位置を検出する装置について開示されている。同様の装置構成により筋電位信号に基づいてまばたき動作を検出しようとすると、鼻パッドの検出用電極は眼球の運動による黒目の移動に伴う電位の変化に過敏に反応する電位信号を取り込むことになる。また、参照用電極は、検出用電極から離間した頭部後方に配置されていることから、脳波まで拾ってしまうことになり、まばたき動作による電位の変化を読み取るのは難しいと思料される。これに対し、本実施形態では、参照用電極803を検出用電極801、802の近傍に配設しているので、脳波が入り込まないようにすることができる。
図14には、図8及び図9に示した筋電位センサーの出力信号を処理する回路1400の構成を模式的に示している。図示の処理回路1400は、例えば状態情報取得部705内に実装される。
第1の差動増幅部1401は、左眼のまばたき動作検出用電極801の電位信号を正極端子に入力するとともに、参照用電極803の電位信号を負極端子に入力し、これらの差分を差動増幅する。また、第1のフィルター1403は、バンドパス・フィルター又はノッチなどで構成されるが、第1の差動増幅部1401が出力する差動増幅信号に含まれる不要成分を除去した後、判定部1405に出力する。
また、第2の差動増幅部1402は、右眼のまばたき動作検出用電極802の電位信号を正極端子に入力するとともに、参照用電極803の電位信号を負極端子に入力し、これらの差分を差動増幅する。また、第2のフィルター1404は、バンドパス・フィルター又はノッチなどで構成されるが、第2の差動増幅部1402が出力する差動増幅信号に含まれる不要成分を除去した後、判定部1405に出力する。
判定部1405は、左眼のまばたき動作検出用電極801及び右眼のまばたき動作検出用電極802からそれぞれ得られた差動増幅後の電位信号DL、DRに基づいて、ユーザーが左眼、右眼、両眼を意図的にまばたきしたかどうかを検出する。
図15には、左眼のまばたき動作検出用電極801及び右眼のまばたき動作検出用電極802からそれぞれ得られる電位信号を示している。
画像表示装置を頭部に装着中のユーザーが左眼を意図的にまばたきすると、検出用電極801からの電位信号には、参照番号1501で示すような波形が発生する。また、他方の検出用電極802からの電位信号には、参照番号1502で示すような、上記とは極性が逆となる波形が発生する。
また、ユーザーが右眼を意図的にまばたきすると、検出用電極802からの電位信号には、参照番号1504で示すような波形が発生する。また、他方の検出用電極801からの電位信号には、参照番号1502で示すような、上記とは極性が逆となる波形が発生する。
また、ユーザーが両眼を意図的にまばたきすると、検出用電極801からの電位信号には、参照番号1505で示すような波形が発生する。また、他方の検出用電極802からの電位信号には、参照番号1506で示すような、上記と極性が同じとなる波形が発生する。
判定部1405は、検出用電極801及び802からの電位信号を入力すると、これらの信号レベルをそれぞれの閾値THL、THRと比較することによって、左眼のみのまばたき動作、右眼のみのまばたき動作、両眼同時のまばたき動作のいずれが行なわれたかを判定することができる。また、判定部1405は、まばたきの筋電位波形をより正確に判定するために、信号レベルの閾値だけでなく、さらには波形の急峻さを表す加速度、速度を基に判定を行なうようにしてもよい。そして、制御部701は、判定部1405からのまばたき動作の判定結果を受け取ると、これに基づいて所定のUI操作を行なうことができる。但し、UI操作の詳細については後述に譲る。
なお、人は普段から無意識なまばたきを周期的に行なうが、無意識なまばたきにより発生する筋電位は、意図的にまばたき動作を行なったときの筋電位よりも、はるかに低レベルで且つ緩やかな波形ある。図16には、意図的なまばたき動作時と、無意識なまばたきを行なったときの筋電位レベルを重ねて示している。
また、画像表示装置を頭部に装着中のユーザーがまばたき動作によりUI操作を行なう間も、人体の他の部位でも筋肉運動により筋電位の変化が常に生じている。しかしながら、首より下の場所で発生した筋電位は、検出用電極801、802から離間しているので、検出用電極801、802に到達するまで減衰して低い信号レベルになっているので、判定部1405の判定には影響しないものと思料される。また、首より下の場所で発生した筋電位は、細い首を通過する際に減衰するとも考えられる。
図17には、判定部1405内で、検出用電極801から取り込んだ電位信号DLに基づいて左眼のまばたき動作を判定するための処理手順をフローチャートの形式で示している。なお、検出用電極802から取り込んだ電位信号についても同様の処理手順を適用することができる。
判定部1405は、まず、電位信号DLの信号レベルを閾値THLと比較する(ステップS1701)。
電位信号DLの信号レベルが閾値THL以下のときには(ステップS1701のNo)、判定部1405は、左眼のまばたき動作ではないと判定する。
一方、電位信号DLの信号レベルが閾値THLを超えるときには(ステップS1701のYes)、判定部1405は、電位信号DLの信号値の時間微分若しくは差分をとって、信号値の速度を求めると(ステップS1702)、速度が所定の値[V1,V2]の範囲内であるかどうかをチェックする(ステップS1703)。
信号値の速度が、速度が所定の値[V1,V2]の範囲を外れるときには(ステップS1703のNo)、判定部1405は、左眼のまばたき動作ではないと判定する。
一方、電位信号DLの信号値の速度が[V1,V2]の範囲内であるときには(ステップS1703のYes)、判定部1405は、信号値の速度の時間微分若しくは差分をとって、信号値の加速度を求めると(ステップS1704)、加速度が所定の値[A1,A2]の範囲内であるかどうかをチェックする(ステップS1705)。
信号値の速度が、加速度が所定の値[A1,A2]の範囲を外れるときには(ステップS1705のNo)、判定部1405は、左眼のまばたき動作ではないと判定する。一方、電位信号DLの信号値の加速度が[A1,A2]の範囲内であるときには(ステップS1705のYes)、判定部1405は、左眼のまばたき動作が行なわれたと判定して(ステップS1706)、この判定結果を制御部701に出力する。
また、意図的なまばたき動作を行なった際に発生する筋電位には、ユーザー毎の個人差がある。したがって、判定部1405で正しくまばたき動作を判定するには、左右の眼のまばたき動作の閾値THL、THRを、さらには波形の急峻さを表す速度、加速度をユーザー毎に正しく設定するための学習処理が必要と考えられる。例えば、ユーザーに複数回左右の眼を交互にまばたき動作してもらい、その間に得られた筋電位レベルを平均化するなど統計処理を行なうことで、ユーザー毎の閾値THL、THR並びに速度[V1,V2]、加速度[A1,A2]の学習を行なうことができる。
閾値THL、THRの学習は、ユーザーが画像表示装置の使用を開始する際に行なうことが好ましい。例えば、使用開始時に眼幅調整用の信号パターンを表示して、ユーザーに眼幅調整を正確に行なわせるヘッド・マウント・ディスプレイについて提案がなされている(例えば、特許文献5を参照のこと)。例えば、装置セットアップの際、眼幅調整を行なった後に、「左眼をN回まばたきしてください」、「右眼をN回まばたきしてください」といったようにメッセージを表示して、ユーザーに各眼のまばたき動作を行なってもらい、その間に筋電位を測定して、閾値THL、THRの学習を行なうようにしてもよい。
なお、ユーザー毎に閾値THL、THR並びに速度[V1,V2]、加速度[A1,A2]を学習した結果は、状態情報取得部705内で保持するか、又は、ROM701A(但し、EEPROMのように書き換え動作が可能なメモリー・デバイスの場合)又はRAM701Bに格納する。
C.ユーザーのまばたき動作を利用したUI操作
ユーザーのまばたき動作を利用したUI操作によれば、左眼のみのまばたき動作、右眼のみのまばたき動作、両眼同時のまばたき動作の3通りの入力が可能である。例えば、左眼のみのまばたき動作を左方向へのカーソル移動、右眼のみのまばたき動作を右方向へのカーソル移動というUI操作にそれぞれ割り付けることができる。左眼のまばたき動作でカーソルが左へ移動し、右眼のまばたき動作でカーソルが右へ移動するというUI操作は、ユーザーが直感的に理解し易い。
図18には、表示パネル709に表示されたメニュー・バー上で、左眼のまばたき動作を1回行なう度に、カーソル位置が1つずつ左方向に移動する様子を示している。また、図19には、右眼のまばたき動作を1回行なう度に、メニュー・バー上のカーソル位置が1つずつ右方向に移動する様子を示している。図18及び図19中、カーソルが置かれたメニュー項目を太線で描いている。左眼のまばたき動作又は右眼のまばたき動作を複数回繰り返すことによって、回数に応じた個数だけカーソル位置が左方向又は右方向に移動する。勿論、左眼のまばたき動作と右眼のまばたき動作を交互に行なってもよく、左右各々の眼のまばたき動作の回数に追従してカーソル位置が移動することになる。
また、両眼同時のまばたき動作を現在のカーソル位置での選択というUI操作に割り付けることもできる。図20には、両眼同時のまばたき動作により、メニュー・バー上の現在のカーソル位置が選択された様子を示している。図20中、選択されたメニューは反転表示(若しくはハイライト表示)に切り換わり、選択状態であることを示す。なお、選択状態で左眼又は右眼片方のまばたき動作を行なうと、選択状態を解除するようにしてもよい。
ここで、両眼同時のまばたき動作により選択されたメニューが複数のメニュー項目を含んでいる場合には、図21に示すように、メニュー項目の一覧がプルダウン表示される。このプルダウン・メニュー上では、図22に示すように、左眼のまばたき動作毎にカーソルが下方に進む。また、図23に示すように、右眼のまばたき動作毎にカーソルが上方に戻っていく。あるいは、左眼のまばたき動作毎にカーソルが下方に進み、右眼のまばたき動作毎にカーソルが上方に戻っていくようにしてもよい。また、両眼同時のまばたき動作により、プルダウン・メニュー上で現在のカーソル位置のメニュー項目が選択される。そして、図24に示すように、選択されたメニューは反転表示(若しくはハイライト表示)に切り換わり、選択状態であることを示す。また、選択状態で左眼又は右眼片方のまばたき動作を行なうと、選択状態を解除するようにしてもよい。
また、両眼まばたき動作を2回連続することにより、メニュー項目の選択状態を確定させることができる。2回の両眼まばたき動作は、マウスのダブルクリックを想起させるので、ユーザーは選択が確定することを直感的に理解し易い。図25には、ビデオ・コンテンツの再生メニュー画面を例示している。同図では、左右片目のまばたき動作を通じて、再生ボタン上にカーソルが置かれ、選択状態にある。このとき、両眼まばたき動作を2回連続して行なうことにより、再生ボタンの選択が確定して、ビデオ・コンテンツの再生処理が起動する。勿論、早送りや巻き戻し、一時停止、再生停止などのボタンが選択状態のときに両眼まばたき動作を2回連続して行なうと、同様に、該当する処理が起動する。
制御部701は、状態情報取得部705内で取得された左右の眼のまばたき検出結果に基づいて、図18乃至図25に示したようなUI操作を実行することができる。
D.情報入力装置への適用
ここまでは、本明細書で開示する技術を頭部装着型の画像表示装置に適用した実施形態について説明してきた。すなわち、検出用電極801、802並びに参照用電極803を備えた筋電位センサーの出力結果から得られるユーザーのまばたき動作に基づいて画像表示装置をUI操作する実施形態であり、まばたき動作による操作対象は画像表示装置自体であった。
本明細書で開示する技術は、画像表示装置に限らず、パーソナル・コンピューターやビデオ再生装置などの外部機器をUI操作するための入力装置に適用することもできる。
図26には、本明細書で開示する技術を適用した情報入力装置2600の内部構成例を示している。図示を省略するが、情報入力装置2600は例えば図1乃至図6に示した帽子形状の構造体と同様に、パーソナル・コンピューターやビデオ再生装置などを使用するユーザーの頭部に装着して用いられ、ユーザーの額など左右の眼周辺に密着する部位を有するものとする。以下、各部について説明する。
制御部2601は、ROM2601AやRAM2601Bを備えている。ROM2601A内には、制御部2601で実行するプログラム・コードや各種データを格納している。制御部2601は、RAM2601Bへロードしたプログラムを実行することで、UI操作を始め、当該装置2600全体の動作を統括的にコントロールする。
まばたき動作検出部2602は、筋電位センサーと、筋電位センサーの出力信号を処理する処理回路を備えている。筋電位センサーは、図8に示したと同様の、左右の眼のほぼ真上(若しくはほぼ真下)に当接する1対のまばたき動作検出用電極801、802、並びに、両検出用電極801、802のほぼ中央に配設された参照用電極803からなる。また、筋電位センサーの出力信号を処理する処理回路は、図14に示したと同様の構成を備え、各検出用電極801、802から出力される電位信号を図17に示したと同様の処理手順で処理して、左右それぞれの眼のまばたき動作を検出する。
なお、情報入力装置2600において、各検出用電極801、802から出力される電位信号に基づいてまばたき動作を検出する際に、信号値、速度、加速度を考慮する点や、信号値の閾値、速度の閾値、加速度の閾値をユーザー毎に学習する必要がある点は、上記と同様である。
入出力インターフェース2603には、パーソナル・コンピューターやビデオ再生装置などUI操作の対象となる外部機器が相互接続されている。機器間の相互接続には、例えばMHLやUSB、HDMI、Bluetooth(登録商標)通信、赤外線通信などを利用することができる。
図示を省略するが、パーソナル・コンピューターやビデオ再生装置などの外部機器は、メニュー画面などを表示する表示部を備えており、情報入力装置2600から送られてくる左眼のみのまばたき動作、右眼のみのまばたき動作、両眼同時のまばたき動作の3通りの入力に基づいて、図18乃至図25に示したと同様のUI操作が行なわれる。
E.本明細書で開示する技術の構成
本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)表示部と、ユーザーのまばたき動作を検出するまばたき動作検出部と、前記まばたき動作検出部が検出したまばたき動作に応じた制御を行なう制御部と、を具備する画像表示装置。
(2)前記まばたき動作検出部は、前記ユーザーの左眼近傍に配置される第1の検出用電極と、前記ユーザーの右眼近傍に配置される第2の検出用電極と、前記第1及び第2の検出用電極間のほぼ中央に配置される参照用電極を備え、前記第1の検出用電極と前記参照用電極間で得られる第1の電位信号と前記第2の検出用電極と前記参照用電極間で得られる第2の電位信号の組み合わせに基づいて、左眼並びに右眼のまばたき動作を検出する、
上記(1)に記載の画像表示装置。
(3)前記まばたき動作検出部は、前記第1の検出用電極並びに前記第2の検出用電極をそれぞれ左眼並びに右眼のほぼ真上又はほぼ真に配置して、黒目の移動により発生する眼電位の影響を抑制する、上記(2)に記載の画像表示装置。
(4)前記まばたき動作検出部は、左眼からの距離と右眼からの距離がほぼ等しくなる場所に前記参照用電極を配置して、左眼の黒目の移動に伴う眼電位と右眼の黒目の移動に伴う眼電位を相殺する、上記(2)に記載の画像表示装置。
(5)前記まばたき動作検出部は、前記参照用電極を前記第1及び前記第2の検出用電極から近い場所に配置して、前記ユーザーの脳波の影響を抑制する、上記(2)に記載の画像表示装置。
(6)前記まばたき動作検出部は、前記ユーザーの左眼近傍に配置される第1の検出用電極と、前記第1の電位信号並びに前記第2の電位信号の信号値の閾値、電位信号が変化する速度の閾値、並びに加速度の閾値との比較に基づいて、左眼並びに右眼の各まばたき動作を検出する、上記(2)に記載の画像表示装置。
(7)前記まばたき動作検出部は、ユーザー毎のまばたき動作の検出に使用する電位信号の信号値の閾値、電位信号が変化する速度の閾値、並びに加速度の閾値を学習する、上記(6)に記載の画像表示装置。
(8)前記制御部は、前記まばたき動作検出部が検出したまばたき動作に応じて前記表示部の表示画面に対するUI操作を行なう、上記(1)に記載の画像表示装置。
(9)前記制御部は、左眼のみのまばたき動作、右眼のみのまばたき動作、両眼のまばたき動作の各々に応じた前記UI操作を行なう、上記(8)に記載の画像表示装置。
(10)前記制御部は、前記表示画面上で、左眼のみのまばたき動作毎に左方向へのカーソル移動、右眼のみのまばたき動作毎に右方向へのカーソル移動、両眼のまばたき動作に応じた現在のカーソル位置の選択を行なう、
請求項8に記載の画像表示装置。
(11)ユーザーの頭部に装着して用いられる情報入力装置であって、前記ユーザーの左右の眼のまばたき動作を検出するまばたき動作検出部と、前記まばたき動作検出部が検出したまばたき動作に応じた入力操作情報を外部に出力するインターフェースと、を具備する情報入力装置。
(12)前記まばたき動作検出部は、前記ユーザーの左眼近傍に配置される第1の検出用電極と、前記ユーザーの右眼近傍に配置される第2の検出用電極と、前記第1及び第2の検出用電極間のほぼ中央に配置される参照用電極を備え、前記第1の検出用電極と前記参照用電極間で得られる第1の電位信号と前記第2の検出用電極と前記参照用電極間で得られる第2の電位信号の組み合わせに基づいて、左眼並びに右眼のまばたき動作を検出する、上記(11)に記載の情報入力装置。
(13)前記まばたき動作検出部は、前記第1の検出用電極並びに前記第2の検出用電極をそれぞれ左眼並びに右眼のほぼ真上又はほぼ真に配置して、黒目の移動により発生する眼電位の影響を抑制する、上記(12)に記載の情報入力装置。
(14)前記まばたき動作検出部は、左眼からの距離と右眼からの距離がほぼ等しくなる場所に前記参照用電極を配置して、左眼の黒目の移動に伴う眼電位と右眼の黒目の移動に伴う眼電位を相殺する、上記(12)に記載の情報入力装置。
(15)前記まばたき動作検出部は、前記参照用電極を前記第1及び前記第2の検出用電極から近い場所に配置して、前記ユーザーの脳波の影響を抑制する、上記(12)に記載の情報入力装置。
(16)前記まばたき動作検出部は、前記ユーザーの左眼近傍に配置される第1の検出用電極と、前記第1の電位信号並びに前記第2の電位信号の信号値の閾値、電位信号が変化する速度の閾値、並びに加速度の閾値との比較に基づいて、左眼並びに右眼の各まばたき動作を検出する、上記(12)に記載の情報入力装置。
(17)前記まばたき動作検出部は、ユーザー毎のまばたき動作の検出に使用する電位信号の信号値の閾値、電位信号が変化する速度の閾値、並びに加速度の閾値を学習する、上記(16)に記載の情報入力装置。
(18)左眼のみのまばたき動作、右眼のみのまばたき動作、両眼のまばたき動作の各々に応じた前記入力操作情報を前記インターフェースから出力する、上記(11)に記載の情報入力装置。
(19)左眼のみのまばたき動作毎に左方向への移動、右眼のみのまばたき動作毎右方向への移動、両眼のまばたき動作に応じた現在の位置の選択をそれぞれ指示する前記UI操作情報を前記インターフェースから出力する、上記(11)に記載の情報入力装置。
(20)表示部と、ユーザーの眼近傍の電位信号を検出する電位信号検出部と、前記電位信号検出部の検出結果に応じた制御を行なう制御部と、を具備する画像表示装置。
特開2005−86328号公報 特開2001−133724号公報 特開2000−23065号公報 特開2011−125693号公報 特開2012−138654号公報
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
頭部装着型の画像表示装置は、遮光性のタイプと透過性のタイプに分類することができ、本明細書では主に遮光性の頭部装着型画像表示装置に関する実施形態について説明してきたが、勿論、透過性のタイプの装置に対しても、同様に本明細書で開示する技術を適用することができる。
また、本明細書で開示する技術は、画像表示装置と一体で構成される場合に限定されず、ユーザーのまばたき動作に基づく情報入力装置として構成して、ビデオ再生の操作やパーソナル・コンピューターの入力操作などに活用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
102…額当て部、103…鼻当て部
104…上バンド、105…下バンド
141…タクト・スイッチ、142…回転軸
143…アーム、144…スプリング
701…制御部、701A…ROM、701B…RAM
702…入力操作部、703…リモコン受信部
704…環境情報取得部、705…状態情報取得部
706…通信部、707…画像処理部
708…表示駆動部、709…表示パネル、710…虚像光学部
801、802…まばたき動作検出用電極、803…参照用電極
2600…情報入力装置
2601…制御部、2601A…ROM、2601B…RAM

Claims (11)

  1. 表示部と、
    ユーザーのまばたき動作を検出するまばたき動作検出部と、
    前記まばたき動作検出部が検出したまばたき動作に応じた制御を行なう制御部と、
    を具備し、
    前記まばたき動作検出部は、前記ユーザーの左眼のほぼ真上又はほぼ真下に配置されて前記左眼の黒目の移動により発生する眼電位の影響を抑制する第1の検出用電極と、前記ユーザーの右眼のほぼ真上又はほぼ真下に配置されて前記右眼の黒目の移動により発生する眼電位の影響を抑制する第2の検出用電極と、前記第1及び第2の検出用電極間のほぼ中央で前記左眼からの距離と前記右眼からの距離がほぼ等しくなる場所に配置されて前記左眼の黒目の移動に伴う眼電位と前記右眼の黒目の移動に伴う眼電位を相殺する参照用電極を備え、前記第1の検出用電極と前記参照用電極間で得られる第1の電位信号と前記第2の検出用電極と前記参照用電極間で得られる第2の電位信号の組み合わせに基づいて、左眼並びに右眼のまばたき動作を検出する、
    画像表示装置。
  2. 前記表示部は、前記ユーザーの頭部位置に装着して用いられるように構成される、
    請求項1に記載の画像表示装置。
  3. 前記表示部を前記ユーザーの頭部位置に装着したときに前記ユーザーの額に当接する額当て部をさらに備える、
    請求項2に記載の画像表示装置。
  4. 前記第1及び第2の検出用電極と前記参照用電極は前記額当て部に配設される、
    請求項に記載の画像表示装置。
  5. 前記まばたき動作検出部は、前記参照用電極を前記第1及び前記第2の検出用電極から近い場所に配置して、前記ユーザーの脳波の影響を抑制する、
    請求項乃至4のいずれかに記載の画像表示装置。
  6. 前記まばたき動作検出部は、前記第1の電位信号並びに前記第2の電位信号の信号値と信号の閾値の比較前記第1の電位信号並びに前記第2の電位信号の信号値が変化する速度と速度の閾値の比較、並びに前記第1の電位信号並びに前記第2の電位信号の信号値の加速度と加速度の閾値との比較のうち少なくとも1つに基づいて、左眼並びに右眼の各まばたき動作を検出する、
    請求項乃至5のいずれかに記載の画像表示装置。
  7. 前記まばたき動作検出部は、ユーザー毎のまばたき動作の検出に使用する電位信号の信号値の閾値、電位信号が変化する速度の閾値、並びに加速度の閾値を学習する、
    請求項6に記載の画像表示装置。
  8. 前記制御部は、前記まばたき動作検出部が検出したまばたき動作に応じて前記表示部の表示画面に対するUI操作を行なう、
    請求項1乃至7のいずれかに記載の画像表示装置。
  9. 前記制御部は、左眼のみのまばたき動作、右眼のみのまばたき動作、両眼のまばたき動作の各々に応じた前記UI操作を行なう、
    請求項8に記載の画像表示装置。
  10. 前記制御部は、前記表示画面上で、左眼のみのまばたき動作毎に左方向へのカーソル移動、右眼のみのまばたき動作毎に右方向へのカーソル移動、両眼のまばたき動作に応じた現在のカーソル位置の選択を行なう、
    請求項8又は9のいずれかに記載の画像表示装置。
  11. ユーザーの頭部に装着して用いられる情報入力装置であって、
    前記ユーザーの左眼のほぼ真上又はほぼ真下に配置されて前記左眼の黒目の移動により発生する眼電位の影響を抑制する第1の検出用電極と、前記ユーザーの右眼のほぼ真上又はほぼ真下に配置されて前記右眼の黒目の移動により発生する眼電位の影響を抑制する第2の検出用電極と、前記第1及び第2の検出用電極間のほぼ中央で前記左眼からの距離と前記右眼からの距離がほぼ等しくなる場所に配置されて前記左眼の黒目の移動に伴う眼電位と前記右眼の黒目の移動に伴う眼電位を相殺する参照用電極を備え、前記第1の検出用電極と前記参照用電極間で得られる第1の電位信号と前記第2の検出用電極と前記参照用電極間で得られる第2の電位信号の組み合わせに基づいて、左眼並びに右眼のまばたき動作を検出するまばたき動作検出部と、
    前記まばたき動作検出部が検出したまばたき動作に応じた入力操作情報を外部に出力するインターフェースと、
    を具備する情報入力装置。
JP2012243065A 2012-11-02 2012-11-02 画像表示装置並びに情報入力装置 Expired - Fee Related JP5888205B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2012243065A JP5888205B2 (ja) 2012-11-02 2012-11-02 画像表示装置並びに情報入力装置
RU2015115667A RU2644265C2 (ru) 2012-11-02 2013-09-11 Устройство отображения изображения и устройство для ввода информации
EP13773867.0A EP2895061B1 (en) 2012-11-02 2013-09-11 Image display device and information input device
US14/437,690 US9841812B2 (en) 2012-11-02 2013-09-11 Image display device and information input device
BR112015009223A BR112015009223A2 (pt) 2012-11-02 2013-09-11 dispositivo e método de processamento de informação, mídia legível por computador não temporária, e, aparelho de exibição
PCT/JP2013/005380 WO2014068832A1 (en) 2012-11-02 2013-09-11 Image display device and information input device
CN201380056001.1A CN104755023B (zh) 2012-11-02 2013-09-11 图像显示设备和信息输入设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012243065A JP5888205B2 (ja) 2012-11-02 2012-11-02 画像表示装置並びに情報入力装置

Publications (3)

Publication Number Publication Date
JP2014092931A JP2014092931A (ja) 2014-05-19
JP2014092931A5 JP2014092931A5 (ja) 2015-02-26
JP5888205B2 true JP5888205B2 (ja) 2016-03-16

Family

ID=49305050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012243065A Expired - Fee Related JP5888205B2 (ja) 2012-11-02 2012-11-02 画像表示装置並びに情報入力装置

Country Status (7)

Country Link
US (1) US9841812B2 (ja)
EP (1) EP2895061B1 (ja)
JP (1) JP5888205B2 (ja)
CN (1) CN104755023B (ja)
BR (1) BR112015009223A2 (ja)
RU (1) RU2644265C2 (ja)
WO (1) WO2014068832A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11090003B2 (en) * 2013-09-09 2021-08-17 Healthy.Io Ltd. Systems for personal portable wireless vital signs scanner
JP6435640B2 (ja) * 2014-05-20 2018-12-12 株式会社ニコン 混雑度推定システム
KR102302876B1 (ko) * 2014-06-23 2021-09-17 삼성전자주식회사 생체 전극 및 이를 이용한 생체 신호 처리 장치 및 방법
JP6551417B2 (ja) * 2014-11-12 2019-07-31 富士通株式会社 ウェアラブルデバイス、表示制御方法、及び表示制御プログラム
KR101638095B1 (ko) * 2015-01-16 2016-07-20 한국과학기술원 시선 인식 및 생체 신호를 이용한 헤드 마운트 디스플레이를 통해 사용자 인터페이스를 제공하는 방법, 이를 이용한 장치 및 컴퓨터 판독 가능한 기록 매체
EP4250883A3 (en) * 2015-02-27 2023-11-29 Sony Interactive Entertainment Inc. Head-mounted display
JP6598536B2 (ja) * 2015-06-30 2019-10-30 キヤノン株式会社 頭部装着装置
JP6407824B2 (ja) * 2015-09-01 2018-10-17 株式会社東芝 メガネ型ウエアラブル端末およびこの端末を用いる方法
JP6334484B2 (ja) * 2015-09-01 2018-05-30 株式会社東芝 メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー
CN105260017A (zh) * 2015-09-28 2016-01-20 南京民办致远外国语小学 眼镜鼠标及其工作方法
CN105867605A (zh) * 2015-12-15 2016-08-17 乐视致新电子科技(天津)有限公司 虚拟现实头盔的功能菜单翻页方法、装置及头盔
CN105867607A (zh) * 2015-12-15 2016-08-17 乐视致新电子科技(天津)有限公司 虚拟现实头盔中的菜单选择方法、装置及虚拟现实头盔
EP3272277A1 (en) * 2016-07-19 2018-01-24 Stichting IMEC Nederland A method and a system for eye tracking
CN106446912A (zh) * 2016-09-14 2017-02-22 珠海市魅族科技有限公司 一种媒体处理的方法及媒体处理装置
CN106325524A (zh) * 2016-09-14 2017-01-11 珠海市魅族科技有限公司 一种指令获取的方法及指令获取装置
US20180081433A1 (en) * 2016-09-20 2018-03-22 Wipro Limited System and method for adapting a display on an electronic device
CN107224292B (zh) * 2017-05-27 2019-12-31 西南交通大学 一种调度员的注意广度的测试方法和系统
CN110998493A (zh) * 2017-06-15 2020-04-10 努罗公司 神经操作系统
US11331019B2 (en) 2017-08-07 2022-05-17 The Research Foundation For The State University Of New York Nanoparticle sensor having a nanofibrous membrane scaffold
CN108354611B (zh) * 2017-12-19 2020-11-13 东软集团股份有限公司 眨眼动作检测方法、装置、可读存储介质及电子设备
US10905186B2 (en) * 2018-05-03 2021-02-02 Htc Corporation Head-mounted display device
CN108762504A (zh) * 2018-05-28 2018-11-06 广州脑李信息科技有限公司 一种通过单眨眼控制的人机录入装置、方法及系统
JPWO2020017448A1 (ja) * 2018-07-20 2021-06-24 国立研究開発法人産業技術総合研究所 入力装置、入力方法及び入力システム
JP2019023939A (ja) * 2018-11-15 2019-02-14 株式会社ニコン ウェアラブル端末
CN110134245A (zh) * 2019-05-21 2019-08-16 华南脑控(广东)智能科技有限公司 一种基于eog和姿态传感器的眼控装置以及眼控方法
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
TWI766402B (zh) * 2020-10-26 2022-06-01 和碩聯合科技股份有限公司 降噪耳機的控制裝置及控制方法
US20230259201A1 (en) * 2022-02-16 2023-08-17 Htc Corporation Method for zooming visual content, host, and computer readable medium

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH062146B2 (ja) * 1987-03-30 1994-01-12 竹井機器工業株式会社 意志伝達装置
US5360971A (en) * 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5621424A (en) * 1992-08-24 1997-04-15 Olympus Optical Co., Ltd. Head mount display apparatus allowing easy switching operation from electronic image to external field image
JPH0749744A (ja) * 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
US5991085A (en) * 1995-04-21 1999-11-23 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
JP2000023065A (ja) 1998-06-29 2000-01-21 Dainippon Printing Co Ltd 視線入力付きゴーグル型ディスプレイ
JP2001133724A (ja) 1999-08-25 2001-05-18 Olympus Optical Co Ltd 頭部装着型映像表示装置
GB0220265D0 (en) * 2002-09-02 2002-10-09 Univ Ulster Signal processing strategy to control external devices by means of human electro-oculagraphic potentials
JP4344568B2 (ja) 2003-09-05 2009-10-14 富士フイルム株式会社 ヘッドマウントディスプレイ及びそのコンテンツ再生方法
ZA200608191B (en) * 2004-04-01 2008-07-30 William C Torch Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US7894637B2 (en) * 2004-05-21 2011-02-22 Asahi Kasei Corporation Device, program, and method for classifying behavior content of an object person
US7639146B2 (en) * 2004-09-29 2009-12-29 Baura Gail D Blink monitor for detecting blink occurrence in a living subject
KR101078466B1 (ko) * 2007-01-19 2011-10-31 아사히 가세이 가부시키가이샤 각성 상태 판정 모델 생성 장치, 각성 상태 판정 장치, 경고 장치, 차량, 각성 상태 판정 모델 생성 방법, 각성 상태 판정 방법, 각성 상태 판정 모델 생성 프로그램을 기록한 컴퓨터 판독 가능 기록매체, 및 각성 상태 판정 프로그램을 기록한 컴퓨터 판독 가능 기록매체
JP5204781B2 (ja) * 2008-05-20 2013-06-05 パナソニック株式会社 視線検出装置、撮像装置、視線検出方法、プログラム、及び集積回路
WO2010082496A1 (ja) * 2009-01-19 2010-07-22 パナソニック株式会社 脳波インタフェースシステムのための起動装置、方法およびコンピュータプログラム
JP5490664B2 (ja) 2009-11-18 2014-05-14 パナソニック株式会社 眼電位推定装置、眼電位算出方法、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイおよび電子めがね
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
JP2012055587A (ja) * 2010-09-10 2012-03-22 Konami Digital Entertainment Co Ltd 生体電気信号検出装置、ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2012138654A (ja) 2010-12-24 2012-07-19 Sony Corp ヘッド・マウント・ディスプレイ
CN102156539B (zh) * 2011-03-28 2012-05-02 浙江大学 一种基于眼动扫描的目标物体识别方法
US9128522B2 (en) * 2012-04-02 2015-09-08 Google Inc. Wink gesture input for a head-mountable device
US9007301B1 (en) * 2012-10-11 2015-04-14 Google Inc. User interface

Also Published As

Publication number Publication date
CN104755023B (zh) 2017-12-22
US9841812B2 (en) 2017-12-12
CN104755023A (zh) 2015-07-01
JP2014092931A (ja) 2014-05-19
BR112015009223A2 (pt) 2017-07-04
RU2015115667A (ru) 2016-11-20
WO2014068832A1 (en) 2014-05-08
EP2895061A1 (en) 2015-07-22
US20150301594A1 (en) 2015-10-22
RU2644265C2 (ru) 2018-02-08
EP2895061B1 (en) 2017-11-22

Similar Documents

Publication Publication Date Title
JP5888205B2 (ja) 画像表示装置並びに情報入力装置
US11880508B2 (en) Eyeglasses-type wearable device and method using the same
JP4399513B2 (ja) 脳波インタフェースシステム、脳波インタフェース装置、方法およびコンピュータプログラム
KR102571818B1 (ko) 머리 장착형 전자장치
US20190235624A1 (en) Systems and methods for predictive visual rendering
US10901505B1 (en) Eye-based activation and tool selection systems and methods
JP2014092931A5 (ja)
EP3211513A1 (en) Head mounted display, mobile information terminal, image processing device, display control program, and display control method
US11487354B2 (en) Information processing apparatus, information processing method, and program
US11743447B2 (en) Gaze tracking apparatus and systems
JPWO2020070839A1 (ja) ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
US20200159318A1 (en) Information processing device, information processing method, and computer program
US10691250B2 (en) Information processing device, information processing method, and program for preventing reflection of an operation in an output
WO2017051721A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019016378A (ja) メガネ型ウエアラブル端末およびこの端末を用いる方法
US20220236795A1 (en) Systems and methods for signaling the onset of a user's intent to interact
US11789544B2 (en) Systems and methods for communicating recognition-model uncertainty to users
US20230137601A1 (en) Method for detecting an activity of eyes of a user of glasses
EP4285206A1 (en) Systems and methods for predicting an intent to interact
WO2023023299A1 (en) Systems and methods for communicating model uncertainty to users

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160201

R151 Written notification of patent or utility model registration

Ref document number: 5888205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees