JP6110764B2 - メガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラム - Google Patents

メガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラム Download PDF

Info

Publication number
JP6110764B2
JP6110764B2 JP2013180696A JP2013180696A JP6110764B2 JP 6110764 B2 JP6110764 B2 JP 6110764B2 JP 2013180696 A JP2013180696 A JP 2013180696A JP 2013180696 A JP2013180696 A JP 2013180696A JP 6110764 B2 JP6110764 B2 JP 6110764B2
Authority
JP
Japan
Prior art keywords
display
detection
detection unit
user
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013180696A
Other languages
English (en)
Other versions
JP2015049695A (ja
Inventor
河合 直樹
直樹 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013180696A priority Critical patent/JP6110764B2/ja
Publication of JP2015049695A publication Critical patent/JP2015049695A/ja
Application granted granted Critical
Publication of JP6110764B2 publication Critical patent/JP6110764B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、メガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラムに関する。
近年、グラスディスプレイと呼ばれるメガネ型表示装置が注目されている。グラスディスプレイは、グラスディスプレイをメガネのように装着した使用者の視覚空間に、様々な文字や図形などの情報画像を表示することができる。グラスディスプレイの表示を制御する表示制御技術として、例えば非特許文献1では音声認識技術を利用することにより、使用者が手で表示の操作を行わずに済むハンズフリー操作を実現している。また、特許文献1では、使用者の頭部自体の動き(頭部の縦の動きや横の動き)を検出し、該検出結果に基づいて表示の制御を行っている。
また、特許文献2には、外部の情報処理装置の操作をハンズフリーで行う技術が記載されている。特許文献2のハンズフリー操作技術では、使用者の頭部にヘッドバンドにより装着される操作装置に、加速度センサーと使用者の頭部に当接する圧力センサーとを設ける。そして、加速度センサーで検出された頭部の傾動と圧力センサーで検出された頭部の筋肉の動きの変化とに応じて、情報処理装置へ操作信号を出力している。
特開2004−233909号公報 特開2009−116609号公報 特許第4730621号
「ヘッドマウントディスプレイ式ハンズフリーピッキング」、インターネット<URL:http://www.murata-system.co.jp/products/yubi_kitasu/index.html>
しかし、上述した非特許文献1の表示制御技術では、使用者は音声を発する必要があるので、静穏が必要な環境下(例えば、図書館や教室、電車、バスなどの中)では使用しにくい。
特許文献1の表示制御技術では、使用者は頭部を動かすことによって操作を行うが、使用者が周囲を視認するために頭部を動かしたり又は無意識に頭部を動かしたりした場合には誤操作となる。このため、使用者の頭部の動きの検出結果を表示制御に使用するタイミングを的確に判断することが課題である。
特許文献2のハンズフリー操作技術では、使用者の頭部の傾動の検出結果と頭部の筋肉の動きの検出結果とはそれぞれ独立の制御信号として使用されるので、頭部の傾動の検出結果は使用者の操作の意思にかかわらず常に制御に使用される。これは誤操作の原因になる。このため、使用者の操作の意思を的確に判断し、使用者の操作の意思に基づいて頭部の傾動の検出結果を制御に使用することが課題である。
本発明は、このような事情を考慮してなされたもので、グラスディスプレイ(メガネ型表示装置)の使用者の使い勝手の向上や誤操作の防止を図ることができるメガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラムを提供することを課題とする。
(1)本発明に係るメガネ型表示装置は、使用者の頭部の筋肉の動きを検出する動き検出部と、前記頭部の傾動を検出する傾動検出部とを備え、前記傾動検出部は、前記動き検出部の検出結果に基づいて使用の可否を判断し、前記動き検出部の検出結果、又は前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて表示が制御されることを特徴とする。
(2)本発明に係るメガネ型表示装置においては、上記(1)のメガネ型表示装置において、前記動き検出部は咬筋の動きを検出することを特徴とする。
(3)本発明に係るメガネ型表示装置においては、上記(2)のメガネ型表示装置において、前記メガネ型表示装置のテンプルに咬筋電位センサーを設けたことを特徴とする。
)本発明に係る表示制御装置は、使用者の頭部の筋肉の動きを検出する動き検出部と、前記頭部の傾動を検出する傾動検出部とを備えたメガネ型表示装置で検出された使用者の頭部の筋肉の動きの検出結果に基づいて、前記傾動検出部の検出結果の使用の可否を判断し前記動き検出部の検出結果、又は前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて表示の制御を行う、ことを特徴とする。
)本発明に係る表示制御装置においては、上記()の表示制御装置において、前記動き検出部の検出値が所定の閾値以上である期間において前記傾動検出部の検出結果を使用すると判断することを特徴とする。
)本発明に係る表示制御装置においては、上記(5)の表示制御装置において、前記動き検出部の検出値が所定の時間幅以内で閾値以上である場合に、特定の操作の指定であると判断することを特徴とする。
)本発明に係る表示システムは、上記(1)のメガネ型表示装置と、上記()の表示制御装置とを有する。
)本発明に係るコンピュータプログラムは、コンピュータに、使用者の頭部の筋肉の動きを検出する動き検出部と、前記頭部の傾動を検出する傾動検出部とを備えたメガネ型表示装置で検出された使用者の頭部の筋肉の動きの検出結果に基づいて、前記メガネ型表示装置の表示の制御を行うステップ前記動き検出部の検出結果に基づいて、前記傾動検出部が使用の可否を判断するステップと、前記動き検出部の検出結果、又は前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて表示の制御を行うステップとを実行させるためのコンピュータプログラムであることを特徴とする。
本発明によれば、グラスディスプレイ(メガネ型表示装置)の使用者の使い勝手の向上や誤操作の防止を図ることができるという効果が得られる。
本発明の一実施形態に係る表示システム1の構成を示すブロック図である。 図1に示すグラスディスプレイ10の外観図である。 グラスディスプレイ10の情報画像空間の例を示す説明図である。 本発明の一実施形態に係る表示制御処理のフローチャートである。 本発明の一実施形態に係る咬筋電位検出信号A(瞬時値)と咬筋電位検出整流信号B(整流値)の例を示すグラフ図である。 本発明の実施例1に係るハンズフリー操作の例の説明図である。 本発明の実施例1に係る操作内容テーブル40の例を示すテーブル図である。 本発明の実施例1に係る咬筋電位検出信号A(瞬時値)と咬筋電位検出整流信号B(整流値)の例を示すグラフ図である。
以下、図面を参照し、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る表示システム1の構成を示すブロック図である。図1において、グラスディスプレイ(メガネ型表示装置)10は、表示部11と咬筋電位センサー12と加速度センサー13とジャイロセンサー14と通信部15を有する。表示データ生成装置30は、通信部31と整流部32と表示制御部33と操作内容テーブル記憶部34と表示データ生成部35を有する。
グラスディスプレイ10の通信部15と表示データ生成装置30の通信部31とは、無線通信又は有線通信により、相互にデータを送受する。
図2は、図1に示すグラスディスプレイ10の外観図である。図2において、グラスディスプレイ10は、使用者の頭部100にメガネのように装着される。グラスディスプレイ10において、メガネのレンズ部分には、表示部11が設けられている。表示部11は、使用者の視覚空間に、様々な文字や図形などの情報画像を表示する。
テンプル(つる)16には、咬筋電位センサー12、加速度センサー13及びジャイロセンサー14が設けられている。また、通信部15は図2中には図示されないもう一方のテンプル16に設けられている。咬筋電位センサー12、加速度センサー13及びジャイロセンサー14は、通信部15にそれぞれ信号線(図示せず)で接続されている。
咬筋電位センサー12は、使用者の咬筋の動きに応じた電位を検出する。咬筋電位センサー12を頭部100の皮膚に接触するようにテンプル16に設けることにより、咬筋の動きに応じた電位を検出できる。加速度センサー13及びジャイロセンサー14は、頭部100の傾動を検出する傾動検出部として機能する。咬筋電位センサー12、加速度センサー13、ジャイロセンサー14及び通信部15をテンプル16に設けることにより、使用者の着用感はよく、また見栄えも悪くないという効果が得られる。
説明を図1に戻す。
咬筋電位センサー12は、検出した咬筋電位検出信号を通信部15へ出力する。加速度センサー13は、検出した加速度検出信号を通信部15へ出力する。ジャイロセンサー14は、検出した角速度検出信号を通信部15へ出力する。通信部15は、入力された咬筋電位検出信号、加速度検出信号及び角速度検出信号を表示データ生成装置30へ送信する。
通信部15は、表示データ生成装置30から表示データを受信する。通信部15は、受信した表示データを表示部11へ出力する。表示部11は、入力された表示データを表示する。
表示データ生成装置30において、通信部31は、グラスディスプレイ10から、咬筋電位検出信号、加速度検出信号及び角速度検出信号を受信する。通信部31は、受信した咬筋電位検出信号を整流部32へ出力する。通信部31は、受信した加速度検出信号及び角速度検出信号を表示制御部33へ出力する。整流部32は、入力された咬筋電位検出信号を整流し、整流された信号(咬筋電位検出整流信号)を表示制御部33へ出力する。
表示制御部33は、入力された加速度検出信号、角速度検出信号及び咬筋電位検出整流信号に基づいて、表示制御信号を表示データ生成部35へ出力する。表示制御部33は、表示制御信号を出力する際に、加速度検出信号、角速度検出信号及び咬筋電位検出整流信号に基づいて操作内容テーブル記憶部34に記憶される情報を参照する。操作内容テーブル記憶部34には、加速度検出信号、角速度検出信号及び咬筋電位検出整流信号と、表示操作内容とを対応付ける情報が記憶されている。表示制御部33は、加速度検出信号、角速度検出信号及び咬筋電位検出整流信号に対応付けられた表示操作内容に応じて、表示制御信号を表示データ生成部35へ出力する。
表示データ生成部35は、入力された表示制御信号に基づいて、表示データを生成する。表示データ生成部35は、生成した表示データを通信部31へ出力する。通信部31は、入力された表示データをグラスディスプレイ10へ送信する。
表示データ生成装置30として、例えば、ノート型のパーソナルコンピュータ(PC)やタブレットPC、スマートフォン等の携帯端末などが利用可能である。
図3は、グラスディスプレイ10の情報画像空間の例を示す説明図である。図3において、メガネのリム17に囲まれた内の表示領域18には、使用者に見える情報画像(図3の例では「教科書 単元B」)が表示されている。情報画像空間としては、使用者には見えないが、表示領域18の外側である左右上下および斜め方向にも情報画像が存在している。また、さらにその外側にも連続的に情報画像が空間として広がることもある。さらには、グラスディスプレイ10で3次元表示が可能な場合には、奥行き方向にも立体的に情報画像空間が広がる。本実施形態では、使用者は、グラスディスプレイ10の情報画像空間に存在する情報画像を利用するための操作を、頭部100の動きと咬む動作とを組合せて行う。
次に、図4を参照して、図1に示す表示システム1の動作を説明する。図4は、本実施形態に係る表示制御処理のフローチャートである。
(ステップS1)使用者は、グラスディスプレイ10および表示データ生成装置30の電源をオン(ON)にする。これ以降はハンズフリー操作が可能となる。
(ステップS2)グラスディスプレイ10は咬筋電位センサー12の咬筋電位検出信号を表示データ生成装置30へ送信する。表示データ生成装置30において、該受信された咬筋電位検出信号は整流部32に入力される。
(ステップS3)整流部32は、入力された咬筋電位検出信号を整流し、咬筋電位検出整流信号を表示制御部33へ出力する。
図5は、本実施形態に係る咬筋電位検出信号A(瞬時値)と咬筋電位検出整流信号B(整流値)の例を示すグラフ図である。咬筋電位は、咬筋電位検出信号Aの例に示すように、筋線維から発生した個々の活動電位が電極に到達した時点の活動電位を加算(複合活動電位)した結果を表現したものである。咬筋電位の瞬時の電圧は、咬筋電位検出信号Aのように0V(基準電位)を上下する値となるが、この咬筋電位(瞬時値)を信号処理で整流することにより、使用者が噛んでいる間は咬筋電位検出整流信号Bのように平滑化された咬筋電位(整流値)が得られる。
使用者が軽く噛むことによって発生する咬筋電位は、随意筋によるものであるため、使用者の操作の意思を確実に表現できる。これにより、使用者が操作するのか又は操作しないのかを、咬筋電位によって明確に区別できる。そこで、本実施形態では、閾値を用いて咬筋電位(整流値)を判定することにより、使用者が操作するのか又は操作しないのかを判断する。
具体的には、咬筋電位センサー12の検出と整流との繰り返しを100ミリ秒(msec)程度の周期で繰り返す。これにより得られた咬筋電位検出整流信号Bの値が所定の閾値以上になっている期間は、使用者がハンズフリー操作する期間(操作可能期間)である、と判断する。そして、その操作可能期間においてのみ、加速度センサー13およびジャイロセンサー14の各検出信号を、グラスディスプレイ10の表示の制御に使用することとする。これにより、噛むという使用者の操作の意思の表れに応じて使用者の頭部100の動きの検出結果が表示制御に使用されるので、使用者の操作の意思に基づいたグラスディスプレイ10の表示制御が可能となり、誤操作の防止の効果が得られる。
(ステップS4)表示制御部33は、入力された咬筋電位検出整流信号の値を閾値と比較する。この結果、咬筋電位検出整流信号の値が閾値以上である場合にはステップS5に進み、咬筋電位検出整流信号の値が閾値未満である場合にはステップS8に進む。
(ステップS5)表示データ生成装置30にはグラスディスプレイ10から、加速度センサー13およびジャイロセンサー14の各検出信号が入力されている。該各検出信号は表示制御部33に入力される。
(ステップS6)表示制御部33は、入力された加速度センサー13およびジャイロセンサー14の各検出信号の値に対応付けられた表示操作内容を操作内容テーブル記憶部34から読み出す。
(ステップS7)表示制御部33は、操作内容テーブル記憶部34から読み出した表示操作内容に応じて、表示制御信号を表示データ生成部35へ出力する。この後、ステップS4に戻る。そして、咬筋電位検出整流信号の値が閾値以上である場合には、表示制御部33は、加速度センサー13およびジャイロセンサー14の各検出信号の値に基づいて表示制御信号を出力する。一方、咬筋電位検出整流信号の値が閾値未満である場合には、表示制御信号の出力を停止することにより、グラスディスプレイ10の表示の制御を終了する。
(ステップS8)使用者がグラスディスプレイ10又は表示データ生成装置30の電源をオフ(OFF)にすると、図4の処理は終了する。グラスディスプレイ10及び表示データ生成装置30の電源のオンが継続される場合にはステップS2に戻る。
なお、咬筋電位を判定するための閾値は、人によって、又は環境によって異なる場合がある。このため、該閾値を任意に設定できるようにすることが好ましい。
実施例1は、本実施形態に係るハンズフリー操作の実施例である。グラスディスプレイ10の加速度センサー13及びジャイロセンサー14を用いることにより、使用者の頭部100の3次元空間での動きを検出する。具体的には、グラスディスプレイ10の加速度センサー13を用いることにより、使用者の頭部100の3方向(左右、上下、前後)の加速度/移動量を検出する。グラスディスプレイ10のジャイロセンサー14を用いることにより、使用者の頭部100の3軸の方向(ヨーイング、ピッチング、ローリング)の角速度/角度を検出する。これらの検出結果により、多種類のハンズフリー操作を可能にする。
図6は、本発明の実施例1に係るハンズフリー操作の例の説明図である。使用者に装着されたグラスディスプレイ10の加速度センサー13を用いることにより、図6に示されるように、該使用者の頭部100の3方向の動き(左右、上下、前後)を検出できる。また、該グラスディスプレイ10のジャイロセンサー14を用いることにより、図6に示されるように、該使用者の頭部100の3軸の回転角度(ヨーイング、ピッチング、ローリング)を検出できる。該検出された頭部100の動きと、グラスディスプレイ10に対する操作内容とを、自然なヒューマンインターフェースになるように対応させる。
図7は、本発明の実施例1に係る操作内容テーブル記憶部34に格納される操作内容テーブル40の例を示すテーブル図である。以下、図7の操作内容テーブル40を参照して、実施例1に係るハンズフリー操作を説明する。
(1)表示領域外の画像表示
グラスディスプレイ10の2次元の情報画像空間において、表示領域18の外側に画像が左右上下あるいは斜め方向にある場合、使用者は見たい方向へ頭部100を左右上下あるいは斜め方向に回転させることが自然である。そこで、ジャイロセンサー14の垂直方向であるY軸や左右方向であるX軸の回転角度であるヨーイング、ピッチング、あるいは2軸を合成した回転角を使用者が見たい方向に対応させる。これにより、使用者は、左右上下、斜め方向にある画像を素早く表示させて見ることができる。
さらに、画像を斜めに傾けてみる場合には、ジャイロセンサー14の前後方向のZ軸の回転角度であるローリングを検出して用いることができる。但し、通常は斜めに見る必要性は多くなく、また画像がジャイロセンサー14の検出値にセンシティブに反応してローリングすると映像酔いの原因ともなるので、ローリングの検出値を使用しないように設定できるようにすることが好ましい。
なお、使用者は、左右上下あるいは斜めにある画像を長時間見る場合に、頭部100を該当する方向に回転させたままにする必要はない。つまり、使用者は、見たい方向の画像が表示領域18に表示された時に噛むことをやめれば、ジャイロセンサー14の検出値は使用されなくなるので、首を回転させたままでなく、頭部100を正面に戻し、自然な姿勢で所望の画像を見続けることができる。
(2)スクロール(画像の連続移動)
グラスディスプレイ10の2次元の情報画像空間において、表示領域18の外側に画像が上下、左右あるいは斜め方向に、連続して長く繋がっている、又は広がっている場合、使用者はその方向に頭部100の回転角を増加させつづけることは困難である。そこで、マウスのホイールやキーボードの上下左右キーのようなスクロールを、任意の方向にできるようにする。そのために本実施例1では、使用者が、噛む動作を短く(所定の時間幅以内で)1回し、次いで2回目の噛む動作を継続しつつ、頭部100を上下左右、斜め方向に回転角度を保つことにより、連続スクロールを可能にする。
図8は、本発明の実施例1に係る咬筋電位検出信号A(瞬時値)と咬筋電位検出整流信号B(整流値)の例を示すグラフ図である。図8において、咬筋電位検出信号A及び咬筋電位検出整流信号Bは、使用者が「短時間1回噛んだ後に、継続してかんだ場合の咬筋電位を示している。咬筋電位検出整流信号Bの区間B_1は、使用者が短時間1回噛んだ時の波形である。この区間B_1は、所定の時間幅以内で閾値以上であることにより検出される。使用者が1回目の噛む動作と2回目に噛む動作との間隔の検知時間は、いわゆるダブルクリックの速さの設定と同様に、事前に任意に設定可能とする。
スクロールの速度は、頭部100の回転角度の大きさに連動させる。回転角度が大きいほど早くスクロールさせる。スクロール速度は、回転角度に線形的に比例させてもよく、又は、回転角度とは非線形であってもよい。
(3)ページめくり
表示領域外の画像表示やスクロールのように左右上下の別の画像を表示領域18に表示させるのではなく、表示領域18に表示されている画像に関するページめくりを可能とする。例えば、書類のように複数ページが連続して重なっている場合、加速度センサー13による左右上下の位置検出の結果を用いる。例えば、右のページをめくる場合には、使用者が頭部100を右に並行に動かすことに対応させる。また、下のページをめくる場合には、使用者が頭部100を上に並行に動かすことに対応させる。
また、ページめくりを連続して行う場合には、使用者が頭部100を左右上下に動かしたままにすると一定時間で次々とページをめくることができるようにする。この場合のページめくりの速度は、使用者の頭部100の移動量の値(移動値)の大きさに連動し、移動値が大きいほど早いページめくりができるようにする。
(4)ズームイン/ズームアウト
人は新聞紙面などの対象物を細かく見る場合には顔を対象物に近づける、また、対象物の全体を見る場合には顔を対象物から離すのが自然である。そこで、グラスディスプレイ10に表示している画像をズームイン/ズームアウトするには、加速度センサー13による頭部100の前方/後方への動きの検出結果に対応させる。
(5)ドラッグ
PC操作で行うウィンドウ画像やアイコンなどのドラッグをグラスディスプレイ10の表示領域18上でハンズフリー操作により可能にするものである。グラスディスプレイ10の2次元の情報画像空間において、表示領域18の左右上下あるいは斜め方向にあるウィンドウ画像を任意の位置に移動させたり、重ね合わせて表示させたりする場合、当該ウィンドウ画像を引っ張る動作が自然である。そこで、使用者は、まず、表示領域外の画像表示やスクロールなどにより、ドラッグしたいウィンドウ画像を表示領域18の中央に表示させる。次いで、使用者の噛む動作が継続されている状態において、加速度センサー13による頭部100の左右上下あるいは斜めに並行に動く方向と距離の検出結果に対応させることにより、表示領域18の中央に表示されているウィンドウ画像をドラッグして移動させる。
なお、立体視できるグラスディスプレイ10の場合には、奥行き方向にもドラッグすることを可能にするため、加速度センサー13による頭部100の前後方向に動く距離の検出結果に対応させる。
(6)選択、実行(クリック)
グラスディスプレイ10の表示領域18上でウィンドウやボタンの選択(クリック)を行うことを可能にする。例えばA、B、C、・・・の複数のボタンがある場合に、Aのボタンを選択するときには、使用者は、表示領域外の画像表示やスクロールなどにより、Aのボタンを表示領域18の中央に表示させる。次いで、使用者の噛む動作1回をワンクリックに対応させ、また連続する噛む動作2回をダブルクリックに対応させる。これにより、ワンクリックとダブルクリックを実現可能とする。
(7)マウスの左右ボタン
マウスには左右のボタンが備わっている場合があるが、その左右のボタンの操作を可能にする。このために、グラスディスプレイ10の左右の各テンプル16にそれぞれ咬筋電位センサー12を設ける。これにより、使用者による左側の噛む動作と右側の噛む動作とを区別して検出し、左右の咬筋電位の大小の発生の違いを判別し、左右いずれのボタンを操作したかに対応させる。
(8)Yes(肯定)/No(否定)/不明の表現
アンケートなどでYes/No/不明を回答することを可能にする。「Yes」は、使用者のうなずく動作として、ジャイロセンサー14による短時間の上下ピッチングの検出結果に対応させる。「No」は、使用者の首を横に振る動作として、ジャイロセンサー14による短時間の左右ヨーイングの検出結果に対応させる。「不明」は、使用者の首を斜めにかしげる動作として、ジャイロセンサー14による短時間の斜め・戻しのローリングの検出結果に対応させる。
実施例2は、本実施形態に係る応用例である。グラスディスプレイ10を情報機器の端末として用いる場合に、セキュリティーロックの解除をハンズフリー操作により行うことを可能にする。
従来、スマートフォンなどでは、セキュリティーロックの解除方法として、例えば、使用者がタッチパネル上で2次元平面の3×3の9点の連結順をなぞることが挙げられる。そこで、本実施例2では、セキュリティーロックの解除方法として、使用者が、グラスディスプレイ10の表示領域18上で、上述の実施例1のクリック操作により、2次元平面の3×3の9点の連結順をなぞることに対応させる。この場合、加速度センサー13またはジャイロセンサー14のどちらの検出結果を用いてもよい。
また、セキュリティーロックの解除方法として、新たに立方体形状を用いてもよい。例えば加速度センサー13による頭部100の移動方向の検出結果により、2×2×2の8点の連結順をなぞることに対応させる。さらに、ジャイロセンサー14による3軸の6回転方向の組み合わせの検出結果を用いるなど、多様なセキュリティーロックの設定が可能である。
上述したように本実施形態によれば、咬筋電位の検出値を利用し、使用者が噛む動作を行っている最中に頭部100の動きがある場合を操作している状態として判断することにより、使用者の操作の意思を明確に把握することができる。これにより、誤操作の防止を図ることができるという効果が得られる。
特に人の噛む行為は、例えば視線の動きなどに比べて当人の意思によるところが多く、使用者の意思を把握することに好適である。また、噛む行為は、視線を固定させることに比して人の負担が少ない。このため、本実施形態によれば、視線の検知結果によりハンズフリー操作を行う場合に比べて、精度の高いハンズフリー操作を実現可能である。
また、加速度センサー13及びジャイロセンサー14による検出結果を用いることにより、人の自然な頭部100の動きを多様なハンズフリー操作に対応させることができる。
また、本実施形態によれば、ハンズフリー操作のために音声を発する必要がなく、またグラスディスプレイ10の装着によっても見栄えが悪く使用しにくいということもない。これにより、図書館や教室、電車、バスなどの中など、静穏が必要な環境下や他者が居る環境下であっても、グラスディスプレイ10を使用することができるので、使い勝手がよいという効果が得られる。
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
例えば、咬筋の動きを検出する方法として、咬筋電位センサー12を利用する方法の他に、顔の表皮の変動を光学的に検出する方法(特許文献3参照)や、筋肉の伸縮の変化を圧力センサーで検出する方法(特許文献2参照)などが挙げられる。但し、光学的に検出する方法では周囲環境の光の変化により光学的に誤動作を起こす可能性があり、また圧力センサーで検出する方法では圧力を生じる程度の咬筋の変位を捉えなければならないので、咬筋電位のような高い精度を得ることができない。例えば、咬筋電位は話す場合や食事をする場合にも生じるが、それらは異なる強度や特徴のあるパターンで検出されるので、上述した実施形態にように咬筋電位の検出値を用いることにより、使用者による操作の意思の表示の場合と、それ以外の場合とを咬筋電位の特徴により明確に区別することが可能である。
また、上述した表示システム1を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
1…表示システム、10…グラスディスプレイ(メガネ型表示装置)、11…表示部、12…咬筋電位センサー、13…加速度センサー、14…ジャイロセンサー、15,31…通信部、16…テンプル(つる)、17…リム、18…表示領域、32…整流部、33…表示制御部、34…操作内容テーブル記憶部、35…表示データ生成装置、40…操作内容テーブル、100…頭部

Claims (8)

  1. 使用者の頭部の筋肉の動きを検出する動き検出部と、
    前記頭部の傾動を検出する傾動検出部と
    を備え、
    前記傾動検出部は、前記動き検出部の検出結果に基づいて使用の可否を判断し、
    前記動き検出部の検出結果、又は前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて表示が制御されることを特徴とするメガネ型表示装置。
  2. 前記動き検出部は咬筋の動きを検出することを特徴とする請求項1に記載のメガネ型表示装置。
  3. 前記メガネ型表示装置のテンプルに咬筋電位センサーを設けたことを特徴とする請求項2に記載のメガネ型表示装置。
  4. 使用者の頭部の筋肉の動きを検出する動き検出部と、前記頭部の傾動を検出する傾動検出部とを備えたメガネ型表示装置で検出された使用者の頭部の筋肉の動きの検出結果に基づいて、前記傾動検出部の検出結果の使用の可否を判断し前記動き検出部の検出結果、又は前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて表示の制御を行う、
    ことを特徴とする表示制御装置。
  5. 前記動き検出部の検出値が所定の閾値以上である期間において前記傾動検出部の検出結果を使用すると判断することを特徴とする請求項に記載の表示制御装置。
  6. 前記動き検出部の検出値が所定の時間幅以内で閾値以上である場合に、特定の操作の指定であると判断することを特徴とする請求項に記載の表示制御装置。
  7. 請求項1のメガネ型表示装置と、請求項に記載の表示制御装置とを有する表示システム。
  8. コンピュータに、
    使用者の頭部の筋肉の動きを検出する動き検出部と、前記頭部の傾動を検出する傾動検出部とを備えたメガネ型表示装置で検出された使用者の頭部の筋肉の動きの検出結果に基づいて、前記メガネ型表示装置の表示の制御を行うステップと、
    前記動き検出部の検出結果に基づいて、前記傾動検出部が使用の可否を判断するステップと、
    前記動き検出部の検出結果、又は前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて表示の制御を行うステップと
    を実行させるためのコンピュータプログラム。
JP2013180696A 2013-08-30 2013-08-30 メガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラム Active JP6110764B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013180696A JP6110764B2 (ja) 2013-08-30 2013-08-30 メガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013180696A JP6110764B2 (ja) 2013-08-30 2013-08-30 メガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2015049695A JP2015049695A (ja) 2015-03-16
JP6110764B2 true JP6110764B2 (ja) 2017-04-05

Family

ID=52699665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013180696A Active JP6110764B2 (ja) 2013-08-30 2013-08-30 メガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6110764B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6623362B2 (ja) * 2018-03-08 2019-12-25 株式会社コナミデジタルエンタテインメント 表示制御装置及びプログラム
CN116301356A (zh) * 2023-02-21 2023-06-23 华为技术有限公司 一种眼镜、指令的获取方法以及相关设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3487237B2 (ja) * 1999-08-27 2004-01-13 日本電気株式会社 ポインティング装置とそれを用いたコンピュータシステム
JP2002268815A (ja) * 2001-03-14 2002-09-20 Sony Corp ヘッドマウントディスプレー装置
US20050154593A1 (en) * 2004-01-14 2005-07-14 International Business Machines Corporation Method and apparatus employing electromyographic sensors to initiate oral communications with a voice-based device
JP2009116609A (ja) * 2007-11-06 2009-05-28 Sony Corp 操作装置、情報処理装置、操作方法及び情報処理システム
JP2010231290A (ja) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology 頭部運動による入力装置及び方法

Also Published As

Publication number Publication date
JP2015049695A (ja) 2015-03-16

Similar Documents

Publication Publication Date Title
US11768579B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US10139898B2 (en) Distracted browsing modes
US9829989B2 (en) Three-dimensional user input
KR102304023B1 (ko) 증강현실 기반 인터렉티브 저작 서비스 제공 시스템
US9292083B2 (en) Interacting with user interface via avatar
US9898865B2 (en) System and method for spawning drawing surfaces
US20100053151A1 (en) In-line mediation for manipulating three-dimensional content on a display device
KR20200132995A (ko) 크리에이티브 카메라
US20150085076A1 (en) Approaches for simulating three-dimensional views
EP2825945A1 (en) Approaches for highlighting active interface elements
US20220223013A1 (en) Generating tactile output sequences associated with an object
US11695908B2 (en) Information processing apparatus and information processing method
US11367416B1 (en) Presenting computer-generated content associated with reading content based on user interactions
CN110968190B (zh) 用于触摸检测的imu
TW202316237A (zh) 可穿戴環設備以及使用者介面處理
JP6110764B2 (ja) メガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラム
US9898183B1 (en) Motions for object rendering and selection
JP2023116485A (ja) クリエイティブカメラ
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images
US11782548B1 (en) Speed adapted touch detection
KR102400085B1 (ko) 크리에이티브 카메라
Bhowmik Natural and intuitive user interfaces with perceptual computing technologies
JP7470226B2 (ja) Xrマルチウィンドウ制御
US20240281071A1 (en) Simultaneous Controller and Touch Interactions
KR102256607B1 (ko) 다중 콘텐츠 표현이 가능한 다중 가상현실 콘텐츠 제공 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170310

R150 Certificate of patent or registration of utility model

Ref document number: 6110764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150