JP2015049695A - Glasses type display device, display control device, display system and computer program - Google Patents
Glasses type display device, display control device, display system and computer program Download PDFInfo
- Publication number
- JP2015049695A JP2015049695A JP2013180696A JP2013180696A JP2015049695A JP 2015049695 A JP2015049695 A JP 2015049695A JP 2013180696 A JP2013180696 A JP 2013180696A JP 2013180696 A JP2013180696 A JP 2013180696A JP 2015049695 A JP2015049695 A JP 2015049695A
- Authority
- JP
- Japan
- Prior art keywords
- display
- glasses
- user
- masseter
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、メガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラムに関する。 The present invention relates to a glasses-type display device, a display control device, a display system, and a computer program.
近年、グラスディスプレイと呼ばれるメガネ型表示装置が注目されている。グラスディスプレイは、グラスディスプレイをメガネのように装着した使用者の視覚空間に、様々な文字や図形などの情報画像を表示することができる。グラスディスプレイの表示を制御する表示制御技術として、例えば非特許文献1では音声認識技術を利用することにより、使用者が手で表示の操作を行わずに済むハンズフリー操作を実現している。また、特許文献1では、使用者の頭部自体の動き(頭部の縦の動きや横の動き)を検出し、該検出結果に基づいて表示の制御を行っている。
In recent years, eyeglass-type display devices called glass displays have attracted attention. The glass display can display information images such as various characters and figures in the visual space of the user wearing the glass display like glasses. As a display control technique for controlling the display of the glass display, for example, Non-Patent
また、特許文献2には、外部の情報処理装置の操作をハンズフリーで行う技術が記載されている。特許文献2のハンズフリー操作技術では、使用者の頭部にヘッドバンドにより装着される操作装置に、加速度センサーと使用者の頭部に当接する圧力センサーとを設ける。そして、加速度センサーで検出された頭部の傾動と圧力センサーで検出された頭部の筋肉の動きの変化とに応じて、情報処理装置へ操作信号を出力している。 Japanese Patent Application Laid-Open No. 2004-228561 describes a technique for performing an operation of an external information processing apparatus in a hands-free manner. In the hands-free operation technique of Patent Document 2, an acceleration sensor and a pressure sensor that comes into contact with the user's head are provided in an operation device that is mounted on the user's head with a headband. Then, an operation signal is output to the information processing apparatus according to the tilt of the head detected by the acceleration sensor and the change in the movement of the head muscle detected by the pressure sensor.
しかし、上述した非特許文献1の表示制御技術では、使用者は音声を発する必要があるので、静穏が必要な環境下(例えば、図書館や教室、電車、バスなどの中)では使用しにくい。
However, in the display control technique of Non-Patent
特許文献1の表示制御技術では、使用者は頭部を動かすことによって操作を行うが、使用者が周囲を視認するために頭部を動かしたり又は無意識に頭部を動かしたりした場合には誤操作となる。このため、使用者の頭部の動きの検出結果を表示制御に使用するタイミングを的確に判断することが課題である。
In the display control technology of
特許文献2のハンズフリー操作技術では、使用者の頭部の傾動の検出結果と頭部の筋肉の動きの検出結果とはそれぞれ独立の制御信号として使用されるので、頭部の傾動の検出結果は使用者の操作の意思にかかわらず常に制御に使用される。これは誤操作の原因になる。このため、使用者の操作の意思を的確に判断し、使用者の操作の意思に基づいて頭部の傾動の検出結果を制御に使用することが課題である。 In the hands-free operation technique of Patent Document 2, the detection result of the user's head tilt and the detection result of the head muscle movement are used as independent control signals, and therefore the detection result of the head tilt is provided. Is always used for control regardless of the user's intention of operation. This causes an erroneous operation. Therefore, it is a problem to accurately determine the user's intention to operate and to use the detection result of the head tilt for control based on the user's intention to operate.
本発明は、このような事情を考慮してなされたもので、グラスディスプレイ(メガネ型表示装置)の使用者の使い勝手の向上や誤操作の防止を図ることができるメガネ型表示装置、表示制御装置、表示システム及びコンピュータプログラムを提供することを課題とする。 The present invention has been made in consideration of such circumstances, and includes a glasses-type display device, a display control device, and a user-friendly glass display (glasses-type display device) that can improve usability and prevent erroneous operations. It is an object to provide a display system and a computer program.
(1)本発明に係るメガネ型表示装置は、使用者の頭部の筋肉の動きを検出する動き検出部を備え、前記動き検出部の検出結果に基づいて表示が制御されることを特徴とする。 (1) A glasses-type display device according to the present invention includes a motion detection unit that detects a motion of a muscle of a user's head, and the display is controlled based on a detection result of the motion detection unit. To do.
(2)本発明に係るメガネ型表示装置においては、上記(1)のメガネ型表示装置において、前記動き検出部は咬筋の動きを検出することを特徴とする。 (2) In the glasses-type display device according to the present invention, in the glasses-type display device according to (1), the motion detection unit detects the movement of the masseter muscle.
(3)本発明に係るメガネ型表示装置においては、上記(2)のメガネ型表示装置において、前記メガネ型表示装置のテンプルに咬筋電位センサーを設けたことを特徴とする。 (3) The glasses-type display device according to the present invention is characterized in that, in the glasses-type display device according to (2), a masseter potential sensor is provided on the temple of the glasses-type display device.
(4)本発明に係るメガネ型表示装置においては、上記(1)から(3)のいずれかのメガネ型表示装置において、前記頭部の傾動を検出する傾動検出部をさらに備え、前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて表示が制御される、ことを特徴とする。 (4) In the glasses-type display device according to the present invention, the glasses-type display device according to any one of (1) to (3) further includes a tilt detection unit that detects the tilt of the head. The display is controlled based on the detection result of the part and the detection result of the motion detection part.
(5)本発明に係るメガネ型表示装置においては、上記(4)のメガネ型表示装置において、前記傾動検出部の検出結果は、前記動き検出部の検出結果に基づいて使用の可否が判断されることを特徴とする。 (5) In the glasses-type display device according to the present invention, in the glasses-type display device according to (4), the detection result of the tilt detector is determined based on the detection result of the motion detector. It is characterized by that.
(6)本発明に係る表示制御装置は、使用者の頭部の筋肉の動きを検出する動き検出部を備えたメガネ型表示装置で検出された使用者の頭部の筋肉の動きの検出結果に基づいて、前記メガネ型表示装置の表示の制御を行う、ことを特徴とする。 (6) In the display control device according to the present invention, the detection result of the movement of the user's head muscle detected by the glasses-type display device including the motion detection unit that detects the movement of the muscle of the user's head. The display of the glasses-type display device is controlled based on the above.
(7)本発明に係る表示制御装置においては、上記(6)の表示制御装置において、前記メガネ型表示装置は前記頭部の傾動を検出する傾動検出部をさらに備え、前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて前記メガネ型表示装置の表示の制御を行う、ことを特徴とする。 (7) In the display control device according to the present invention, in the display control device according to (6), the glasses-type display device further includes a tilt detection unit that detects the tilt of the head, and the detection of the tilt detection unit. The display of the glasses-type display device is controlled based on the result and the detection result of the motion detection unit.
(8)本発明に係る表示制御装置においては、上記(7)の表示制御装置において、前記動き検出部の検出結果に基づいて前記傾動検出部の検出結果の使用の可否を判断することを特徴とする。 (8) In the display control device according to the present invention, in the display control device according to (7), it is determined whether or not the detection result of the tilt detection unit can be used based on the detection result of the motion detection unit. And
(9)本発明に係る表示制御装置においては、上記(8)の表示制御装置において、前記動き検出部の検出値が所定の閾値以上である期間において前記傾動検出部の検出結果を使用すると判断することを特徴とする。 (9) In the display control device according to the present invention, in the display control device according to (8), it is determined that the detection result of the tilt detection unit is used in a period in which the detection value of the motion detection unit is equal to or greater than a predetermined threshold. It is characterized by doing.
(10)本発明に係る表示制御装置においては、上記(7)から(9)のいずれかの表示制御装置において、前記動き検出部の検出値が所定の時間幅以内で閾値以上である場合に、特定の操作の指定であると判断することを特徴とする。 (10) In the display control device according to the present invention, in the display control device according to any one of (7) to (9), when the detection value of the motion detection unit is equal to or greater than a threshold value within a predetermined time width. It is determined that a specific operation is designated.
(11)本発明に係る表示システムは、上記(1)のメガネ型表示装置と、上記(6)の表示制御装置とを有する。 (11) A display system according to the present invention includes the glasses-type display device according to (1) and the display control device according to (6).
(12)本発明に係るコンピュータプログラムは、コンピュータに、使用者の頭部の筋肉の動きを検出する動き検出部を備えたメガネ型表示装置で検出された使用者の頭部の筋肉の動きの検出結果に基づいて、前記メガネ型表示装置の表示の制御を行うステップ、を実行させるためのコンピュータプログラムであることを特徴とする。 (12) A computer program according to the present invention is a computer program for detecting the movement of a user's head muscle detected by a glasses-type display device provided with a motion detection unit that detects the movement of the user's head muscle. It is a computer program for executing a step of controlling display of the glasses-type display device based on a detection result.
本発明によれば、グラスディスプレイ(メガネ型表示装置)の使用者の使い勝手の向上や誤操作の防止を図ることができるという効果が得られる。 According to the present invention, it is possible to improve the usability of a user of a glass display (glasses-type display device) and to prevent erroneous operation.
以下、図面を参照し、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る表示システム1の構成を示すブロック図である。図1において、グラスディスプレイ(メガネ型表示装置)10は、表示部11と咬筋電位センサー12と加速度センサー13とジャイロセンサー14と通信部15を有する。表示データ生成装置30は、通信部31と整流部32と表示制御部33と操作内容テーブル記憶部34と表示データ生成部35を有する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a
グラスディスプレイ10の通信部15と表示データ生成装置30の通信部31とは、無線通信又は有線通信により、相互にデータを送受する。
The
図2は、図1に示すグラスディスプレイ10の外観図である。図2において、グラスディスプレイ10は、使用者の頭部100にメガネのように装着される。グラスディスプレイ10において、メガネのレンズ部分には、表示部11が設けられている。表示部11は、使用者の視覚空間に、様々な文字や図形などの情報画像を表示する。
FIG. 2 is an external view of the
テンプル(つる)16には、咬筋電位センサー12、加速度センサー13及びジャイロセンサー14が設けられている。また、通信部15は図2中には図示されないもう一方のテンプル16に設けられている。咬筋電位センサー12、加速度センサー13及びジャイロセンサー14は、通信部15にそれぞれ信号線(図示せず)で接続されている。
The
咬筋電位センサー12は、使用者の咬筋の動きに応じた電位を検出する。咬筋電位センサー12を頭部100の皮膚に接触するようにテンプル16に設けることにより、咬筋の動きに応じた電位を検出できる。加速度センサー13及びジャイロセンサー14は、頭部100の傾動を検出する傾動検出部として機能する。咬筋電位センサー12、加速度センサー13、ジャイロセンサー14及び通信部15をテンプル16に設けることにより、使用者の着用感はよく、また見栄えも悪くないという効果が得られる。
The masseter
説明を図1に戻す。
咬筋電位センサー12は、検出した咬筋電位検出信号を通信部15へ出力する。加速度センサー13は、検出した加速度検出信号を通信部15へ出力する。ジャイロセンサー14は、検出した角速度検出信号を通信部15へ出力する。通信部15は、入力された咬筋電位検出信号、加速度検出信号及び角速度検出信号を表示データ生成装置30へ送信する。
Returning to FIG.
The masseter
通信部15は、表示データ生成装置30から表示データを受信する。通信部15は、受信した表示データを表示部11へ出力する。表示部11は、入力された表示データを表示する。
The
表示データ生成装置30において、通信部31は、グラスディスプレイ10から、咬筋電位検出信号、加速度検出信号及び角速度検出信号を受信する。通信部31は、受信した咬筋電位検出信号を整流部32へ出力する。通信部31は、受信した加速度検出信号及び角速度検出信号を表示制御部33へ出力する。整流部32は、入力された咬筋電位検出信号を整流し、整流された信号(咬筋電位検出整流信号)を表示制御部33へ出力する。
In the display
表示制御部33は、入力された加速度検出信号、角速度検出信号及び咬筋電位検出整流信号に基づいて、表示制御信号を表示データ生成部35へ出力する。表示制御部33は、表示制御信号を出力する際に、加速度検出信号、角速度検出信号及び咬筋電位検出整流信号に基づいて操作内容テーブル記憶部34に記憶される情報を参照する。操作内容テーブル記憶部34には、加速度検出信号、角速度検出信号及び咬筋電位検出整流信号と、表示操作内容とを対応付ける情報が記憶されている。表示制御部33は、加速度検出信号、角速度検出信号及び咬筋電位検出整流信号に対応付けられた表示操作内容に応じて、表示制御信号を表示データ生成部35へ出力する。
The
表示データ生成部35は、入力された表示制御信号に基づいて、表示データを生成する。表示データ生成部35は、生成した表示データを通信部31へ出力する。通信部31は、入力された表示データをグラスディスプレイ10へ送信する。
The display
表示データ生成装置30として、例えば、ノート型のパーソナルコンピュータ(PC)やタブレットPC、スマートフォン等の携帯端末などが利用可能である。
As the display
図3は、グラスディスプレイ10の情報画像空間の例を示す説明図である。図3において、メガネのリム17に囲まれた内の表示領域18には、使用者に見える情報画像(図3の例では「教科書 単元B」)が表示されている。情報画像空間としては、使用者には見えないが、表示領域18の外側である左右上下および斜め方向にも情報画像が存在している。また、さらにその外側にも連続的に情報画像が空間として広がることもある。さらには、グラスディスプレイ10で3次元表示が可能な場合には、奥行き方向にも立体的に情報画像空間が広がる。本実施形態では、使用者は、グラスディスプレイ10の情報画像空間に存在する情報画像を利用するための操作を、頭部100の動きと咬む動作とを組合せて行う。
FIG. 3 is an explanatory diagram showing an example of the information image space of the
次に、図4を参照して、図1に示す表示システム1の動作を説明する。図4は、本実施形態に係る表示制御処理のフローチャートである。
Next, the operation of the
(ステップS1)使用者は、グラスディスプレイ10および表示データ生成装置30の電源をオン(ON)にする。これ以降はハンズフリー操作が可能となる。
(Step S1) The user turns on the power of the
(ステップS2)グラスディスプレイ10は咬筋電位センサー12の咬筋電位検出信号を表示データ生成装置30へ送信する。表示データ生成装置30において、該受信された咬筋電位検出信号は整流部32に入力される。
(Step S <b> 2) The
(ステップS3)整流部32は、入力された咬筋電位検出信号を整流し、咬筋電位検出整流信号を表示制御部33へ出力する。
(Step S3) The
図5は、本実施形態に係る咬筋電位検出信号A(瞬時値)と咬筋電位検出整流信号B(整流値)の例を示すグラフ図である。咬筋電位は、咬筋電位検出信号Aの例に示すように、筋線維から発生した個々の活動電位が電極に到達した時点の活動電位を加算(複合活動電位)した結果を表現したものである。咬筋電位の瞬時の電圧は、咬筋電位検出信号Aのように0V(基準電位)を上下する値となるが、この咬筋電位(瞬時値)を信号処理で整流することにより、使用者が噛んでいる間は咬筋電位検出整流信号Bのように平滑化された咬筋電位(整流値)が得られる。 FIG. 5 is a graph showing examples of masseter potential detection signal A (instantaneous value) and masseter potential detection rectification signal B (rectification value) according to the present embodiment. As shown in the example of masseter potential detection signal A, the masseter muscle potential represents the result of adding action potentials (composite action potentials) when individual action potentials generated from muscle fibers reach the electrodes. The instantaneous voltage of the masseter muscle potential is a value that goes up and down 0 V (reference potential) like the masseter potential detection signal A. By rectifying this masseter potential (instantaneous value) by signal processing, the user bites it. During the period, the smoothed masseter potential (rectified value) is obtained like the masseter potential detection rectification signal B.
使用者が軽く噛むことによって発生する咬筋電位は、随意筋によるものであるため、使用者の操作の意思を確実に表現できる。これにより、使用者が操作するのか又は操作しないのかを、咬筋電位によって明確に区別できる。そこで、本実施形態では、閾値を用いて咬筋電位(整流値)を判定することにより、使用者が操作するのか又は操作しないのかを判断する。 Since the masseter potential generated by the user biting lightly is due to voluntary muscles, the user's intention to operate can be reliably expressed. Thereby, whether the user operates or not can be clearly distinguished by the masseter potential. Therefore, in the present embodiment, by determining the masseter potential (rectified value) using the threshold value, it is determined whether the user operates or does not operate.
具体的には、咬筋電位センサー12の検出と整流との繰り返しを100ミリ秒(msec)程度の周期で繰り返す。これにより得られた咬筋電位検出整流信号Bの値が所定の閾値以上になっている期間は、使用者がハンズフリー操作する期間(操作可能期間)である、と判断する。そして、その操作可能期間においてのみ、加速度センサー13およびジャイロセンサー14の各検出信号を、グラスディスプレイ10の表示の制御に使用することとする。これにより、噛むという使用者の操作の意思の表れに応じて使用者の頭部100の動きの検出結果が表示制御に使用されるので、使用者の操作の意思に基づいたグラスディスプレイ10の表示制御が可能となり、誤操作の防止の効果が得られる。
Specifically, the detection and rectification of the masseter
(ステップS4)表示制御部33は、入力された咬筋電位検出整流信号の値を閾値と比較する。この結果、咬筋電位検出整流信号の値が閾値以上である場合にはステップS5に進み、咬筋電位検出整流信号の値が閾値未満である場合にはステップS8に進む。
(Step S4) The
(ステップS5)表示データ生成装置30にはグラスディスプレイ10から、加速度センサー13およびジャイロセンサー14の各検出信号が入力されている。該各検出信号は表示制御部33に入力される。
(Step S <b> 5) Detection signals of the
(ステップS6)表示制御部33は、入力された加速度センサー13およびジャイロセンサー14の各検出信号の値に対応付けられた表示操作内容を操作内容テーブル記憶部34から読み出す。
(Step S <b> 6) The
(ステップS7)表示制御部33は、操作内容テーブル記憶部34から読み出した表示操作内容に応じて、表示制御信号を表示データ生成部35へ出力する。この後、ステップS4に戻る。そして、咬筋電位検出整流信号の値が閾値以上である場合には、表示制御部33は、加速度センサー13およびジャイロセンサー14の各検出信号の値に基づいて表示制御信号を出力する。一方、咬筋電位検出整流信号の値が閾値未満である場合には、表示制御信号の出力を停止することにより、グラスディスプレイ10の表示の制御を終了する。
(Step S <b> 7) The
(ステップS8)使用者がグラスディスプレイ10又は表示データ生成装置30の電源をオフ(OFF)にすると、図4の処理は終了する。グラスディスプレイ10及び表示データ生成装置30の電源のオンが継続される場合にはステップS2に戻る。
(Step S <b> 8) When the user turns off the power of the
なお、咬筋電位を判定するための閾値は、人によって、又は環境によって異なる場合がある。このため、該閾値を任意に設定できるようにすることが好ましい。 Note that the threshold value for determining the masseter potential may vary depending on the person or the environment. For this reason, it is preferable that the threshold value can be arbitrarily set.
実施例1は、本実施形態に係るハンズフリー操作の実施例である。グラスディスプレイ10の加速度センサー13及びジャイロセンサー14を用いることにより、使用者の頭部100の3次元空間での動きを検出する。具体的には、グラスディスプレイ10の加速度センサー13を用いることにより、使用者の頭部100の3方向(左右、上下、前後)の加速度/移動量を検出する。グラスディスプレイ10のジャイロセンサー14を用いることにより、使用者の頭部100の3軸の方向(ヨーイング、ピッチング、ローリング)の角速度/角度を検出する。これらの検出結果により、多種類のハンズフリー操作を可能にする。
Example 1 is an example of a hands-free operation according to the present embodiment. By using the
図6は、本発明の実施例1に係るハンズフリー操作の例の説明図である。使用者に装着されたグラスディスプレイ10の加速度センサー13を用いることにより、図6に示されるように、該使用者の頭部100の3方向の動き(左右、上下、前後)を検出できる。また、該グラスディスプレイ10のジャイロセンサー14を用いることにより、図6に示されるように、該使用者の頭部100の3軸の回転角度(ヨーイング、ピッチング、ローリング)を検出できる。該検出された頭部100の動きと、グラスディスプレイ10に対する操作内容とを、自然なヒューマンインターフェースになるように対応させる。
FIG. 6 is an explanatory diagram of an example of the hands-free operation according to the first embodiment of the present invention. By using the
図7は、本発明の実施例1に係る操作内容テーブル記憶部34に格納される操作内容テーブル40の例を示すテーブル図である。以下、図7の操作内容テーブル40を参照して、実施例1に係るハンズフリー操作を説明する。
FIG. 7 is a table diagram illustrating an example of the operation content table 40 stored in the operation content
(1)表示領域外の画像表示
グラスディスプレイ10の2次元の情報画像空間において、表示領域18の外側に画像が左右上下あるいは斜め方向にある場合、使用者は見たい方向へ頭部100を左右上下あるいは斜め方向に回転させることが自然である。そこで、ジャイロセンサー14の垂直方向であるY軸や左右方向であるX軸の回転角度であるヨーイング、ピッチング、あるいは2軸を合成した回転角を使用者が見たい方向に対応させる。これにより、使用者は、左右上下、斜め方向にある画像を素早く表示させて見ることができる。
(1) Image Display Outside the Display Area In the two-dimensional information image space of the
さらに、画像を斜めに傾けてみる場合には、ジャイロセンサー14の前後方向のZ軸の回転角度であるローリングを検出して用いることができる。但し、通常は斜めに見る必要性は多くなく、また画像がジャイロセンサー14の検出値にセンシティブに反応してローリングすると映像酔いの原因ともなるので、ローリングの検出値を使用しないように設定できるようにすることが好ましい。
Furthermore, when the image is inclined obliquely, the rolling which is the rotation angle of the Z axis in the front-rear direction of the
なお、使用者は、左右上下あるいは斜めにある画像を長時間見る場合に、頭部100を該当する方向に回転させたままにする必要はない。つまり、使用者は、見たい方向の画像が表示領域18に表示された時に噛むことをやめれば、ジャイロセンサー14の検出値は使用されなくなるので、首を回転させたままでなく、頭部100を正面に戻し、自然な姿勢で所望の画像を見続けることができる。
Note that the user does not need to keep the
(2)スクロール(画像の連続移動)
グラスディスプレイ10の2次元の情報画像空間において、表示領域18の外側に画像が上下、左右あるいは斜め方向に、連続して長く繋がっている、又は広がっている場合、使用者はその方向に頭部100の回転角を増加させつづけることは困難である。そこで、マウスのホイールやキーボードの上下左右キーのようなスクロールを、任意の方向にできるようにする。そのために本実施例1では、使用者が、噛む動作を短く(所定の時間幅以内で)1回し、次いで2回目の噛む動作を継続しつつ、頭部100を上下左右、斜め方向に回転角度を保つことにより、連続スクロールを可能にする。
(2) Scroll (Continuous movement of images)
In the two-dimensional information image space of the
図8は、本発明の実施例1に係る咬筋電位検出信号A(瞬時値)と咬筋電位検出整流信号B(整流値)の例を示すグラフ図である。図8において、咬筋電位検出信号A及び咬筋電位検出整流信号Bは、使用者が「短時間1回噛んだ後に、継続してかんだ場合の咬筋電位を示している。咬筋電位検出整流信号Bの区間B_1は、使用者が短時間1回噛んだ時の波形である。この区間B_1は、所定の時間幅以内で閾値以上であることにより検出される。使用者が1回目の噛む動作と2回目に噛む動作との間隔の検知時間は、いわゆるダブルクリックの速さの設定と同様に、事前に任意に設定可能とする。 FIG. 8 is a graph showing examples of masseter potential detection signal A (instantaneous value) and masseter potential detection rectification signal B (rectification value) according to Example 1 of the present invention. In FIG. 8, the masseter potential detection signal A and the masseter potential detection rectification signal B indicate the masseter potential when the user continues to bite after chewing once in a short time. The section B_1 is a waveform when the user bites once for a short time, and is detected when the user exceeds the threshold value within a predetermined time width. The detection time of the interval between the second biting operation can be arbitrarily set in advance, similarly to the setting of the so-called double click speed.
スクロールの速度は、頭部100の回転角度の大きさに連動させる。回転角度が大きいほど早くスクロールさせる。スクロール速度は、回転角度に線形的に比例させてもよく、又は、回転角度とは非線形であってもよい。
The speed of scrolling is linked to the magnitude of the rotation angle of the
(3)ページめくり
表示領域外の画像表示やスクロールのように左右上下の別の画像を表示領域18に表示させるのではなく、表示領域18に表示されている画像に関するページめくりを可能とする。例えば、書類のように複数ページが連続して重なっている場合、加速度センサー13による左右上下の位置検出の結果を用いる。例えば、右のページをめくる場合には、使用者が頭部100を右に並行に動かすことに対応させる。また、下のページをめくる場合には、使用者が頭部100を上に並行に動かすことに対応させる。
(3) Page turning Rather than causing the
また、ページめくりを連続して行う場合には、使用者が頭部100を左右上下に動かしたままにすると一定時間で次々とページをめくることができるようにする。この場合のページめくりの速度は、使用者の頭部100の移動量の値(移動値)の大きさに連動し、移動値が大きいほど早いページめくりができるようにする。
Further, when page turning is performed continuously, the user can turn pages one after another in a certain time if the user moves the
(4)ズームイン/ズームアウト
人は新聞紙面などの対象物を細かく見る場合には顔を対象物に近づける、また、対象物の全体を見る場合には顔を対象物から離すのが自然である。そこで、グラスディスプレイ10に表示している画像をズームイン/ズームアウトするには、加速度センサー13による頭部100の前方/後方への動きの検出結果に対応させる。
(4) Zoom in / zoom out When a person looks closely at an object such as a newspaper, it is natural to move the face closer to the object, and when viewing the entire object, it is natural to move the face away from the object. . Therefore, in order to zoom in / out the image displayed on the
(5)ドラッグ
PC操作で行うウィンドウ画像やアイコンなどのドラッグをグラスディスプレイ10の表示領域18上でハンズフリー操作により可能にするものである。グラスディスプレイ10の2次元の情報画像空間において、表示領域18の左右上下あるいは斜め方向にあるウィンドウ画像を任意の位置に移動させたり、重ね合わせて表示させたりする場合、当該ウィンドウ画像を引っ張る動作が自然である。そこで、使用者は、まず、表示領域外の画像表示やスクロールなどにより、ドラッグしたいウィンドウ画像を表示領域18の中央に表示させる。次いで、使用者の噛む動作が継続されている状態において、加速度センサー13による頭部100の左右上下あるいは斜めに並行に動く方向と距離の検出結果に対応させることにより、表示領域18の中央に表示されているウィンドウ画像をドラッグして移動させる。
(5) Drag Dragging of a window image, an icon or the like performed by a PC operation is enabled on the
なお、立体視できるグラスディスプレイ10の場合には、奥行き方向にもドラッグすることを可能にするため、加速度センサー13による頭部100の前後方向に動く距離の検出結果に対応させる。
In the case of the
(6)選択、実行(クリック)
グラスディスプレイ10の表示領域18上でウィンドウやボタンの選択(クリック)を行うことを可能にする。例えばA、B、C、・・・の複数のボタンがある場合に、Aのボタンを選択するときには、使用者は、表示領域外の画像表示やスクロールなどにより、Aのボタンを表示領域18の中央に表示させる。次いで、使用者の噛む動作1回をワンクリックに対応させ、また連続する噛む動作2回をダブルクリックに対応させる。これにより、ワンクリックとダブルクリックを実現可能とする。
(6) Select, execute (click)
It is possible to select (click) a window or a button on the
(7)マウスの左右ボタン
マウスには左右のボタンが備わっている場合があるが、その左右のボタンの操作を可能にする。このために、グラスディスプレイ10の左右の各テンプル16にそれぞれ咬筋電位センサー12を設ける。これにより、使用者による左側の噛む動作と右側の噛む動作とを区別して検出し、左右の咬筋電位の大小の発生の違いを判別し、左右いずれのボタンを操作したかに対応させる。
(7) Left and right buttons of a mouse Although a mouse may have left and right buttons, the right and left buttons can be operated. For this purpose, a masseter
(8)Yes(肯定)/No(否定)/不明の表現
アンケートなどでYes/No/不明を回答することを可能にする。「Yes」は、使用者のうなずく動作として、ジャイロセンサー14による短時間の上下ピッチングの検出結果に対応させる。「No」は、使用者の首を横に振る動作として、ジャイロセンサー14による短時間の左右ヨーイングの検出結果に対応させる。「不明」は、使用者の首を斜めにかしげる動作として、ジャイロセンサー14による短時間の斜め・戻しのローリングの検出結果に対応させる。
(8) Expression of Yes (positive) / No (negative) / unknown It is possible to answer Yes / No / unknown in a questionnaire or the like. “Yes” corresponds to the detection result of the short time vertical pitching by the
実施例2は、本実施形態に係る応用例である。グラスディスプレイ10を情報機器の端末として用いる場合に、セキュリティーロックの解除をハンズフリー操作により行うことを可能にする。
Example 2 is an application example according to the present embodiment. When the
従来、スマートフォンなどでは、セキュリティーロックの解除方法として、例えば、使用者がタッチパネル上で2次元平面の3×3の9点の連結順をなぞることが挙げられる。そこで、本実施例2では、セキュリティーロックの解除方法として、使用者が、グラスディスプレイ10の表示領域18上で、上述の実施例1のクリック操作により、2次元平面の3×3の9点の連結順をなぞることに対応させる。この場合、加速度センサー13またはジャイロセンサー14のどちらの検出結果を用いてもよい。
Conventionally, in a smartphone or the like, as a method of releasing a security lock, for example, a user can trace a 3 × 3 9-point connection order on a two-dimensional plane on a touch panel. Therefore, in the second embodiment, as a method of releasing the security lock, the user clicks the above-described first embodiment on the
また、セキュリティーロックの解除方法として、新たに立方体形状を用いてもよい。例えば加速度センサー13による頭部100の移動方向の検出結果により、2×2×2の8点の連結順をなぞることに対応させる。さらに、ジャイロセンサー14による3軸の6回転方向の組み合わせの検出結果を用いるなど、多様なセキュリティーロックの設定が可能である。
In addition, a cube shape may be newly used as a security lock releasing method. For example, it corresponds to tracing the connection order of 8 points of 2 × 2 × 2 based on the detection result of the moving direction of the
上述したように本実施形態によれば、咬筋電位の検出値を利用し、使用者が噛む動作を行っている最中に頭部100の動きがある場合を操作している状態として判断することにより、使用者の操作の意思を明確に把握することができる。これにより、誤操作の防止を図ることができるという効果が得られる。
As described above, according to the present embodiment, the detected value of the masseter muscle potential is used to determine that the movement of the
特に人の噛む行為は、例えば視線の動きなどに比べて当人の意思によるところが多く、使用者の意思を把握することに好適である。また、噛む行為は、視線を固定させることに比して人の負担が少ない。このため、本実施形態によれば、視線の検知結果によりハンズフリー操作を行う場合に比べて、精度の高いハンズフリー操作を実現可能である。 Particularly, the act of biting by a person is more dependent on the person's intention than the movement of the line of sight, for example, and is suitable for grasping the intention of the user. In addition, the act of chewing is less burdensome for humans than fixing the line of sight. For this reason, according to the present embodiment, it is possible to realize a hands-free operation with higher accuracy than in the case where a hands-free operation is performed based on the detection result of the line of sight.
また、加速度センサー13及びジャイロセンサー14による検出結果を用いることにより、人の自然な頭部100の動きを多様なハンズフリー操作に対応させることができる。
Further, by using the detection results obtained by the
また、本実施形態によれば、ハンズフリー操作のために音声を発する必要がなく、またグラスディスプレイ10の装着によっても見栄えが悪く使用しにくいということもない。これにより、図書館や教室、電車、バスなどの中など、静穏が必要な環境下や他者が居る環境下であっても、グラスディスプレイ10を使用することができるので、使い勝手がよいという効果が得られる。
Further, according to the present embodiment, it is not necessary to make a sound for a hands-free operation, and even if the
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.
例えば、咬筋の動きを検出する方法として、咬筋電位センサー12を利用する方法の他に、顔の表皮の変動を光学的に検出する方法(特許文献3参照)や、筋肉の伸縮の変化を圧力センサーで検出する方法(特許文献2参照)などが挙げられる。但し、光学的に検出する方法では周囲環境の光の変化により光学的に誤動作を起こす可能性があり、また圧力センサーで検出する方法では圧力を生じる程度の咬筋の変位を捉えなければならないので、咬筋電位のような高い精度を得ることができない。例えば、咬筋電位は話す場合や食事をする場合にも生じるが、それらは異なる強度や特徴のあるパターンで検出されるので、上述した実施形態にように咬筋電位の検出値を用いることにより、使用者による操作の意思の表示の場合と、それ以外の場合とを咬筋電位の特徴により明確に区別することが可能である。
For example, as a method of detecting the masseter muscle movement, in addition to the method using the masseter
また、上述した表示システム1を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
Further, a computer program for realizing the
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 “Computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a DVD (Digital Versatile Disk), and a built-in computer system. A storage device such as a hard disk.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
1…表示システム、10…グラスディスプレイ(メガネ型表示装置)、11…表示部、12…咬筋電位センサー、13…加速度センサー、14…ジャイロセンサー、15,31…通信部、16…テンプル(つる)、17…リム、18…表示領域、32…整流部、33…表示制御部、34…操作内容テーブル記憶部、35…表示データ生成装置、40…操作内容テーブル、100…頭部
DESCRIPTION OF
Claims (12)
前記動き検出部の検出結果に基づいて表示が制御されることを特徴とするメガネ型表示装置。 It has a motion detector that detects the movement of the muscles of the user's head,
The display is controlled based on the detection result of the motion detection unit.
前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて表示が制御される、
ことを特徴とする請求項1から3のいずれか1項に記載のメガネ型表示装置。 A tilt detector for detecting tilt of the head;
Display is controlled based on the detection result of the tilt detection unit and the detection result of the motion detection unit,
The glasses-type display device according to any one of claims 1 to 3, wherein the glasses-type display device is provided.
ことを特徴とする表示制御装置。 Based on the detection result of the movement of the muscles of the user's head detected by the glasses-type display device provided with a movement detection unit that detects the movement of the muscles of the user's head, the display of the glasses-type display device Do control,
A display control device characterized by that.
前記傾動検出部の検出結果及び前記動き検出部の検出結果に基づいて前記メガネ型表示装置の表示の制御を行う、
ことを特徴とする請求項6に記載の表示制御装置。 The glasses-type display device further includes a tilt detection unit that detects the tilt of the head,
Control display of the glasses-type display device based on the detection result of the tilt detection unit and the detection result of the motion detection unit,
The display control apparatus according to claim 6.
使用者の頭部の筋肉の動きを検出する動き検出部を備えたメガネ型表示装置で検出された使用者の頭部の筋肉の動きの検出結果に基づいて、前記メガネ型表示装置の表示の制御を行うステップ、
を実行させるためのコンピュータプログラム。 On the computer,
Based on the detection result of the movement of the muscles of the user's head detected by the glasses-type display device provided with a movement detection unit that detects the movement of the muscles of the user's head, the display of the glasses-type display device The step of controlling,
A computer program for running.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013180696A JP6110764B2 (en) | 2013-08-30 | 2013-08-30 | Glasses-type display device, display control device, display system, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013180696A JP6110764B2 (en) | 2013-08-30 | 2013-08-30 | Glasses-type display device, display control device, display system, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015049695A true JP2015049695A (en) | 2015-03-16 |
JP6110764B2 JP6110764B2 (en) | 2017-04-05 |
Family
ID=52699665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013180696A Active JP6110764B2 (en) | 2013-08-30 | 2013-08-30 | Glasses-type display device, display control device, display system, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6110764B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019171834A1 (en) * | 2018-03-08 | 2019-09-12 | 株式会社コナミデジタルエンタテインメント | Display control device and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001067179A (en) * | 1999-08-27 | 2001-03-16 | Nec Corp | Pointing device and computer system using the same |
JP2002268815A (en) * | 2001-03-14 | 2002-09-20 | Sony Corp | Head-mounted display device |
JP2005202965A (en) * | 2004-01-14 | 2005-07-28 | Internatl Business Mach Corp <Ibm> | Method and apparatus employing electromyographic sensor to initiate oral communication with voice-based device |
JP2009116609A (en) * | 2007-11-06 | 2009-05-28 | Sony Corp | Operating device, information processing device, operating method, and information processing system |
JP2010231290A (en) * | 2009-03-26 | 2010-10-14 | National Institute Of Advanced Industrial Science & Technology | Input device and method using head motion |
-
2013
- 2013-08-30 JP JP2013180696A patent/JP6110764B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001067179A (en) * | 1999-08-27 | 2001-03-16 | Nec Corp | Pointing device and computer system using the same |
JP2002268815A (en) * | 2001-03-14 | 2002-09-20 | Sony Corp | Head-mounted display device |
JP2005202965A (en) * | 2004-01-14 | 2005-07-28 | Internatl Business Mach Corp <Ibm> | Method and apparatus employing electromyographic sensor to initiate oral communication with voice-based device |
JP2009116609A (en) * | 2007-11-06 | 2009-05-28 | Sony Corp | Operating device, information processing device, operating method, and information processing system |
JP2010231290A (en) * | 2009-03-26 | 2010-10-14 | National Institute Of Advanced Industrial Science & Technology | Input device and method using head motion |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019171834A1 (en) * | 2018-03-08 | 2019-09-12 | 株式会社コナミデジタルエンタテインメント | Display control device and program |
JP2019174853A (en) * | 2018-03-08 | 2019-10-10 | 株式会社コナミデジタルエンタテインメント | Display control apparatus and program |
Also Published As
Publication number | Publication date |
---|---|
JP6110764B2 (en) | 2017-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11809784B2 (en) | Audio assisted enrollment | |
US10139898B2 (en) | Distracted browsing modes | |
US9829989B2 (en) | Three-dimensional user input | |
US20220286314A1 (en) | User interfaces for multi-participant live communication | |
KR102304023B1 (en) | System for providing interative design service based ar | |
US9292083B2 (en) | Interacting with user interface via avatar | |
US20100053151A1 (en) | In-line mediation for manipulating three-dimensional content on a display device | |
US20160371886A1 (en) | System and method for spawning drawing surfaces | |
US20150220158A1 (en) | Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion | |
US20150085076A1 (en) | Approaches for simulating three-dimensional views | |
WO2013138489A1 (en) | Approaches for highlighting active interface elements | |
JP2015503162A (en) | Method and system for responding to user selection gestures for objects displayed in three dimensions | |
CN110968190B (en) | IMU for touch detection | |
US20220223013A1 (en) | Generating tactile output sequences associated with an object | |
El Saddik et al. | Haptics: general principles | |
US11367416B1 (en) | Presenting computer-generated content associated with reading content based on user interactions | |
JP6110764B2 (en) | Glasses-type display device, display control device, display system, and computer program | |
WO2016102948A1 (en) | Coherent touchless interaction with stereoscopic 3d images | |
TW202316237A (en) | Wearable ring device and user interface processing | |
Bhowmik | Natural and intuitive user interfaces with perceptual computing technologies | |
US11782548B1 (en) | Speed adapted touch detection | |
US20240094819A1 (en) | Devices, methods, and user interfaces for gesture-based interactions | |
KR102256607B1 (en) | System and method for providing virtual reality content capable of multi-contents | |
KR20240025593A (en) | Method and device for dynamically selecting an action modality for an object | |
KR20200116195A (en) | Apparatus and method for shopping clothes using holographic images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161025 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161026 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20161128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6110764 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |