JP6396351B2 - Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear - Google Patents

Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear Download PDF

Info

Publication number
JP6396351B2
JP6396351B2 JP2016042501A JP2016042501A JP6396351B2 JP 6396351 B2 JP6396351 B2 JP 6396351B2 JP 2016042501 A JP2016042501 A JP 2016042501A JP 2016042501 A JP2016042501 A JP 2016042501A JP 6396351 B2 JP6396351 B2 JP 6396351B2
Authority
JP
Japan
Prior art keywords
eye movement
user
detected
eye
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016042501A
Other languages
Japanese (ja)
Other versions
JP2017153887A (en
Inventor
広昭 古牧
広昭 古牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016042501A priority Critical patent/JP6396351B2/en
Publication of JP2017153887A publication Critical patent/JP2017153887A/en
Application granted granted Critical
Publication of JP6396351B2 publication Critical patent/JP6396351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明の実施形態は、眼電位センシング技術を応用した心身状態推定装置、心身状態推定方法、およびアイウエアに関する。   Embodiments described herein relate generally to a psychosomatic state estimation apparatus, a psychosomatic state estimation method, and eyewear to which an electrooculogram sensing technique is applied.

眼電位センシング技術に関しては、公知例1がある(特許文献1参照)。この公知例1では、眼電位センシングにEOG(Electro-Oculography)電極を用い、EOG電極から取得した眼電データよりユーザの眼球運動を検出している(段落0023)。公知例1の実施形態ではEOG電極をゴーグルに設けているが(段落0061)、EOG用の電極をメガネのノーズパッド部に設けた公知例2もある(特許文献2、段落0013参照)。ゴーグルやメガネは、一般の人々が手軽に使用できるアイウエアの一種である。   Regarding electrooculogram sensing technology, there is a known example 1 (see Patent Document 1). In this known example 1, an EOG (Electro-Oculography) electrode is used for electrooculogram sensing, and a user's eye movement is detected from electroocular data acquired from the EOG electrode (paragraph 0023). In the embodiment of the known example 1, the EOG electrode is provided in the goggles (paragraph 0061), but there is also the known example 2 in which the electrode for EOG is provided in the nose pad portion of the glasses (see Patent Document 2, paragraph 0013). Goggles and glasses are a type of eyewear that can be easily used by ordinary people.

特開2009−288529号公報JP 2009-288529 A 特開2013−244370号公報JP 2013-244370 A

EOGはアイウエアとの相性がよく、EOG付きアイウエアはその応用が色々研究されている。しかし、その応用範囲は研究され尽くしたとはいえず、EOG付きアイウエアの応用には新規な可能性が残されている。   EOG has good compatibility with eyewear, and the application of eyewear with EOG has been studied in various ways. However, the range of application has not been exhausted, and new possibilities remain for the application of eyewear with EOG.

例えば、映画館において上映作品の観客反応を観察しようとすると、映画鑑賞を妨げずに暗闇の中で多人数に対する観察を行わなければならない。しかしそのような観察は実施困難なため、現実的には映画鑑賞後の出口調査となってしまう。この場合、例えば上映時間が2時間のストーリーを数十秒で各観客に思い返して貰うことなる。しかし、観客が複数のシーンに感動してからそれらの印象を思い返すときまでに少なからぬ時間が経過しているため、上映作品に対する出口調査の結果は、大枠に限られたり的を絞った情報量の少ないものとなってしまう。ここで欲しい調査結果の内容は、例えば、上映作品の種々なシーンにおいて、観客にどのような感情が誘発されたのか、観客が集中して観たのか、観客に疲労やストレスがあったのか、居眠りしてしまったのか等の心身状態の推定に役立つ内容のものである。(この心身状態は、外部刺激に対する人々の反応あるいは評価がどうであったのかに関係する。)しかし、そのような調査内容を出口調査で得るのは難しい。   For example, in order to observe the audience reaction of a screened work in a movie theater, a large number of people must be observed in the dark without interfering with movie viewing. However, such observation is difficult to carry out, so in reality it becomes an exit survey after watching a movie. In this case, for example, a story with a screening time of 2 hours is recollected to each audience in tens of seconds. However, since a considerable amount of time has passed since the audience was impressed by multiple scenes and recalled their impressions, the results of the exit survey for the screening work were limited to a large frame and the amount of targeted information Will be less. The contents of the survey results that we want here are, for example, what kind of emotions were induced by the audience in various scenes of the screening work, whether the audience concentrated, or whether the audience was fatigued or stressed, The content is useful for estimating the state of mind and body, such as having fallen asleep. (This psychosomatic state is related to how people responded or evaluated to external stimuli.) However, it is difficult to obtain such survey contents through exit surveys.

例えば上に挙げたような問題(状況により変化し得る人々の心身状態の推定が困難)に対してEOG付きアイウエアをどのように利用すればよいのかについては、これまで分かっていなかった。   For example, it has not been known how to use eyewear with EOG for the above-mentioned problems (it is difficult to estimate the psychosomatic state of people who can change depending on the situation).

この発明の実施形態により解決しようとする課題の1つは、EOG付きアイウエアを利用して、人の心身状態を推定できるようにすることである。   One of the problems to be solved by the embodiment of the present invention is to make it possible to estimate a person's mind and body state using eyewear with EOG.

一実施の形態に係る心身状態推定装置は、アイウエアのデバイス形態で用いられる。そのアイウエアを装着したユーザの眼電位(図4のEOG)に基づいて、特徴的な眼動(瞬目、目瞑り、眼球の上下左右動または回転など)を検出する。そして、特徴的な眼動と、その眼動が検出されたときの外部刺激(例えば、映画やビデオの種々なシーンにおける、人の五感への刺激)とを、タイムコードなどにより対応付けて記録し、両者(特徴的な眼動と外部刺激)を比較検討できるようにする。   The psychosomatic state estimation apparatus according to one embodiment is used in the form of an eyewear device. Based on the electro-oculogram (EOG in FIG. 4) of the user wearing the eyewear, characteristic eye movements (such as blinking, eye meditation, up / down / left / right movement or rotation of the eyeball) are detected. Then, characteristic eye movements and external stimuli when the eye movements are detected (for example, stimulations of the human senses in various scenes of movies and videos) are recorded in association with time codes. And to be able to compare the two (characteristic eye movements and external stimuli).

特徴的な眼動のパターンとユーザの心身状態(泣き笑い怒りなどの感情発露、意欲、精神的な集中、疲労、ストレス、睡眠など)との対応関係を事前に調べておけば、特定の外部刺激によりユーザがどのような心身状態となったのかを推定できる。   If the correspondence between the characteristic eye movement pattern and the user's mental and physical condition (emotional expression such as crying, laughing, and anger, motivation, mental concentration, fatigue, stress, sleep, etc.) is examined in advance, specific external stimuli This makes it possible to estimate what kind of mental and physical state the user has entered.

一実施の形態に係る心身状態推定装置用の情報処理部11が組み込まれたメガネ型アイウエアを説明する図(EOG電極がノーズパッドに配置されたARメガネの例)。The figure explaining the eyeglasses type eyewear with which the information processing part 11 for the mind and body state estimation apparatus which concerns on one Embodiment was integrated (example of AR glasses by which the EOG electrode is arrange | positioned at the nose pad). 一実施の形態に係るメガネ型アイウエアにおけるEOG電極の実装例を説明する図。The figure explaining the example of mounting of the EOG electrode in the glasses-type eyewear which concerns on one embodiment. 種々な実施の形態に取り付け可能な情報処理部11と、その周辺デバイスとの関係を説明する図。The figure explaining the relationship between the information processing part 11 which can be attached to various embodiment, and its peripheral device. アイウエアを装着したユーザの種々な眼動(瞬目、目瞑り、視線移動、眼球回転など)と、図2に示す3つのアナログ/デジタルコンバータ(ADC)から得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図(EOG)。Various eye movements of the user wearing eyewear (blink, eye meditation, eye movement, eyeball rotation, etc.) and detection signal levels (Ch0, Ch1) obtained from the three analog / digital converters (ADC) shown in FIG. , Ch2), an electrooculogram (EOG) illustrating the relationship. 第1の実施形態に係る心身状態推定方法の一例を説明するフローチャート。The flowchart explaining an example of the mind-and-body state estimation method which concerns on 1st Embodiment. 第2の実施形態に係る心身状態推定方法の一例を説明するフローチャート。The flowchart explaining an example of the mind-and-body state estimation method which concerns on 2nd Embodiment. 第3の実施形態に係る心身状態推定方法の一例を説明するフローチャート。The flowchart explaining an example of the mind-and-body state estimation method which concerns on 3rd Embodiment. 第4の実施形態に係る心身状態推定方法の一例を説明するフローチャート。The flowchart explaining an example of the mind-and-body state estimation method which concerns on 4th Embodiment. 他の実施形態におけるEOG電極の実装例を説明する図。The figure explaining the example of mounting of the EOG electrode in other embodiments. 他の実施形態に係るメガネ型アイウエアにおけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの例)。The figure explaining the mounting example of the EOG electrode in the glasses-type eyewear which concerns on other embodiment (The example of AR glasses by which the EOG electrode is arrange | positioned around the eyeball). さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイフレームが連続したタイプ)におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの他の例)。FIG. 6 is a diagram for explaining an example of mounting an EOG electrode in goggle-type eyewear according to another embodiment (a type in which the eye frames of both left and right eyes are continuous) (another example of AR glasses in which EOG electrodes are arranged around the eyeball). . さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイカップが分離したタイプ)におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネのさらに他の例)。FIG. 6 is a view for explaining an example of mounting an EOG electrode in goggle-type eyewear according to another embodiment (a type in which the eye cups of the left and right eyes are separated) (Still another example of AR glasses in which the EOG electrode is arranged around the eyeball) ).

以下、初めに基礎的な情報を提供し、続いて、図面を参照しながら種々な実施形態を説明する。   In the following, basic information will be provided first, and then various embodiments will be described with reference to the drawings.

<基礎情報>
成人の眼球の直径は約25mm。生後は17mm程度で、成長に伴い大きくなる。
成人男性の瞳孔間距離は約65mm。(一般市販のステレオカメラは65mmの間隔で作られている物が多い。)
成人女性の瞳孔間距離は男性に比べて数mm短い。
眼電位は数十mV。
眼球は角膜側にプラス、網膜側にマイナスの電位を持つ。これを皮膚の表面で測定すると数百μVの電位差として現れる。
<Basic information>
The diameter of an adult eyeball is about 25 mm. After birth, it is about 17 mm and grows with growth.
The distance between the pupils of an adult male is about 65 mm. (Many commercially available stereo cameras are made at intervals of 65 mm.)
The distance between the pupils of adult women is several mm shorter than that of men.
The electrooculogram is several tens of mV.
The eyeball has a positive potential on the cornea side and a negative potential on the retina side. When this is measured on the surface of the skin, it appears as a potential difference of several hundred μV.

なお、眼動検出に関係する眼球運動の種類および眼球の移動範囲としては、例えば以下のものがある:
<眼球運動(眼動)の種類>
(01)補償性眼球運動
頭や身体の動きにかかわらず、外界の像を網膜上で安定させるために発達した、非随意的な眼球運動。
Examples of types of eye movements and eye movement ranges related to eye movement detection include the following:
<Types of eye movement (eye movement)>
(01) Compensatory eye movement Involuntary eye movement developed to stabilize the image of the outside world on the retina regardless of the movement of the head or body.

(02)随意性眼球運動
視対像を網膜上の中心にくるようにするために発達した眼球運動であり、随意的なコントロールが可能な運動。
(02) Voluntary eye movement An eye movement developed to bring the visual image to the center of the retina and can be controlled arbitrarily.

(03)衝撃性眼球運動(サッケード)
物を見ようとして注視点を変えるときに発生する眼球運動(検出し易い)。
(03) Impact eye movement (saccade)
Eye movement that occurs when the point of sight is changed to see an object (easy to detect).

(04)滑動性眼球運動
ゆっくりと移動する物体を追尾するときに発生する滑らかな眼球運動(検出し難い)。
(04) Sliding eye movement Smooth eye movement that occurs when tracking slowly moving objects (difficult to detect).

<眼球の移動範囲(一般的な成人の場合)>
(11)水平方向
左方向: 50°以下
右方向: 50°以下
(12)垂直方向
下方向: 50°以下
上方向: 30°以下
(自分の意思で動かせる垂直方向の角度範囲は、上方向だけ狭い。(閉眼すると眼球が上転する「ベル現象」があるため、閉眼すると垂直方向の眼球移動範囲は上方向にシフトする。)
(13)その他
輻輳角: 20°以下。
<Eyeball movement range (for general adults)>
(11) Horizontal direction Left direction: 50 ° or less Right direction: 50 ° or less (12) Vertical direction Down direction: 50 ° or less Up direction: 30 ° or less (The vertical angle range that can be moved by one's intention is only upward. Narrow (Because there is a “bell phenomenon” in which the eyeball moves upward when the eye is closed, the eye movement range in the vertical direction shifts upward when the eye is closed.)
(13) Others Angle of convergence: 20 ° or less.

<瞬目から推定しようとする対象に>ついて
・集中度の推定では、単純な瞬目頻度の変化から、ストーリーに対する時間軸上での瞬目発生タイミングを調べる。
<Targets to be estimated from blinks> About the estimation of the degree of concentration, the blink occurrence timing on the time axis with respect to the story is examined from simple blink frequency changes.

・緊張/ストレスの推定では、瞬目の発生頻度の変化を調べる。 ・ In tension / stress estimation, examine changes in blink frequency.

・眠気の推定では、瞬目群発、瞬目時間/瞬目速度の変化を調べる。 ・ For sleepiness estimation, examine changes in blink cluster, blink time / blink speed.

・感情や体調その他の心身状態の推定については、今後の研究に委ねられる部分が多いが、本願実施形態では、感情や体調その他の心身状態の推定を行おうとする技術思想があることを、例示している。 ・ Estimation of emotions, physical condition, and other psychosomatic states is often left to future research, but in this embodiment, there is a technical idea to estimate emotions, physical condition, and other psychosomatic states. doing.

図1は、一実施の形態に係る心身状態推定装置用の情報処理部11が組み込まれたメガネ型アイウエア100を説明する図(EOG電極がノーズパッドに配置された例)である。この実施形態では、右アイフレーム(右リム)101と左アイフレーム(左リム)102がブリッジ103連結されている。左右アイフレーム102、101およびブリッジ103は、例えばアルミ合金、チタンなどで構成できる。左アイフレーム102の左外側は左ヒンジ104を介して左テンプルバー106に繋がり、左テンプルバー106の先端に左モダン(左イヤーパッド)108が設けられている。同様に、右アイフレーム101の右外側は右ヒンジ105を介して右テンプルバー107に繋がり、右テンプルバー107の先端に右モダン(右イヤーパッド)109が設けられている。   FIG. 1 is a diagram for explaining a glasses-type eyewear 100 in which an information processing unit 11 for a mind and body state estimation apparatus according to an embodiment is incorporated (an example in which an EOG electrode is arranged on a nose pad). In this embodiment, a right eye frame (right rim) 101 and a left eye frame (left rim) 102 are connected to a bridge 103. The left and right eye frames 102 and 101 and the bridge 103 can be made of, for example, an aluminum alloy or titanium. The left outer side of the left eye frame 102 is connected to the left temple bar 106 via the left hinge 104, and a left modern (left ear pad) 108 is provided at the tip of the left temple bar 106. Similarly, the right outer side of the right eye frame 101 is connected to the right temple bar 107 via the right hinge 105, and a right modern (right ear pad) 109 is provided at the tip of the right temple bar 107.

右テンプルバー107(または左テンプルバー106)内には、には、情報処理部11(数ミリ角の集積回路)が取り付けられている。この情報処理部11は、数十MIPS以上の処理能力を持つマイクロコンピュータ、数十MB以上のフリーエリアを持つフラッシュメモリ(EEPROM)、BlueTooth(登録商標)やUSBなどを利用した通信処理部、1以上のADC(Analog-to-Digital Converter)その他が集積されたLSIにより構成できる(情報処理部11の詳細については、図3を参照して後述する)。   In the right temple bar 107 (or the left temple bar 106), an information processing unit 11 (several millimeter square integrated circuit) is attached. This information processing unit 11 is a communication processing unit using a microcomputer having a processing capability of several tens of MIPS or more, a flash memory (EEPROM) having a free area of several tens of MB or more, BlueTooth (registered trademark), USB, etc. The above ADC (Analog-to-Digital Converter) and the like can be configured by an LSI (details of the information processing unit 11 will be described later with reference to FIG. 3).

リチウムイオン電池などの小型電池(BAT)が、例えば左テンプルバー106内(あるいは右テンプルバー107内、もしくはモダン108または109内)に埋め込まれ、メガネ型アイウエア100の動作に必要な電源となっている。   A small battery (BAT) such as a lithium ion battery is embedded in, for example, the left temple bar 106 (or the right temple bar 107 or the modern 108 or 109), and serves as a power source necessary for the operation of the eyeglass-type eyewear 100. ing.

左ヒンジ104寄りの左アイフレーム102端部には、左カメラ13Lが取り付けられ、右ヒンジ105寄りの右アイフレーム101端部には、右カメラ13Rが取り付けられている。これらのカメラは、超小型のCCDイメージセンサを用いて構成できる。   A left camera 13L is attached to the end of the left eye frame 102 near the left hinge 104, and a right camera 13R is attached to the end of the right eye frame 101 near the right hinge 105. These cameras can be configured using ultra-compact CCD image sensors.

これらのカメラ(13L、13R)は、ステレオカメラを構成するものでもよい。あるいはこれらのカメラの位置に赤外線カメラ(13R)とレーザー(13L)を配置し、赤外線カメラ+レーザーによる距離センサを構成してもよい。この距離センサは、超音波を集音する小型半導体マイク(13R)と超音波を放射する小型圧電スピーカー(13L)などで構成することもできる。   These cameras (13L, 13R) may constitute a stereo camera. Alternatively, an infrared camera (13R) and a laser (13L) may be arranged at the positions of these cameras to form a distance sensor using an infrared camera + laser. This distance sensor can also be composed of a small semiconductor microphone (13R) that collects ultrasonic waves and a small piezoelectric speaker (13L) that emits ultrasonic waves.

上記距離センサにより、ユーザの視線の先にある目視対象物と左右フレーム101/102との間の距離が分かる。メガネフレームのデザインにもよるが、ユーザの眼球位置は左右フレーム101/102から40〜50mmほど後頭部側へ奥まった位置にずれており、大人の瞳孔間距離は65mmくらいある。この瞳孔間距離65mmと、前記距離センサで測った距離をフレームから眼球位置までのずれで補正した距離とから、ユーザが目視対象物を見ているときの輻輳角(より目の角度)を、算出できる。フレームから目視対象物までの距離がフレームから眼球位置までのずれ量よりずっと大きいときは、このずれ量を無視しても、輻輳角を大まかに算出できる。   By the distance sensor, the distance between the visual object at the tip of the user's line of sight and the left and right frames 101/102 is known. Although depending on the design of the eyeglass frame, the user's eyeball position is shifted from the left and right frames 101/102 to a position deeper to the back of the head about 40 to 50 mm, and the distance between the pupils of an adult is about 65 mm. From this 65 mm interpupillary distance and the distance corrected by the distance from the frame to the eyeball position measured by the distance sensor, the convergence angle (more eye angle) when the user is looking at the object to be viewed, It can be calculated. When the distance from the frame to the visual object is much larger than the shift amount from the frame to the eyeball position, the convergence angle can be roughly calculated even if this shift amount is ignored.

なお、左右カメラ13L/13Rの代わりに、あるいは左右カメラ13L/13Rに加えて、ブリッジ103部分に図示しない中央カメラを設ける実施形態も考えられる。逆に、カメラを全く装備しない実施形態もあり得る。(これらのカメラは、図3ではカメラ13として示されている。これらのカメラや外線カメラ+レーザーによる距離センサは、オプション扱いとすることができ、アイウエア100の用途に応じて適宜設ければよい。)
左アイフレーム102には左ディスプレイ12Lがはめ込まれ、右アイフレーム101には右ディスプレイ12Rがはめ込まれている。このディスプレイは、左右のアイフレームの少なくとも一方に設けられ、フィルム液晶などを用いて構成できる。具体的には、偏光板を用いないポリマー分散型液晶(PDLC)を採用したフィルム液晶表示デバイスを用いて、左右のディスプレイ12L、12Rの一方または両方を構成できる。(このディスプレイは、図3ではディスプレイ12として示されている。)
フィルム液晶を利用した透明な左右ディスプレイ12L/12Rは、メガネを通して見える現実の世界に数字や文字などの画像情報を付加させる拡張現実(AR:Augmented Reality)を提供する手段として、利用できる。
In addition, instead of the left and right cameras 13L / 13R, or in addition to the left and right cameras 13L / 13R, an embodiment in which a central camera (not shown) is provided in the bridge 103 can be considered. Conversely, there may be embodiments in which no camera is provided. (These cameras are shown as the camera 13 in FIG. 3. These camera and external line camera + laser distance sensor can be treated as an option, and provided as appropriate according to the use of the eyewear 100. Good.)
A left display 12L is fitted in the left eye frame 102, and a right display 12R is fitted in the right eye frame 101. This display is provided on at least one of the left and right eye frames, and can be configured using a film liquid crystal or the like. Specifically, one or both of the left and right displays 12L and 12R can be configured using a film liquid crystal display device that employs a polymer-dispersed liquid crystal (PDLC) that does not use a polarizing plate. (This display is shown as display 12 in FIG. 3.)
The transparent left and right displays 12L / 12R using film liquid crystal can be used as means for providing augmented reality (AR) that adds image information such as numbers and letters to the real world seen through glasses.

左右ディスプレイ12L/12Rのフィルム液晶は、3D映画(または3Dビデオ)を観賞する際に左右の映像を分離する液晶シャッタとして用いることもできる。なお、3Dメガネを構成するにあたっては、液晶シャッタ方式以外に、偏光方式も利用可能である。   The film liquid crystal of the left and right displays 12L / 12R can also be used as a liquid crystal shutter for separating the left and right images when watching a 3D movie (or 3D video). In configuring 3D glasses, in addition to the liquid crystal shutter system, a polarization system can be used.

ユーザの眼球位置と目視対象物との距離が事前に分かっているときは、距離センサがなくても前述した輻輳角を算出できる。例えば、映画館の客席中央でスクリーンから10m離れた座席(座席番号で特定できる位置にある)に座っている観客(瞳孔間距離65mm)の輻輳角は、tan-1[65/10000]くらいになる。左右ディスプレイ12L/12Rにおいて3Dの字幕をAR表示する際は、そのAR表示を見る際の輻輳角が、10m先のスクリーンに投影された3D映像を見るときの輻輳角と同じくらいになるように、AR表示する3D字幕の左右表示位置を制御することができる。そうすれば、AR表示された3D字幕と10m先の3Dスクリーン映像を見続ける際に、目の疲れを軽減できる。   When the distance between the user's eyeball position and the visual object is known in advance, the above-described convergence angle can be calculated without a distance sensor. For example, the vergence angle of a spectator (65mm pupil distance) sitting in a seat 10m away from the screen (located at the seat number) in the center of a movie theater seat is about tan-1 [65/10000]. Become. When displaying 3D subtitles in AR on the left and right displays 12L / 12R, the convergence angle when viewing the AR display is set to be the same as the convergence angle when viewing the 3D image projected on the screen 10 meters ahead. It is possible to control the left and right display positions of 3D subtitles for AR display. This can reduce eyestrain when continuing to view 3D subtitles displayed in AR and a 3D screen image 10 meters ahead.

3D映画の鑑賞に限らず一般化していうと、ディスプレイが左右に存在する場合は、所望の輻輳角に対応して、左右のディスプレイに表示する画像(図1のIM1、IM2)の映像を左右で逆方向にずらすことができる。これにより、現実世界で見える対象物とAR表示を交互に見る場合の目の負担を減らすことができる。   Generally speaking, not only for viewing 3D movies, if the displays are on the left and right, the images (IM1 and IM2 in FIG. 1) displayed on the left and right displays correspond to the desired convergence angle. It can be shifted in the opposite direction. As a result, it is possible to reduce the burden on the eyes when alternately viewing the object that can be seen in the real world and the AR display.

左右のアイフレーム102、101の間であって、ブリッジ103の下側には、ノーズパッド部が設けられる。このノーズパッド部は、左ノーズパッド150Lと右ノーズパッド150Rのペアで構成される。右ノーズパッド150Rには右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lには左ノーズパッド電極152a,152bが設けられている。   A nose pad portion is provided between the left and right eye frames 102 and 101 and below the bridge 103. This nose pad portion is composed of a pair of a left nose pad 150L and a right nose pad 150R. The right nose pad 150R is provided with right nose pad electrodes 151a and 151b, and the left nose pad 150L is provided with left nose pad electrodes 152a and 152b.

これらの電極151a,151b,152a,152bは互いに電気的に分離され、絶縁された配線材(図示せず)を介して、3つのADコンバータ(ADC1510、1520、1512)に接続される。これらのADCからの出力は、アイウエア100を装着したユーザの眼の動きに応じて異なる信号波形を持ち、ユーザの眼動に応じたデジタルデータとして、情報処理部11に供給される。電極151a,151b,152a,152bは、視線検出センサとして用いられ、3つのADCとともに図3の眼動検出部15の構成要素となっている。なお、3つのADCは情報処理部11とともに1つのLSIに組み込むこともできる。また、使用するADCの数は、目的により適宜増減でき、3つという数は一例である(例えば目的が右側の瞬目によるEOG波形を検出するだけの場合は、使用するADCの数はADC1510の1つでよい。目的に応じて、ADCの数は1〜2個で済む場合もあれば4個以上使用する場合もある。)
右ノーズパッド150Rには右マイク(または右振動ピックアップ)16Rが設けられ、左ノーズパッド150Lには左マイク(または左振動ピックアップ)16Lが設けられている。左右のマイク16L/16Rは、例えば超小型のエレクトレットコンデンサマイクで構成できる。また、左右の振動ピックアップ16L/16Rは、例えば圧電素子で構成できる。笑い声、悲鳴、怒号、びっくりしたときの反射的な体動など大きな感情表出に伴い誘発された音や動きは、マイク(または振動ピックアップ)16L/16Rを用いて検出できる(これらのマイクまたは振動ピックアップは、図3ではマイク(または振動ピックアップ)16として示されている)。鼻をすする小さなすすり泣きは、左右のマイク16L/16Rで検出可能である。なお、ユーザの体動は、図3のセンサ部11eが内蔵する加速度センサやジャイロによって検出することもできる。
These electrodes 151a, 151b, 152a, and 152b are electrically separated from each other, and are connected to three AD converters (ADCs 1510, 1520, and 1512) through insulated wiring members (not shown). The outputs from these ADCs have different signal waveforms according to the movement of the eye of the user wearing the eyewear 100, and are supplied to the information processing unit 11 as digital data according to the eye movement of the user. The electrodes 151a, 151b, 152a, and 152b are used as line-of-sight detection sensors and are components of the eye movement detection unit 15 in FIG. 3 together with the three ADCs. The three ADCs can be incorporated into one LSI together with the information processing unit 11. The number of ADCs to be used can be appropriately increased or decreased depending on the purpose, and the number of three is an example (for example, when the purpose is only to detect an EOG waveform due to a blink on the right side, the number of ADCs to be used is equal to that of the ADC 1510. Depending on the purpose, the number of ADCs may be one or two, or four or more may be used.)
The right nose pad 150R is provided with a right microphone (or right vibration pickup) 16R, and the left nose pad 150L is provided with a left microphone (or left vibration pickup) 16L. The left and right microphones 16L / 16R can be composed of, for example, ultra-small electret condenser microphones. Further, the left and right vibration pickups 16L / 16R can be constituted by, for example, piezoelectric elements. Sounds and movements induced by large emotional expressions such as laughter, screams, angers, and reflexive body movements when surprised can be detected using a microphone (or vibration pickup) 16L / 16R (these microphones or vibrations). The pickup is shown as a microphone (or vibration pickup) 16 in FIG. 3). Small sobbing with a nose can be detected by the left and right microphones 16L / 16R. It should be noted that the user's body movement can also be detected by an acceleration sensor or gyro built in the sensor unit 11e of FIG.

アイウエア100は、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)によって、図示しないユーザの頭部に固定される。この実施形態では、ユーザの頭部(または顔面)に直接触れるのは、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)だけでよいが、ADC(1510、1520、1512)とユーザのボディとの間の電圧合わせなどのために、それら(ノーズパッド、テンプルバー、モダン)以外の部分がユーザに触れる実施形態があってもよい。   The eyewear 100 is fixed to a user's head (not shown) by left and right nose pads (150L, 150R), left and right temple bars (106, 107), and left and right moderns (108, 109). In this embodiment, only the left and right nose pads (150L, 150R), the left and right temple bars (106, 107), and the left and right modern (108, 109) need to touch the user's head (or face) directly. However, there may be an embodiment in which a part other than the ADC (1510, 1520, 1512) and the user's body touches the user other than those (nose pad, temple bar, modern).

図1の右ディスプレイ12Rのフィルム液晶には、例えば、日本語文字(ひらがなカタカナ漢字)、数字、アルファベット、所定形状のマーク、その他のアイコン群を含む右表示画像IM1を表示できる。左ディスプレイ12Lのフィルム液晶にも、IM1と同様な内容の左表示画像IM2を表示できる。   On the film liquid crystal of the right display 12R in FIG. 1, for example, a right display image IM1 including Japanese characters (Hiragana Katakana Kanji), numerals, alphabets, marks of a predetermined shape, and other icon groups can be displayed. The left display image IM2 having the same contents as IM1 can also be displayed on the film liquid crystal of the left display 12L.

ディスプレイ12L、12Rの表示内容は、何でも良い。例えば緑内障の視野検査に用いる輝点をディスプレイ12Lまたは12Rで表示することができる。表示を行わないときは表示状態を全面黒表示にして、フィルム液晶を目隠しあるいは遮光シートとして用いることもできる。右ディスプレイ12R(または左ディスプレイ12L)に表示されるテンキーやアルファベットは、数字や文字を入力する際に利用できる。右ディスプレイ12R(または左ディスプレイ12L)に表示される文字列、マーク、アイコン等は、特定の情報項目を探したり、目的の項目の選択/決定したり、ユーザに注意喚起をする際に利用できる。   The display content of the displays 12L and 12R may be anything. For example, the bright spot used for glaucoma visual field inspection can be displayed on the display 12L or 12R. When the display is not performed, the display state can be set to black display, and the film liquid crystal can be used as a blind or a light shielding sheet. The numeric keys and alphabets displayed on the right display 12R (or the left display 12L) can be used when inputting numbers and characters. Character strings, marks, icons, etc. displayed on the right display 12R (or the left display 12L) can be used when searching for specific information items, selecting / determining target items, and alerting the user. .

表示画像IM1、IM2は、メガネを通して見える現実の世界に数字、文字、マークなどの情報を付加させる拡張現実(AR)の表示手段として利用でき、このAR表示は適宜オンオフできる。表示画像IM1の内容と表示画像IM2は、実施形態に応じて、同じ内容(IM1=IM2)としても、異なる内容(IM1≠IM2)としてもよい。また、表示画像IM1(またはIM2)の表示は、右ディスプレイ12Rおよび/または左ディスプレイ12で行うことができる。AR表示の内容を、メガネ越しに見える現実世界に重なる(奥行きを伴った)3D画像としたいときは、IM1とIM2を左右別々の3D用画像とすることができる。   The display images IM1 and IM2 can be used as augmented reality (AR) display means for adding information such as numbers, letters and marks to the real world seen through the glasses, and the AR display can be turned on and off as appropriate. The content of the display image IM1 and the display image IM2 may be the same content (IM1 = IM2) or different content (IM1 ≠ IM2) depending on the embodiment. The display image IM1 (or IM2) can be displayed on the right display 12R and / or the left display 12. When the content of the AR display is a 3D image that overlaps the real world (with depth) that can be seen through the glasses (with depth), IM1 and IM2 can be used as separate left and right 3D images.

また、ディスプレイ(12R、12L)が左右に存在する場合、例えば輻輳角を調整して、左右の表示画像(IM1、IM2)の映像を左右で逆方向にずらすこともできる。これにより、現実世界で見える対象物とAR表示を交互に見る場合の目の負担を減らすことが考えられる。しかし、通常は、左右のディスプレイ(12R、12L)で同じ内容の画像を表示する。   Further, when the displays (12R, 12L) are present on the left and right, for example, by adjusting the convergence angle, the images of the left and right display images (IM1, IM2) can be shifted in the opposite directions on the left and right. As a result, it can be considered that the burden on the eyes when the object and the AR display that are visible in the real world are alternately viewed is reduced. However, normally, images with the same contents are displayed on the left and right displays (12R, 12L).

ディスプレイ12L、12Rでの表示制御は、右テンプルバー107に埋め込まれた情報処理部11で行うことができる。(ディスプレイで文字、マーク、アイコンなどを表示する技術は周知。)情報制御部11その他の動作に必要な電源は、左テンプルバー106に埋め込まれた電池BATから得ることができる。   Display control on the displays 12L and 12R can be performed by the information processing unit 11 embedded in the right temple bar 107. (Technology for displaying characters, marks, icons, etc. on the display is well known.) The power supply necessary for the information control unit 11 and other operations can be obtained from the battery BAT embedded in the left temple bar 106.

なお、実施形態に対応するアイウエア100の試作品をデザイナーや設計者が装着してみて重量バランスが悪いと感じる可能性がある。その主因が左テンプルバー106内のBATにあるならば、右テンプルバー107内に左テンプルバー106内のBATに見合った「おもり(または別の同重量バッテリ)」を入れておくことができる。   Note that there is a possibility that the designer or designer wears a prototype of the eyewear 100 corresponding to the embodiment and feels that the weight balance is bad. If the main cause is the BAT in the left temple bar 106, a “weight (or another same weight battery)” corresponding to the BAT in the left temple bar 106 can be placed in the right temple bar 107.

図2は、一実施の形態に係るメガネ型アイウエア100におけるEOG電極の実装例を説明する図である。右ノーズパッド150Rの上下には右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lの上下には左ノーズパッド電極152a,152bが設けられている。右ノーズパッド電極151a,151bの出力はADC1510に与えられ、左ノーズパッド電極152a,152bの出力はADC1520に与えられ、左右ノーズパッドの下側電極151b,152b(または上側電極151a,152a)の出力はADC1512に与えられる。   FIG. 2 is a diagram for explaining an example of mounting the EOG electrode in the eyeglass-type eyewear 100 according to the embodiment. Right nose pad electrodes 151a and 151b are provided above and below the right nose pad 150R, and left nose pad electrodes 152a and 152b are provided above and below the left nose pad 150L. The outputs of the right nose pad electrodes 151a and 151b are supplied to the ADC 1510, the outputs of the left nose pad electrodes 152a and 152b are supplied to the ADC 1520, and the outputs of the lower electrodes 151b and 152b (or the upper electrodes 151a and 152a) of the left and right nose pads. Is provided to the ADC 1512.

ADC1510からは、ユーザの右側上下眼動に対応して変化するCh1信号が得られる。ADC1520からは、ユーザの左側上下眼動に対応して変化するCh2信号が得られる。ADC1512からは、ユーザの左右眼動に対応して変化するCh0信号が得られる。左右両眼の上下動については、ADC1510およびADC1520の出力の平均で評価してもよい。(Ch0,Ch1,Ch2の信号波形と眼動との関係については、図4を参照して後述する。)
<図1、図2に示される眼電位センサについての補足説明>
*ノーズパッドに設けるEOG電極について
上下方向の眼球移動検出用には最低限1組(151aと151bの組;または152aと152bの組)の測定電極を具備する。その場合は、左または右の(どちらか片方)のノーズパッドの上下に眼電位測定用の電極が設けられる(電極端子数は2個)。
From the ADC 1510, a Ch1 signal that changes in response to the right / left eye movement of the user is obtained. From the ADC 1520, a Ch2 signal that changes in accordance with the left and right eye movements of the user is obtained. The ADC 1512 obtains a Ch0 signal that changes in accordance with the left and right eye movements of the user. The vertical movement of both the left and right eyes may be evaluated by averaging the outputs of the ADC 1510 and the ADC 1520. (The relationship between the signal waveforms of Ch0, Ch1, and Ch2 and eye movement will be described later with reference to FIG. 4.)
<Supplementary explanation about the electrooculogram sensor shown in FIGS. 1 and 2>
* EOG electrode provided on the nose pad At least one pair of measurement electrodes (a pair of 151a and 151b; or a pair of 152a and 152b) is provided for detection of eye movement in the vertical direction. In that case, electrodes for measuring electrooculogram are provided above and below the left or right (either one) nose pads (the number of electrode terminals is two).

上下方向の眼球移動検出精度向上に1組の測定電極を追加する。その場合は、左右(両方)のノーズパッド150L/150Rの上下に眼電位測定用の電極(151aと151b;および152aと152b)が設けられる(電極端子数は4個)。   A set of measurement electrodes is added to improve the detection accuracy of eye movement in the vertical direction. In that case, electrodes for electrooculogram measurement (151a and 151b; and 152a and 152b) are provided above and below the right and left (both) nose pads 150L / 150R (the number of electrode terminals is four).

*ADC(Analog-to-Digital Converter)について
上下方向の眼球移動検出用には最低限1個のADC(Ch1用またはCh2用)を具備する。
* ADC (Analog-to-Digital Converter) At least one ADC (for Ch1 or Ch2) is provided for detecting eye movement in the vertical direction.

上下方向の眼球移動検出精度向上のために1個のADC(Ch2用またはCh1用)を追加する(その結果Ch1とCh2の双方に1個ずつADCが設けられる)。(精度向上用オプション)
左右方向の眼球移動検出用には更に1個のADC(Ch0用)を追加する。(機能向上用オプション)
図3は、種々な実施の形態に取り付け可能な情報処理部11と、その周辺デバイスとの関係を説明する図である。図3の例では、情報処理部11は、プロセッサ11a、不揮発性メモリ(フラッシュメモリ/EEPROM)11b、メインメモリ11c、通信処理部11d、センサ部11e、タイマ(フレームカウンタ)11f、デバイスID11gなどで構成されている。プロセッサ11aは製品仕様に応じた処理能力を持つマイクロコンピュータで構成できる。このマイクロコンピュータが実行する種々なプログラムおよびプログラム実行時に使用する種々なパラメータは、不揮発性メモリ11bに格納しておくことができる。不揮発性メモリ11bには、タイマ11fを用いたタイムスタンプ(および/またはフレームカウンタでカウントしたフレーム番号)とともに、種々な検出データを記憶しておくことができる。プログラムを実行する際のワークエリアはメインメモリ11cが提供する。
One ADC (for Ch2 or Ch1) is added to improve the vertical eye movement detection accuracy (as a result, one ADC is provided for each of Ch1 and Ch2). (Option for improving accuracy)
One more ADC (for Ch0) is added for detection of eye movement in the left-right direction. (Function improvement option)
FIG. 3 is a diagram illustrating the relationship between the information processing unit 11 that can be attached to various embodiments and the peripheral devices. In the example of FIG. 3, the information processing unit 11 includes a processor 11a, a nonvolatile memory (flash memory / EEPROM) 11b, a main memory 11c, a communication processing unit 11d, a sensor unit 11e, a timer (frame counter) 11f, a device ID 11g, and the like. It is configured. The processor 11a can be constituted by a microcomputer having a processing capability according to product specifications. Various programs executed by the microcomputer and various parameters used when the programs are executed can be stored in the nonvolatile memory 11b. The nonvolatile memory 11b can store various detection data together with a time stamp (and / or a frame number counted by a frame counter) using the timer 11f. The main memory 11c provides a work area for executing the program.

センサ部11eは、アイウエア100(あるいはこのアイウエアを装着したユーザの頭部)の位置および/またはその向きを検出するためのセンサ群を含んでいる。これらのセンサ群の具体例としては、3軸方向(x−y−z方向)の移動を検出する加速度センサ、3軸方向の回転を検出するジャイロ、絶対方位を検出する地磁気センサ(羅針盤機能)、電波や赤外線などを受信して位置情報その他を得るビーコンセンサがある。この位置情報その他の獲得には、iBeacon(登録商標)あるいはBluetooth(登録商標)4.0を利用できる。   The sensor unit 11e includes a sensor group for detecting the position and / or orientation of the eyewear 100 (or the head of the user wearing the eyewear). Specific examples of these sensor groups include an acceleration sensor that detects movement in three axial directions (xyz directions), a gyro that detects rotation in three axial directions, and a geomagnetic sensor that detects absolute orientation (compass function). There are beacon sensors that receive radio waves, infrared rays, and the like to obtain position information and the like. IBeacon (registered trademark) or Bluetooth (registered trademark) 4.0 can be used to acquire the position information and others.

情報処理部11に利用可能なLSIは、製品化されている。その一例として、東芝セミコンダクター&ストレージ社の「ウエアラブル端末向けTZ1000シリーズ」がある。このシリーズのうち、製品名「TZ1011MBG」は、CPU(11a、11c)、フラッシュメモリ(11b)、Bluetooth Low Energy(登録商標)(11d)、センサ群(加速度センサ、ジャイロ、地磁気センサ)(11e)、24ビットデルタシグマADC、I/O(USB他)を持つ。   LSIs that can be used for the information processing unit 11 have been commercialized. One example is the “TZ1000 Series for Wearable Terminals” by Toshiba Semiconductor & Storage. In this series, the product name “TZ1011MBG” includes CPU (11a, 11c), flash memory (11b), Bluetooth Low Energy (registered trademark) (11d), sensor group (acceleration sensor, gyroscope, geomagnetic sensor) (11e). , 24-bit delta-sigma ADC, I / O (USB etc.).

プロセッサ11aで何をするかは、通信処理部11dを介して、ローカルサーバ(またはパーソナルコンピュータ)1000から、指令することができる。通信処理部11dでは、ZigBee(登録商標)、Bluetooth(登録商標)、Wi-Fi(登録商標)などの既存通信方式を利用できる。プロセッサ11aでの処理結果は、通信処理部11dを介して、ローカルサーバ1000にリアルタイムで送ることができる。また、メモリ11bに記憶された情報も、通信処理部11dを介して、ローカルサーバ1000に提供できる。ローカルサーバ1000は、1以上のアイウエア100の情報処理部11から送られてきた情報を、レコーダ/ローカルデータベース1002で記録し蓄積できる。レコーダ/ローカルデータベース1002に記録/蓄積された情報は、インターネットなどのネットワークを介して、メインサーバ10000に送ることができる。メインサーバ10000には1以上のローカルサーバ1000から種々な情報が送られてきており、それらの情報を統合してビッグデータのデータベースを構築できるようになっている。   What to do with the processor 11a can be commanded from the local server (or personal computer) 1000 via the communication processing unit 11d. The communication processing unit 11d can use existing communication methods such as ZigBee (registered trademark), Bluetooth (registered trademark), and Wi-Fi (registered trademark). The processing result in the processor 11a can be sent to the local server 1000 in real time via the communication processing unit 11d. In addition, information stored in the memory 11b can be provided to the local server 1000 via the communication processing unit 11d. The local server 1000 can record and store information sent from the information processing unit 11 of one or more eyewear 100 in the recorder / local database 1002. Information recorded / stored in the recorder / local database 1002 can be sent to the main server 10000 via a network such as the Internet. Various information is sent from the one or more local servers 1000 to the main server 10000, and a big data database can be constructed by integrating the information.

情報処理部11のシステムバスには、ディスプレイ12(12Lと12R)、カメラ13(13Lと13R)、眼動検出部15、マイク(または振動ピックアップ)16等が接続されている。図3の各デバイス(11〜16)は、バッテリBATにより給電される。   A display 12 (12L and 12R), a camera 13 (13L and 13R), an eye movement detection unit 15, a microphone (or vibration pickup) 16, and the like are connected to the system bus of the information processing unit 11. Each device (11 to 16) in FIG. 3 is powered by the battery BAT.

図3の眼動検出部15は、視線検出センサを構成する4つの眼動検出電極(151a,151b,152a,152b)と、これらの電極から眼動に対応したデジタル信号を取り出す3つのADC(1510、1520、1512)と、これらADCからの出力データをプロセッサ11a側に出力する回路を含んでいる。プロセッサ11aは、ユーザの種々な眼動(上下動、左右動、瞬目、眼瞑りなど)から、その眼動の種類に対応する指令または状態を解釈し、その指令または状態に対応する処理を実行することができる。   The eye movement detection unit 15 in FIG. 3 includes four eye movement detection electrodes (151a, 151b, 152a, and 152b) that constitute a line-of-sight detection sensor, and three ADCs that extract digital signals corresponding to the eye movements from these electrodes ( 1510, 1520, 1512) and a circuit for outputting the output data from these ADCs to the processor 11a side. The processor 11a interprets a command or state corresponding to the type of eye movement from various eye movements (vertical movement, left and right movement, blinking, eye meditation, etc.) of the user, and performs processing corresponding to the instruction or state. Can be executed.

眼動の種類に対応する指令の具体例としては、眼動が例えば眼瞑りなら視線の先にある情報項目を選択し(コンピュータマウスのワンクリックに類似)、連続した所定回数の両目の瞬目(あるいは片目の瞬目/ウインク)なら選択された情報項目に対する処理の実行を開始させる(コンピュータマウスのダブルクリックに類似)指令がある。   As a specific example of a command corresponding to the type of eye movement, if the eye movement is, for example, eye meditation, select an information item at the tip of the line of sight (similar to one click of a computer mouse), and a blink of a predetermined number of consecutive eyes If it is (or blink / wink for one eye), there is a command for starting the processing for the selected information item (similar to double clicking with a computer mouse).

眼動の種類に対応する状態の具体例としては、所定数の瞬目、所定時間の目瞑り、視線の上下左右動がある、例えば、眼動が講演の節目における1〜2回の瞬目ならユーザが講演内容に集中し理解したことを推定できる。眼動が検査用映像の再生中における数秒以上の目瞑りならユーザが検査用映像の再生中に居眠りしたことを推定できる。眼動が睡眠中における上下左右動ならユーザがレム睡眠中であったことを推定できる。   Specific examples of the state corresponding to the type of eye movement include a predetermined number of blinks, eye meditation for a predetermined time, and vertical / horizontal movement of the line of sight. For example, the eye movement is one or two blinks in a lecture section. If so, it can be estimated that the user concentrated on the contents of the lecture. It can be estimated that the user has fallen asleep during the reproduction of the examination video if the eye movement is an eye meditation of several seconds or more during the reproduction of the examination video. If the eye movement is up / down / left / right movement during sleep, it can be estimated that the user was in REM sleep.

上記眼動の種類に対応する指令または状態は、眼動検出部15を用いた情報入力Bの一例である。   The command or state corresponding to the type of eye movement is an example of information input B using the eye movement detection unit 15.

<図3に示される構成要素についての補足説明>
*プロセッサ11aを構成するマイクロコンピュータユニットの動作について
マイクロコンピュータユニットのプログラミングにより瞬目などの検出エンジンを構成し、この検出エンジンを動作させることで、リアルタイムのADC生データではなくて、タイムスタンプ付の瞬目イベントを記録することができる。(例えば、タイマをスタートしてから5分10秒後に1〜2回連続する瞬目の発生イベントがあったなら、その瞬目のEOG波形をAD変換した生データを記録するのではなくて、代わりにそのような瞬目が発生したことを5分10秒のタイムスタンプとともに記録する。)このようにすれば、生データをそのまま記録するよりも記録に必要なメモリ容量を大幅に節約できる。なお、メモリ容量に十分な余裕があるときは、ADC生データを記録するようにしてもよい。
<Supplementary explanation about the components shown in FIG. 3>
* About the operation of the microcomputer unit constituting the processor 11a By configuring the detection unit such as blinks by programming the microcomputer unit, and operating this detection engine, not the real-time ADC raw data but the time stamped Blink events can be recorded. (For example, if there is a blinking event that occurs once or twice consecutively 5 minutes and 10 seconds after starting the timer, instead of recording raw data obtained by AD conversion of the EOG waveform of the blink, Instead, the occurrence of such a blink is recorded with a time stamp of 5 minutes and 10 seconds.) In this way, the memory capacity required for recording can be greatly saved compared to recording raw data as it is. Note that when the memory capacity has a sufficient margin, the ADC raw data may be recorded.

*不揮発性メモリ11bを構成するフラッシュメモリ/EEPROMについて
例えば映画館で映画を鑑賞している大勢の観客から瞬目の情報を収集する場合を考えてみる。その場合、全ての観客からリアルタイムで瞬目の情報を集め続けるよりも、個々の観客の瞬目情報を個々の観客のローカルメモリ(11b)に一時記憶しておき、映画終了後に全ての観客のローカルメモリ(11b)から記憶した瞬目情報を回収する方が、効率的な情報収集ができる。
* Flash memory / EEPROM composing the non-volatile memory 11b For example, consider the case where blink information is collected from a large number of spectators watching a movie in a movie theater. In that case, rather than continuously collecting blink information in real time from all the audiences, the blink information of each audience is temporarily stored in the local memory (11b) of each audience, and after the movie ends, It is possible to collect information more efficiently by collecting the blink information stored from the local memory (11b).

*通信処理部11dについて
例えば映画が終了し、全ての観客のローカルメモリ(11b)で瞬目情報の一時記憶が終わったなら、一時記憶された瞬目情報(タイムスタンプ付き)を映画館のローカルサーバ(1000)で回収することができる。この回収は、例えば、映画館の座席または館内特定場所に設けたBlueTooth(無線)またはUSB(有線)を介して行うことができる。
* Communication processing unit 11d For example, if the movie ends and the blink information is temporarily stored in the local memory (11b) of all the audiences, the temporarily stored blink information (with a time stamp) is stored in the local movie theater. It can be collected by the server (1000). This collection can be performed via, for example, BlueTooth (wireless) or USB (wired) provided at a seat in a movie theater or at a specific location in the hall.

*電源(電池/バッテリー)BATについて
以下の動作を行うための電源供給維持のために、小型バッテリーが用いられる。
* Power supply (battery / battery) BAT A small battery is used to maintain power supply for the following operations.

・映画の上映中には、「瞬目」検出エンジンを動作させてEOG波形のAD変換結果から「瞬目」をリアルタイムで検出し、検出した「瞬目」イベントの情報をタイムスタンプと一緒にメモリ11bに記録してゆく。   ・ During movie screening, the “Blink” detection engine is operated to detect “Blink” in real time from the AD conversion result of the EOG waveform, and the information of the detected “Blink” event together with the time stamp The data is recorded in the memory 11b.

・映画の上映終了後には、メモリ11bに記録した「瞬目」イベント情報を回収できるようにする。   After the movie has ended, the “blink” event information recorded in the memory 11b can be collected.

図4は、アイウエア100を装着したユーザの種々な眼動(瞬目、目瞑り、眼球回転など;特に瞬目)と、図2に示す3つのアナログ/デジタルコンバータ(ADC)から得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図(EOG)である。縦軸は各ADCのサンプル値(EOG信号レベルに相当)を示し、横軸は時間を示す。   FIG. 4 shows various eye movements of the user wearing the eyewear 100 (blink, eye meditation, eyeball rotation, etc .; especially blink) and detection obtained from the three analog / digital converters (ADC) shown in FIG. It is an electrooculogram (EOG) which illustrates the relationship with signal level (Ch0, Ch1, Ch2). The vertical axis represents the sample value of each ADC (corresponding to the EOG signal level), and the horizontal axis represents time.

図4の上段に示すCh0のEOG波形のADCサンプル値において、視線が左を向いたときの凹波形と視線が右を向いたときの凸波形の組合せ波形Pr(またはPr*)により、左右方向の眼球回転が検出される。   In the ADC sample value of the Ch0 EOG waveform shown in the upper part of FIG. 4, the combination waveform Pr (or Pr *) of the concave waveform when the line of sight is directed to the left and the convex waveform when the line of sight is directed to the right is used. Eyeball rotation is detected.

図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、視線が上を向いたときの凸波形と視線が下を向いたときの凹波形の組合せ波形Pt(またはPt*)により、上下方向の眼球回転が検出される。   In the ADC sample value of the Ch1 EOG waveform shown in the middle part of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of the figure, the convex waveform when the line of sight faces upward and the line of sight when the line of sight faces downward The eyeball rotation in the vertical direction is detected by the combination waveform Pt (or Pt *) of the concave waveform.

図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、1〜2回の瞬目は、瞬間的にレベル上昇して元に戻る凸パルス波形Pcにより検出される。   In the ADC sample value of the Ch1 EOG waveform shown in the middle part of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of FIG. It is detected by the convex pulse waveform Pc.

図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、3回の瞬目は、瞬間的にレベル上昇して元に戻る凸パルス波形Psにより検出される。(図示しないが、4回以上の瞬目も3回の場合と同様に検出できる。)
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、瞬目より長い期間生じる目瞑りは、幅広な凸パルス波形Pfにより検出される。(図示しないが、より長い目瞑りはより広いパルス幅の波形で検出される。)
<図4のEOG波形と眼動との関係>
(01)視線が左右にきょろきょろと動いているときは、波形Pr(またはPr*)が表れる。視線が上下にきょろきょろと動いているときは、波形Pt(またはPt*)が表れる。視線が左右上下にきょろきょろと動いているときは、波形Pr(またはPr*)と波形Pt(またはPt*)が連続して表れる。つまり、EOG波形Prおよび/またはPt(Pr*および/またはPt*)から、「きょろつき」型眼動を検出できる。
In the ADC sample value of the Ch1 EOG waveform shown in the middle part of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of FIG. It is detected by the waveform Ps. (Although not shown, four or more blinks can be detected as in the case of three.)
In the ADC sample value of the Ch1 EOG waveform shown in the middle part of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of the figure, eye meditation that occurs for a longer period than the blink is detected by the wide convex pulse waveform Pf. The (Although not shown, longer eye meditation is detected with a wider pulse width waveform.)
<Relationship between EOG Waveform and Eye Movement in FIG. 4>
(01) When the line of sight is moving from side to side, the waveform Pr (or Pr *) appears. When the line of sight is moving up and down, the waveform Pt (or Pt *) appears. When the line of sight is moving left and right and up and down, the waveform Pr (or Pr *) and the waveform Pt (or Pt *) appear continuously. In other words, the “shrinking” type eye movement can be detected from the EOG waveform Pr and / or Pt (Pr * and / or Pt *).

(02)瞬目がなされると、瞬目の回数に応じたパルス波形Pc、Ps(またはPc*,Ps*)が表れる。つまり、EOG波形Pc、Ps(またはPc*,Ps*)から、種々な回数の「瞬目」型眼動を検出できる。なお、「瞬目」型眼動の検出さえできればよいのであれば、Ch0のADCは不要となる。「瞬目」型眼動の検出目的では、最低限、Ch1またはCh2のADCが1つあればよい。しかしCh1およびCh2の2つのADCを用い、両者の出力を合成すれば、信号対雑音比(S/N)を改善できる。その理由は、Ch1とCh2の間で相関性がある信号成分(Pc、Ps、Pf、Ptなど)は2つのADC出力の合成により+6dB増えるが、相関性がないランダムなノイズ成分は+3dBしか増えないからである。   (02) When blinking is performed, pulse waveforms Pc, Ps (or Pc *, Ps *) corresponding to the number of blinks appear. In other words, various “blink” type eye movements can be detected from the EOG waveforms Pc, Ps (or Pc *, Ps *). Note that the ADC of Ch0 is not necessary if it is sufficient to detect “blink” type eye movement. For the purpose of detecting “blink” type eye movement, at least one ADC of Ch1 or Ch2 is sufficient. However, the signal-to-noise ratio (S / N) can be improved by using two ADCs Ch1 and Ch2 and combining the outputs of both. The reason is that the signal components (Pc, Ps, Pf, Pt, etc.) correlated between Ch1 and Ch2 increase by +6 dB by combining the two ADC outputs, but the random noise component without correlation increases only by +3 dB. Because there is no.

(03)目瞑りがなされると、目瞑りの長さに応じたパルス波形Pf(またはPf*)が表れる。つまり、EOG波形Pf(またはPf*)から、種々な長さの「目瞑り」型眼動を検出できる。「目瞑り」型眼動はCh0のEOG波形にも少し表れるが、「目瞑り」型眼動の検出目的では、Ch0のADCはなくてもよい。   (03) When eye meditation is performed, a pulse waveform Pf (or Pf *) corresponding to the length of eye meditation appears. That is, “eye meditation” type eye movements of various lengths can be detected from the EOG waveform Pf (or Pf *). Although “eye meditation” type eye movement appears in the EOG waveform of Ch0 a little, for the purpose of detecting “eye meditation” type eye movement, the ADC of Ch 0 is not necessary.

<眼動と心身状態の関係>
(11)EOGを利用した検査中(例えば緑内障の視野検査中)に「きょろつき」型眼動が検出されたときは、被験者の集中力が欠け落ち着きなない状態にあると推定することが考えられる。
<Relationship between eye movement and psychosomatic state>
(11) If a “shocking” type of eye movement is detected during an examination using EOG (for example, during a visual field examination of glaucoma), it is assumed that the subject's concentration is lacking and rests. Can be considered.

(12)EOGを利用した検査中(例えば講演や授業の理解度調査中)に、要所(講演内容の意味の区切り箇所など)で少数回(例えば1〜2回)の「瞬目」型眼動が検出されたときは、被験者は集中しており理解が進んでいる状態にあると推定することが考えられる。   (12) During examination using EOG (for example, during a lecture or class comprehension survey), a “blink” type that is a small number of times (for example, 1 to 2 times) at key points (separation points of the meaning of the lecture content, etc.) When eye movement is detected, it can be estimated that the subject is concentrated and understanding is advanced.

(13)EOGを利用した検査中(例えば接客店員の適性検査中)に、要所(「被験者が混雑した店内で複数客から矢継ぎ早に種々な注文を受ける」といった検査内容の箇所など)で数回以上(例えば3回以上)の「瞬目」型眼動が検出されたときは、被験者は緊張しており精神的にストレスを受けた状態にあると推定することが考えられる。   (13) During inspection using EOG (for example, during aptitude inspection of customer service staff), the number of important points (such as the location of the inspection contents such as “the subject receives various orders quickly from multiple customers in a crowded store”) When “blink” type eye movements are detected more than once (for example, three times or more), it may be presumed that the subject is tense and mentally stressed.

(14)EOGを利用した検査中(例えばドライブシミュレータを用いた検査において、単調な走行画面と単調な連続振動音の出力中)に短めの「目瞑り」型眼動が複数回検出されたときは、被験者は疲労しており検査項目に集中できない状態にあると推定することが考えられる。   (14) When a short “eye meditation” type of eye movement is detected multiple times during an examination using EOG (for example, in the examination using a drive simulator, while outputting a monotonous running screen and monotonous continuous vibration sound) It can be estimated that the subject is tired and cannot concentrate on the examination items.

(15)EOGを利用した検査中(例えば睡眠の調査中)に長期間の「目瞑り」型眼動が検出されたときは、被験者は睡眠(仮眠)しておりノンレム睡眠あるいはレム睡眠の状態にあると推定することが考えられる。   (15) If a long-term “eye meditation” type eye movement is detected during an examination using EOG (eg during sleep investigation), the subject is sleeping (nap) and is in non-REM sleep or REM sleep state It can be estimated that

(16)EOGを利用した検査(例えば睡眠状態の検査)において、長時間の「目瞑り」型眼動が検出されている間に「きょろつき」型眼動が検出されたときは、被験者がレム睡眠の状態にあると推定することが考えられる。   (16) In a test using EOG (for example, a sleep state test), when a “shrinking” type of eye movement is detected while a long-time “eye meditation” type of eye movement is detected, It can be estimated that the subject is in a state of REM sleep.

(17)EOGを利用した検査(例えば睡眠からの覚醒の検査)において、長時間の「目瞑り」型眼動が検出されたあと(ノンレム睡眠あるいはレム睡眠の状態にあると推定される)、「瞬目」型眼動が検出されたときは、その「瞬目」型眼動の検出により睡眠から覚醒したものと推定することが考えられる。   (17) In a test using EOG (for example, a test for awakening from sleep), after long-term "eye meditation" type eye movement is detected (it is estimated that the patient is in a state of non-REM sleep or REM sleep). When a “blink” type eye movement is detected, it may be estimated that the user has awakened from sleep by detecting the “blink” type eye movement.

<眼電位センシング技術を用いた劇場3Dメガネ向け感情(心身状態)推定/記録の要点>
*主要な検出対象は瞬目(瞬き)である。
<Emotional (mental and physical state) estimation / recording points for theater 3D glasses using electrooculography sensing technology>
* The main detection target is blinks.

ユーザの顔面に対して、最低限、上下方向(例えば左右ノーズパッドの片側の上下)に1組のEOG電極(使用するADCは最小限1個)を装着する。   A pair of EOG electrodes (a minimum of one ADC to be used) is attached to the user's face at least in the vertical direction (for example, up and down on one side of the left and right nose pads).

ユーザの顔面に装着した1組以上のEOG電極からの検出結果に基づいて、ユーザのストレス、集中度、眠気、睡眠状態(レム睡眠/ノンレム睡眠)などが推定可能となる。   Based on the detection results from one or more sets of EOG electrodes attached to the user's face, the user's stress, concentration, sleepiness, sleep state (REM sleep / non-REM sleep), etc. can be estimated.

*これに以下を追加して、スクリーン映像や4Dシアターのギミックに対する観客のリアクションを収集できるようになる。すなわち
ユーザ(個々の観客)の顔面に対して左右方向に、最小1組(精度を上げるには2組)のEOG電極(使用するADCは合計2個以上)を追加して装着する。(例えば、左右ノーズパッドの一方側の上下と他方側の上または下、あるいは左右ノーズパッド各々の上下に、合計3個または4個のEOG電極を設ける。)
以上の追加構成により、左右方向を含めた眼球の回転方向(任意方向の視線移動または眼球回転)を推定できるようになる。
* Add the following to collect screen reactions and audience reactions to 4D theater gimmicks. In other words, a minimum of one set (two sets to increase accuracy) of EOG electrodes (two or more ADCs in total) are additionally mounted in the horizontal direction on the face of the user (individual audience). (For example, a total of three or four EOG electrodes are provided above and below one side of the left and right nose pads and above or below the other side, or above and below each of the left and right nose pads.)
With the above additional configuration, it is possible to estimate the rotation direction of the eyeball including the left-right direction (gaze movement or eyeball rotation in an arbitrary direction).

図5は、第1の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。3Dビデオ再生は一般家庭では普及には至らなかったが、映画館における3D上映は継続的に行われている。図5は、3Dメガネを用いた3D映画(あるいは3Dメガネを用いた3D映画に振動など視聴覚以外の五感に対する効果を追加した4D映画)における観客の集中度・疲労度・ストレスなどを集計し記録する処理の一例を示している。さらに、図5は、或る期間に渡り上映された作品(3D/4D作品に限らず2D作品も含まれ得る)への不特定多数観客データを集計して、多数の観客の一般評価を判定し次回の作品プロデュースにフィードバックする処理も例示している。   FIG. 5 is a flowchart for explaining an example of the psychosomatic state estimation method according to the first embodiment. Although 3D video playback has not been widespread in ordinary households, 3D screening in movie theaters is ongoing. Figure 5 summarizes and records the concentration, fatigue, and stress of the audience in a 3D movie using 3D glasses (or a 4D movie that adds effects on the five senses other than audiovisual such as vibration to a 3D movie using 3D glasses). An example of processing to be performed is shown. Further, FIG. 5 shows the general evaluation of a large number of spectators by aggregating unspecified majority spectator data on works screened over a certain period (not only 3D / 4D works but also 2D works). It also illustrates the process of feeding back to the next production.

いま、図3に示すようなローカルサーバ1000を図示しない映写室(あるいは事務室)に備えた3D/4D対応映画館が存在し、この映画館で或る3D(または4D)作品が上映される場合を想定してみる。その3D作品の上映が始まる前に、映画館の係員は、図1のようなアイウエア形態を持つ3Dメガネ100を入場者(観客)に配布する(ST10)。   Currently, there is a 3D / 4D movie theater equipped with a local server 1000 as shown in FIG. 3 in a projection room (or office room) (not shown), and a 3D (or 4D) movie is shown in this movie theater. Let's assume the case. Before the screening of the 3D work begins, a staff member of the cinema distributes 3D glasses 100 having an eyewear form as shown in FIG. 1 to the visitors (audience) (ST10).

配布する3Dメガネ100は男性用と女性用で色分けされ、大人用と子供用でサイズが分けられている。つまり、この3Dメガネ100には大人の男女用に2種類と、子供の男女用に2種類の、合計4種類がある、この4種類は、例えば図3のデバイスID11gの先頭ビットにより区分けできる(2ビットで4種類、4ビットなら16種類の区分けが可能)。また、3Dメガネ100個々の識別(配布人数分の識別)は、デバイスID11gの後続ビットにより区分けできる(12ビットで4096人分、14ビットで16384人分の区分けが可能)。デバイスID11gのビット数は、配布するメガネ100の区分け分類数と、配布するメガネ100の最大個数に応じて、適宜決定すればよい。   The 3D glasses 100 to be distributed are color-coded for men and women, and sizes are divided for adults and children. In other words, there are a total of four types of 3D glasses 100, two types for adult men and women and two types for children men and women. These four types can be classified by, for example, the first bit of the device ID 11g in FIG. 4 types with 2 bits and 16 types with 4 bits are possible). In addition, the individual identification of the 3D glasses 100 (identification for the number of people to be distributed) can be classified by the subsequent bits of the device ID 11g (12 bits for 4096 people and 14 bits for 16384 people). The number of bits of the device ID 11g may be appropriately determined according to the number of classification categories of the glasses 100 to be distributed and the maximum number of glasses 100 to be distributed.

なお、図1に示すようなメガネ100では、画像IM1および/またはIM2において字幕をオン/オフ可能にAR表示できる。その際、デバイスIDが大人用を示しておればデフォルト表示される字幕を小さ目の「かな漢字交じり日本語または原語(英語など)」とすることができ、デバイスIDが子供用を示しておればデフォルト表示される字幕を大き目の「ひらがなまたはカタカナのみの日本語」とすることができる。   Note that the glasses 100 as shown in FIG. 1 can perform AR display so that captions can be turned on / off in the images IM1 and / or IM2. At that time, if the device ID indicates for adults, the default displayed subtitle can be a small “Kana-Kanji mixed Japanese or original language (English)”, and if the device ID indicates for children, the default is displayed. The displayed subtitle can be the larger “Japanese only in Hiragana or Katakana”.

メガネ100を装着した観客が映画館の座席に着席したあと、上映開始時間になると、館内の照明が落とされ、上映が開始される。その上映開始と同時に、図3のローカルサーバ1000から各メガネ100へ上映開始の合図が送られる。この合図を通信処理部11dで受けると、各メガネ100のタイマ(またはフレームカウンタ)11fが自動的に(つまりメガネユーザが何もしなくても)スタートする。すると、メガネユーザ(個々の観客)の眼動(瞬目など)に対応したイベントが眼動検出部15で検出される毎に、あるいはメガネユーザの声や体動(笑い声やびっくりしたときの反射的な動き)に対応したイベントがマイク16やセンサ部15で検出される毎に、そのイベントを示す情報ビットにタイムスタンプ(またはフレームカウント値)の情報ビットを付加した検出データが、各メガネユーザのEOGデータとして、メモリ11bに連続記録される(ST12)。なお、メモリ11bの記憶容量が十分に大きいときは、AD変換したEOGの生データを各メガネユーザのEOGデータとしてメモリ11bに記録してもよい。   After the audience wearing the glasses 100 sits in the seats of the movie theater, when the screening start time comes, the lighting in the hall is turned off and the screening starts. Simultaneously with the start of the screening, a signal to start the screening is sent from the local server 1000 of FIG. When this signal is received by the communication processing unit 11d, the timer (or frame counter) 11f of each glasses 100 starts automatically (that is, even if the glasses user does nothing). Then, every time an event corresponding to eye movements (such as blinking) of the eyeglass user (individual audience) is detected by the eye movement detection unit 15, or the voice or body movement of the eyeglass user (laughing voice or reflection when surprised) Each time an event corresponding to the movement) is detected by the microphone 16 or the sensor unit 15, detection data obtained by adding an information bit of a time stamp (or a frame count value) to an information bit indicating the event is detected by each eyeglass user. Are continuously recorded in the memory 11b (ST12). Note that when the storage capacity of the memory 11b is sufficiently large, the EOG-converted EOG raw data may be recorded in the memory 11b as EOG data of each glasses user.

上記検出データは、デバイスID11gの情報ビットに、検出されたイベントの種類(眼動の種類、声の種類、体動の種類など)を示す情報ビットと、タイムスタンプ(またはフレームカウント値)の情報ビットを付加したものとすることもできる。用途にもよるが、検出データのビット数としては、80〜160ビット(10〜20バイト)くらいあれば十分実用に耐えると考えられる。   The detection data includes information bits indicating the type of detected event (type of eye movement, type of voice, type of body movement, etc.) and information on a time stamp (or frame count value) in the information bits of the device ID 11g. A bit can be added. Although it depends on the application, the number of bits of detection data is considered to be sufficiently practical if it is about 80 to 160 bits (10 to 20 bytes).

上記イベントの発生原因となる映像の表示形式は、3Dに限られず、2Dであっても、4Dであってもよい(4Dは、映像部分だけで言えば3Dと同等)。また、イベント発生の原因となり得る音声/音響効果(4Dでは振動その他の体感効果も加わる)は、モノラルでも、前方2〜3チャネルステレオでも、4チャネル以上の前後サラウンドステレオでもよい。これらの音声/音響効果は、映画のシーンによって適宜切り替えられても良い。どのような音声/音響効果があったのかは、タイマ(またはフレームカウンタ)11fから得られるタイムスタンプ(またはフレームカウント値)から特定できる。   The display format of the video that causes the occurrence of the event is not limited to 3D, and may be 2D or 4D (4D is equivalent to 3D in terms of only the video portion). In addition, the sound / sound effect that can cause an event (in 4D, vibration and other bodily effects are also added) may be monaural, front 2-3 channel stereo, or front / rear surround stereo of 4 channels or more. These sound / sound effects may be appropriately switched depending on the movie scene. The sound / sound effect can be specified from the time stamp (or frame count value) obtained from the timer (or frame counter) 11f.

フレームカウント値は1枚1枚の映像フレームを示しており、例えば動画の連続フレーム中に1ないし数枚のサブリミナル画像を挿入した場合に、そのサブリミナル画像フレームをフレームカウント値で特定することができる。また、フレームレートが例えば毎秒60フレームであれば、フレームカウント値を60で割ることによりそのフレームカウント値に対応するタイムスタンプを算出できる。従い、フレームカウンタはタイマと同様な機能を持つことができる。   The frame count value indicates one video frame. For example, when one or several subliminal images are inserted in a continuous frame of a moving image, the subliminal image frame can be specified by the frame count value. . For example, if the frame rate is 60 frames per second, the time stamp corresponding to the frame count value can be calculated by dividing the frame count value by 60. Therefore, the frame counter can have the same function as the timer.

メモリ11bに記録されたデータは、自身のデバイスID11gを含めて、所定のタイミングで(例えば5〜10分毎に)、Bluetoothなどを利用して通信処理部11dからローカルサーバ1000へ自動転送することができる(ST14)。ローカルサーバ1000は、(小分けにして)転送されてきたデータを、送り元のデバイスID11gを含めて、デジタルレコーダ1002に連続記録し、および/またはローカルデータベース1002に累積記録する。種々なメガネユーザのデータがレコーダ/ローカルデータベース1002の記録エリア上で不連続に分断記録されていても、デバイスID11gを選別キーとすることにより、個々のメガネユーザのデータを選別し纏めて取り出すことができる。   Data recorded in the memory 11b is automatically transferred from the communication processing unit 11d to the local server 1000 using Bluetooth or the like at a predetermined timing (for example, every 5 to 10 minutes) including its own device ID 11g. (ST14). The local server 1000 continuously records the transferred data including the device ID 11g of the transmission source in the digital recorder 1002 and / or cumulatively records it in the local database 1002. Even if various glasses user data are recorded in the recording area of the recorder / local database 1002 in a discontinuous manner, the data of individual glasses users can be selected and collected by using the device ID 11g as a selection key. Can do.

メモリ11bへのデータ記録(ST12)と記録データのローカルサーバ1000への小分け転送(ST14)は、上映作品が終了する前まで反復される(ST16ノー)。   The data recording to the memory 11b (ST12) and the divided transfer of the recorded data to the local server 1000 (ST14) are repeated until the screening work ends (NO in ST16).

上映作品が終了しエンドテロップが始まると(ST16イエス)、メモリ11b内の未転送分のデータがローカルサーバ1000へ転送される。これにより、観客に配布した全てのメガネ(全てのユーザメガネ)のデータがローカルサーバ1000で収集され、レコーダ/ローカルデータベース1002への記録が完了する(ST18)。なお、全てのメガネユーザのデータを収集するとデータ量が多くなりすぎるときは、デバイスIDをランダムに一定数決め、決めたデバイスIDのユーザデータだけを収集するようにしてもよい(あるいは、例えば奇数または偶数相当のデバイスIDのユーザデータだけを収集することで、データ量を半減できる)。   When the screening work ends and the end telop starts (YES in ST16), the untransferred data in the memory 11b is transferred to the local server 1000. As a result, the data of all glasses (all user glasses) distributed to the audience are collected by the local server 1000, and the recording to the recorder / local database 1002 is completed (ST18). If the data amount becomes too large when data of all glasses users is collected, a fixed number of device IDs may be randomly determined, and only user data of the determined device ID may be collected (or, for example, an odd number) Alternatively, the amount of data can be halved by collecting only user data with even device IDs.

必要なユーザデータの収集が終わりその記録が完了したら、係員が配布した3Dメガネ100を退場するユーザ(観客)から回収する(ST20)。(または使用済みの3Dメガネを回収箱に入れてもらう。)回収されたメガネ100の通信機能は即座にオフされる。すると、未回収のメガネ100とローカルサーバ1000との間の通信回路は生きているので、メガネ100が持ち出されようとすると、劇場の出口にいる係員がビーコンセンサ11eなどによりそのメガネ100の持ち主を特定し、メガネ100の紛失を防止できる。   When the necessary user data is collected and the recording is completed, the 3D glasses 100 distributed by the staff are collected from the user (audience) who leaves (ST20). (Or have the used 3D glasses be put in the collection box.) The communication function of the collected glasses 100 is immediately turned off. Then, since the communication circuit between the uncollected glasses 100 and the local server 1000 is alive, when the glasses 100 are taken out, a staff member at the exit of the theater determines the owner of the glasses 100 by the beacon sensor 11e or the like. It is possible to identify and prevent the glasses 100 from being lost.

観客を入れ替えて再上映するときは(ST22イエス)、ST10〜ST20の処理を反復し、新たな観客からのデータを収集する。   When the audience is switched and re-screened (YES in ST22), the processes of ST10 to ST20 are repeated to collect data from a new audience.

その日の上映が全て終了したら(ST22ノー)、収集したデータの集計と記録の整理を行う(ST24)。例えば、収集したデータに基づいて、1以上のユーザ(観客)の特徴的なEOG波形変化(例えば瞬目に対応するイベント相当)と、その変化があったときのタイムスタンプ(またはフレーム番号)が示す上映内容(シーン、効果音、振動などの4Dエフェクトなど)と、ユーザの特徴(性別/年齢層など)等との対応関係を、スプレッドシート形式に纏めて集計する。すると、例えば大人の女性はあるシーンと効果音で驚き悲鳴を上げる頻度が多いが、男性ではその頻度は少ないなど、上映作品のシーンや効果音毎の観客の反応(心身状態)の程度を推定できるようになる。   When all the screenings on that day are completed (NO in ST22), the collected data is totaled and the records are organized (ST24). For example, based on the collected data, a characteristic EOG waveform change (for example, corresponding to an event corresponding to blinking) of one or more users (audience) and a time stamp (or frame number) when the change occurred Correspondences between the contents to be shown (4D effects such as scenes, sound effects, vibrations, etc.) and user characteristics (such as gender / age group) are summarized in a spreadsheet format. Then, for example, adult women often scream surprisedly with certain scenes and sound effects, but men rarely scream. For example, the degree of audience reaction (mind and body state) for each scene and sound effect is estimated. become able to.

1以上の映画館で一定期間(例えば1ヶ月)の間にローカルサーバ1000で集計したデータは、インターネットなどの通信回線を介して、メインサーバ10000へ継続的に送ることができる(ST26)。   Data collected by the local server 1000 during a certain period (for example, one month) in one or more movie theaters can be continuously sent to the main server 10000 via a communication line such as the Internet (ST26).

例えば、検出データを10バイトで構成しそのうちの2バイトをデバイスID用に用いるとすると、検出イベントの種類に2バイトを割り当て、タイムスタンプ(またはフレームカウント値)等に6バイトを割り当てることができる。1回の映画上映で1人当たり平均1000イベントの検出がなされたとすると、1回の映画上映で1000人の観客から10Mバイトの情報が集まる。1ヶ月間に100回の上映があったとすると検出データ量は1つの映画館当たり月間間で1Gバイトとなる。100箇所の映画館から同様なデータが図3のメインサーバ10000に集まると、トータルで100Gバイトのデータとなり、年単位では1Tバイト以上のビッグデータとなる。   For example, if the detection data is composed of 10 bytes and 2 bytes are used for the device ID, 2 bytes can be assigned to the type of detection event, and 6 bytes can be assigned to the time stamp (or frame count value) or the like. . Assuming that an average of 1000 events per person is detected in one movie screening, 10 Mbytes of information is collected from 1,000 audiences in one movie screening. If there are 100 screenings in a month, the amount of detected data is 1 Gbyte per month per movie theater. When similar data from 100 movie theaters is collected in the main server 10000 in FIG. 3, it becomes a total of 100 Gbytes of data, and big data of 1 Tbyte or more per year.

このビックデータは、データ収集当事の社会情勢も考慮して、次回映画作品のジャンル選択のヒントを与えてくれる。例えば、自爆テロが頻発する社会情勢において、ある3D映画中のテロリストとの戦闘シーンに対して観客の集中度が高いことがEOGデータの集合から推測できたなら、テロに立ち向かうヒーローの3D映画を次に製作しよう、という映画製作会社の企画が可能になる。   This big data gives hints for selecting the genre of the next movie work, considering the social situation of the data collection. For example, in a social situation where suicide bombings occur frequently, if it can be inferred from a set of EOG data that the audience is highly concentrated in the battle scene with terrorists in a 3D movie, a 3D movie of a hero that confronts terrorism Next, it will be possible for a film production company to make a production.

<第1の実施形態(図5)の纏め>
映画館の3D上映用の3Dメガネ(シャッター方式、偏光方式のどちらでもよい)に、眼電位センシングを応用した集中度・疲労・ストレス推定を組み合わせる。これにより、現在上映中の映画に対する観客の反応(シーン毎の集中度・疲労度・ストレス)を集計する事が可能となり、上映時間に合わせた本編の再編集や、更には、今後の新作映画の製作へ、顧客の声(Voice of the Customer:VOC)としてフィードバックできる。
<Summary of First Embodiment (FIG. 5)>
Combined with 3D glasses for movie theater 3D screening (either shutter method or polarization method), concentration, fatigue, and stress estimation using electroocular sensing. This makes it possible to aggregate the audience's reactions (concentration / fatigue / stress for each scene) to the movie that is currently showing, re-editing the main part according to the screening time, and future new movies Can be fed back as a voice of the customer (VOC).

上映中の作品に対する観客反応の検出・推定・(時間軸に沿った)記録を個々のメガネ単体で行うことにより、映画館に居る全員分の反応結果を集める事が可能になる。   By detecting, estimating, and recording (along the time axis) the audience response to the movie being screened, it is possible to collect the response results of all the people in the movie theater.

図6は、第2の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、ARアイウエア(ARメガネ)100に眼電位センシング機能を設けて瞬目(瞬き)等の検出を行えるようにし、ARメガネ越しに(またはARメガネ上で)試験用映像(トレーニングビデオ)を表示しながら、「瞬目」等を基にした集中度・疲労・ストレス推定を行う。   FIG. 6 is a flowchart for explaining an example of the psychosomatic state estimation method according to the second embodiment. Here, the AR eyewear (AR glasses) 100 is provided with an electrooculogram sensing function so that blinks (blinks) can be detected, and a test video (training video) through the AR glasses (or on the AR glasses). The concentration, fatigue, and stress are estimated based on “blinks” and the like.

まず、被験者(アイウエアのユーザ)が、EOG電極付きのARアイウエア(メガネ型またはゴーグル型)100を装着する(ST30)。試験用映像(ドライバの適性試験ならドライブシミュレータの映像など)の上映開始と同時に、タイマ(またはフレームカウンタ)11fをスタートさせて、被験者(長距離バスのドライバや高齢の自動車ドライバなど)のEOGデータ(例えば図4のEOG波形に対応したイベントの情報)の連続記録を、メモリ11bを用いて開始する(ST32)。試験用映像は、コンピュータグラフィックス(CG)でも実写映像でもアニメーションでもよい。映像の表示方法は、2D、3D、4Dのいずれでも良い。音声(4Dでは振動なども加わる)は、ステレオでもモノラルでもサラウンドでもよい。映像の表示方法や音声等の提示方法は、試験内容に応じて、適宜切替可能である。   First, a subject (a user of eyewear) wears an AR eyewear (glasses type or goggles type) 100 with an EOG electrode (ST30). At the same time as the screening of the test video (driver simulator video for driver aptitude test, etc.), the timer (or frame counter) 11f is started, and EOG data of the subject (long-distance bus driver, elderly car driver, etc.) Continuous recording (for example, event information corresponding to the EOG waveform in FIG. 4) is started using the memory 11b (ST32). The test video may be computer graphics (CG), a live-action video, or an animation. The video display method may be any of 2D, 3D, and 4D. The sound (including vibrations in 4D) may be stereo, monaural, or surround. The video display method and audio presentation method can be switched as appropriate according to the test contents.

試験映像には、所定のチェック箇所において、被験者の集中度、疲労度、ストレスなどを推定するためのEOG信号波形パターンに関連する映像内容(種々なストレス映像)が組み込まれている。例えば、車線が急に曲がりくねったり、突然、横側からボールや動物が飛び出てきたり、単調で眠くなるような景色が続くような映像が組み込まれている。このような所定のチェック箇所において被験者が付けたアイウエア100から得られたEOGデータ(瞬目発生などのイベントに対応したデータ)は、タイムスタンプまたはフレーム番号とともに、メモリ11bに一時的に記録される。このメモリ11bに記録されたデータの内容は、所定のタイミング(例えば試験映像内のシーンの区切れ)でローカルサーバ1000に転送され、レコーダ/ローカルデータベース1002で記録される(ST34)。   The test video incorporates video content (various stress video) related to the EOG signal waveform pattern for estimating the concentration level, fatigue level, stress, etc. of the subject at predetermined check points. For example, a video that incorporates a landscape in which the lane suddenly turns, a ball or an animal suddenly pops out from the side, or a monotonous sleepy landscape continues. EOG data (data corresponding to an event such as blinking) obtained from the eyewear 100 attached by the subject at such a predetermined check location is temporarily recorded in the memory 11b together with a time stamp or a frame number. The The content of the data recorded in the memory 11b is transferred to the local server 1000 at a predetermined timing (for example, a scene break in the test video) and recorded in the recorder / local database 1002 (ST34).

種々なストレス映像を含む試験映像を用いた被験者のデータ記録が済むと(ST36イエス)、レコーダ/ローカルデータベース1002で記録されたデータの評価が行われる(ST38)。ST38の評価では、今回の試験で得られたEOGデータがうまく取れているかどうかがチェックされる。(普通は瞬目反応がある映像箇所で瞬目が認められないなど疑義があれば再チェックし(ST40イエス)、そうでなければ次の処理に進む。)
今回の試験で被験者のEOGデータがうまくとれているようであれば(ST40ノー)、被験者の特徴的なEOG波形変化(瞬目、目瞑りなどに対応)と、その変化があったときのタイムスタンプ(またはフレーム番号)が示す試験映像の内容(シーン、効果音、振動や気温等の4Dエフェクト、その他)と、被験者(メガネユーザ)の特徴(性別/年齢/過去の経歴など)との対応関係を、その被験者について、ローカルサーバ1000において集計し、集計結果をレコーダ/ローカルデータベース1002に記録する(ST42)。
When the subject's data is recorded using test images including various stress images (YES in ST36), the data recorded in the recorder / local database 1002 is evaluated (ST38). In the evaluation of ST38, it is checked whether or not the EOG data obtained in this test is successfully taken. (Normally, if there is a suspicion such as no blink being recognized in a video part where there is a blink reaction, it is rechecked (ST40 YES), otherwise, the process proceeds to the next process.)
If the subject's EOG data seems to be well in this test (NO in ST40), the subject's characteristic EOG waveform change (corresponding to blinking, eye meditation, etc.) and the time when the change occurred Correspondence between test video contents (scene, sound effect, 4D effects such as vibration and temperature, etc.) indicated by the stamp (or frame number) and characteristics (gender / age / past history, etc.) of the subject (glasses user) The relation is totalized in the local server 1000 for the subject, and the total result is recorded in the recorder / local database 1002 (ST42).

レコーダ/ローカルデータベース1002には、同じ被験者(長距離バスのドライバや高齢の自動車ドライバなど)が健常であったときの、同じ試験映像に対する過去の比較用EOGデータ、あるいは同じ業種で健常な平均的人物の、同じ試験映像に対する比較用EOGデータが、既に記録されている。今回の試験で得られた被験者のEOGデータは、既に記録されている比較用EOGデータと比較される。比較される両データの箇所は、同じタイムスタンプ(または同じフレームカウント値)の箇所である。比較の結果、今回の試験データから、単調な走行映像で居眠り(図4のPfなど)が認められたり、不意の飛び出し映像箇所で瞬目反応(図4のPc、Psなど)の発生がない箇所が散見されたときは、その発生状況に応じて、被験者(長距離バスのドライバや高齢の自動車ドライバなど)がこれからの業務(長時間に渡るバス運転など)を正常に行えるかどうか判定する(ST44)。   The recorder / local database 1002 stores past EOG data for the same test video when the same subject (long-distance bus driver, elderly car driver, etc.) is healthy, or a healthy average in the same industry. Comparative EOG data for the same test video of a person has already been recorded. The subject's EOG data obtained in this test is compared with the previously recorded comparative EOG data. The locations of both data to be compared are locations of the same time stamp (or the same frame count value). As a result of comparison, from the test data of this time, doze (such as Pf in FIG. 4) is observed in a monotonous running image, or there is no occurrence of blink reaction (Pc, Ps, etc. in FIG. 4) in an unexpected pop-up image location. When a spot is scattered, it is determined whether the subject (long-distance bus driver, elderly car driver, etc.) can normally perform future tasks (such as long-duration bus driving) according to the situation. (ST44).

一定期間(たとえば1年)以上かけてローカルサーバ1000で集計したデータは、インターネットなどを介して、継続的にメインサーバ10000へ送られる。あちこちのローカルサーバ1000から継続的に送られてくる集計データは、メインサーバのデータベースに蓄積され、ビッグデータとなる(ST46)。このビッグデータを分析すれば、ST32の試験映像によりどのようなEOGデータが得られるのが健常者にとって普通なのかを推定できる。このような推定による知見は、疲労気味の労働者や高齢者の就業適性を判定することに役立つ。   Data collected by the local server 1000 over a certain period (for example, one year) is continuously sent to the main server 10000 via the Internet or the like. Aggregated data continuously sent from the local server 1000 is accumulated in the database of the main server and becomes big data (ST46). By analyzing this big data, it is possible to estimate what kind of EOG data is normally obtained from the test video of ST32 for a healthy person. Knowledge based on such estimation is useful for determining the work aptitude of fatigued workers and elderly people.

適切な内容の試験映像を作成することにより、図6の試験は、自動車運転以外の業種の作業(インフラの保守作業や倉庫のピッキング作業など)における集中度・疲労度・ストレスなどの推定にも利用可能である。例えば、作業時/トレーニング時において、集中度低下・ストレス増大・神経異常をきたした事などを、リアルタイムに推定できる。「瞬目」の回数が多くなる現象は、不安・緊張・心の葛藤・ストレスなど心因性なものと、神経に異常をきたしているケースが考えられる。作業においてはどの状態も好ましいものではない。「瞬目」の検出/記録を行うことにより、作業者の負担を軽減するための環境作りや作業手順の改善等について、検討・対策を講じる事ができる。   By creating test videos with appropriate content, the test in Fig. 6 can also be used to estimate concentration, fatigue, stress, etc. in work in industries other than automobile driving (such as infrastructure maintenance work and warehouse picking work). Is available. For example, during work / training, it is possible to estimate in real time that a concentration reduction, stress increase, or nerve abnormality has occurred. Phenomena in which the number of “blinks” increases may be psychogenic, such as anxiety, tension, mental conflict, and stress, and cases of abnormal nerves. In the work, any state is not preferable. By detecting / recording “blinks”, it is possible to examine and take measures to create an environment and improve work procedures to reduce the burden on workers.

また、トレーニング時の瞬目(瞬き)発生パターンより、理解度をリアルタイムに推定できる。説明を聞いている際、意味の切れ目に瞬きをしていれば良く理解されており、区切りではない箇所で瞬きをしていれば説明の聴講に集中できていないと推定できる。   In addition, the understanding level can be estimated in real time from the blink (blink) occurrence pattern during training. When listening to explanations, it is well understood if there is blinking at the breaks of meaning, and if blinking at a place that is not a break, it can be assumed that the user cannot concentrate on listening to the explanation.

「瞬目」の検出/記録を行うことにより、トレーニング効果の評価および、トレーニング内容の改善も可能となる。   By detecting / recording “blinks”, it is possible to evaluate the training effect and improve the training content.

作業時の「瞬目」および「目瞑り」の発生パターンより、居眠りをリアルタイムに推定できる。   The dozing can be estimated in real time from the occurrence pattern of “blinks” and “eye meditation” during work.

視線を真上に向けた場合と、意図的に一定時間以上目を閉じた場合とでは、垂直方向の眼電位の絶対値に明らかな差が見られる(視線を真上に向けた場合 << 一定時間、例えば0.5秒以上の閉眼)。   There is a clear difference in the absolute value of the electrooculogram in the vertical direction when the line of sight is directed straight up and when the eye is intentionally closed for a certain period of time (when the line of sight is directed straight up << A certain period of time, for example, 0.5 seconds or more of closed eyes).

日常的に一定時間(数秒)以上目を閉じ続ける事は無いため、「瞬目」および「目瞑り」を検出する事により、このような動作が作業中(例えば自動車の運転中)に発生した場合には、その発生を記録するだけでなく、作業者へアラートを出す事ができる。   Since the eyes are not kept closed for more than a certain period of time (several seconds) on a daily basis, such movements occurred during work (for example, while driving a car) by detecting “blinks” and “eye meditation” In some cases, not only can the occurrence be recorded, but an alert can be issued to the worker.

また、ARアイウエア100に加速度センサ/ジャイロセンサ(図3の11e)を設けることにより、ARアイウエア100を装着したユーザの身体動作(居眠りに伴う頭部のこっくり等)の検出精度を(眼動検出部15だけしか使わない場合と比べて)向上できる。   In addition, by providing the AR eyewear 100 with an acceleration sensor / gyro sensor (11e in FIG. 3), the detection accuracy of the body movement (such as a head sag caused by a nap) of the user wearing the AR eyewear 100 is improved (eye Compared to the case where only the motion detection unit 15 is used, this can be improved.

図7は、第3の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、緑内障視野検査時の被験者の集中度(視線がキョロキョロ動いてていないか)・疲労度・ストレスなどを集計し記録する。まず、図示しない視野検査装置のアイフレームのEOG電極に被験者の眼周辺の顔面皮膚を接触させる(ST50)。   FIG. 7 is a flowchart for explaining an example of the psychosomatic state estimation method according to the third embodiment. Here, the degree of concentration (whether the line of sight is not moving), fatigue level, stress, etc. at the time of glaucoma visual field examination are totalized and recorded. First, the facial skin around the eye of the subject is brought into contact with the EOG electrode of the eye frame of the visual field inspection apparatus (not shown) (ST50).

次に、タイムスタンプを提供するタイマ11fをスタートさせ、被験者の右眼(または左眼)の眼前で視野検査用の輝点(図示せず)を、所定のプログラム手順で発生させる。被験者は、輝点が見えたら、検査ボタン(図示せず)を押して、輝点が見えたことを装置に通知する。この検査ボタンを押したというイベントは、ボタンが押されたときのタイムスタンプと、そのときのEOGデータ(図4)ともに、検出データとしてメモリ11bに記録される(ST52)。   Next, a timer 11f that provides a time stamp is started, and a bright spot (not shown) for visual field inspection is generated in accordance with a predetermined program procedure in front of the right eye (or left eye) of the subject. When the subject sees the bright spot, he presses an inspection button (not shown) to notify the apparatus that the bright spot has been seen. The event that the check button is pressed is recorded in the memory 11b as detection data together with the time stamp when the button is pressed and the EOG data (FIG. 4) at that time (ST52).

輝点発生のプログラムが終了したら(ST54イエス)、メモリ11bに記録された検出データの信頼性が評価される(ST56)。この評価では、ボタンが押されたときのEOGデータが「きょろつき」に対応する波形(Pr、Ptなど)あるいは「目瞑り」に対応する波形(Pfなど)のときは、誤操作でボタンが押されたものと推定する。検査技師あるいは眼科医師が「ボタンの誤操作が多すぎる」と判断したら、再検査となる(ST58イエス)。   When the bright spot generation program is completed (YES in ST54), the reliability of the detection data recorded in the memory 11b is evaluated (ST56). In this evaluation, if the EOG data when the button is pressed is a waveform corresponding to “Koromotsu” (Pr, Pt, etc.) or a waveform corresponding to “eye meditation” (Pf, etc.) It is estimated that is pressed. If the inspection engineer or ophthalmologist determines that “there are too many button misoperations”, the test is re-examined (YES in ST58).

検査技師あるいは眼科医師が「ボタンの誤操作発生頻度は診断に問題がない程度に少ない」と判断したら、メモリ11b内の検査結果をローカルサーバ(パーソナルコンピュータ)1000に転送する。転送された検査結果は、その被験者の過去の検査結果や医師の診断見解を含め、被験者のカルテの一部として、レコーダ/ローカルデータベース1002に記録される(ST60)。   If the examination engineer or ophthalmologist determines that “the frequency of erroneous button operation is low enough to cause no problem in diagnosis”, the examination result in the memory 11b is transferred to the local server (personal computer) 1000. The transferred examination result is recorded in the recorder / local database 1002 as a part of the subject's medical record including the past examination result of the subject and the diagnosis view of the doctor (ST60).

なお、ST50〜ST60の処理は、被験者の片目(右眼または左眼)だけに対する場合と、被験者の両目に対する場合がある。   In addition, the process of ST50-ST60 has the case with respect to a test subject's one eye (right eye or left eye), and the case with respect to a test subject's both eyes.

図8は、第4の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、被験者のレム睡眠とノンレム睡眠を眼動のEOGから検出し、レムからノンレムに移行する際に、被験者がどのような映像を見ていたのか、および/またはどのような音声・音楽を聴いていたのか等の情報を収集し記録する。また、被験者のレム睡眠とノンレム睡眠を眼動のEOGから検出し、レムからノンレムに移行するタイミングで被験者を強制的に覚醒させて、覚醒前に見ていた夢の情報を収集し記録する。   FIG. 8 is a flowchart for explaining an example of the psychosomatic state estimation method according to the fourth embodiment. Here, the subject's REM sleep and non-REM sleep are detected from EOG of eye movements, and what kind of video the subject was watching when moving from REM to non-REM and / or what kind of voice / music Collect and record information such as whether you were listening. In addition, the REM sleep and non-REM sleep of the subject are detected from EOG of eye movement, and the subject is forcibly awakened at the timing of transition from the REM to the non-REM, and the information of the dream that was seen before awakening is collected and recorded.

まず、被験者(アイウエアのユーザ)が、EOG電極付きのARアイウエア(メガネ型、ゴーグル型またはアイマスク型)100を装着する(ST70)。アイウエア100がメガネ型またはゴーグル型の場合は、AR表示スクリーン越しに、図示しない外部モニタに映し出されたビデオ映像を見ることができる。アイウエア100がアイマスク型の場合は、アイマスクの内側に有機ELなどを用いた板状の画像表示部(図示せず)を設け、その画像表示部でビデオ表示するように構成できる。   First, the subject (eye wear user) wears the AR eyewear (glasses type, goggles type or eye mask type) 100 with an EOG electrode (ST70). When the eyewear 100 is a glasses-type or goggles-type, a video image projected on an external monitor (not shown) can be seen through the AR display screen. When the eyewear 100 is an eye mask type, a plate-like image display unit (not shown) using organic EL or the like is provided inside the eye mask, and the image display unit can be configured to display video.

アイウエア100を装着する被験者は、睡眠を誘発しやすい環境におかれる。睡眠を誘発しやすい環境の一例として、適温(25℃位)適湿(50〜60%位)の薄暗い室内で、リクライニングシートに柔らかいシーツを被せた環境が考えられる。あるいは、寒い室内でコタツに入り横になっている環境でもよい。   The subject wearing the eyewear 100 is placed in an environment where sleep is likely to be induced. As an example of an environment that easily induces sleep, an environment in which a reclining seat is covered with a soft sheet in a dimly lit room at an appropriate temperature (about 25 ° C.) and an appropriate humidity (about 50 to 60%) can be considered. Alternatively, it may be an environment where a person is lying in a cold room.

このような睡眠を誘発しやすい環境において、睡眠誘導用ビデオの再生を開始する。このビデオ再生開始と同時に、タイマ(またはフレームカウンタ)11fをスタートさせて、被験者のEOGデータの連続記録を、メモリ11bを用いて開始する(ST72)。睡眠誘導用ビデオの映像は、コンピュータグラフィックス(CG)でも実写映像でもアニメーションでもよい。このビデオは、睡眠誘導だけを目的とするものに限らず、睡眠学習を意図した内容を含んでいてもよい。   In such an environment where sleep is likely to be induced, playback of the sleep induction video is started. Simultaneously with the start of the video reproduction, the timer (or frame counter) 11f is started, and continuous recording of the subject's EOG data is started using the memory 11b (ST72). The video of the sleep guiding video may be computer graphics (CG), a live-action video, or an animation. This video is not limited to the purpose only for sleep induction, and may include content intended for sleep learning.

映像の表示方法は、2D、3D、4Dのいずれでも良い。音声(4Dでは振動なども加わる)は、ステレオでもモノラルでもサラウンドでもよい。映像の表示方法や音声等の提示方法は、再生内容に応じて、適宜切替可能である。睡眠誘導ビデオの内容は、過去の実験で多数の人に対して睡眠誘導効果が認められた映像・音・ストーリーの作品から選択する(4D作品では振動や匂いなども適宜加わる)。被験者が眠りに付いたあと(目瞑りが継続される)は映像は見なくなるので、音(音楽など)や4D効果(振動など)が大きな意味を持つようになる。被験者が眠りについた後の音や4D効果の中身は、タイムスタンプ(またはフレーム番号)により特定できる。   The video display method may be any of 2D, 3D, and 4D. The sound (including vibrations in 4D) may be stereo, monaural, or surround. The video display method and the audio presentation method can be switched as appropriate according to the playback content. The content of the sleep-inducing video is selected from works of images, sounds, and stories that have been confirmed to have a sleep-inducing effect for many people in past experiments (in 4D works, vibration, smell, etc. are added as appropriate). After the subject has fallen asleep (the eye meditation continues), the video will not be seen, so sound (music, etc.) and 4D effects (vibration, etc.) will have a significant meaning. The sound after the subject falls asleep and the contents of the 4D effect can be specified by the time stamp (or frame number).

なお、記録するEOGデータには、被験者の生理データ(呼吸数、脈拍、血圧など)を付加してもよい。毎分の呼吸数は、例えば図3のタイマ11fとマイク16(呼吸音を検出する)により検出できる。マイク16は、被験者の寝息やいびきの検出にも利用できる。血圧などの生理データは、例えばリストバンド型の小型血圧計(図示せず)を用いて得ることができる。EOGデータに生理データを適宜含めて検討すれば、被験者の心身状態の推定精度をより高めることができる。   Note that physiological data (respiration rate, pulse, blood pressure, etc.) of the subject may be added to the EOG data to be recorded. The respiration rate per minute can be detected by, for example, the timer 11f and the microphone 16 (detecting a breathing sound) in FIG. The microphone 16 can also be used to detect a subject's sleep and snoring. Physiological data such as blood pressure can be obtained using, for example, a wristband type small blood pressure monitor (not shown). If the physiological data is appropriately included in the EOG data and examined, the estimation accuracy of the subject's psychosomatic state can be further increased.

長い目瞑り(および、寝息やいびきの発生、もしくは脈拍や血圧の低下)から被験者の入眠(睡眠開始)を検出する。一般的にいって、入眠すると最初にノンレム睡眠が表れ、その後にレム睡眠が表れ、以後目覚めるまでの間に、ノンレム睡眠(脳は眠っている)とレム睡眠(脳は活動している)が交互に表れる。レム睡眠は、例えば90分毎に表れ、20〜30分くらい続く。レム睡眠中は眼動がある(眼がきょろきょろ動く)ので、この眼動をEOG波形から検出することにより、レム睡眠をノンレム睡眠から区別できる。これにより、睡眠中の眼動の有無から、レム睡眠とノンレム睡眠を検出し、それらの検出イベントを、タイムスタンプとともにメモリ11bに記録する(ST74)。レム睡眠中は脳が活動しているので、夢を見ていることが多い。   The subject's sleep (start of sleep) is detected from long-term eye meditation (and the occurrence of sleep and snoring, or a decrease in pulse and blood pressure). Generally speaking, when you fall asleep, you will first see non-REM sleep, then REM sleep, and before you wake up, you will have non-REM sleep (the brain is sleeping) and REM sleep (the brain is active) Appear alternately. For example, REM sleep appears every 90 minutes and lasts about 20 to 30 minutes. Since there is eye movement during REM sleep (the eye moves slightly), REM sleep can be distinguished from non-REM sleep by detecting this eye movement from the EOG waveform. Thereby, REM sleep and non-REM sleep are detected from the presence or absence of eye movement during sleep, and those detection events are recorded in the memory 11b together with the time stamp (ST74). I often dream because my brain is active during REM sleep.

レム睡眠からノンレム睡眠に切り替わると、睡眠中の眼動が検出されなくなるという変化が生じる。このような変化があったとき(ST76イエス)、被験者を強制的に覚醒させると、直前のレム睡眠中に見ていた夢を思い出せる可能性が高い。   When switching from REM sleep to non-REM sleep, a change occurs that eye movement during sleep is not detected. When such a change occurs (ST76 YES), if the subject is forcibly awakened, there is a high possibility of recalling the dream he was looking at during the last REM sleep.

そこで、夢の調査をする際は、被験者を強制的に覚醒させ(ST78イエス)、被験者に夢の内容を記録してもらう(夢の記録手段は問わない、マイク16を用いた音声記録でも、手書きメモでもよい)。夢の内容は、覚醒時のタイムスタンプとともに、メモリ11bに記録する(ST80)。覚醒以前のEOGデータは別途記録されており(ST72)、覚醒直前のレム睡眠中に再生されていたビデオの内容(特に視覚以外の五感に訴える情報:音楽や効果音あるいは、掛け算の九九のような、単純でリズミカルな音声など)は、タイムスタンプから特定できる。   Therefore, when investigating a dream, the subject is forcibly awakened (ST78 YES), and the subject is recorded with the contents of the dream (regardless of the means for recording the dream, even with voice recording using the microphone 16, Handwritten notes may be used). The contents of the dream are recorded in the memory 11b together with the time stamp at the time of awakening (ST80). EOG data before awakening is recorded separately (ST72), and the content of the video played during REM sleep immediately before awakening (especially information appealing to the five senses other than vision: music, sound effects, or multiplication table) Simple, rhythmic speech, etc.) can be identified from the time stamp.

別の夢のデータをとりたいといは、被験者に再度寝てもらい(ST82イエス)、ST72〜ST80の処理を繰り返す。そうでなければ(ST82ノー)、被験者毎に記録した全てのデータ(タイムスタンプ、EOGデータ、夢の内容メモなど)をローカルサーバ1000に送り、整理してからレコーダ/ローカルデータベース1002に記録する(ST84)。とくに、夢の内容が手書きメモのときは、覚醒後の被験者に意味の分かりやすい文書に書き直してもらい(例えば、夢に出てきた人が「ににんがし、にさんがろく」と言っていたなど)、その文書データをレコーダ/ローカルデータベース1002に記録するとよい。ローカルサーバ1000に記録したデータは、適宜、メインサーバ10000に送ってそのサーバに記録する。   In order to collect another dream data, the subject is caused to sleep again (YES in ST82), and the processes of ST72 to ST80 are repeated. Otherwise (NO in ST82), all the data recorded for each subject (time stamp, EOG data, dream content memo, etc.) is sent to the local server 1000, organized and recorded in the recorder / local database 1002 ( ST84). In particular, when the content of the dream is a handwritten memo, ask the subject after awakening to rewrite the document in an easy-to-understand meaning (for example, a person who came out of the dream said “Ningarashi, Nigarashi” The document data may be recorded in the recorder / local database 1002. The data recorded in the local server 1000 is appropriately sent to the main server 10000 and recorded in that server.

ローカルサーバ1000および/またはメインサーバ10000に記録されたデータは、例えば次のような調査に利用できる。すなわち、1度の睡眠時間(3〜9時間位)の間に1度以上生じるレム睡眠とノンレム睡眠において、睡眠中に再生したビデオコンテンツがどのように夢に反映されたかを、調査できる(ST88)。この調査結果は、睡眠学習の開発に利用できる。   Data recorded in the local server 1000 and / or the main server 10000 can be used for the following investigation, for example. That is, in REM sleep and non-REM sleep that occur once or more during one sleep time (about 3 to 9 hours), it is possible to investigate how the video content reproduced during sleep is reflected in the dream (ST88). ). The findings can be used to develop sleep learning.

また、睡眠誘導用ビデオの再生を開始してから睡眠が始まるまで(あるいは最初のレム睡眠またはノンレム睡眠が検出されるまで)の睡眠誘導所用時間を、タイマ11fを用いて計測できる。複数の被験者に対して種々な睡眠誘導用ビデオV1、V2、V3、…を見せて、各ビデオV1、V2、V3、…の再生における個別の睡眠誘導所用時間データを複数の被験者から収集できる。これらの睡眠誘導所用時間データを分析すれば、「よく眠れる/快眠できるビデオ(映画)」の製作に役立てることができる。   In addition, the time required for sleep induction from the start of reproduction of the sleep induction video to the start of sleep (or until the first REM sleep or non-REM sleep is detected) can be measured using the timer 11f. Various sleep induction videos V1, V2, V3,... Are shown to a plurality of subjects, and individual sleep induction time data in the reproduction of each video V1, V2, V3,. Analyzing the time data for sleep guidance can be used to produce “videos that can sleep well / sleep” (movies).

図9は、他の実施形態におけるEOG電極の実装例を説明する図である。この実施形態は、例えば緑内障患者の視野検査における、きょろつき、集中度・ストレスチェックにおいて利用できる。図9の電極実装例では、ゴーグル型アイウエアのクッション面(ユーザの顔面皮膚に接触する面)において、図1とは異なる電極配置を行っている。   FIG. 9 is a diagram for explaining an example of mounting the EOG electrode in another embodiment. This embodiment can be used in, for example, gaze, concentration / stress checks in visual field examinations of glaucoma patients. In the electrode mounting example of FIG. 9, the electrode arrangement different from that of FIG. 1 is performed on the cushion surface of the goggle-type eyewear (the surface that contacts the user's facial skin).

すなわち、例えばシリコーン製のクッションがゴーグルのフレーム110上に設けられ、このクッションの図示位置に所要の眼電位検出電極(EOG電極151a、151b、152a、152b)が取り付けられる。シリコーン製のクッションは、ユーザの顔面の凹凸に合うように柔らかく変形して、全てのEOG電極をユーザの皮膚面に安定接触させる。   That is, for example, a silicone cushion is provided on the goggle frame 110, and required electrooculogram detection electrodes (EOG electrodes 151a, 151b, 152a, 152b) are attached to the illustrated positions of the cushions. The silicone cushion is softly deformed to fit the unevenness of the user's face, so that all EOG electrodes are in stable contact with the user's skin surface.

また、ゴーグルのフレーム110上には、キャリブレーションマーカーとなる4つのLED(M01、M02、M11、M12)が(オプションで)取り付けられている。さらに、ユーザが正視する際のガイドとして、左右両眼の真正面(P1とP2の位置)にセンターマーカーが(オプションで)形成されている。センターマーカーは、例えば、フレーム110内に嵌め込まれる透明プラスチック板の所定箇所(P1とP2の位置)に罫書き加工することで、形成できる。このセンターマーカーに周辺のフレーム110に取り付けられたLEDからのサイド光が当ると、その光の一部がセンターマーカー部分で乱反射して、ユーザが視認できるような輝点となる。   On the goggle frame 110, four LEDs (M01, M02, M11, M12) as calibration markers are attached (optionally). Furthermore, a center marker (optionally) is formed directly in front of the left and right eyes (positions P1 and P2) as a guide for the user to look straight ahead. The center marker can be formed, for example, by scoring at predetermined locations (positions P1 and P2) of a transparent plastic plate fitted into the frame 110. When side light from the LEDs attached to the peripheral frame 110 hits the center marker, a part of the light is diffusely reflected at the center marker portion, so that a bright spot can be seen by the user.

なお、フレーム110内の透明板上にフィルム液晶などを用いたディスプレイが設けられているときは、そのディスプレイによりAR表示またはVR表示が可能となる。(ARは拡張現実:Augmented Realityの略で、ゴーグル越しに見える現実の世界に種々な情報を付加させるテクノロジーを指す。また、VRは仮想現実:Virtual Realityの略で、現実世界とは切り離された任意の情報を表示できる。視野検査用の輝度パターン表示も、VR表示の一種とみることができる。)このAR表示(またはVR表示)を用いてマーカー(M01、M02、M11、M12、P1、P2)をユーザに提示することもできる。   When a display using film liquid crystal or the like is provided on the transparent plate in the frame 110, AR display or VR display can be performed by the display. (AR stands for Augmented Reality and refers to technology that adds various information to the real world that can be seen through goggles. VR stands for Virtual Reality and is separated from the real world. Arbitrary information can be displayed.The luminance pattern display for visual field inspection can also be regarded as a kind of VR display.) This AR display (or VR display) is used to make markers (M01, M02, M11, M12, P1, P2) can also be presented to the user.

なお、12Lと12Rを有機ELパネルで作り。アイフレームの前面全体を遮光シートで覆えば、ビデオ表示(またはVR表示)機能付きのアイマスクになる。   In addition, 12L and 12R are made with an organic EL panel. If the entire front surface of the eye frame is covered with a light shielding sheet, an eye mask with a video display (or VR display) function is obtained.

図9の構造をモディファイして、顎紐つきの帽子(車掌帽などのヘッドマウントデバイス)にEOG電極を設けることもできる。図示しないが、制服を着た電車の車掌(ユーザ)がよく着用する顎紐つきの車掌帽には、ユーザの額に当接する額鍔と、着用した帽子をユーザの頭部に固定する顎紐が付いている。図示しないが、この額鍔の内側箇所に、図9のEOG電極151aと152aを設けることができる。図示しないが、図9のEOG電極151bは顎紐の右頬寄り部分にスライド可能に取り付けられ、図9のEOG電極12bは顎紐の左頬寄り部分にスライド可能に取り付けられる。この車掌帽のユーザは、体を動かしたり風を受けたりしても帽子が脱げ落ちないように、車掌帽を着用したあとに顎紐の長さを調整して、帽子を固定する。この固定後、に、ユーザは、電極151aと151gを結ぶ線上に右眼の中心(図9のP2)がくるように、顎紐の右側についているEOG電極151bを右耳付近でスライドさせる。同様に、ユーザは、電極152aと152gを結ぶ線上に左眼の中心(図9のP1)がくるように、顎紐の左側についているEOG電極152bを左耳付近でスライドさせる。   The structure shown in FIG. 9 can be modified to provide an EOG electrode on a hat with a chin strap (head mount device such as a conductor cap). Although not shown in the figure, a cap with a chin strap often worn by a train conductor (user) wearing a uniform has a forehead that abuts the user's forehead and a chin strap that fixes the worn hat to the user's head. attached. Although not shown, the EOG electrodes 151a and 152a shown in FIG. 9 can be provided at the inner portion of the frame. Although not shown, the EOG electrode 151b of FIG. 9 is slidably attached to the right cheek portion of the chin strap, and the EOG electrode 12b of FIG. 9 is slidably attached to the left cheek portion of the chin strap. The user of the conductor cap adjusts the length of the chin strap and fixes the hat after wearing the conductor cap so that the hat does not fall off even if the user moves his body or receives wind. After this fixing, the user slides the EOG electrode 151b on the right side of the chin strap near the right ear so that the center of the right eye (P2 in FIG. 9) is on the line connecting the electrodes 151a and 151g. Similarly, the user slides the EOG electrode 152b on the left side of the chin strap near the left ear so that the center of the left eye (P1 in FIG. 9) is on the line connecting the electrodes 152a and 152g.

このようにすると、ユーザの左右眼球の眼電位が、車掌帽の額鍔と顎紐に設けられたEOG電極151a、151b、152a、152bにより検出される。   In this way, the electrooculogram of the user's left and right eyeballs is detected by the EOG electrodes 151a, 151b, 152a, 152b provided on the forehead and chin strap of the conductor cap.

以上を纏めると、EOG電極を車掌帽に適用する場合は、
・車掌帽の額部内側に上側電極(151aと152a)を配置する;
・顎紐の耳下腺咬筋部(じかせんこうきんぶ)に上下方向へ可動可能な電極(151bと152b)を配置する。ここで、顎紐側の電極が上下方向で可動式になっているところがポイントである。左右それぞれの上下電極間を結ぶ線が左右それぞれの眼球中心付近を通過するように、顎紐上の電極位置を合わせる。これにより、瞬目や視線検出を行うに十分な振幅のEOG検出信号を得ることができる。
In summary, when applying the EOG electrode to the conductor cap,
The upper electrodes (151a and 152a) are placed inside the forehead of the conductor cap;
-Electrodes (151b and 152b) that are movable in the vertical direction are arranged on the parotid masseter part of the jaw string. Here, the point is that the electrode on the chin strap side is movable in the vertical direction. The electrode positions on the chin strap are aligned so that the line connecting the left and right upper and lower electrodes passes near the center of each eyeball. This makes it possible to obtain an EOG detection signal with sufficient amplitude to detect blinks and line of sight.

図10は、他の実施形態に係るメガネ型アイウエアにおけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの例)である。図10のアイウエア100は、EOG電極配置に関しては図9と類似しているが、以下の点で図1のアイウエア100と違っている。   FIG. 10 is a diagram for explaining an example of mounting the EOG electrode in the eyeglass-type eyewear according to another embodiment (an example of AR glasses in which the EOG electrode is arranged around the eyeball). The eyewear 100 in FIG. 10 is similar to the eyewear 100 in FIG. 9 with respect to the EOG electrode arrangement, but differs from the eyewear 100 in FIG. 1 in the following points.

すなわち、右ノーズパッド150RのEOG電極151aおよび151bが右アイフレーム101側に移動し、左ノーズパッド150LのEOG電極152aおよび152bが左アイフレーム102側に移動している。EOG電極151aおよび151bはユーザの右眼中心位置(図示せず)に対して略点対称となる位置に配置され、EOG電極152aおよび152bはユーザの左眼中心位置(図示せず)に対して略点対称となる位置に配置される。また、EOG電極151aおよび151bそれぞれを結ぶ右斜線とEOG電極152aおよび152bそれぞれを結ぶ左斜線は、ユーザの鼻筋に沿った垂直線(図示せず)に対して略線対称となっている。電極151a,151b,152a,152bは、弾性体(スポンジ、シリコーン製クッションなど)の先端に設けた導電性部材(金属、導電性高分子など)で構成できる。各EOG電極は、アイウエア100を装着したユーザの顔の皮膚面に、弾性体の弾性反発力で軽く圧接される。   That is, the EOG electrodes 151a and 151b of the right nose pad 150R are moved to the right eye frame 101 side, and the EOG electrodes 152a and 152b of the left nose pad 150L are moved to the left eye frame 102 side. The EOG electrodes 151a and 151b are arranged at positions that are substantially point-symmetric with respect to the user's right eye center position (not shown), and the EOG electrodes 152a and 152b are with respect to the user's left eye center position (not shown). It is arranged at a position that is substantially point-symmetric. Further, the right oblique line connecting each of the EOG electrodes 151a and 151b and the left oblique line connecting each of the EOG electrodes 152a and 152b are substantially line symmetrical with respect to a vertical line (not shown) along the user's nose. The electrodes 151a, 151b, 152a, and 152b can be formed of a conductive member (metal, conductive polymer, or the like) provided at the tip of an elastic body (sponge, silicone cushion, or the like). Each EOG electrode is lightly pressed against the skin surface of the face of the user wearing the eyewear 100 by the elastic repulsive force of the elastic body.

図10のようなEOG電極配置構造を採ると、ノーズパッド部にEOG電極を配置する構造と比べて帯電した眼球の周囲にできる電界をより検知し易くなる。そのため、図1の実施形態よりも図10の実施形態の方が、より大きな振幅のEOG信号を検出できる。   When the EOG electrode arrangement structure as shown in FIG. 10 is adopted, the electric field generated around the charged eyeball can be detected more easily than the structure in which the EOG electrode is arranged in the nose pad portion. Therefore, the embodiment of FIG. 10 can detect an EOG signal having a larger amplitude than the embodiment of FIG.

図11は、さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイフレームが連続したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの他の例)である。図11のような構造を採ると、図10の構造よりもEOG電極の皮膚接触安定性が高くなる。そのため、より高精度にEOG信号を検出することができる。また、図11の構造では、大型化した情報処理部11その他の装置を内蔵し易い。そのため、図11の構造では、デザイン性をさして気にすることなく、GPS付きスマートフォンの機能を仕込むことができる。その場合の画面表示は、フィルム液晶などを利用した左右のディスプレイ12L/12Rにおいて、AR表示により行うことができる。図示しないが、ゴーグルフレームの左右の耳付近に小型スピーカを取り付け、ノーズクッション付近に小型マイクを取り付けることもできる。また、スマートフォンに対するコマンド入力は、視線移動、瞬目、目瞑り、ウインクなどの眼動により行うことができる。図11のようなゴーグル型アイウエア100は、スキーヤー、スノーボーダーの集中度・ストレスチェックに利用できる。また、ゴーグル型アイウエア100は、AR表示に限らずVR表示にも対応できる。   FIG. 11 is a view for explaining an example of mounting EOG electrodes in goggle-type eyewear (a type in which the eye frames of both left and right eyes are continuous) according to still another embodiment (AR glasses in which EOG electrodes are arranged around the eyeball). Other example). When the structure as shown in FIG. 11 is adopted, the skin contact stability of the EOG electrode is higher than that in the structure of FIG. Therefore, the EOG signal can be detected with higher accuracy. In the structure of FIG. 11, the information processing unit 11 and other devices that have been increased in size are easily incorporated. Therefore, in the structure of FIG. 11, the function of the smartphone with GPS can be loaded without worrying about design. Screen display in that case can be performed by AR display on the left and right displays 12L / 12R using film liquid crystal or the like. Although not shown, a small speaker can be attached near the left and right ears of the goggle frame, and a small microphone can be attached near the nose cushion. In addition, command input to the smartphone can be performed by eye movement such as eye movement, blinking, eye meditation, and winking. The goggle-type eyewear 100 as shown in FIG. 11 can be used for concentration / stress check of skiers and snowboarders. Further, the goggle-type eyewear 100 can support not only AR display but also VR display.

図12は、さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイカップが分離したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネのさらに他の例)である。図12の実施形態では、図10の場合と同様な、EOG電極配置構造とセンサ部11eの配置構造を採用している。但し、図12のゴーグル構造は海中ダイビング使用(あるいはスカイダイビング使用)にも耐える。図12のゴーグルは、マリンダイバーやスカイダイバーの訓練中における、集中度・ストレスチェックに利用できる。   FIG. 12 is a view for explaining an example of mounting EOG electrodes in goggle-type eyewear (a type in which the eye cups of the left and right eyes are separated) according to still another embodiment (AR glasses in which EOG electrodes are arranged around the eyeball). Is yet another example). In the embodiment of FIG. 12, the same EOG electrode arrangement structure and the arrangement structure of the sensor unit 11e are adopted as in the case of FIG. However, the goggles structure of FIG. 12 can withstand use of underwater diving (or use of sky diving). The goggles in FIG. 12 can be used for concentration / stress checks during training of marine divers and skydivers.

なお、VR表示機能の適用対象は、保護メガネとしてのゴーグル型アイウェアに限定されない。例えば図12に示すようなゴーグル100にVR表示機能を付加することができる。このVRゴーグル100で海中ダイビングやスカイダイビング(あるいはゲーム)のトレーニングビデオをユーザに見せることができる。(このトレーニングビデオは、初心者には対応が難しい訓練内容の、熟練者による対応実写、コンピュータグラフィック、あるいはアニメなどを含むことができる。)
トレーニングビデオの特定シーンでユーザがどのような眼動反応を示したのかは、VRゴーグル100のEOG電極(151a、151b、152a、152bのうち2つ以上)を用いて検出できる。また、眼動反応が検出されたときの特定シーンは、図3のタイマ/フレームカウンタ11fからのタイムスタンプ(またはフレーム番号)により特定できる。眼動反応の検出結果は、タイムスタンプ(またはフレーム番号)とともに、検出データとして図3のメモリ11bに一時記憶される。一時記憶された検出データは、トレーニングビデオ終了後にローカルサーバ(パーソナルコンピュータ)1000に取り込むことができる。
The application target of the VR display function is not limited to goggles type eyewear as protective glasses. For example, a VR display function can be added to the goggles 100 as shown in FIG. With this VR goggles 100, training videos of underwater diving and sky diving (or game) can be shown to the user. (This training video can include live action, computer graphics, animation, etc. of training content that is difficult for beginners to handle.)
It can be detected using the EOG electrodes (two or more of 151a, 151b, 152a, and 152b) of the VR goggles 100 what kind of eye movement reaction the user showed in a specific scene of the training video. Further, the specific scene when the eye movement reaction is detected can be specified by the time stamp (or frame number) from the timer / frame counter 11f in FIG. The detection result of the eye movement reaction is temporarily stored in the memory 11b of FIG. 3 together with the time stamp (or frame number) as detection data. The temporarily stored detection data can be taken into the local server (personal computer) 1000 after the training video ends.

トレーナー(訓練教官)は、チェックポイントとなるビデオシーンにおいて、被験者(VRゴーグルユーザ)の集中度がどうであったのか等を、瞬目の発生パターンやその変化などから、分析できる。この分析には、ローカルサーバ1000のパーソナルコンピュータを利用できる。   The trainer (training instructor) can analyze the degree of concentration of the subject (VR goggles user) in the video scene serving as the checkpoint from the occurrence pattern of blinks and the change thereof. The personal computer of the local server 1000 can be used for this analysis.

チェックポイントとしては、多数の被験者がいずれも同じような眼動反応(瞬目の発生パターンやその変化タイミングが類似)をしたときのビデオ内容を用いることができる。そのチェックポイントのビデオ内容は、タイムスタンプ(またはフレーム番号)に基づき該当シーンを再生することにより、どんな内容であったのかを確認できる。例えばスカイダイビングの訓練ビデオにおいて、パラシュートのロープが体に絡み付いて開かなくなったシーンをチェックポイントとし、そのときの被験者の瞬目の出方が多くの被験者(あるいは熟練者)の場合と比べてどうであったのか(1〜2回の瞬目反応:落ち着いて集中できていたのか、あるいは眼瞑りや多数回の瞬目反応:パニック状態に陥っていたのか等)を調べることができる。   As a checkpoint, the video content when a large number of subjects have the same eye movement reaction (similar blink generation pattern and change timing thereof) can be used. The video content at the checkpoint can be confirmed by reproducing the corresponding scene based on the time stamp (or frame number). For example, in a skydiving training video, the scene where the parachute rope gets entangled with the body becomes a checkpoint, and how the subject's blinking appears at that time compared to the case of many subjects (or experts) (One or two blink reactions: calm or focused, eye meditation or many blink reactions: panicked, etc.).

訓練ビデオのシーンが単調な空撮シーンのときに検出された瞬目(被験者が無意識に行う瞬きなど)については、その発生タイミングが被験者毎にばらばらとなるので、そのようなシーンはチェックポイントから外すことができる。   For the blinks that are detected when the training video scene is a monotonous aerial scene (such as blinks that the subject unconsciously performs), the occurrence timing varies from subject to subject. Can be removed.

上記のようなVRゴーグル100の利用は、映画館用3Dメガネの適用と同様な効果を提供し得る。   The use of the VR goggles 100 as described above can provide the same effect as the application of 3D glasses for movie theaters.

本願のAR/VRアイウエアには、上記以外の応用も考えられる。例えば図1または図10のアイウエア100にはカメラ13L/13Rが組み込まれている。このカメラを用いて実写録画をしているときに、種々な眼動反応(瞬目の発生パターンやその変化タイミング)をタイムスタンプ(またはフレーム番号)とともにメモリ11bに記録できる(この場合はメモリ11bになるべく容量の大きいフラッシュメモリを用いることが望ましい)。   Applications other than those described above are also conceivable for the AR / VR eyewear of the present application. For example, a camera 13L / 13R is incorporated in the eyewear 100 of FIG. 1 or FIG. During live-action recording using this camera, various eye movement reactions (blink occurrence patterns and their change timing) can be recorded in the memory 11b together with a time stamp (or frame number) (in this case, the memory 11b). It is desirable to use a flash memory with as large a capacity as possible).

この実写録画の特定シーン(例えば駅のホームで電車を待っているときに突然後ろから人がぶつかってきたなど)とそのときに起きた眼動反応(例えば短い眼瞑りと多数回の瞬目)は、タイムスタンプ(またはフレーム番号)とともに記録し、その記録内容を適宜ローカルサーバ1000に転送できる。ローカルサーバ1000に転送されたデータは、アイウエア100のユーザが置かれた状況に応じてどんな緊張/ストレスが生じたのかの分析に役立てることができる。   Specific scenes of this live-action recording (for example, people suddenly collided from behind when waiting for a train at the station platform) and eye movements that occurred at that time (for example, short eye meditation and many blinks) Can be recorded together with a time stamp (or frame number), and the recorded contents can be transferred to the local server 1000 as appropriate. The data transferred to the local server 1000 can be used to analyze what tension / stress has occurred depending on the situation where the user of the eyewear 100 is placed.

<実施形態の纏め>
(a)例えば左右どちらかのノーズパッド上下に最小限1組の電極を配置し、最小限1個のADCを用いて眼電位センシングをおこなうことができる。これにより、3Dメガネにおいて低消費電力(ADCを用いた眼電位センシングに要する電力は、ワイヤレスで動作する心電計と同等)かつ、低コスト(「瞬目」検出用の特徴量計算を数MIPS〜数十MIPS程度で行うことにより、ワイヤレスで動作する心電計とコストは同程度)に「瞬目」(瞬時)および「目瞑り」(一定時間持続)の検出が可能となる。
<Summary of Embodiment>
(A) For example, electrooculogram sensing can be performed using a minimum of one ADC by disposing at least one pair of electrodes on the upper and lower nose pads. As a result, low power consumption in 3D glasses (the power required for electrooculogram sensing using ADC is equivalent to an electrocardiograph operating wirelessly) and low cost (feature MIPS for feature value detection for “blink” detection) By performing at about several tens of MIPS, it is possible to detect “blink” (instantaneous) and “eye meditation” (continuous for a certain period of time) in a wirelessly operated electrocardiograph.

(b)実施形態の技術によって、映画館の3D上映用3Dメガネ(シャッター方式、偏光方式のどちらにも対応可能))に眼電位センシングを応用でき、それに集中度・疲労・ストレス推定を組み合わせることができる。これにより、現在上映中の映画に対する観客の反応(時間軸に沿った、あるいはシーン毎の、集中度・疲労度・ストレス)を集計する事が可能となり、上映時間に合わせた本編の再編集や、更には、今後の新作映画の製作へVOC(Voice of the Customer:観客あるいは顧客の声)としてフィードバックする事ができる。   (B) With the technology of the embodiment, electrooculogram sensing can be applied to 3D glasses for movie theater 3D screening (supporting both shutter and polarization methods) and combining it with concentration, fatigue, and stress estimation. Can do. This makes it possible to tabulate the audience's response (concentration / fatigue / stress along the time axis or for each scene) to the movie currently being shown. Furthermore, it can be fed back to the production of new movies as a VOC (Voice of the Customer).

(c)更に、加速度センサやジャイロセンサを3Dメガネに付加することで、4Dと呼称される体験型/アトラクション型のシアターにおけるVOC収集の幅を広げる事ができる。(体験型/アトラクション型のシアターでは、シートが動く以外に、Air、Waterミスト、香り、泡、霧、風、フラッシュ、雪、雨の体験ができる。そのような体験ができるものとして、4DX、TOHO CINEMASのMediaMation MX4Dなどがある。)
ここで、眼電位センシングでは、瞬目、目瞑り(ADCが最小限1個)から視線方向(ADCが2〜3個)などの推定が可能であるが、これに加速度センサやジャイロセンサを加える事で、3Dメガネの向く方向(メガネユーザの頭部の向く方向)を含めて、VOCの情報収集が可能となる。
(C) Furthermore, by adding an acceleration sensor or a gyro sensor to the 3D glasses, the range of VOC collection in an experience type / attraction type theater called 4D can be expanded. (In the experience type / attraction type theater, in addition to moving the seat, you can experience Air, Water mist, fragrance, foam, fog, wind, flash, snow, rain. 4DX, There is TOHO CINEMAS MediaMation MX4D etc.)
Here, in electrooculogram sensing, it is possible to estimate the direction of the line of sight (2 to 3 ADCs) from blinking or eye meditation (at least one ADC), but an acceleration sensor or gyro sensor is added to this. Thus, it is possible to collect VOC information including the direction in which the 3D glasses are facing (the direction in which the glasses user's head is facing).

(d)
また、劇場3Dメガネでは字幕が読み難い(字幕も3D化され、一番手前に表示されるので、他の映像と視線を往復させると疲れる)と言う声があるため、ARメガネをベースとして輻輳角制御を含めて字幕表示するのも有効である(既知の方法も利用しつつ、それに眼電位センシングを利用したストレス推定をする事で、輻輳角制御を含むAR字幕表示の有効性を確認できる)。
(D)
In addition, there is a voice saying that it is difficult to read subtitles in theater 3D glasses (subtitles are also 3D and displayed in the foreground, so if you reciprocate the line of sight with other images), there is congestion based on AR glasses It is also effective to display subtitles including angle control. (Effectiveness of AR subtitle display including convergence angle control can be confirmed by estimating stress using electrooculogram sensing while using known methods. ).

<出願当初請求項の内容と実施形態との対応関係例>
[1]一実施の形態に係る心身状態推定装置は、アイウエア(100)のデバイス形態を採り、このアイウエアを装着したユーザの眼電位(図4のEOG)に基づいて前記ユーザの眼動を検出する眼動検出部(15)と、前記眼動が検出されるときのタイミングを計測するタイマ(11f)と、前記眼動に基づく情報処理を行う情報処理部(11)を備えている。この心身状態推定装置において、前記アイウエアを装着したユーザに外部刺激(例えば、種々なエンターテイメントシーンにおける五感への刺激;種々なストレス試験映像における五感への刺激;視野検査における視覚および精神的緊張への刺激;種々な夢における意識の刺激)が与えられたときの前記ユーザの特徴的な眼動(例えば、図4の瞬目Pc/Ps、目瞑りPf、眼球の上下左右動または回転Pr/Ptなどに対応したEOG)を前記眼動検出部(15)により検出する。
<Example of Correspondence Between Contents of Claims Initially Applied and Embodiments>
[1] A psychosomatic state estimation apparatus according to an embodiment adopts a device form of eyewear (100), and based on the electrooculogram of the user wearing the eyewear (EOG in FIG. 4), An eye movement detection unit (15) for detecting the eye movement, a timer (11f) for measuring timing when the eye movement is detected, and an information processing unit (11) for performing information processing based on the eye movement. . In this psychosomatic state estimating apparatus, external stimuli (for example, stimulation to the five senses in various entertainment scenes; stimulation to the five senses in various stress test images; visual and mental tension in visual field examinations) are given to the user wearing the eyewear. Characteristic eye movements of the user (for example, blink Pc / Ps, eye meditation Pf, up / down / left / right movement or rotation Pr / of eyeball in FIG. 4) The eye movement detection unit (15) detects EOG corresponding to Pt or the like.

また、前記特徴的な眼動が検出されたときのタイミングを前記タイマ(11f)により計測し、前記計測タイミングにおける前記外部刺激の内容と前記計測タイミングにおける前記特徴的な眼動の内容(その眼動に対応するEOG波形)との対応関係から、前記ユーザの心身状態(外部刺激に対する個人評価に関係)を推定できるように構成する。   Also, the timing when the characteristic eye movement is detected is measured by the timer (11f), and the content of the external stimulus at the measurement timing and the characteristic eye movement at the measurement timing (the eye The user's psychosomatic state (related to personal evaluation with respect to external stimuli) can be estimated from the corresponding relationship with the EOG waveform corresponding to movement).

[2]前記[1]の装置は、各アイウエアで収集した情報を一時記憶するメモリを持つ。すなわち、この装置は、前記外部刺激の内容(種々な映画シーンなど)を特定する情報(タイマまたはフレームカウンタの出力)と、前記特徴的な眼動(瞬目など)の情報を記憶するメモリ(11b)をさらに具備することができる。   [2] The device of [1] has a memory for temporarily storing information collected by each eyewear. That is, this device stores information (output of a timer or a frame counter) for specifying the content of the external stimulus (such as various movie scenes) and information about the characteristic eye movement (such as blinks) ( 11b).

[3]前記[1]の装置は、外部のローカルサーバおよび/またはメインサーバが情報収集できるように構成される。すなわち、この装置は、前記外部刺激の内容(種々な映画シーンなど)を特定する情報(タイマまたはフレームカウンタの出力)と、前記特徴的な眼動(瞬目など)の情報とを相互に対応付けた調査情報を、外部サーバ(1000および/または10000)へ提供する手段(11a〜11d)をさらに具備することができる。   [3] The device of [1] is configured so that an external local server and / or main server can collect information. That is, this apparatus mutually corresponds information (timer or frame counter output) specifying the content of the external stimulus (various movie scenes, etc.) and characteristic eye movement (blinks, etc.) information. Means (11a to 11d) for providing the attached survey information to the external server (1000 and / or 10000) can be further provided.

[4]前記[1]の装置が組み込まれたアイウエア(100)は、調査情報の提供元を特定できるように構成される。すなわち、この装置は、自身を特定できるデバイスID(11g)を持ち、このデバイスIDにより、個々の情報提供元となったアイウエアを特定できる。   [4] The eyewear (100) in which the device of [1] is incorporated is configured so as to be able to specify the provider of the survey information. That is, this apparatus has a device ID (11g) that can identify itself, and the eyewear that is the individual information provider can be identified by this device ID.

[5]一実施の形態に係る心身状態推定方法は、アイウエア(100)を装着したユーザの眼電位(図4のEOG)に基づいて前記ユーザの眼動を検出し、前記眼動が検出されるときのタイミングを計測し、前記眼動に基づく情報処理を行う構成(図3)を用いる。この心身状態推定方法では、前記アイウエアを装着したユーザに外部刺激(例えば、種々なエンターテイメントシーンにおける五感への刺激;種々なストレス試験映像における五感への刺激;視野検査における視覚および精神的緊張への刺激;種々な夢における意識の刺激)を与え、外部刺激が与えられたときの前記ユーザの特徴的な眼動(例えば、図4の瞬目Pc/Ps、目瞑りPf、眼球の上下左右動または回転Pr/Ptなどに対応したEOG)を検出する(ST12;ST32:ST52;T72)。また、前記特徴的な眼動が検出されたときのタイミングを計測する(ST12;ST32;ST52;ST72)。そして、前記計測タイミングにおける前記外部刺激の内容と前記計測タイミングにおける前記特徴的な眼動の内容(その眼動に対応するEOG波形)との対応関係から、前記ユーザの心身状態(外部刺激に対する個人評価に関係)を推定する(ST24;ST42−ST44;ST56;ST74−ST88)。   [5] A psychosomatic state estimation method according to an embodiment detects an eye movement of the user based on an electrooculogram (EOG in FIG. 4) of the user wearing the eyewear (100), and the eye movement is detected. The structure (FIG. 3) which measures the timing when being performed and performs the information processing based on the said eye movement is used. In this psychosomatic state estimation method, external stimuli (for example, stimulation to the five senses in various entertainment scenes; stimulation to the five senses in various stress test images; visual and mental tension in visual field examinations) are applied to the user wearing the eyewear. The user's characteristic eye movements (for example, blink Pc / Ps in FIG. 4, eye meditation Pf, up / down / left / right of FIG. 4) EOG corresponding to motion or rotation Pr / Pt) is detected (ST12; ST32: ST52; T72). Further, the timing when the characteristic eye movement is detected is measured (ST12; ST32; ST52; ST72). Then, from the correspondence between the content of the external stimulus at the measurement timing and the content of the characteristic eye movement at the measurement timing (an EOG waveform corresponding to the eye movement), the user's psychosomatic state (individual to the external stimulus) (Related to evaluation) is estimated (ST24; ST42-ST44; ST56; ST74-ST88).

[6]前記[5]の方法は、例えば映画館での3D/4D上映作品に対する観客の反応調査に利用できる。この方法では、検出された前記特徴的な眼動が所定回数未満(1〜2回)の瞬目(図4のPc)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容(映画の痛快なシーンなど)に集中した状態であると推定する(図5のST24)。あるいは、検出された前記特徴的な眼動が所定回数以上連続した(3回以上)瞬目(図4のPs)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容(映画の怖いシーンなど)にストレスを受けた状態であると推定する(ST24)。   [6] The method of [5] can be used, for example, to investigate the reaction of the audience to a 3D / 4D screening work in a movie theater. In this method, if the characteristic eye movement detected is a blink (Pc in FIG. 4) that is less than a predetermined number of times (1 to 2 times), the user's psychosomatic state is that of the external stimulus at the measurement timing. It is presumed that the content is concentrated on the content (the exciting scene of the movie, etc.) (ST24 in FIG. 5). Alternatively, if the detected characteristic eye movement continues for a predetermined number of times or more (three or more times) blink (Ps in FIG. 4), the user's psychosomatic state is the content of the external stimulus at the measurement timing ( It is presumed that the subject is stressed by a scary scene of a movie) (ST24).

[7]前記[5]の方法は、例えば長距離バスドライバの疲労度調査に利用できる。この方法では、検出された前記特徴的な眼動が所定時間未満(例えば3秒以上5分未満)の目瞑りに対応するもの(目瞑りが検出されてのち最初の瞬目が検出されるまでの時間が所定時間未満)であれば、前記ユーザの心身状態が前記計測タイミングにおいて疲労した状態あるいは居眠り(うたた寝)状態であると推定する(図6のST42)。あるいは、検出された前記特徴的な眼動が所定時間以上(例えば5分以上)の目瞑りに対応するもの(目瞑りが検出されてのち最初の瞬目が検出されるまでの時間間隔が所定時間以上)であれば、前記ユーザの心身状態が前記計測タイミング以降において仮眠(例えば15〜30分の睡眠)あるいは睡眠(例えば90以上の睡眠)状態であると推定する(ST42)。   [7] The method of [5] can be used, for example, to investigate the fatigue level of a long-distance bus driver. In this method, the detected characteristic eye movement corresponds to eye meditation for less than a predetermined time (for example, 3 seconds or more and less than 5 minutes) (until the first blink is detected after eye meditation is detected). Is less than a predetermined time), it is estimated that the user's state of mind and body is tired or doze (nap) at the measurement timing (ST42 in FIG. 6). Alternatively, the detected characteristic eye movement corresponds to eye meditation for a predetermined time or more (for example, 5 minutes or more) (the time interval from when eye meditation is detected until the first blink is detected) If it is equal to or longer than the time, the user's mind and body state is estimated to be a nap (for example, 15 to 30 minutes of sleep) or a sleep (for example, 90 or more sleeps) after the measurement timing (ST42).

この方法を用いた疲労度調査において、短時間(例えば30分以下)の調査中に居眠り状態が認められたり、長時間(例えば2時間以上)の調査中に仮眠あるいは睡眠状態が認められたときは、被験者がこれから長距離バス運転の勤務につくのを止めさせることができる。   In a fatigue level survey using this method, when a dozing state is observed during a short period (for example, 30 minutes or less), or a nap or sleep state is observed during a long period (for example, two hours or longer) Can stop the subject from working on long distance bus driving.

[8]前記[5]の方法は、例えば緑内障患者の視野調査に利用できる。この方法では、輝点の有無または輝点の移動を被験者に対する検査用外部刺激として用いる。この視野検査において、検出された前記特徴的な眼動が所定回数未満(1〜2回)の瞬目(図4のPc)であれば、前記ユーザの心身状態が前記計測タイミング(視野検査中に検査ボタンを押したとき)における前記外部刺激の内容に集中した状態であると推定する(図7のST56)。あるいは、検出された前記特徴的な眼動が眼球の上下動または回転(きょろつき)を示す眼電波形(例えば図4のPr/Pt)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する(ST56)。   [8] The method of [5] can be used, for example, for visual field survey of glaucoma patients. In this method, the presence or absence of a bright spot or the movement of a bright spot is used as an external stimulus for examination with respect to a subject. In this visual field inspection, if the detected characteristic eye movement is a blink (Pc in FIG. 4) that is less than a predetermined number of times (1 to 2 times) (Pc in FIG. 4), the psychosomatic state of the user is the measurement timing (under visual inspection It is presumed that the state is concentrated on the content of the external stimulus when the examination button is pressed (ST56 in FIG. 7). Alternatively, if the detected characteristic eye movement is an electrooculogram waveform (for example, Pr / Pt in FIG. 4) indicating the vertical movement or rotation (shrinking) of the eyeball, the psychosomatic state of the user is the measurement. It is estimated that the content of the external stimulus at the timing is stressed (ST56).

[9]前記[5]の方法は、例えば睡眠調査に利用できる。この方法では、ラピッドアイモーションの有無を被験者の睡眠中の状態変化検出に用いる。この睡眠検査において、検出された前記特徴的な眼動が、特定時間以上(例えば90分以上)の睡眠に対応するもの(長めの目瞑りが検出されてから、目覚めにより最初の瞬目が検出されるまでの時間間隔が90分以上)であり、その睡眠期間中にラピッドアイモーションを示す眼電波形(例えば図4のPr/Pt)が検出されれば、前記ユーザの心身状態がレム睡眠状態であると推定する(図8のST74)。あるいは、検出された前記特徴的な眼動が、特定時間以上(例えば90分以上)の睡眠に対応するもの(長めの目瞑りが検出されてから、目覚めにより最初の瞬目が検出されるまでの時間間隔が90分以上)であり、その睡眠期間中にラピッドアイモーションを示す眼電波形(例えば図4のPr/Pt)が検出されなければ、前記ユーザの心身状態がノンレム睡眠状態であると推定する(ST74)。   [9] The method of [5] can be used, for example, for sleep surveys. In this method, the presence or absence of rapid eye motion is used to detect a change in the state of the subject during sleep. In this sleep test, the detected characteristic eye movement corresponds to sleep for a specific time or longer (for example, 90 minutes or longer) (after a long eye meditation is detected, the first blink is detected by awakening If an electrooculogram showing rapid eye motion (eg, Pr / Pt in FIG. 4) is detected during the sleep period, the user's psychosomatic state is REM sleep. The state is estimated (ST74 in FIG. 8). Alternatively, the detected characteristic eye movement corresponds to sleep of a specific time or longer (for example, 90 minutes or longer) (from the detection of long eye meditation until the first blink is detected by awakening) If the electrooculogram showing rapid eye motion (eg, Pr / Pt in FIG. 4) is not detected during the sleep period, the user's psychosomatic state is a non-REM sleep state. (ST74).

例えばレム睡眠からノンレム睡眠に変化したときを被験者の眼動のEOG波形から検知したら、被験者を強制的に覚醒させる。すると、覚醒する直前のレム睡眠時に見ていた夢を思い出せる可能性が高いので、被験者に夢の内容を(音声、文字、絵などで)記録してもらう。そして、覚醒時のタイムスタンプから覚醒直前に再生していたビデオ映像の内容(睡眠に入る前は映像と音、睡眠に入ったあとは音)と、被験者に記録してもらった夢の内容を比較する。この比較から、レム睡眠中に再生していたビデオの内容が夢にどのように反映されたかのチェックができる。このチェック結果は、睡眠学習に利用できる。   For example, when a change from REM sleep to non-REM sleep is detected from the EOG waveform of the subject's eye movement, the subject is forcibly awakened. Then, since there is a high possibility of remembering the dream that was seen at the time of REM sleep just before waking up, ask the subject to record the contents of the dream (sound, text, picture, etc.). And the contents of the video image that was played right before the awakening from the time stamp at the time of awakening (the video and sound before going to sleep, the sound after going to sleep) and the content of the dream that the subject had recorded Compare. From this comparison, you can check how the content of the video you were playing during REM sleep was reflected in your dream. This check result can be used for sleep learning.

この発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。なお、開示された複数の実施形態のうちのある実施形態の一部あるいは全部と、開示された複数の実施形態のうちの別の実施形態の一部あるいは全部を、組み合わせることも、発明の範囲や要旨に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof. Note that it is possible to combine a part or all of one embodiment of a plurality of disclosed embodiments with a part or all of another embodiment of the plurality of disclosed embodiments. Or included in the abstract.

100…アイウエア(ゴーグル型またはメガネ型);110…アイフレーム;11…心身状態推定装置の主要部となる情報処理部(プロセッサ11a、不揮発性メモリ11b、メインメモリ11c、通信処理部(GPS処理部)11d、センサ部11eなどを含む集積回路);11e…加速度センサ、ジャイロセンサなどを含むセンサ部;BAT…電源(リチウムイオン電池など);12…ディスプレイ部(右ディスプレイ12Rと左ディスプレイ12L:フィルム液晶など);IM1…右表示画像(テンキー、アルファベット、文字列、マーク、アイコンなど);IM2…左表示画像(テンキー、アルファベット、文字列、マーク、アイコンなど);13…カメラ(右カメラ13Rと左カメラ13L、またはブリッジ103部分に取り付けられた図示しないセンターカメラ);15…眼動検出部(視線検出センサ);16…マイク(または振動ピックアップ);1510…右側(Ch1)ADコンバータ;1520…左側(Ch2)ADコンバータ;1512…左右間(Ch0)ADコンバータ;1514…左右間(Ch3)ADコンバータ。   DESCRIPTION OF SYMBOLS 100 ... Eyewear (goggles type or glasses type); 110 ... Eye frame; 11 ... Information processing part (processor 11a, non-volatile memory 11b, main memory 11c, communication processing part (GPS processing Part) 11d, integrated circuit including sensor part 11e, etc .; 11e ... sensor part including acceleration sensor, gyro sensor, etc .; BAT ... power source (lithium ion battery etc.); 12 ... display part (right display 12R and left display 12L: IM1 ... Right display image (numeric keypad, alphabet, character string, mark, icon, etc.); IM2 ... Left display image (numeric keypad, alphabet, character string, mark, icon, etc.); 13 ... Camera (right camera 13R) And attached to the left camera 13L or bridge 103 15... Eye movement detector (line-of-sight detection sensor); 16. Microphone (or vibration pickup); 1510... Right side (Ch1) AD converter; 1520... Left side (Ch2) AD converter; Between (Ch0) AD converter; 1514 ... Between left and right (Ch3) AD converter.

Claims (19)

アイウエアのデバイス形態を採る眼動検出部であり、このアイウエアを装着したユーザの眼電位に基づいて前記ユーザの少なくとも上下動、左右動、瞬目、目瞑りを含む眼動を検出する眼動検出部と、
前記眼動が検出されるときのタイミングを計測するタイマと、
前記眼動に基づく情報処理を行う情報処理部と、
を備えた心身状態推定装置において、
前記アイウエアを装着した前記ユーザに所定の心身状態を推定するための眼動のパターンに関連する映像を含む外部刺激が与えられたときの前記ユーザの特徴的な眼動を前記眼動検出部により検出し、
前記特徴的な眼動が検出されたときのタイミングを前記タイマにより計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定できるように構成した心身状態推定装置。
An eye movement detection unit that adopts an eyewear device form, and detects an eye movement including at least vertical movement, left-right movement, blinking, and eye movement of the user based on the electrooculogram of the user wearing the eyewear A motion detector;
A timer for measuring timing when the eye movement is detected;
An information processing unit for performing information processing based on the eye movement;
In the psychosomatic state estimation device comprising:
The eye movement detecting unit detects a characteristic eye movement of the user when an external stimulus including an image related to an eye movement pattern for estimating a predetermined mental and physical state is given to the user wearing the eyewear. Detected by
The timer measures the timing when the characteristic eye movement is detected,
A psychosomatic state estimation apparatus configured to be able to estimate the user's psychosomatic state from a correspondence relationship between the content of the external stimulus at the measured timing and the characteristic eye movement content at the measured timing.
前記外部刺激の内容を特定する情報と、前記特徴的な眼動の情報を記憶するメモリをさらに具備した請求項1の装置。   The apparatus according to claim 1, further comprising a memory that stores information for specifying contents of the external stimulus and information about the characteristic eye movement. 前記外部刺激の内容を特定する情報と、前記特徴的な眼動の情報とを相互に対応付けた調査情報を、外部サーバへ提供する手段をさらに具備した請求項1の装置。   The apparatus according to claim 1, further comprising means for providing, to an external server, survey information in which information specifying the content of the external stimulus and the characteristic eye movement information are associated with each other. ユーザの頭部に装着され得るアイウエアであって、
前記ユーザの眼電位に基づいて前記ユーザの少なくとも上下動、左右動、瞬目、目瞑りを含む眼動を検出する眼動検出部と、
前記眼動が検出されるときのタイミングを計測するタイマと、
前記眼動に基づく情報処理を行う情報処理部と、
を備え、
自身を特定できるデバイスIDを持ち、
前記ユーザに所定の心身状態を推定するための眼動のパターンに関連する映像を含む外部刺激が与えられたときの前記ユーザの特徴的な眼動を前記眼動検出部により検出し、
前記特徴的な眼動が検出されたときのタイミングを前記タイマにより計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定できるように構成したアイウエア。
Eyewear that can be worn on the user's head,
An eye movement detection unit that detects eye movement including at least vertical movement, left-right movement, blinking, and eye meditation based on the user's electrooculogram;
A timer for measuring timing when the eye movement is detected;
An information processing unit for performing information processing based on the eye movement;
With
It has a device ID that can identify itself,
The eye movement detection unit detects characteristic eye movement of the user when an external stimulus including an image related to an eye movement pattern for estimating a predetermined psychosomatic state is given to the user,
The timer measures the timing when the characteristic eye movement is detected,
Eyewear configured to be able to estimate the state of mind of the user from the correspondence between the content of the external stimulus at the measured timing and the content of the characteristic eye movement at the measured timing.
アイウエアを装着したユーザの眼電位に基づいて前記ユーザの少なくとも上下動、左右動、瞬目、目瞑りを含む眼動を検出し、前記眼動が検出されるときのタイミングを計測し、前記眼動に基づく情報処理を行う構成を用いる心身状態推定方法において、
前記アイウエアを装着した前記ユーザに所定の心身状態を推定するための眼動のパターンに関連する映像を含む外部刺激が与えられたときの前記ユーザの特徴的な眼動を検出し、
前記特徴的な眼動が検出されたときのタイミングを計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定するように構成した心身状態推定方法。
Detecting eye movement including at least vertical movement, left-right movement, blinking, eye meditation of the user based on the electrooculogram of the user wearing the eyewear, measuring timing when the eye movement is detected, In a psychosomatic state estimation method using a configuration for performing information processing based on eye movements,
Detecting a characteristic eye movement of the user when an external stimulus including an image related to an eye movement pattern for estimating a predetermined psychosomatic state is given to the user wearing the eyewear;
Measure the timing when the characteristic eye movement is detected,
A psychosomatic state estimation method configured to estimate the psychosomatic state of the user from a correspondence relationship between the content of the external stimulus at the measured timing and the characteristic eye movement content at the measured timing.
検出された前記特徴的な眼動が所定回数未満の瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容に集中した状態であると推定し、あるいは、
検出された前記特徴的な眼動が所定回数以上連続した瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する請求項5の方法。
If the detected characteristic eye movement is blinking less than a predetermined number of times, it is estimated that the state of mind of the user is concentrated on the content of the external stimulus at the measured timing, or
If the detected characteristic eye movement is a blink that continues for a predetermined number of times or more, it is estimated that the state of mind of the user is stressed by the content of the external stimulus at the measured timing. Method 5.
目瞑りが検出されてのち最初の瞬目が検出されるまでの時間間隔に応じて前記ユーザの心身状態を推定する請求項5の方法。   The method according to claim 5, wherein the state of mind and body of the user is estimated according to a time interval from when eye meditation is detected until the first blink is detected. 輝点の有無または輝点の移動を被験者に対する検査用外部刺激として用いる視野検査において、
検出された前記特徴的な眼動が所定回数未満の瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容に集中した状態であると推定し、あるいは、
検出された前記特徴的な眼動が眼球の上下動または回転を示す眼電波形であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する請求項5の方法。
In the visual field test using the presence or absence of bright spots or the movement of bright spots as an external stimulus for the test,
If the detected characteristic eye movement is blinking less than a predetermined number of times, it is estimated that the state of mind of the user is concentrated on the content of the external stimulus at the measured timing, or
If the detected characteristic eye movement is an electrooculogram that indicates the vertical movement or rotation of the eyeball, the state of mind of the user is stressed by the content of the external stimulus at the measured timing. The method of claim 5 for estimating.
ラピッドアイモーションの有無を被験者の睡眠中の状態変化検出に用いる睡眠検査において、
検出された前記特徴的な眼動が、特定時間以上の睡眠に対応するものであり、その睡眠期間中にラピッドアイモーションを示す眼電波形が検出されれば、前記ユーザの心身状態がレム睡眠状態であると推定し、あるいは、
検出された前記特徴的な眼動が、特定時間以上の睡眠に対応するものであり、その睡眠期間中にラピッドアイモーションを示す眼電波形が検出されなければ、前記ユーザの心身状態がノンレム睡眠状態であると推定する請求項5の方法。
In a sleep test that uses the presence or absence of rapid eye motion to detect changes in the state of the subject during sleep,
If the detected characteristic eye movement corresponds to sleep of a specific time or more and an electrooculogram showing rapid eye motion is detected during the sleep period, the psychosomatic state of the user is REM sleep. Presumed to be in a state, or
If the detected characteristic eye movement corresponds to sleep of a specific time or more and an electrooculogram showing rapid eye motion is not detected during the sleep period, the psychosomatic state of the user is non-REM sleep. 6. The method of claim 5, wherein the method is estimated to be a condition.
アイウエアのデバイス形態を採る眼動検出部であり、このアイウエアを装着したユーザの眼電位に基づいて前記ユーザの眼動を検出する眼動検出部と、
前記眼動が検出されるときのタイミングを計測するタイマと、
前記眼動に基づく情報処理を行う情報処理部と、
を備えた心身状態推定装置において、
前記アイウエアを装着した前記ユーザに外部刺激が与えられたときの前記ユーザの特徴的な眼動を前記眼動検出部により検出し、
前記特徴的な眼動が検出されたときのタイミングを前記タイマにより計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定できるように構成し、
前記外部刺激の内容を特定する情報と前記特徴的な眼動の情報とを相互に対応付けた調査情報を、外部サーバへ提供する手段をさらに具備した心身状態推定装置。
An eye movement detection unit that adopts a device form of eyewear, and an eye movement detection unit that detects the eye movement of the user based on the electrooculogram of the user wearing the eyewear,
A timer for measuring timing when the eye movement is detected;
An information processing unit for performing information processing based on the eye movement;
In the psychosomatic state estimation device comprising:
Detecting the eye movement characteristic of the user when an external stimulus is given to the user wearing the eyewear by the eye movement detector;
The timer measures the timing when the characteristic eye movement is detected,
From the correspondence between the content of the external stimulus at the measured timing and the content of the characteristic eye movement at the measured timing, the psychosomatic state of the user can be estimated,
A psychosomatic state estimating apparatus further comprising means for providing, to an external server, survey information in which information specifying the content of the external stimulus and the characteristic eye movement information are associated with each other.
前記外部刺激の内容を特定する情報と、前記特徴的な眼動の情報を記憶するメモリをさらに具備した請求項10記載の装置。   The apparatus according to claim 10, further comprising a memory that stores information for specifying contents of the external stimulus and information about the characteristic eye movement. 前記眼動検出部は自身を特定できるデバイスIDを持つ請求項10記載の装置。   The apparatus according to claim 10, wherein the eye movement detection unit has a device ID capable of identifying itself. 前記眼動検出部は、前記ユーザの少なくとも上下動、左右動、瞬目、目瞑りを含む眼動を検出する請求項10記載の装置。   The apparatus according to claim 10, wherein the eye movement detection unit detects eye movement including at least vertical movement, left-right movement, blinking, and eye meditation of the user. アイウエアを装着したユーザの眼電位に基づいて前記ユーザの眼動を検出し、前記眼動が検出されるときのタイミングを計測し、前記眼動に基づく情報処理を行う構成を用いる心身状態推定方法において、
前記アイウエアを装着したユーザに外部刺激が与えられたときの前記ユーザの特徴的な眼動を検出し、
前記特徴的な眼動が検出されたときのタイミングを計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定し、
前記外部刺激の内容を特定する情報と前記特徴的な眼動の情報とを相互に対応付けた調査情報を、外部サーバへ提供するように構成した心身状態推定方法。
Psychosomatic state estimation using a configuration that detects eye movement of the user based on the electrooculogram of the user wearing eyewear, measures timing when the eye movement is detected, and performs information processing based on the eye movement In the method
Detecting a characteristic eye movement of the user when an external stimulus is given to the user wearing the eyewear;
Measure the timing when the characteristic eye movement is detected,
From the correspondence between the content of the external stimulus at the measured timing and the characteristic eye movement content at the measured timing, the psychosomatic state of the user is estimated,
A psychosomatic state estimation method configured to provide, to an external server, survey information in which information specifying the content of the external stimulus and the characteristic eye movement information are associated with each other.
検出された前記特徴的な眼動が所定回数未満の瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容に集中した状態であると推定し、あるいは、
検出された前記特徴的な眼動が所定回数以上連続した瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する請求項14記載の方法。
If the detected characteristic eye movement is blinking less than a predetermined number of times, it is estimated that the state of mind of the user is concentrated on the content of the external stimulus at the measured timing, or
If the detected characteristic eye movement is a blink that continues for a predetermined number of times or more, it is estimated that the state of mind of the user is stressed by the content of the external stimulus at the measured timing. 14. The method according to 14.
目瞑りが検出されてのち最初の瞬目が検出されるまでの時間間隔に応じて前記ユーザの心身状態を推定する請求項14記載の方法。   The method according to claim 14, wherein the state of mind and body of the user is estimated according to a time interval from when eye meditation is detected until the first blink is detected. 輝点の有無または輝点の移動を被験者に対する検査用外部刺激として用いる視野検査において、
検出された前記特徴的な眼動が所定回数未満の瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容に集中した状態であると推定し、あるいは、
検出された前記特徴的な眼動が眼球の上下動または回転を示す眼電波形であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する請求項14記載の方法。
In the visual field test using the presence or absence of bright spots or the movement of bright spots as an external stimulus for the test,
If the detected characteristic eye movement is blinking less than a predetermined number of times, it is estimated that the state of mind of the user is concentrated on the content of the external stimulus at the measured timing, or
If the detected characteristic eye movement is an electrooculogram that indicates the vertical movement or rotation of the eyeball, the state of mind of the user is stressed by the content of the external stimulus at the measured timing. The method of claim 14 to estimate.
ラピッドアイモーションの有無を被験者の睡眠中の状態変化検出に用いる睡眠検査において、
検出された前記特徴的な眼動が、特定時間以上の睡眠に対応するものであり、その睡眠期間中にラピッドアイモーションを示す眼電波形が検出されれば、前記ユーザの心身状態がレム睡眠状態であると推定し、あるいは、
検出された前記特徴的な眼動が、特定時間以上の睡眠に対応するものであり、その睡眠期間中にラピッドアイモーションを示す眼電波形が検出されなければ、前記ユーザの心身状態がノンレム睡眠状態であると推定する請求項14記載の方法。
In a sleep test that uses the presence or absence of rapid eye motion to detect changes in the state of the subject during sleep,
If the detected characteristic eye movement corresponds to sleep of a specific time or more and an electrooculogram showing rapid eye motion is detected during the sleep period, the psychosomatic state of the user is REM sleep. Presumed to be in a state, or
If the detected characteristic eye movement corresponds to sleep of a specific time or more and an electrooculogram showing rapid eye motion is not detected during the sleep period, the psychosomatic state of the user is non-REM sleep. The method of claim 14, wherein the method is estimated to be a condition.
前記ユーザの眼動は、前記ユーザの少なくとも上下動、左右動、瞬目、目瞑りを含む請求項15記載の方法。   The method according to claim 15, wherein the eye movement of the user includes at least vertical movement, left-right movement, blinking, and eye meditation of the user.
JP2016042501A 2016-03-04 2016-03-04 Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear Active JP6396351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016042501A JP6396351B2 (en) 2016-03-04 2016-03-04 Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016042501A JP6396351B2 (en) 2016-03-04 2016-03-04 Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018151694A Division JP2018202191A (en) 2018-08-10 2018-08-10 Eyewear, data collection system and data collection method

Publications (2)

Publication Number Publication Date
JP2017153887A JP2017153887A (en) 2017-09-07
JP6396351B2 true JP6396351B2 (en) 2018-09-26

Family

ID=59808991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016042501A Active JP6396351B2 (en) 2016-03-04 2016-03-04 Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear

Country Status (1)

Country Link
JP (1) JP6396351B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11806078B1 (en) 2022-05-01 2023-11-07 Globe Biomedical, Inc. Tear meniscus detection and evaluation system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7023504B2 (en) * 2018-03-22 2022-02-22 国立研究開発法人科学技術振興機構 Processing equipment, processing methods, and programs
KR102516751B1 (en) * 2018-03-22 2023-03-31 재팬 사이언스 앤드 테크놀로지 에이전시 Processing device, processing method, data processing device, data processing system, data processing method and program
US11137612B2 (en) * 2018-09-12 2021-10-05 Apple Inc. Electronic device with adjustable support structures
JP7236852B2 (en) * 2018-12-03 2023-03-10 株式会社ジンズホールディングス nose pads and eyewear
CN111310713B (en) * 2020-03-06 2023-05-30 杭州融梦智能科技有限公司 Goods sorting method based on augmented reality and intelligent wearable equipment
JP2021035499A (en) * 2020-10-14 2021-03-04 株式会社東芝 Eyewear, data collection system and data collection method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09635A (en) * 1995-06-21 1997-01-07 Nissan Motor Co Ltd Relaxation system
JP2007130212A (en) * 2005-11-10 2007-05-31 Sharp Corp Psychological state amplifying apparatus and computer program
US7727139B2 (en) * 2006-10-20 2010-06-01 Daniel Topp Dream detection system
JP4655035B2 (en) * 2006-12-27 2011-03-23 トヨタ自動車株式会社 Dozing detection device, dozing detection method
JP2013215356A (en) * 2012-04-06 2013-10-24 Panasonic Corp Eye fatigue measuring apparatus and method thereof
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method
FR2997528B1 (en) * 2012-10-26 2021-10-15 Oberthur Technologies BIOMETRIC IDENTIFICATION

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11806078B1 (en) 2022-05-01 2023-11-07 Globe Biomedical, Inc. Tear meniscus detection and evaluation system

Also Published As

Publication number Publication date
JP2017153887A (en) 2017-09-07

Similar Documents

Publication Publication Date Title
JP6396351B2 (en) Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear
US10901509B2 (en) Wearable computing apparatus and method
Tian et al. A review of cybersickness in head-mounted displays: raising attention to individual susceptibility
US11815951B2 (en) System and method for enhanced training using a virtual reality environment and bio-signal data
US20170293356A1 (en) Methods and Systems for Obtaining, Analyzing, and Generating Vision Performance Data and Modifying Media Based on the Vision Performance Data
Gullberg et al. Keeping an eye on gestures: Visual perception of gestures in face-to-face communication
Chung et al. Involuntary attention restoration during exposure to mobile-based 360 virtual nature in healthy adults with different levels of restorative experience: Event-related potential study
KR20190095671A (en) Virtual reality head mounted display for showing user&#39;s status and user status display method and content control method using the system
JP2006293979A (en) Content providing system
US20120194648A1 (en) Video/ audio controller
US11779275B2 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
JP7066115B2 (en) Public speaking support device and program
Mandel et al. Brain responds to another person's eye blinks in a natural setting—the more empathetic the viewer the stronger the responses
JP2018202191A (en) Eyewear, data collection system and data collection method
US20190274630A1 (en) Output control device, output control method, and program
JP2021035499A (en) Eyewear, data collection system and data collection method
EP4331489A1 (en) Sound-based attentive state assessment
JP2005044150A (en) Data collecting device
KR101564042B1 (en) A method on the characteristics of space search shown at observation seen in the process of perception and recognition of space and system thereof
Tan et al. Mindful Moments: Exploring On-the-go Mindfulness Practice On Smart-glasses
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
KR20190101336A (en) Virtual reality head mounted display system for showing user&#39;s status
CN117677345A (en) Enhanced meditation experience based on biofeedback
Toyosawa et al. Video digest based on heart rate
Tag Doctoral Dissertation Academic Year 2018

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180829

R151 Written notification of patent or utility model registration

Ref document number: 6396351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151