JP2021035499A - Eyewear, data collection system and data collection method - Google Patents

Eyewear, data collection system and data collection method Download PDF

Info

Publication number
JP2021035499A
JP2021035499A JP2020173309A JP2020173309A JP2021035499A JP 2021035499 A JP2021035499 A JP 2021035499A JP 2020173309 A JP2020173309 A JP 2020173309A JP 2020173309 A JP2020173309 A JP 2020173309A JP 2021035499 A JP2021035499 A JP 2021035499A
Authority
JP
Japan
Prior art keywords
user
eye movement
eyewear
eye
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020173309A
Other languages
Japanese (ja)
Inventor
広昭 古牧
Hiroaki Komaki
広昭 古牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020173309A priority Critical patent/JP2021035499A/en
Publication of JP2021035499A publication Critical patent/JP2021035499A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eyeglasses (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To estimate a psychosomatic state of a person using an eyewear with an EOG.SOLUTION: A psychosomatic state estimation device in one embodiment is used in an eyewear device mode. Based on an eye potential of a user who wears the above mentioned eyewear, characteristics eye motion (nictation, shutting one's eyes, vertical and lateral motion and rotation of eyeballs) is detected. Then, characteristic eye motion and external stimulation (for example, stimulation to five senses of a human being in various scenes in a movie or video) are associated and recorded by a time code, and both of them can be compared and examined (characteristic eye motion and external stimulation). By examining in advance, correspondence between a pattern of characteristic eye motion and a psychosomatic state of a user (expression of emotion such as crying, laughing and becoming angry, motivation, gathering one's thoughts, fatigue, stress, sleep), it is possible to estimate which psychosomatic state the user is in, by a specific external stimulation.SELECTED DRAWING: Figure 4

Description

この発明の実施形態は、眼電位センシング技術を応用したアイウエア、データ収集システム及びデータ収集方法に関する。 Embodiments of the present invention relate to eyewear, data collection systems, and data collection methods to which electro-oculography sensing technology is applied.

眼電位センシング技術に関しては、公知例1がある(特許文献1参照)。この公知例1では、眼電位センシングにEOG(Electro−Oculography)電極を用い、EOG電極から取得した眼電データよりユーザの眼球運動を検出している(段落0023)。公知例1の実施形態ではEOG電極をゴーグルに設けているが(段落0061)、EOG用の電極をメガネのノーズパッド部に設けた公知例2もある(特許文献2、段落0013参照)。ゴーグルやメガネは、一般の人々が手軽に使用できるアイウエアの一種である。 Regarding the electro-oculography sensing technique, there is a known example 1 (see Patent Document 1). In this known example 1, an EOG (Electro-Oculografy) electrode is used for electro-oculography sensing, and the user's eye movement is detected from the electrooculographic data acquired from the EOG electrode (paragraph 0023). In the embodiment of Known Example 1, the EOG electrode is provided on the goggles (paragraph 0061), but there is also Known Example 2 in which the electrode for EOG is provided on the nose pad portion of the glasses (see Patent Document 2, paragraph 0013). Goggles and glasses are a type of eyewear that can be easily used by the general public.

特開2009−288529号公報Japanese Unexamined Patent Publication No. 2009-288529 特開2013−244370号公報Japanese Unexamined Patent Publication No. 2013-244370

EOGはアイウエアとの相性がよく、EOG付きアイウエアはその応用が色々研究されている。しかし、その応用範囲は研究され尽くしたとはいえず、EOG付きアイウエアの応用には新規な可能性が残されている。 EOG is compatible with eyewear, and various applications of eyewear with EOG have been studied. However, its application range has not been completely researched, and new possibilities remain for the application of eyewear with EOG.

例えば、映画館において上映作品の観客反応を観察しようとすると、映画鑑賞を妨げずに暗闇の中で多人数に対する観察を行わなければならない。しかしそのような観察は実施困難なため、現実的には映画鑑賞後の出口調査となってしまう。この場合、例えば上映時間が2時間のストーリーを数十秒で各観客に思い返して貰うことなる。しかし、観客が複数のシーンに感動してからそれらの印象を思い返すときまでに少なからぬ時間が経過しているため、上映作品に対する出口調査の結果は、大枠に限られたり的を絞った情報量の少ないものとなってしまう。ここで欲しい調査結果の内容は、例えば、上映作品の種々なシーンにおいて、観客にどのような感情が誘発されたのか、観客が集中して観たのか、観客に疲労やストレスがあったのか、居眠りしてしまったのか等の心身状態の推定に役立つ内容のものである。(この心身状態は、外部刺激に対する人々の反応あるいは評価がどうであったのかに関係する。)しかし、そのような調査内容を出口調査で得るのは難しい。 For example, when observing the audience reaction of a screening work in a movie theater, it is necessary to observe a large number of people in the dark without interfering with watching the movie. However, since such an observation is difficult to carry out, it is actually an exit poll after watching a movie. In this case, for example, a story with a screening time of 2 hours will be recollected by each audience in several tens of seconds. However, since a considerable amount of time has passed since the audience was impressed by multiple scenes and recalled their impressions, the results of exit polls for the screenings were limited to a broad outline or a targeted amount of information. Will be less. The contents of the survey results I want here are, for example, what kind of emotions were induced in the audience in various scenes of the screening work, whether the audience concentrated on watching, and whether the audience was tired or stressed. It is useful for estimating the mental and physical condition such as whether you have fallen asleep. (This state of mind and body is related to how people responded to or evaluated external stimuli.) However, it is difficult to obtain such findings from exit polls.

例えば上に挙げたような問題(状況により変化し得る人々の心身状態の推定が困難)に対してEOG付きアイウエアをどのように利用すればよいのかについては、これまで分かっていなかった。 For example, it has not been known how to use eyewear with EOG for the above-mentioned problems (it is difficult to estimate the mental and physical condition of people who can change depending on the situation).

この発明の実施形態により解決しようとする課題の1つは、EOG付きアイウエアを利用してデータを収集することである。 One of the problems to be solved by the embodiment of the present invention is to collect data by using eyewear with EOG.

一実施の形態に係るアイウエアは、検出部と、計測部と、情報処理部と、送信部と、を具備する。 The eyewear according to the embodiment includes a detection unit, a measurement unit, an information processing unit, and a transmission unit.

前記検出部は、特定の外部刺激が与えられたときのユーザの眼電位に基づいて特定の眼動を検出する。前記計測部は、前記検出部が前記特定の眼動を検出するときのタイミングを計測する。前記情報処理部は、前記計測部により計測された前記特定の眼動の検出タイミングにおける前記特定の外部刺激の内容と前記検出タイミングにおける前記特定の眼動の内容との対応関係から、前記ユーザの心身状態を推定する。前記送信部は、前記検出部により検出される前記特定の眼動の内容に関する情報と、前記計測部により計測された前記特定の眼動の検出タイミングに関する情報と、デバイス識別情報とからなる検出データをサーバに送信する。 The detection unit detects a specific eye movement based on the user's electro-oculography when a specific external stimulus is given. The measuring unit measures the timing when the detecting unit detects the specific eye movement. The information processing unit is based on the correspondence between the content of the specific external stimulus at the detection timing of the specific eye movement measured by the measurement unit and the content of the specific eye movement at the detection timing. Estimate the mental and physical condition. The transmission unit includes detection data including information on the content of the specific eye movement detected by the detection unit, information on the detection timing of the specific eye movement measured by the measurement unit, and device identification information. To the server.

一実施の形態に係る心身状態推定装置用の情報処理部11が組み込まれたメガネ型アイウエアを説明する図(EOG電極がノーズパッドに配置されたARメガネの例)。The figure explaining the glasses-type eyewear which incorporated the information processing unit 11 for the mind-body state estimation apparatus which concerns on one Embodiment (an example of AR glasses which arranged the EOG electrode on the nose pad). 一実施の形態に係るメガネ型アイウエアにおけるEOG電極の実装例を説明する図。The figure explaining the mounting example of the EOG electrode in the eyeglass type eyewear which concerns on one Embodiment. 種々な実施の形態に取り付け可能な情報処理部11と、その周辺デバイスとの関係を説明する図。The figure explaining the relationship between the information processing unit 11 which can be attached to various embodiments, and the peripheral device thereof. アイウエアを装着したユーザの種々な眼動(瞬目、目瞑り、視線移動、眼球回転など)と、図2に示す3つのアナログ/デジタルコンバータ(ADC)から得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図(EOG)。Various eye movements (blinking, eye closure, eye movement, eye rotation, etc.) of the user wearing eyewear and detection signal levels (Ch0, Ch1) obtained from the three analog-to-digital converters (ADCs) shown in FIG. , Ch2), an electrooculogram (EOG) illustrating the relationship. 第1の実施形態に係る心身状態推定方法の一例を説明するフローチャート。The flowchart explaining an example of the mind-body state estimation method which concerns on 1st Embodiment. 第2の実施形態に係る心身状態推定方法の一例を説明するフローチャート。The flowchart explaining an example of the mind-body state estimation method which concerns on 2nd Embodiment. 第3の実施形態に係る心身状態推定方法の一例を説明するフローチャート。The flowchart explaining an example of the mind-body state estimation method which concerns on 3rd Embodiment. 第4の実施形態に係る心身状態推定方法の一例を説明するフローチャート。The flowchart explaining an example of the mind-body state estimation method which concerns on 4th Embodiment. 他の実施形態におけるEOG電極の実装例を説明する図。The figure explaining the mounting example of the EOG electrode in another embodiment. 他の実施形態に係るメガネ型アイウエアにおけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの例)。The figure explaining the mounting example of the EOG electrode in the eyeglass type eyewear which concerns on another embodiment (the example of AR glasses in which the EOG electrode is arranged around the eyeball). さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイフレームが連続したタイプ)におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの他の例)。The figure explaining the mounting example of the EOG electrode in the goggle type eyewear (the type in which the eye frames of both left and right eyes are continuous) according to still another embodiment (another example of AR glasses in which the EOG electrode is arranged around the eyeball). .. さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイカップが分離したタイプ)におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネのさらに他の例)。The figure explaining the mounting example of the EOG electrode in the goggle type eyewear (the type in which the eye cups of both left and right eyes are separated) according to still another embodiment (the other example of AR glasses in which the EOG electrode is arranged around the eyeball). ).

以下、初めに基礎的な情報を提供し、続いて、図面を参照しながら種々な実施形態を説明する。 Hereinafter, basic information will be provided first, and then various embodiments will be described with reference to the drawings.

<基礎情報>
成人の眼球の直径は約25mm。生後は17mm程度で、成長に伴い大きくなる。
成人男性の瞳孔間距離は約65mm。(一般市販のステレオカメラは65mmの間隔で作られている物が多い。)
成人女性の瞳孔間距離は男性に比べて数mm短い。
眼電位は数十mV。
眼球は角膜側にプラス、網膜側にマイナスの電位を持つ。これを皮膚の表面で測定すると数百μVの電位差として現れる。
<Basic information>
The diameter of an adult eyeball is about 25 mm. It is about 17 mm after birth and grows as it grows.
The interpupillary distance of an adult male is about 65 mm. (Many commercially available stereo cameras are made at intervals of 65 mm.)
The interpupillary distance of adult females is several millimeters shorter than that of males.
The electrooculogram is several tens of mV.
The eyeball has a positive potential on the corneal side and a negative potential on the retina side. When this is measured on the surface of the skin, it appears as a potential difference of several hundred μV.

なお、眼動検出に関係する眼球運動の種類および眼球の移動範囲としては、例えば以下のものがある:<眼球運動(眼動)の種類>(01)補償性眼球運動
頭や身体の動きにかかわらず、外界の像を網膜上で安定させるために発達した、非随意的な眼球運動。
The types of eye movements and the range of eye movements related to eye movement detection include, for example: <Types of eye movements (eye movements)> (01) Compensatory eye movements For head and body movements Regardless, involuntary eye movements developed to stabilize the image of the outside world on the retina.

(02)随意性眼球運動
視対像を網膜上の中心にくるようにするために発達した眼球運動であり、随意的なコントロールが可能な運動。
(02) Voluntary eye movement This is an eye movement developed to bring the visual pair image to the center on the retina, and is a movement that can be controlled voluntarily.

(03)衝撃性眼球運動(サッケード)
物を見ようとして注視点を変えるときに発生する眼球運動(検出し易い)。
(03) Impact eye movement (saccade)
Eye movement (easy to detect) that occurs when changing the gazing point to see an object.

(04)滑動性眼球運動
ゆっくりと移動する物体を追尾するときに発生する滑らかな眼球運動(検出し難い)。
(04) Sliding eye movement Smooth eye movement (difficult to detect) that occurs when tracking a slowly moving object.

<眼球の移動範囲(一般的な成人の場合)>(11)水平方向
左方向: 50°以下
右方向: 50°以下(12)垂直方向
下方向: 50°以下
上方向: 30°以下(自分の意思で動かせる垂直方向の角度範囲は、上方向だけ狭い。(閉眼すると眼球が上転する「ベル現象」があるため、閉眼すると垂直方向の眼球移動範囲は上方向にシフトする。)(13)その他
輻輳角: 20°以下。
<Eye movement range (for general adults)> (11) Horizontal direction Left direction: 50 ° or less Right direction: 50 ° or less (12) Vertical direction Down direction: 50 ° or less Up direction: 30 ° or less (self The vertical angle range that can be moved by the intention of is narrow only in the upward direction. (Because there is a "bell phenomenon" in which the eyeball rolls up when the eye is closed, the vertical eyeball movement range shifts upward when the eye is closed.) (13 ) Others Convergence angle: 20 ° or less.

<瞬目から推定しようとする対象に>ついて
・集中度の推定では、単純な瞬目頻度の変化から、ストーリーに対する時間軸上での瞬目発生タイミングを調べる。
<For the target to be estimated from the blink> -In the estimation of the degree of concentration, the timing of the blink occurrence on the time axis with respect to the story is investigated from the simple change in the blink frequency.

・緊張/ストレスの推定では、瞬目の発生頻度の変化を調べる。 ・ For tension / stress estimation, examine changes in the frequency of blinks.

・眠気の推定では、瞬目群発、瞬目時間/瞬目速度の変化を調べる。 ・ In estimating drowsiness, the change in blinking group and blinking time / blinking speed is examined.

・感情や体調その他の心身状態の推定については、今後の研究に委ねられる部分が多いが、本願実施形態では、感情や体調その他の心身状態の推定を行おうとする技術思想があることを、例示している。 -The estimation of emotions, physical condition, and other mental and physical conditions is largely left to future research, but in the embodiment of the present application, it is illustrated that there is a technical idea for estimating emotions, physical condition, and other mental and physical conditions. doing.

図1は、一実施の形態に係る心身状態推定装置用の情報処理部11が組み込まれたメガネ型アイウエア100を説明する図(EOG電極がノーズパッドに配置された例)である。この実施形態では、右アイフレーム(右リム)101と左アイフレーム(左リム)102がブリッジ103連結されている。左右アイフレーム102、101およびブリッジ103は、例えばアルミ合金、チタンなどで構成できる。左アイフレーム102の左外側は左ヒンジ104を介して左テンプルバー106に繋がり、左テンプルバー106の先端に左モダン(左イヤーパッド)108が設けられている。同様に、右アイフレーム101の右外側は右ヒンジ105を介して右テンプルバー107に繋がり、右テンプルバー107の先端に右モダン(右イヤーパッド)109が設けられている。 FIG. 1 is a diagram illustrating a glasses-type eyewear 100 in which an information processing unit 11 for a mental / physical state estimation device according to an embodiment is incorporated (an example in which an EOG electrode is arranged on a nose pad). In this embodiment, the right eye frame (right rim) 101 and the left eye frame (left rim) 102 are connected to the bridge 103. The left and right eye frames 102, 101 and the bridge 103 can be made of, for example, an aluminum alloy or titanium. The left outer side of the left eye frame 102 is connected to the left temple bar 106 via a left hinge 104, and a left modern (left ear pad) 108 is provided at the tip of the left temple bar 106. Similarly, the right outer side of the right eye frame 101 is connected to the right temple bar 107 via the right hinge 105, and the right modern (right ear pad) 109 is provided at the tip of the right temple bar 107.

右テンプルバー107(または左テンプルバー106)内には、には、情報処理部11(数ミリ角の集積回路)が取り付けられている。この情報処理部11は、数十MIPS以上の処理能力を持つマイクロコンピュータ、数十MB以上のフリーエリアを持つフラッシュメモリ(EEPROM)、BlueTooth(登録商標)やUSBなどを利用した通信処理部、1以上のADC(Analog−to−Digital Converter)その他が集積されたLSIにより構成できる(情報処理部11の詳細については、図3を参照して後述する)。 An information processing unit 11 (integrated circuit of several millimeters square) is mounted in the right temple bar 107 (or the left temple bar 106). The information processing unit 11 is a communication processing unit using a microcomputer having a processing capacity of several tens of MIPS or more, a flash memory (EEPROM) having a free area of several tens of MB or more, BlueTooth (registered trademark), USB, or the like. It can be configured by an LSI in which the above-mentioned ADC (Analog-to-Digital Computer) and others are integrated (details of the information processing unit 11 will be described later with reference to FIG. 3).

リチウムイオン電池などの小型電池(BAT)が、例えば左テンプルバー106内(あるいは右テンプルバー107内、もしくはモダン108または109内)に埋め込まれ、メガネ型アイウエア100の動作に必要な電源となっている。 A small battery (BAT) such as a lithium-ion battery is embedded in, for example, the left temple bar 106 (or the right temple bar 107, or the modern 108 or 109) to serve as a power source necessary for the operation of the eyeglass-type eyewear 100. ing.

左ヒンジ104寄りの左アイフレーム102端部には、左カメラ13Lが取り付けられ、右ヒンジ105寄りの右アイフレーム101端部には、右カメラ13Rが取り付けられている。これらのカメラは、超小型のCCDイメージセンサを用いて構成できる。 A left camera 13L is attached to the end of the left eye frame 102 near the left hinge 104, and a right camera 13R is attached to the end of the right eye frame 101 near the right hinge 105. These cameras can be configured using an ultra-small CCD image sensor.

これらのカメラ(13L、13R)は、ステレオカメラを構成するものでもよい。あるいはこれらのカメラの位置に赤外線カメラ(13R)とレーザー(13L)を配置し、赤外線カメラ+レーザーによる距離センサを構成してもよい。この距離センサは、超音波を集音する小型半導体マイク(13R)と超音波を放射する小型圧電スピーカー(13L)などで構成することもできる。 These cameras (13L, 13R) may constitute a stereo camera. Alternatively, an infrared camera (13R) and a laser (13L) may be arranged at the positions of these cameras to form a distance sensor using an infrared camera and a laser. This distance sensor can also be composed of a small semiconductor microphone (13R) that collects ultrasonic waves and a small piezoelectric speaker (13L) that radiates ultrasonic waves.

上記距離センサにより、ユーザの視線の先にある目視対象物と左右フレーム101/102との間の距離が分かる。メガネフレームのデザインにもよるが、ユーザの眼球位置は左右フレーム101/102から40〜50mmほど後頭部側へ奥まった位置にずれており、大人の瞳孔間距離は65mmくらいある。この瞳孔間距離65mmと、前記距離センサで測った距離をフレームから眼球位置までのずれで補正した距離とから、ユーザが目視対象物を見ているときの輻輳角(より目の角度)を、算出できる。フレームから目視対象物までの距離がフレームから眼球位置までのずれ量よりずっと大きいときは、このずれ量を無視しても、輻輳角を大まかに算出できる。 With the distance sensor, the distance between the visual object in front of the user's line of sight and the left and right frames 101/102 can be known. Although it depends on the design of the spectacle frame, the position of the user's eyeball is shifted from the left and right frames 101/102 to a position recessed about 40 to 50 mm toward the back of the head, and the interpupillary distance of an adult is about 65 mm. From the interpupillary distance of 65 mm and the distance measured by the distance sensor corrected by the deviation from the frame to the eyeball position, the convergence angle (more eye angle) when the user is looking at the visual object is determined. Can be calculated. When the distance from the frame to the visual object is much larger than the deviation amount from the frame to the eyeball position, the convergence angle can be roughly calculated even if this deviation amount is ignored.

なお、左右カメラ13L/13Rの代わりに、あるいは左右カメラ13L/13Rに加えて、ブリッジ103部分に図示しない中央カメラを設ける実施形態も考えられる。逆に、カメラを全く装備しない実施形態もあり得る。(これらのカメラは、図3ではカメラ13として示されている。これらのカメラや外線カメラ+レーザーによる距離センサは、オプション扱いとすることができ、アイウエア100の用途に応じて適宜設ければよい。)
左アイフレーム102には左ディスプレイ12Lがはめ込まれ、右アイフレーム101には右ディスプレイ12Rがはめ込まれている。このディスプレイは、左右のアイフレームの少なくとも一方に設けられ、フィルム液晶などを用いて構成できる。具体的には、偏光板を用いないポリマー分散型液晶(PDLC)を採用したフィルム液晶表示デバイスを用いて、左右のディスプレイ12L、12Rの一方または両方を構成できる。(このディスプレイは、図3ではディスプレイ12として示されている。)
フィルム液晶を利用した透明な左右ディスプレイ12L/12Rは、メガネを通して見える現実の世界に数字や文字などの画像情報を付加させる拡張現実(AR:Augmented Reality)を提供する手段として、利用できる。
In addition, instead of the left and right cameras 13L / 13R, or in addition to the left and right cameras 13L / 13R, an embodiment in which a central camera (not shown) is provided on the bridge 103 portion is also conceivable. On the contrary, there may be an embodiment in which the camera is not equipped at all. (These cameras are shown as the camera 13 in FIG. 3. These cameras and the distance sensor by the outside line camera + laser can be treated as an option, and can be appropriately provided according to the application of the eyewear 100. Good.)
The left display 12L is fitted in the left eye frame 102, and the right display 12R is fitted in the right eye frame 101. This display is provided on at least one of the left and right eye frames, and can be configured by using a film liquid crystal or the like. Specifically, one or both of the left and right displays 12L and 12R can be configured by using a film liquid crystal display device that employs a polymer-dispersed liquid crystal (PDLC) that does not use a polarizing plate. (This display is shown as display 12 in FIG. 3).
The transparent left and right displays 12L / 12R using a film liquid crystal can be used as a means for providing augmented reality (AR) that adds image information such as numbers and characters to the real world seen through glasses.

左右ディスプレイ12L/12Rのフィルム液晶は、3D映画(または3Dビデオ)を観賞する際に左右の映像を分離する液晶シャッタとして用いることもできる。なお、3Dメガネを構成するにあたっては、液晶シャッタ方式以外に、偏光方式も利用可能である。 The film liquid crystal of the left and right displays 12L / 12R can also be used as a liquid crystal shutter that separates the left and right images when watching a 3D movie (or 3D video). In addition to the liquid crystal shutter method, a polarization method can also be used to configure the 3D glasses.

ユーザの眼球位置と目視対象物との距離が事前に分かっているときは、距離センサがなくても前述した輻輳角を算出できる。例えば、映画館の客席中央でスクリーンから10m離れた座席(座席番号で特定できる位置にある)に座っている観客(瞳孔間距離65mm)の輻輳角は、tan−1[65/10000]くらいになる。左右ディスプレイ12L/12Rにおいて3Dの字幕をAR表示する際は、そのAR表示を見る際の輻輳角が、10m先のスクリーンに投影された3D映像を見るときの輻輳角と同じくらいになるように、AR表示する3D字幕の左右表示位置を制御することができる。そうすれば、AR表示された3D字幕と10m先の3Dスクリーン映像を見続ける際に、目の疲れを軽減できる。 When the distance between the user's eyeball position and the visual object is known in advance, the above-mentioned convergence angle can be calculated without the distance sensor. For example, the convergence angle of a spectator (interpupillary distance 65 mm) sitting in a seat 10 m away from the screen (at a position that can be identified by the seat number) in the center of the audience seat of a movie theater is about tan-1 [65/10000]. Become. When displaying 3D subtitles in AR on the left and right displays 12L / 12R, the convergence angle when viewing the AR display should be about the same as the convergence angle when viewing the 3D image projected on the screen 10 m away. , It is possible to control the left and right display positions of 3D subtitles to be displayed in AR. By doing so, it is possible to reduce eye strain when continuing to view the AR-displayed 3D subtitles and the 3D screen image 10 m away.

3D映画の鑑賞に限らず一般化していうと、ディスプレイが左右に存在する場合は、所望の輻輳角に対応して、左右のディスプレイに表示する画像(図1のIM1、IM2)の映像を左右で逆方向にずらすことができる。これにより、現実世界で見える対象物とAR表示を交互に見る場合の目の負担を減らすことができる。 Generally speaking, not limited to watching 3D movies, when the displays are on the left and right, the images (IM1, IM2 in FIG. 1) to be displayed on the left and right displays are displayed on the left and right according to the desired convergence angle. It can be shifted in the opposite direction. As a result, it is possible to reduce the burden on the eyes when alternately viewing the object visible in the real world and the AR display.

左右のアイフレーム102、101の間であって、ブリッジ103の下側には、ノーズパッド部が設けられる。このノーズパッド部は、左ノーズパッド150Lと右ノーズパッド150Rのペアで構成される。右ノーズパッド150Rには右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lには左ノーズパッド電極152a,152bが設けられている。 A nose pad portion is provided between the left and right eye frames 102 and 101 and below the bridge 103. This nose pad portion is composed of a pair of a left nose pad 150L and a right nose pad 150R. The right nose pad 150R is provided with right nose pad electrodes 151a and 151b, and the left nose pad 150L is provided with left nose pad electrodes 152a and 152b.

これらの電極151a,151b,152a,152bは互いに電気的に分離され、絶縁された配線材(図示せず)を介して、3つのADコンバータ(ADC1510、1520、1512)に接続される。これらのADCからの出力は、アイウエア100を装着したユーザの眼の動きに応じて異なる信号波形を持ち、ユーザの眼動に応じたデジタルデータとして、情報処理部11に供給される。電極151a,151b,152a,152bは、視線検出センサとして用いられ、3つのADCとともに図3の眼動検出部15の構成要素となっている。なお、3つのADCは情報処理部11とともに1つのLSIに組み込むこともできる。また、使用するADCの数は、目的により適宜増減でき、3つという数は一例である(例えば目的が右側の瞬目によるEOG波形を検出するだけの場合は、使用するADCの数はADC1510の1つでよい。目的に応じて、ADCの数は1〜2個で済む場合もあれば4個以上使用する場合もある。)
右ノーズパッド150Rには右マイク(または右振動ピックアップ)16Rが設けられ、左ノーズパッド150Lには左マイク(または左振動ピックアップ)16Lが設けられている。左右のマイク16L/16Rは、例えば超小型のエレクトレットコンデンサマイクで構成できる。また、左右の振動ピックアップ16L/16Rは、例えば圧電素子で構成できる。笑い声、悲鳴、怒号、びっくりしたときの反射的な体動など大きな感情表出に伴い誘発された音や動きは、マイク(または振動ピックアップ)16L/16Rを用いて検出できる(これらのマイクまたは振動ピックアップは、図3ではマイク(または振動ピックアップ)16として示されている)。鼻をすする小さなすすり泣きは、左右のマイク16L/16Rで検出可能である。なお、ユーザの体動は、図3のセンサ部11eが内蔵する加速度センサやジャイロによって検出することもできる。
These electrodes 151a, 151b, 152a, 152b are electrically separated from each other and connected to three AD converters (ADC 1510, 1520, 1512) via an insulated wiring material (not shown). The outputs from these ADCs have different signal waveforms according to the movement of the eyes of the user wearing the eyewear 100, and are supplied to the information processing unit 11 as digital data according to the movements of the eyes of the user. The electrodes 151a, 151b, 152a, 152b are used as eye-gaze detection sensors, and together with the three ADCs, are components of the eye movement detection unit 15 in FIG. The three ADCs can be incorporated into one LSI together with the information processing unit 11. The number of ADCs used can be increased or decreased as appropriate depending on the purpose, and the number of 3 is an example (for example, when the purpose is only to detect the EOG waveform due to the blink on the right side, the number of ADCs used is ADC1510. Only one is required. Depending on the purpose, the number of ADCs may be one or two, or four or more may be used.)
The right nose pad 150R is provided with a right microphone (or right vibration pickup) 16R, and the left nose pad 150L is provided with a left microphone (or left vibration pickup) 16L. The left and right microphones 16L / 16R can be configured by, for example, an ultra-small electret condenser microphone. Further, the left and right vibration pickups 16L / 16R can be configured by, for example, a piezoelectric element. Sounds and movements induced by large emotional expressions such as laughter, screams, angry waves, and reflexive body movements when surprised can be detected using a microphone (or vibration pickup) 16L / 16R (these microphones or vibrations). The pickup is shown as a microphone (or vibration pickup) 16 in FIG. A small sobbing nose can be detected by the left and right microphones 16L / 16R. The user's body movement can also be detected by an acceleration sensor or a gyro built in the sensor unit 11e of FIG.

アイウエア100は、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)によって、図示しないユーザの頭部に固定される。この実施形態では、ユーザの頭部(または顔面)に直接触れるのは、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)だけでよいが、ADC(1510、1520、1512)とユーザのボディとの間の電圧合わせなどのために、それら(ノーズパッド、テンプルバー、モダン)以外の部分がユーザに触れる実施形態があってもよい。 The eyewear 100 is fixed to the user's head (not shown) by the left and right nose pads (150L, 150R), the left and right temple bars (106, 107), and the left and right modern (108, 109). In this embodiment, only the left and right nose pads (150L, 150R), the left and right temple bars (106, 107), and the left and right modern (108, 109) need to directly touch the user's head (or face). However, there may be an embodiment in which parts other than those (nose pad, temple bar, modern) touch the user in order to adjust the voltage between the ADC (1510, 1520, 1512) and the user's body.

図1の右ディスプレイ12Rのフィルム液晶には、例えば、日本語文字(ひらがなカタカナ漢字)、数字、アルファベット、所定形状のマーク、その他のアイコン群を含む右表示画像IM1を表示できる。左ディスプレイ12Lのフィルム液晶にも、IM1と同様な内容の左表示画像IM2を表示できる。 The film liquid crystal of the right display 12R of FIG. 1 can display, for example, a right display image IM1 including Japanese characters (hiragana, katakana, and kanji), numbers, alphabets, marks of a predetermined shape, and other icon groups. The left display image IM2 having the same contents as IM1 can be displayed on the film liquid crystal of the left display 12L.

ディスプレイ12L、12Rの表示内容は、何でも良い。例えば緑内障の視野検査に用いる輝点をディスプレイ12Lまたは12Rで表示することができる。表示を行わないときは表示状態を全面黒表示にして、フィルム液晶を目隠しあるいは遮光シートとして用いることもできる。右ディスプレイ12R(または左ディスプレイ12L)に表示されるテンキーやアルファベットは、数字や文字を入力する際に利用できる。右ディスプレイ12R(または左ディスプレイ12L)に表示される文字列、マーク、アイコン等は、特定の情報項目を探したり、目的の項目の選択/決定したり、ユーザに注意喚起をする際に利用できる。 The display contents of the displays 12L and 12R may be anything. For example, the bright spot used for the visual field test of glaucoma can be displayed on the display 12L or 12R. When the display is not performed, the display state can be set to black on the entire surface, and the film liquid crystal can be used as a blindfold or a light-shielding sheet. The numeric keypad and alphabets displayed on the right display 12R (or left display 12L) can be used when inputting numbers and letters. Character strings, marks, icons, etc. displayed on the right display 12R (or left display 12L) can be used when searching for a specific information item, selecting / determining a target item, or alerting the user. ..

表示画像IM1、IM2は、メガネを通して見える現実の世界に数字、文字、マークなどの情報を付加させる拡張現実(AR)の表示手段として利用でき、このAR表示は適宜オンオフできる。表示画像IM1の内容と表示画像IM2は、実施形態に応じて、同じ内容(IM1=IM2)としても、異なる内容(IM1≠IM2)としてもよい。また、表示画像IM1(またはIM2)の表示は、右ディスプレイ12Rおよび/または左ディスプレイ12で行うことができる。AR表示の内容を、メガネ越しに見える現実世界に重なる(奥行きを伴った)3D画像としたいときは、IM1とIM2を左右別々の3D用画像とすることができる。 The display images IM1 and IM2 can be used as augmented reality (AR) display means for adding information such as numbers, characters, and marks to the real world seen through glasses, and the AR display can be turned on and off as appropriate. The contents of the display image IM1 and the display image IM2 may have the same contents (IM1 = IM2) or different contents (IM1 ≠ IM2) depending on the embodiment. Further, the display image IM1 (or IM2) can be displayed on the right display 12R and / or the left display 12. If you want the content of the AR display to be a 3D image that overlaps (with depth) in the real world that you can see through the glasses, you can make IM1 and IM2 separate left and right 3D images.

また、ディスプレイ(12R、12L)が左右に存在する場合、例えば輻輳角を調整して、左右の表示画像(IM1、IM2)の映像を左右で逆方向にずらすこともできる。これにより、現実世界で見える対象物とAR表示を交互に見る場合の目の負担を減らすことが考えられる。しかし、通常は、左右のディスプレイ(12R、12L)で同じ内容の画像を表示する。 Further, when the displays (12R, 12L) are present on the left and right, for example, the convergence angle can be adjusted to shift the images of the left and right display images (IM1, IM2) in the left and right directions in opposite directions. As a result, it is possible to reduce the burden on the eyes when alternately viewing the object visible in the real world and the AR display. However, normally, the left and right displays (12R, 12L) display the same image.

ディスプレイ12L、12Rでの表示制御は、右テンプルバー107に埋め込まれた情報処理部11で行うことができる。(ディスプレイで文字、マーク、アイコンなどを表示する技術は周知。)情報制御部11その他の動作に必要な電源は、左テンプルバー106に埋め込まれた電池BATから得ることができる。 The display control on the displays 12L and 12R can be performed by the information processing unit 11 embedded in the right temple bar 107. (Technology for displaying characters, marks, icons, etc. on a display is well known.) The power supply required for the information control unit 11 and other operations can be obtained from the battery BAT embedded in the left temple bar 106.

なお、実施形態に対応するアイウエア100の試作品をデザイナーや設計者が装着してみて重量バランスが悪いと感じる可能性がある。その主因が左テンプルバー106内のBATにあるならば、右テンプルバー107内に左テンプルバー106内のBATに見合った「おもり(または別の同重量バッテリ)」を入れておくことができる。 In addition, there is a possibility that the designer or the designer may feel that the weight balance is poor when the prototype of the eyewear 100 corresponding to the embodiment is attached. If the main cause is the BAT in the left temple bar 106, a "weight (or another same weight battery)" commensurate with the BAT in the left temple bar 106 can be placed in the right temple bar 107.

図2は、一実施の形態に係るメガネ型アイウエア100におけるEOG電極の実装例を説明する図である。右ノーズパッド150Rの上下には右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lの上下には左ノーズパッド電極152a,152bが設けられている。右ノーズパッド電極151a,151bの出力はADC1510に与えられ、左ノーズパッド電極152a,152bの出力はADC1520に与えられ、左右ノーズパッドの下側電極151b,152b(または上側電極151a,152a)の出力はADC1512に与えられる。 FIG. 2 is a diagram illustrating a mounting example of an EOG electrode in the eyeglass-type eyewear 100 according to the embodiment. Right nose pad electrodes 151a and 151b are provided above and below the right nose pad 150R, and left nose pad electrodes 152a and 152b are provided above and below the left nose pad 150L. The output of the right nose pad electrodes 151a, 151b is given to the ADC 1510, the output of the left nose pad electrodes 152a, 152b is given to the ADC 1520, and the output of the lower electrodes 151b, 152b (or upper electrodes 151a, 152a) of the left and right nose pads. Is given to ADC 1512.

ADC1510からは、ユーザの右側上下眼動に対応して変化するCh1信号が得られる。ADC1520からは、ユーザの左側上下眼動に対応して変化するCh2信号が得られる。ADC1512からは、ユーザの左右眼動に対応して変化するCh0信号が得られる。左右両眼の上下動については、ADC1510およびADC1520の出力の平均で評価してもよい。(Ch0,Ch1,Ch2の信号波形と眼動との関係については、図4を参照して後述する。)<図1、図2に示される眼電位センサについての補足説明>*ノーズパッドに設けるEOG電極について
上下方向の眼球移動検出用には最低限1組(151aと151bの組;または152aと152bの組)の測定電極を具備する。その場合は、左または右の(どちらか片方)のノーズパッドの上下に眼電位測定用の電極が設けられる(電極端子数は2個)。
From the ADC 1510, a Ch1 signal that changes according to the user's right upper and lower eye movements can be obtained. From the ADC 1520, a Ch2 signal that changes according to the user's left upper and lower eye movements can be obtained. From the ADC 1512, a Ch0 signal that changes according to the left and right eye movements of the user can be obtained. The vertical movement of the left and right eyes may be evaluated by averaging the outputs of the ADC 1510 and the ADC 1520. (The relationship between the signal waveforms of Ch0, Ch1, and Ch2 and the eye movement will be described later with reference to FIG. 4.) <Supplementary explanation of the electro-oculography sensor shown in FIGS. 1 and 2> * Provided on the nose pad. About EOG electrodes A minimum of one set (a set of 151a and 151b; or a set of 152a and 152b) of measurement electrodes is provided for detecting eye movement in the vertical direction. In that case, electrodes for measuring the electrooculogram are provided above and below the left or right (either one) nose pad (the number of electrode terminals is two).

上下方向の眼球移動検出精度向上に1組の測定電極を追加する。その場合は、左右(両方)のノーズパッド150L/150Rの上下に眼電位測定用の電極(151aと151b;および152aと152b)が設けられる(電極端子数は4個)。 A set of measuring electrodes is added to improve the accuracy of detecting eye movement in the vertical direction. In that case, electrodes (151a and 151b; and 152a and 152b) for measuring the electrooculogram are provided above and below the left and right (both) nose pads 150L / 150R (the number of electrode terminals is four).

*ADC(Analog−to−Digital Converter)について
上下方向の眼球移動検出用には最低限1個のADC(Ch1用またはCh2用)を具備する。
* About ADC (Analog-to-Digital Converter) At least one ADC (for Ch1 or Ch2) is provided for detecting eye movement in the vertical direction.

上下方向の眼球移動検出精度向上のために1個のADC(Ch2用またはCh1用)を追加する(その結果Ch1とCh2の双方に1個ずつADCが設けられる)。(精度向上用オプション)
左右方向の眼球移動検出用には更に1個のADC(Ch0用)を追加する。(機能向上用オプション)
図3は、種々な実施の形態に取り付け可能な情報処理部11と、その周辺デバイスとの関係を説明する図である。図3の例では、情報処理部11は、プロセッサ11a、不揮発性メモリ(フラッシュメモリ/EEPROM)11b、メインメモリ11c、通信処理部11d、センサ部11e、タイマ(フレームカウンタ)11f、デバイスID11gなどで構成されている。プロセッサ11aは製品仕様に応じた処理能力を持つマイクロコンピュータで構成できる。このマイクロコンピュータが実行する種々なプログラムおよびプログラム実行時に使用する種々なパラメータは、不揮発性メモリ11bに格納しておくことができる。不揮発性メモリ11bには、タイマ11fを用いたタイムスタンプ(および/またはフレームカウンタでカウントしたフレーム番号)とともに、種々な検出データを記憶しておくことができる。プログラムを実行する際のワークエリアはメインメモリ11cが提供する。
One ADC (for Ch2 or Ch1) is added to improve the accuracy of detecting eye movement in the vertical direction (as a result, one ADC is provided for both Ch1 and Ch2). (Option for improving accuracy)
One more ADC (for Ch0) is added for detecting eye movement in the left-right direction. (Option for function improvement)
FIG. 3 is a diagram illustrating a relationship between the information processing unit 11 that can be attached to various embodiments and peripheral devices thereof. In the example of FIG. 3, the information processing unit 11 includes a processor 11a, a non-volatile memory (flash memory / EEPROM) 11b, a main memory 11c, a communication processing unit 11d, a sensor unit 11e, a timer (frame counter) 11f, a device ID 11g, and the like. It is configured. The processor 11a can be configured by a microcomputer having a processing capacity according to the product specifications. Various programs executed by this microprocessor and various parameters used at the time of program execution can be stored in the non-volatile memory 11b. Various detection data can be stored in the non-volatile memory 11b together with a time stamp (and / or a frame number counted by the frame counter) using the timer 11f. The main memory 11c provides a work area for executing the program.

センサ部11eは、アイウエア100(あるいはこのアイウエアを装着したユーザの頭部)の位置および/またはその向きを検出するためのセンサ群を含んでいる。これらのセンサ群の具体例としては、3軸方向(x−y−z方向)の移動を検出する加速度センサ、3軸方向の回転を検出するジャイロ、絶対方位を検出する地磁気センサ(羅針盤機能)、電波や赤外線などを受信して位置情報その他を得るビーコンセンサがある。この位置情報その他の獲得には、iBeacon(登録商標)あるいはBluetooth(登録商標)4.0を利用できる。 The sensor unit 11e includes a group of sensors for detecting the position and / or the orientation of the eyewear 100 (or the head of the user wearing the eyewear). Specific examples of these sensors include an acceleration sensor that detects movement in the three-axis direction (xyz direction), a gyro that detects rotation in the three-axis direction, and a geomagnetic sensor that detects absolute orientation (compass function). , There is a beacon sensor that receives radio waves, infrared rays, etc. to obtain position information and the like. IBeacon (registered trademark) or Bluetooth (registered trademark) 4.0 can be used to acquire this location information and others.

情報処理部11に利用可能なLSIは、製品化されている。その一例として、東芝セミコンダクター&ストレージ社の「ウエアラブル端末向けTZ1000シリーズ」がある。このシリーズのうち、製品名「TZ1011MBG」は、CPU(11a、11c)、フラッシュメモリ(11b)、Bluetooth Low Energy(登録商標)(11d)、センサ群(加速度センサ、ジャイロ、地磁気センサ)(11e)、24ビットデルタシグマADC、I/O(USB他)を持つ。 The LSI that can be used in the information processing unit 11 has been commercialized. One example is Toshiba Semiconductor & Storage's "TZ1000 series for wearable terminals". Among this series, the product name "TZ1011MBG" includes CPU (11a, 11c), flash memory (11b), Bluetooth Low Energy (registered trademark) (11d), sensor group (accelerometer, gyro, geomagnetic sensor) (11e). , 24-bit delta-sigma ADC, I / O (USB, etc.).

プロセッサ11aで何をするかは、通信処理部11dを介して、ローカルサーバ(またはパーソナルコンピュータ)1000から、指令することができる。通信処理部11dでは、ZigBee(登録商標)、Bluetooth(登録商標)、Wi−Fi(登録商標)などの既存通信方式を利用できる。プロセッサ11aでの処理結果は、通信処理部11dを介して、ローカルサーバ1000にリアルタイムで送ることができる。また、メモリ11bに記憶された情報も、通信処理部11dを介して、ローカルサーバ1000に提供できる。ローカルサーバ1000は、1以上のアイウエア100の情報処理部11から送られてきた情報を、レコーダ/ローカルデータベース1002で記録し蓄積できる。レコーダ/ローカルデータベース1002に記録/蓄積された情報は、インターネットなどのネットワークを介して、メインサーバ10000に送ることができる。メインサーバ10000には1以上のローカルサーバ1000から種々な情報が送られてきており、それらの情報を統合してビッグデータのデータベースを構築できるようになっている。 What to do with the processor 11a can be instructed from the local server (or personal computer) 1000 via the communication processing unit 11d. The communication processing unit 11d can use existing communication methods such as ZigBee (registered trademark), Bluetooth (registered trademark), and Wi-Fi (registered trademark). The processing result in the processor 11a can be sent to the local server 1000 in real time via the communication processing unit 11d. Further, the information stored in the memory 11b can also be provided to the local server 1000 via the communication processing unit 11d. The local server 1000 can record and store the information sent from the information processing unit 11 of one or more eyewear 100s in the recorder / local database 1002. The information recorded / stored in the recorder / local database 1002 can be sent to the main server 10000 via a network such as the Internet. Various information is sent to the main server 10000 from one or more local servers 1000, and it is possible to construct a big data database by integrating the information.

情報処理部11のシステムバスには、ディスプレイ12(12Lと12R)、カメラ13(13Lと13R)、眼動検出部15、マイク(または振動ピックアップ)16等が接続されている。図3の各デバイス(11〜16)は、バッテリBATにより給電される。 A display 12 (12L and 12R), a camera 13 (13L and 13R), an eye movement detection unit 15, a microphone (or vibration pickup) 16, and the like are connected to the system bus of the information processing unit 11. Each device (11-16) in FIG. 3 is powered by a battery BAT.

図3の眼動検出部15は、視線検出センサを構成する4つの眼動検出電極(151a,151b,152a,152b)と、これらの電極から眼動に対応したデジタル信号を取り出す3つのADC(1510、1520、1512)と、これらADCからの出力データをプロセッサ11a側に出力する回路を含んでいる。プロセッサ11aは、ユーザの種々な眼動(上下動、左右動、瞬目、眼瞑りなど)から、その眼動の種類に対応する指令または状態を解釈し、その指令または状態に対応する処理を実行することができる。 The eye movement detection unit 15 of FIG. 3 has four eye movement detection electrodes (151a, 151b, 152a, 152b) constituting the line-of-sight detection sensor, and three ADCs (151a, 151b, 152a, 152b) that extract digital signals corresponding to eye movements from these electrodes. It includes 1510, 1520, 1512) and a circuit that outputs the output data from these ADCs to the processor 11a side. The processor 11a interprets a command or state corresponding to the type of eye movement from various eye movements (vertical movement, left-right movement, blinking, eye closing, etc.) of the user, and performs processing corresponding to the command or state. Can be executed.

眼動の種類に対応する指令の具体例としては、眼動が例えば眼瞑りなら視線の先にある情報項目を選択し(コンピュータマウスのワンクリックに類似)、連続した所定回数の両目の瞬目(あるいは片目の瞬目/ウインク)なら選択された情報項目に対する処理の実行を開始させる(コンピュータマウスのダブルクリックに類似)指令がある。 As a specific example of the command corresponding to the type of eye movement, if the eye movement is, for example, eye meditating, select the information item at the tip of the line of sight (similar to one click of a computer mouse), and a predetermined number of consecutive blinks of both eyes. (Or one eye blink / wink), there is a command (similar to double-clicking a computer mouse) to start executing processing for the selected information item.

眼動の種類に対応する状態の具体例としては、所定数の瞬目、所定時間の目瞑り、視線の上下左右動がある、例えば、眼動が講演の節目における1〜2回の瞬目ならユーザが講演内容に集中し理解したことを推定できる。眼動が検査用映像の再生中における数秒以上の目瞑りならユーザが検査用映像の再生中に居眠りしたことを推定できる。眼動が睡眠中における上下左右動ならユーザがレム睡眠中であったことを推定できる。 Specific examples of the state corresponding to the type of eye movement include a predetermined number of blinks, eye closure for a predetermined time, and up / down / left / right movement of the line of sight. Then, it can be estimated that the user concentrated on the content of the lecture and understood it. If the eye movement is a few seconds or more during the reproduction of the examination image, it can be estimated that the user has fallen asleep during the reproduction of the examination image. If the eye movement is up / down / left / right during sleep, it can be estimated that the user was in REM sleep.

上記眼動の種類に対応する指令または状態は、眼動検出部15を用いた情報入力Bの一例である。 The command or state corresponding to the type of eye movement is an example of information input B using the eye movement detection unit 15.

<図3に示される構成要素についての補足説明>*プロセッサ11aを構成するマイクロコンピュータユニットの動作について
マイクロコンピュータユニットのプログラミングにより瞬目などの検出エンジンを構成し、この検出エンジンを動作させることで、リアルタイムのADC生データではなくて、タイムスタンプ付の瞬目イベントを記録することができる。(例えば、タイマをスタートしてから5分10秒後に1〜2回連続する瞬目の発生イベントがあったなら、その瞬目のEOG波形をAD変換した生データを記録するのではなくて、代わりにそのような瞬目が発生したことを5分10秒のタイムスタンプとともに記録する。)このようにすれば、生データをそのまま記録するよりも記録に必要なメモリ容量を大幅に節約できる。なお、メモリ容量に十分な余裕があるときは、ADC生データを記録するようにしてもよい。
<Supplementary explanation of the components shown in FIG. 3> * Operation of the microcomputer unit constituting the processor 11a By configuring the detection engine such as blinking by programming the microcomputer unit and operating this detection engine, It is possible to record a blinking event with a time stamp instead of real-time raw ADC data. (For example, if there is an event in which a blink occurs once or twice in succession 5 minutes and 10 seconds after the timer is started, the raw data obtained by AD-converting the EOG waveform of that blink is not recorded. Instead, the occurrence of such a blink is recorded with a time stamp of 5 minutes and 10 seconds.) In this way, the memory capacity required for recording can be significantly saved as compared with recording the raw data as it is. If there is sufficient memory capacity, ADC raw data may be recorded.

*不揮発性メモリ11bを構成するフラッシュメモリ/EEPROMについて
例えば映画館で映画を鑑賞している大勢の観客から瞬目の情報を収集する場合を考えてみる。その場合、全ての観客からリアルタイムで瞬目の情報を集め続けるよりも、個々の観客の瞬目情報を個々の観客のローカルメモリ(11b)に一時記憶しておき、映画終了後に全ての観客のローカルメモリ(11b)から記憶した瞬目情報を回収する方が、効率的な情報収集ができる。
* About the flash memory / EEPROM that constitutes the non-volatile memory 11b For example, consider the case of collecting momentary information from a large number of spectators who are watching a movie in a movie theater. In that case, rather than continuing to collect blink information from all spectators in real time, the blink information of each spectator is temporarily stored in the local memory (11b) of each spectator, and after the movie is over, all spectators It is possible to collect information more efficiently by collecting the instantaneous information stored from the local memory (11b).

*通信処理部11dについて
例えば映画が終了し、全ての観客のローカルメモリ(11b)で瞬目情報の一時記憶が終わったなら、一時記憶された瞬目情報(タイムスタンプ付き)を映画館のローカルサーバ(1000)で回収することができる。この回収は、例えば、映画館の座席または館内特定場所に設けたBlueTooth(無線)またはUSB(有線)を介して行うことができる。
* About communication processing unit 11d For example, when the movie ends and the temporary storage of the blink information is completed in the local memory (11b) of all the spectators, the temporarily stored blink information (with time stamp) is stored locally in the movie theater. It can be collected by the server (1000). This collection can be performed, for example, via Bluetooth (wireless) or USB (wired) provided in a movie theater seat or a specific location in the theater.

*電源(電池/バッテリー)BATについて
以下の動作を行うための電源供給維持のために、小型バッテリーが用いられる。
* Power supply (battery / battery) BAT A small battery is used to maintain the power supply to perform the following operations.

・映画の上映中には、「瞬目」検出エンジンを動作させてEOG波形のAD変換結果から「瞬目」をリアルタイムで検出し、検出した「瞬目」イベントの情報をタイムスタンプと一緒にメモリ11bに記録してゆく。 -During the movie screening, the "blink" detection engine is operated to detect the "blink" in real time from the AD conversion result of the EOG waveform, and the detected "blink" event information is displayed together with the time stamp. Recording is performed in the memory 11b.

・映画の上映終了後には、メモリ11bに記録した「瞬目」イベント情報を回収できるようにする。 -After the movie is shown, the "blink" event information recorded in the memory 11b can be collected.

図4は、アイウエア100を装着したユーザの種々な眼動(瞬目、目瞑り、眼球回転など;特に瞬目)と、図2に示す3つのアナログ/デジタルコンバータ(ADC)から得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図(EOG)である。縦軸は各ADCのサンプル値(EOG信号レベルに相当)を示し、横軸は時間を示す。 FIG. 4 shows various eye movements (blinks, eye closures, eye rotations, etc.; especially blinks) of the user wearing the eyewear 100 and detections obtained from the three analog-to-digital converters (ADCs) shown in FIG. It is an electrocardiogram (EOG) exemplifying the relationship with the signal level (Ch0, Ch1, Ch2). The vertical axis shows the sample value of each ADC (corresponding to the EOG signal level), and the horizontal axis shows the time.

図4の上段に示すCh0のEOG波形のADCサンプル値において、視線が左を向いたときの凹波形と視線が右を向いたときの凸波形の組合せ波形Pr(またはPr*)により、左右方向の眼球回転が検出される。 In the ADC sample value of the Ch0 EOG waveform shown in the upper part of FIG. 4, the combination waveform Pr (or Pr *) of the concave waveform when the line of sight is turned to the left and the convex waveform when the line of sight is turned to the right is used in the left-right direction. Eye rotation is detected.

図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、視線が上を向いたときの凸波形と視線が下を向いたときの凹波形の組合せ波形Pt(またはPt*)により、上下方向の眼球回転が検出される。 In the ADC sample value of the Ch1 EOG waveform shown in the middle of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of the figure, the convex waveform when the line of sight is directed upward and the convex waveform when the line of sight is directed downward. The vertical eye rotation is detected by the combination waveform Pt (or Pt *) of the concave waveform.

図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、1〜2回の瞬目は、瞬間的にレベル上昇して元に戻る凸パルス波形Pcにより検出される。 In the ADC sample value of the Ch1 EOG waveform shown in the middle of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of the figure, the level of the 1st and 2nd blinks momentarily rises and returns to the original value. It is detected by the convex pulse waveform Pc.

図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、3回の瞬目は、瞬間的にレベル上昇して元に戻る凸パルス波形Psにより検出される。(図示しないが、4回以上の瞬目も3回の場合と同様に検出できる。)
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、瞬目より長い期間生じる目瞑りは、幅広な凸パルス波形Pfにより検出される。(図示しないが、より長い目瞑りはより広いパルス幅の波形で検出される。)
<図4のEOG波形と眼動との関係>
(01)視線が左右にきょろきょろと動いているときは、波形Pr(またはPr*)が表れる。視線が上下にきょろきょろと動いているときは、波形Pt(またはPt*)が表れる。視線が左右上下にきょろきょろと動いているときは、波形Pr(またはPr*)と波形Pt(またはPt*)が連続して表れる。つまり、EOG波形Prおよび/またはPt(Pr*および/またはPt*)から、「きょろつき」型眼動を検出できる。
In the ADC sample value of the Ch1 EOG waveform shown in the middle of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of the figure, the third blink momentarily raises the level and returns to the original convex pulse. It is detected by the waveform Ps. (Although not shown, 4 or more blinks can be detected in the same way as 3 times.)
In the ADC sample value of the Ch1 EOG waveform shown in the middle of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of the figure, the eye closure that occurs for a longer period than the blink is detected by the wide convex pulse waveform Pf. To. (Not shown, longer eye closures are detected in wider pulse width waveforms.)
<Relationship between EOG waveform and eye movement in Fig. 4>
(01) When the line of sight is moving from side to side, the waveform Pr (or Pr *) appears. When the line of sight is moving up and down, the waveform Pt (or Pt *) appears. When the line of sight is moving from side to side and up and down, the waveform Pr (or Pr *) and the waveform Pt (or Pt *) appear continuously. That is, "staggering" type eye movements can be detected from the EOG waveforms Pr and / or Pt (Pr * and / or Pt *).

(02)瞬目がなされると、瞬目の回数に応じたパルス波形Pc、Ps(またはPc*,Ps*)が表れる。つまり、EOG波形Pc、Ps(またはPc*,Ps*)から、種々な回数の「瞬目」型眼動を検出できる。なお、「瞬目」型眼動の検出さえできればよいのであれば、Ch0のADCは不要となる。「瞬目」型眼動の検出目的では、最低限、Ch1またはCh2のADCが1つあればよい。しかしCh1およびCh2の2つのADCを用い、両者の出力を合成すれば、信号対雑音比(S/N)を改善できる。その理由は、Ch1とCh2の間で相関性がある信号成分(Pc、Ps、Pf、Ptなど)は2つのADC出力の合成により+6dB増えるが、相関性がないランダムなノイズ成分は+3dBしか増えないからである。 (02) When the blink is made, pulse waveforms Pc and Ps (or Pc *, Ps *) corresponding to the number of blinks appear. That is, various times of "blinking" type eye movements can be detected from the EOG waveforms Pc and Ps (or Pc *, Ps *). The Ch0 ADC is unnecessary as long as it can detect "blinking" type eye movements. For the purpose of detecting "blinking" type eye movements, at least one ADC of Ch1 or Ch2 is required. However, if two ADCs, Ch1 and Ch2, are used and the outputs of both are combined, the signal-to-noise ratio (S / N) can be improved. The reason is that the signal components (Pc, Ps, Pf, Pt, etc.) that are correlated between Ch1 and Ch2 increase by +6 dB due to the combination of the two ADC outputs, but the random noise components that do not correlate increase by only +3 dB. Because there isn't.

(03)目瞑りがなされると、目瞑りの長さに応じたパルス波形Pf(またはPf*)が表れる。つまり、EOG波形Pf(またはPf*)から、種々な長さの「目瞑り」型眼動を検出できる。「目瞑り」型眼動はCh0のEOG波形にも少し表れるが、「目瞑り」型眼動の検出目的では、Ch0のADCはなくてもよい。 (03) When the eye closure is performed, a pulse waveform Pf (or Pf *) corresponding to the length of the eye closure appears. That is, from the EOG waveform Pf (or Pf *), "eye closure" type eye movements of various lengths can be detected. Although the "eye-closing" type eye movement appears a little in the Ch0 EOG waveform, the Ch0 ADC may not be present for the purpose of detecting the "eye-closing" type eye movement.

<眼動と心身状態の関係>
(11)EOGを利用した検査中(例えば緑内障の視野検査中)に「きょろつき」型眼動が検出されたときは、被験者の集中力が欠け落ち着きなない状態にあると推定することが考えられる。
<Relationship between eye movement and mental and physical condition>
(11) When "staggering" type eye movements are detected during an EOG-based examination (for example, during a visual field test for glaucoma), it is presumed that the subject is in a state of restlessness due to lack of concentration. Can be considered.

(12)EOGを利用した検査中(例えば講演や授業の理解度調査中)に、要所(講演内容の意味の区切り箇所など)で少数回(例えば1〜2回)の「瞬目」型眼動が検出されたときは、被験者は集中しており理解が進んでいる状態にあると推定することが考えられる。 (12) During an inspection using EOG (for example, during a lecture or class comprehension survey), a small number of times (for example, 1-2 times) at key points (such as the breaks in the meaning of the lecture content) When eye movements are detected, it is presumed that the subject is in a state of concentration and understanding.

(13)EOGを利用した検査中(例えば接客店員の適性検査中)に、要所(「被験者が混雑した店内で複数客から矢継ぎ早に種々な注文を受ける」といった検査内容の箇所など)で数回以上(例えば3回以上)の「瞬目」型眼動が検出されたときは、被験者は緊張しており精神的にストレスを受けた状態にあると推定することが考えられる。 (13) During the inspection using EOG (for example, during the aptitude test of the customer service clerk), the number of inspection contents (such as "the subject receives various orders from multiple customers in a crowded store") When "blinking" type eye movements are detected more than once (for example, three times or more), it is considered that the subject is in a tense and mentally stressed state.

(14)EOGを利用した検査中(例えばドライブシミュレータを用いた検査において、単調な走行画面と単調な連続振動音の出力中)に短めの「目瞑り」型眼動が複数回検出されたときは、被験者は疲労しており検査項目に集中できない状態にあると推定することが考えられる。 (14) When short "eye closing" type eye movements are detected multiple times during an inspection using EOG (for example, during an inspection using a drive simulator, during a monotonous running screen and monotonous continuous vibration sound output). Is presumed that the subject is tired and unable to concentrate on the test items.

(15)EOGを利用した検査中(例えば睡眠の調査中)に長期間の「目瞑り」型眼動が検出されたときは、被験者は睡眠(仮眠)しておりノンレム睡眠あるいはレム睡眠の状態にあると推定することが考えられる。 (15) When long-term "eye closure" type eye movement is detected during an EOG-based examination (for example, during a sleep survey), the subject is sleeping (nap) and is in non-REM sleep or REM sleep. It is conceivable to presume that it is in.

(16)EOGを利用した検査(例えば睡眠状態の検査)において、長時間の「目瞑り」型眼動が検出されている間に「きょろつき」型眼動が検出されたときは、被験者がレム睡眠の状態にあると推定することが考えられる。 (16) When a "sloppy" type eye movement is detected while a long-time "eye closure" type eye movement is detected in an EOG-based test (for example, a sleep state test), It is possible to presume that the subject is in REM sleep.

(17)EOGを利用した検査(例えば睡眠からの覚醒の検査)において、長時間の「目瞑り」型眼動が検出されたあと(ノンレム睡眠あるいはレム睡眠の状態にあると推定される)、「瞬目」型眼動が検出されたときは、その「瞬目」型眼動の検出により睡眠から覚醒したものと推定することが考えられる。 (17) After a long period of "eye closure" type eye movement is detected in an EOG-based test (for example, a test of awakening from sleep) (presumed to be in non-REM sleep or REM sleep). When "blinking" type eye movements are detected, it is considered that the detection of the "blinking" type eye movements is presumed to have awakened from sleep.

<眼電位センシング技術を用いた劇場3Dメガネ向け感情(心身状態)推定/記録の要点>
*主要な検出対象は瞬目(瞬き)である。
<Emotion (mental and physical state) estimation / recording points for theater 3D glasses using electro-oculography sensing technology>
* The main detection target is blinking.

ユーザの顔面に対して、最低限、上下方向(例えば左右ノーズパッドの片側の上下)に1組のEOG電極(使用するADCは最小限1個)を装着する。 A set of EOG electrodes (at least one ADC is used) is attached to the user's face at least in the vertical direction (for example, up and down on one side of the left and right nose pads).

ユーザの顔面に装着した1組以上のEOG電極からの検出結果に基づいて、ユーザのストレス、集中度、眠気、睡眠状態(レム睡眠/ノンレム睡眠)などが推定可能となる。 Based on the detection results from one or more sets of EOG electrodes attached to the user's face, the user's stress, concentration, drowsiness, sleep state (REM sleep / non-REM sleep), and the like can be estimated.

*これに以下を追加して、スクリーン映像や4Dシアターのギミックに対する観客のリアクションを収集できるようになる。すなわち
ユーザ(個々の観客)の顔面に対して左右方向に、最小1組(精度を上げるには2組)のEOG電極(使用するADCは合計2個以上)を追加して装着する。(例えば、左右ノーズパッドの一方側の上下と他方側の上または下、あるいは左右ノーズパッド各々の上下に、合計3個または4個のEOG電極を設ける。)
以上の追加構成により、左右方向を含めた眼球の回転方向(任意方向の視線移動または眼球回転)を推定できるようになる。
* By adding the following to this, it will be possible to collect the reaction of the audience to the screen image and the gimmick of the 4D theater. That is, a minimum of one set (two sets to improve accuracy) of EOG electrodes (a total of two or more ADCs are used) is additionally attached to the face of the user (individual spectator) in the left-right direction. (For example, a total of 3 or 4 EOG electrodes are provided above and below one side of the left and right nose pads and above or below the other side, or above and below each of the left and right nose pads.)
With the above additional configuration, the rotation direction of the eyeball including the left-right direction (eye movement or eyeball rotation in an arbitrary direction) can be estimated.

図5は、第1の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。3Dビデオ再生は一般家庭では普及には至らなかったが、映画館における3D上映は継続的に行われている。図5は、3Dメガネを用いた3D映画(あるいは3Dメガネを用いた3D映画に振動など視聴覚以外の五感に対する効果を追加した4D映画)における観客の集中度・疲労度・ストレスなどを集計し記録する処理の一例を示している。さらに、図5は、或る期間に渡り上映された作品(3D/4D作品に限らず2D作品も含まれ得る)への不特定多数観客データを集計して、多数の観客の一般評価を判定し次回の作品プロデュースにフィードバックする処理も例示している。 FIG. 5 is a flowchart illustrating an example of the mental and physical state estimation method according to the first embodiment. Although 3D video playback has not become widespread in ordinary households, 3D screening in movie theaters is continuing. FIG. 5 aggregates and records the degree of concentration, fatigue, stress, etc. of the audience in a 3D movie using 3D glasses (or a 4D movie in which effects on five senses other than audiovisual effects such as vibration are added to a 3D movie using 3D glasses). An example of the processing to be performed is shown. Further, FIG. 5 aggregates unspecified majority spectator data for works screened over a certain period (not only 3D / 4D works but also 2D works), and determines the general evaluation of a large number of spectators. It also exemplifies the process of feeding back to the next production of the work.

いま、図3に示すようなローカルサーバ1000を図示しない映写室(あるいは事務室)に備えた3D/4D対応映画館が存在し、この映画館で或る3D(または4D)作品が上映される場合を想定してみる。その3D作品の上映が始まる前に、映画館の係員は、図1のようなアイウエア形態を持つ3Dメガネ100を入場者(観客)に配布する(ST10)。 Now, there is a 3D / 4D compatible movie theater equipped with a projection room (or office) not shown with a local server 1000 as shown in FIG. 3, and a certain 3D (or 4D) work is screened in this movie theater. Imagine a case. Before the screening of the 3D work begins, the movie theater staff distributes the 3D glasses 100 having the eyewear form as shown in FIG. 1 to the visitors (audience) (ST10).

配布する3Dメガネ100は男性用と女性用で色分けされ、大人用と子供用でサイズが分けられている。つまり、この3Dメガネ100には大人の男女用に2種類と、子供の男女用に2種類の、合計4種類がある、この4種類は、例えば図3のデバイスID11gの先頭ビットにより区分けできる(2ビットで4種類、4ビットなら16種類の区分けが可能)。また、3Dメガネ100個々の識別(配布人数分の識別)は、デバイスID11gの後続ビットにより区分けできる(12ビットで4096人分、14ビットで16384人分の区分けが可能)。デバイスID11gのビット数は、配布するメガネ100の区分け分類数と、配布するメガネ100の最大個数に応じて、適宜決定すればよい。 The 3D glasses 100 to be distributed are color-coded for men and women, and are sized for adults and children. That is, there are a total of four types of the 3D glasses 100, two types for adult men and women and two types for children men and women. These four types can be classified by, for example, the first bit of the device ID 11g in FIG. It is possible to classify 4 types with 2 bits and 16 types with 4 bits). In addition, the identification of each of the 3D glasses 100 (identification for the number of distributed people) can be classified by the subsequent bits of the device ID 11g (12 bits can be used for 4096 people, and 14 bits can be used for 16384 people). The number of bits of the device ID 11g may be appropriately determined according to the number of classified classifications of the glasses 100 to be distributed and the maximum number of glasses 100 to be distributed.

なお、図1に示すようなメガネ100では、画像IM1および/またはIM2において字幕をオン/オフ可能にAR表示できる。その際、デバイスIDが大人用を示しておればデフォルト表示される字幕を小さ目の「かな漢字交じり日本語または原語(英語など)」とすることができ、デバイスIDが子供用を示しておればデフォルト表示される字幕を大き目の「ひらがなまたはカタカナのみの日本語」とすることができる。 In the glasses 100 as shown in FIG. 1, the subtitles can be AR-displayed on / off in the images IM1 and / or IM2. At that time, if the device ID indicates that it is for adults, the subtitles that are displayed by default can be set to a smaller "Japanese or original language mixed with katakana (English, etc.)", and if the device ID indicates that it is for children, it is the default. The displayed subtitles can be large "Japanese only in hiragana or katakana".

メガネ100を装着した観客が映画館の座席に着席したあと、上映開始時間になると、館内の照明が落とされ、上映が開始される。その上映開始と同時に、図3のローカルサーバ1000から各メガネ100へ上映開始の合図が送られる。この合図を通信処理部11dで受けると、各メガネ100のタイマ(またはフレームカウンタ)11fが自動的に(つまりメガネユーザが何もしなくても)スタートする。すると、メガネユーザ(個々の観客)の眼動(瞬目など)に対応したイベントが眼動検出部15で検出される毎に、あるいはメガネユーザの声や体動(笑い声やびっくりしたときの反射的な動き)に対応したイベントがマイク16やセンサ部15で検出される毎に、そのイベントを示す情報ビットにタイムスタンプ(またはフレームカウント値)の情報ビットを付加した検出データが、各メガネユーザのEOGデータとして、メモリ11bに連続記録される(ST12)。なお、メモリ11bの記憶容量が十分に大きいときは、AD変換したEOGの生データを各メガネユーザのEOGデータとしてメモリ11bに記録してもよい。 After the spectators wearing the glasses 100 are seated in the seats of the movie theater, when the screening start time comes, the lights in the hall are turned off and the screening starts. At the same time as the start of the screening, a signal to start the screening is sent from the local server 1000 in FIG. 3 to each of the glasses 100. When this signal is received by the communication processing unit 11d, the timer (or frame counter) 11f of each eyeglass 100 starts automatically (that is, even if the eyeglass user does nothing). Then, every time an event corresponding to the eye movement (blink, etc.) of the eyeglass user (individual spectator) is detected by the eye movement detection unit 15, or the voice or body movement of the eyeglass user (laughter or reflection when surprised). Every time an event corresponding to the event is detected by the microphone 16 or the sensor unit 15, the detection data obtained by adding the information bit of the time stamp (or frame count value) to the information bit indicating the event is generated by each eyeglass user. The EOG data is continuously recorded in the memory 11b (ST12). When the storage capacity of the memory 11b is sufficiently large, the raw data of the AD-converted EOG may be recorded in the memory 11b as the EOG data of each eyeglass user.

上記検出データは、デバイスID11gの情報ビットに、検出されたイベントの種類(眼動の種類、声の種類、体動の種類など)を示す情報ビットと、タイムスタンプ(またはフレームカウント値)の情報ビットを付加したものとすることもできる。用途にもよるが、検出データのビット数としては、80〜160ビット(10〜20バイト)くらいあれば十分実用に耐えると考えられる。 The detection data includes an information bit indicating the type of detected event (type of eye movement, type of voice, type of body movement, etc.) and information of a time stamp (or frame count value) in the information bit of the device ID 11g. It is also possible to add a bit. Although it depends on the application, it is considered that 80 to 160 bits (10 to 20 bytes) of the detected data can be sufficiently practical.

上記イベントの発生原因となる映像の表示形式は、3Dに限られず、2Dであっても、4Dであってもよい(4Dは、映像部分だけで言えば3Dと同等)。また、イベント発生の原因となり得る音声/音響効果(4Dでは振動その他の体感効果も加わる)は、モノラルでも、前方2〜3チャネルステレオでも、4チャネル以上の前後サラウンドステレオでもよい。これらの音声/音響効果は、映画のシーンによって適宜切り替えられても良い。どのような音声/音響効果があったのかは、タイマ(またはフレームカウンタ)11fから得られるタイムスタンプ(またはフレームカウント値)から特定できる。 The display format of the video that causes the above-mentioned event is not limited to 3D, and may be 2D or 4D (4D is equivalent to 3D in terms of the video portion alone). In addition, the audio / acoustic effect that can cause an event (vibration and other sensational effects are added in 4D) may be monaural, front 2-3 channel stereo, or front / rear surround stereo of 4 channels or more. These audio / sound effects may be appropriately switched depending on the scene of the movie. What kind of audio / acoustic effect was produced can be specified from the time stamp (or frame count value) obtained from the timer (or frame counter) 11f.

フレームカウント値は1枚1枚の映像フレームを示しており、例えば動画の連続フレーム中に1ないし数枚のサブリミナル画像を挿入した場合に、そのサブリミナル画像フレームをフレームカウント値で特定することができる。また、フレームレートが例えば毎秒60フレームであれば、フレームカウント値を60で割ることによりそのフレームカウント値に対応するタイムスタンプを算出できる。従い、フレームカウンタはタイマと同様な機能を持つことができる。 The frame count value indicates each video frame. For example, when one or several subliminal images are inserted in a continuous frame of a moving image, the subliminal image frame can be specified by the frame count value. .. Further, if the frame rate is, for example, 60 frames per second, the time stamp corresponding to the frame count value can be calculated by dividing the frame count value by 60. Therefore, the frame counter can have a function similar to that of a timer.

メモリ11bに記録されたデータは、自身のデバイスID11gを含めて、所定のタイミングで(例えば5〜10分毎に)、Bluetoothなどを利用して通信処理部11dからローカルサーバ1000へ自動転送することができる(ST14)。ローカルサーバ1000は、(小分けにして)転送されてきたデータを、送り元のデバイスID11gを含めて、デジタルレコーダ1002に連続記録し、および/またはローカルデータベース1002に累積記録する。種々なメガネユーザのデータがレコーダ/ローカルデータベース1002の記録エリア上で不連続に分断記録されていても、デバイスID11gを選別キーとすることにより、個々のメガネユーザのデータを選別し纏めて取り出すことができる。 The data recorded in the memory 11b, including its own device ID 11g, is automatically transferred from the communication processing unit 11d to the local server 1000 at a predetermined timing (for example, every 5 to 10 minutes) using Bluetooth or the like. Can be done (ST14). The local server 1000 continuously records the transferred data (subdivided) in the digital recorder 1002 including the source device ID 11g, and / or accumulates the transferred data in the local database 1002. Even if the data of various eyeglass users are discontinuously divided and recorded on the recording area of the recorder / local database 1002, the data of individual eyeglass users can be selected and collectively retrieved by using the device ID 11g as the selection key. Can be done.

メモリ11bへのデータ記録(ST12)と記録データのローカルサーバ1000への小分け転送(ST14)は、上映作品が終了する前まで反復される(ST16ノー)。 The data recording to the memory 11b (ST12) and the subdivision transfer of the recorded data to the local server 1000 (ST14) are repeated until the screening work is completed (ST16 no).

上映作品が終了しエンドテロップが始まると(ST16イエス)、メモリ11b内の未転送分のデータがローカルサーバ1000へ転送される。これにより、観客に配布した全てのメガネ(全てのユーザメガネ)のデータがローカルサーバ1000で収集され、レコーダ/ローカルデータベース1002への記録が完了する(ST18)。なお、全てのメガネユーザのデータを収集するとデータ量が多くなりすぎるときは、デバイスIDをランダムに一定数決め、決めたデバイスIDのユーザデータだけを収集するようにしてもよい(あるいは、例えば奇数または偶数相当のデバイスIDのユーザデータだけを収集することで、データ量を半減できる)。 When the screening work ends and the end telop starts (ST16 yes), the untransferred data in the memory 11b is transferred to the local server 1000. As a result, the data of all the glasses (all user glasses) distributed to the spectators is collected by the local server 1000, and the recording to the recorder / local database 1002 is completed (ST18). If the amount of data becomes too large when the data of all the glasses users is collected, a certain number of device IDs may be randomly determined and only the user data of the determined device IDs may be collected (or, for example, an odd number). Alternatively, the amount of data can be halved by collecting only the user data of the device ID equivalent to an even number).

必要なユーザデータの収集が終わりその記録が完了したら、係員が配布した3Dメガネ100を退場するユーザ(観客)から回収する(ST20)。(または使用済みの3Dメガネを回収箱に入れてもらう。)回収されたメガネ100の通信機能は即座にオフされる。すると、未回収のメガネ100とローカルサーバ1000との間の通信回路は生きているので、メガネ100が持ち出されようとすると、劇場の出口にいる係員がビーコンセンサ11eなどによりそのメガネ100の持ち主を特定し、メガネ100の紛失を防止できる。 When the collection of necessary user data is completed and the recording is completed, the 3D glasses 100 distributed by the staff are collected from the leaving user (audience) (ST20). (Or have the used 3D glasses put in the collection box.) The communication function of the collected glasses 100 is immediately turned off. Then, since the communication circuit between the uncollected glasses 100 and the local server 1000 is alive, when the glasses 100 are taken out, the staff at the exit of the theater uses the beacon sensor 11e or the like to determine the owner of the glasses 100. It can be specified and the loss of the glasses 100 can be prevented.

観客を入れ替えて再上映するときは(ST22イエス)、ST10〜ST20の処理を反復し、新たな観客からのデータを収集する。 When the audience is replaced and re-screened (ST22 yes), the processes of ST10 to ST20 are repeated and data from a new audience is collected.

その日の上映が全て終了したら(ST22ノー)、収集したデータの集計と記録の整理を行う(ST24)。例えば、収集したデータに基づいて、1以上のユーザ(観客)の特徴的なEOG波形変化(例えば瞬目に対応するイベント相当)と、その変化があったときのタイムスタンプ(またはフレーム番号)が示す上映内容(シーン、効果音、振動などの4Dエフェクトなど)と、ユーザの特徴(性別/年齢層など)等との対応関係を、スプレッドシート形式に纏めて集計する。すると、例えば大人の女性はあるシーンと効果音で驚き悲鳴を上げる頻度が多いが、男性ではその頻度は少ないなど、上映作品のシーンや効果音毎の観客の反応(心身状態)の程度を推定できるようになる。 When all the screenings on that day are over (ST22 no), the collected data will be aggregated and the records will be organized (ST24). For example, based on the collected data, the characteristic EOG waveform change (for example, equivalent to the event corresponding to the blink of an eye) of one or more users (audience) and the time stamp (or frame number) at the time of the change are The correspondence between the screening contents (scenes, sound effects, 4D effects such as vibration, etc.) and the characteristics of the user (gender / age group, etc.) is summarized in a spreadsheet format. Then, for example, adult women often scream surprised at a certain scene and sound effect, but men often scream, but the frequency is low for men, so the degree of audience reaction (mental and physical condition) for each scene and sound effect of the screening work is estimated. become able to.

1以上の映画館で一定期間(例えば1ヶ月)の間にローカルサーバ1000で集計したデータは、インターネットなどの通信回線を介して、メインサーバ10000へ継続的に送ることができる(ST26)。 The data aggregated by the local server 1000 in one or more movie theaters for a certain period (for example, one month) can be continuously sent to the main server 10000 via a communication line such as the Internet (ST26).

例えば、検出データを10バイトで構成しそのうちの2バイトをデバイスID用に用いるとすると、検出イベントの種類に2バイトを割り当て、タイムスタンプ(またはフレームカウント値)等に6バイトを割り当てることができる。1回の映画上映で1人当たり平均1000イベントの検出がなされたとすると、1回の映画上映で1000人の観客から10Mバイトの情報が集まる。1ヶ月間に100回の上映があったとすると検出データ量は1つの映画館当たり月間間で1Gバイトとなる。100箇所の映画館から同様なデータが図3のメインサーバ10000に集まると、トータルで100Gバイトのデータとなり、年単位では1Tバイト以上のビッグデータとなる。 For example, if the detection data is composed of 10 bytes and 2 bytes of them are used for the device ID, 2 bytes can be assigned to the type of detection event and 6 bytes can be assigned to the time stamp (or frame count value) or the like. .. Assuming that an average of 1000 events are detected per person in one movie screening, 10 Mbytes of information will be collected from 1000 spectators in one movie screening. If there are 100 screenings in a month, the amount of detected data will be 1 GB per movie theater per month. When similar data from 100 movie theaters are collected on the main server 10000 in FIG. 3, the total amount of data is 100 GB, and the annual unit is 1 Tbyte or more of big data.

このビックデータは、データ収集当事の社会情勢も考慮して、次回映画作品のジャンル選択のヒントを与えてくれる。例えば、自爆テロが頻発する社会情勢において、ある3D映画中のテロリストとの戦闘シーンに対して観客の集中度が高いことがEOGデータの集合から推測できたなら、テロに立ち向かうヒーローの3D映画を次に製作しよう、という映画製作会社の企画が可能になる。 This big data gives hints for selecting the genre of the next movie work, taking into consideration the social situation of the data collection party. For example, in a social situation where suicide bombing occurs frequently, if it can be inferred from the collection of EOG data that the audience is highly concentrated on the battle scene with terrorists in a certain 3D movie, a 3D movie of a hero who confronts terrorism It will be possible to plan a movie production company to produce next.

<第1の実施形態(図5)の纏め>
映画館の3D上映用の3Dメガネ(シャッター方式、偏光方式のどちらでもよい)に、眼電位センシングを応用した集中度・疲労・ストレス推定を組み合わせる。これにより、現在上映中の映画に対する観客の反応(シーン毎の集中度・疲労度・ストレス)を集計する事が可能となり、上映時間に合わせた本編の再編集や、更には、今後の新作映画の製作へ、顧客の声(Voice of the Customer:VOC)としてフィードバックできる。
<Summary of the first embodiment (FIG. 5)>
3D glasses for 3D screening in movie theaters (either shutter method or polarization method) are combined with concentration / fatigue / stress estimation using electro-oculography sensing. This makes it possible to aggregate the reaction of the audience to the movie currently being shown (concentration, fatigue, stress for each scene), re-editing the main part according to the screening time, and further, future new movies. The voice of the customer (VOC) can be fed back to the production of the movie.

上映中の作品に対する観客反応の検出・推定・(時間軸に沿った)記録を個々のメガネ単体で行うことにより、映画館に居る全員分の反応結果を集める事が可能になる。 By detecting, estimating, and recording (along the time axis) the audience's reaction to the work being screened with each pair of glasses, it is possible to collect the reaction results for everyone in the movie theater.

図6は、第2の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、ARアイウエア(ARメガネ)100に眼電位センシング機能を設けて瞬目(瞬き)等の検出を行えるようにし、ARメガネ越しに(またはARメガネ上で)試験用映像(トレーニングビデオ)を表示しながら、「瞬目」等を基にした集中度・疲労・ストレス推定を行う。 FIG. 6 is a flowchart illustrating an example of the mental and physical state estimation method according to the second embodiment. Here, the AR eyewear (AR glasses) 100 is provided with an electro-oculography sensing function so that blinks and the like can be detected, and a test image (training video) is provided through the AR glasses (or on the AR glasses). While displaying, the degree of concentration, fatigue, and stress are estimated based on "blinks" and the like.

まず、被験者(アイウエアのユーザ)が、EOG電極付きのARアイウエア(メガネ型またはゴーグル型)100を装着する(ST30)。試験用映像(ドライバの適性試験ならドライブシミュレータの映像など)の上映開始と同時に、タイマ(またはフレームカウンタ)11fをスタートさせて、被験者(長距離バスのドライバや高齢の自動車ドライバなど)のEOGデータ(例えば図4のEOG波形に対応したイベントの情報)の連続記録を、メモリ11bを用いて開始する(ST32)。試験用映像は、コンピュータグラフィックス(CG)でも実写映像でもアニメーションでもよい。映像の表示方法は、2D、3D、4Dのいずれでも良い。音声(4Dでは振動なども加わる)は、ステレオでもモノラルでもサラウンドでもよい。映像の表示方法や音声等の提示方法は、試験内容に応じて、適宜切替可能である。 First, a subject (user of eyewear) wears AR eyewear (glasses type or goggles type) 100 with an EOG electrode (ST30). EOG data of the subject (long-distance bus driver, elderly car driver, etc.) by starting the timer (or frame counter) 11f at the same time as the screening of the test video (drive simulator video, etc. for driver aptitude test) starts. Continuous recording (for example, event information corresponding to the EOG waveform of FIG. 4) is started using the memory 11b (ST32). The test video may be computer graphics (CG), live-action video, or animation. The image display method may be any of 2D, 3D, and 4D. The audio (vibration, etc. is added in 4D) may be stereo, monaural, or surround. The video display method and the audio presentation method can be appropriately switched according to the test content.

試験映像には、所定のチェック箇所において、被験者の集中度、疲労度、ストレスなどを推定するためのEOG信号波形パターンに関連する映像内容(種々なストレス映像)が組み込まれている。例えば、車線が急に曲がりくねったり、突然、横側からボールや動物が飛び出てきたり、単調で眠くなるような景色が続くような映像が組み込まれている。このような所定のチェック箇所において被験者が付けたアイウエア100から得られたEOGデータ(瞬目発生などのイベントに対応したデータ)は、タイムスタンプまたはフレーム番号とともに、メモリ11bに一時的に記録される。このメモリ11bに記録されたデータの内容は、所定のタイミング(例えば試験映像内のシーンの区切れ)でローカルサーバ1000に転送され、レコーダ/ローカルデータベース1002で記録される(ST34)。 The test video incorporates video content (various stress videos) related to the EOG signal waveform pattern for estimating the concentration level, fatigue level, stress, etc. of the subject at a predetermined check location. For example, images are incorporated that make the lane suddenly turn, suddenly a ball or animal pops out from the side, or a monotonous and sleepy landscape continues. The EOG data (data corresponding to an event such as blinking) obtained from the eyewear 100 attached by the subject at such a predetermined check location is temporarily recorded in the memory 11b together with the time stamp or the frame number. To. The contents of the data recorded in the memory 11b are transferred to the local server 1000 at a predetermined timing (for example, division of scenes in the test video) and recorded in the recorder / local database 1002 (ST34).

種々なストレス映像を含む試験映像を用いた被験者のデータ記録が済むと(ST36イエス)、レコーダ/ローカルデータベース1002で記録されたデータの評価が行われる(ST38)。ST38の評価では、今回の試験で得られたEOGデータがうまく取れているかどうかがチェックされる。(普通は瞬目反応がある映像箇所で瞬目が認められないなど疑義があれば再チェックし(ST40イエス)、そうでなければ次の処理に進む。)
今回の試験で被験者のEOGデータがうまくとれているようであれば(ST40ノー)、被験者の特徴的なEOG波形変化(瞬目、目瞑りなどに対応)と、その変化があったときのタイムスタンプ(またはフレーム番号)が示す試験映像の内容(シーン、効果音、振動や気温等の4Dエフェクト、その他)と、被験者(メガネユーザ)の特徴(性別/年齢/過去の経歴など)との対応関係を、その被験者について、ローカルサーバ1000において集計し、集計結果をレコーダ/ローカルデータベース1002に記録する(ST42)。
After recording the subject's data using test footage including various stress footage (ST36 yes), the data recorded in the recorder / local database 1002 is evaluated (ST38). In the evaluation of ST38, it is checked whether the EOG data obtained in this test is taken well. (Usually, if there is any doubt that the blink is not recognized in the video part where there is a blink reaction, recheck (ST40 yes), otherwise proceed to the next process.)
If the subject's EOG data is well obtained in this test (ST40 no), the subject's characteristic EOG waveform change (corresponding to blinking, eye closure, etc.) and the time when the change occurred Correspondence between the content of the test video (scene, sound effect, 4D effect such as vibration and temperature, etc.) indicated by the stamp (or frame number) and the characteristics (gender / age / past history, etc.) of the subject (glasses user) The relationship is aggregated for the subject on the local server 1000, and the aggregation result is recorded in the recorder / local database 1002 (ST42).

レコーダ/ローカルデータベース1002には、同じ被験者(長距離バスのドライバや高齢の自動車ドライバなど)が健常であったときの、同じ試験映像に対する過去の比較用EOGデータ、あるいは同じ業種で健常な平均的人物の、同じ試験映像に対する比較用EOGデータが、既に記録されている。今回の試験で得られた被験者のEOGデータは、既に記録されている比較用EOGデータと比較される。比較される両データの箇所は、同じタイムスタンプ(または同じフレームカウント値)の箇所である。比較の結果、今回の試験データから、単調な走行映像で居眠り(図4のPfなど)が認められたり、不意の飛び出し映像箇所で瞬目反応(図4のPc、Psなど)の発生がない箇所が散見されたときは、その発生状況に応じて、被験者(長距離バスのドライバや高齢の自動車ドライバなど)がこれからの業務(長時間に渡るバス運転など)を正常に行えるかどうか判定する(ST44)。 The recorder / local database 1002 contains past comparative EOG data for the same test footage when the same subject (such as a long-distance bus driver or an elderly car driver) was healthy, or a healthy average in the same industry. Comparative EOG data of a person for the same test video has already been recorded. The subject's EOG data obtained in this study will be compared with the already recorded comparative EOG data. The parts of both data to be compared are the parts with the same time stamp (or the same frame count value). As a result of comparison, from the test data of this time, doze (Pf, etc. in Fig. 4) was observed in the monotonous driving image, and there was no blinking reaction (Pc, Ps, etc. in Fig. 4) at the unexpected pop-out image part. When some parts are found, it is judged whether the subject (long-distance bus driver, elderly car driver, etc.) can normally perform future work (long-term bus driving, etc.) according to the occurrence situation. (ST44).

一定期間(たとえば1年)以上かけてローカルサーバ1000で集計したデータは、インターネットなどを介して、継続的にメインサーバ10000へ送られる。あちこちのローカルサーバ1000から継続的に送られてくる集計データは、メインサーバのデータベースに蓄積され、ビッグデータとなる(ST46)。このビッグデータを分析すれば、ST32の試験映像によりどのようなEOGデータが得られるのが健常者にとって普通なのかを推定できる。このような推定による知見は、疲労気味の労働者や高齢者の就業適性を判定することに役立つ。 The data aggregated by the local server 1000 over a certain period of time (for example, one year) is continuously sent to the main server 10000 via the Internet or the like. The aggregated data continuously sent from the local servers 1000 here and there is accumulated in the database of the main server and becomes big data (ST46). By analyzing this big data, it is possible to estimate what kind of EOG data can be obtained from the test video of ST32, which is normal for a healthy person. Findings from such estimates are useful in determining the employment aptitude of tired workers and the elderly.

適切な内容の試験映像を作成することにより、図6の試験は、自動車運転以外の業種の作業(インフラの保守作業や倉庫のピッキング作業など)における集中度・疲労度・ストレスなどの推定にも利用可能である。例えば、作業時/トレーニング時において、集中度低下・ストレス増大・神経異常をきたした事などを、リアルタイムに推定できる。「瞬目」の回数が多くなる現象は、不安・緊張・心の葛藤・ストレスなど心因性なものと、神経に異常をきたしているケースが考えられる。作業においてはどの状態も好ましいものではない。「瞬目」の検出/記録を行うことにより、作業者の負担を軽減するための環境作りや作業手順の改善等について、検討・対策を講じる事ができる。 By creating a test video with appropriate content, the test in Fig. 6 can also be used to estimate the degree of concentration, fatigue, stress, etc. in work in industries other than automobile driving (infrastructure maintenance work, warehouse picking work, etc.). It is available. For example, it is possible to estimate in real time that a decrease in concentration, an increase in stress, or a neurological abnormality has occurred during work / training. Phenomena in which the number of "blinks" increases are considered to be psychogenic such as anxiety, tension, mental conflict, and stress, and cases of nerve abnormalities. None of the conditions are favorable in the work. By detecting / recording the "blink", it is possible to consider and take measures such as creating an environment for reducing the burden on the worker and improving the work procedure.

また、トレーニング時の瞬目(瞬き)発生パターンより、理解度をリアルタイムに推定できる。説明を聞いている際、意味の切れ目に瞬きをしていれば良く理解されており、区切りではない箇所で瞬きをしていれば説明の聴講に集中できていないと推定できる。 In addition, the degree of comprehension can be estimated in real time from the blink generation pattern during training. When listening to the explanation, it is well understood if you blink at the break of meaning, and if you blink at a place that is not a break, you can presume that you cannot concentrate on listening to the explanation.

「瞬目」の検出/記録を行うことにより、トレーニング効果の評価および、トレーニング内容の改善も可能となる。 By detecting / recording "blinks", it is possible to evaluate the training effect and improve the training content.

作業時の「瞬目」および「目瞑り」の発生パターンより、居眠りをリアルタイムに推定できる。 Inemuri can be estimated in real time from the occurrence patterns of "blinking eyes" and "eye closing" during work.

視線を真上に向けた場合と、意図的に一定時間以上目を閉じた場合とでは、垂直方向の眼電位の絶対値に明らかな差が見られる(視線を真上に向けた場合 << 一定時間、例えば0.5秒以上の閉眼)。 There is a clear difference in the absolute value of the electrooculogram in the vertical direction between the case where the line of sight is directed directly upward and the case where the eyes are intentionally closed for a certain period of time or longer (when the line of sight is directed directly upward << Closed eyes for a certain period of time, for example, 0.5 seconds or longer).

日常的に一定時間(数秒)以上目を閉じ続ける事は無いため、「瞬目」および「目瞑り」を検出する事により、このような動作が作業中(例えば自動車の運転中)に発生した場合には、その発生を記録するだけでなく、作業者へアラートを出す事ができる。 Since the eyes are not closed for more than a certain period of time (several seconds) on a daily basis, such movements occur during work (for example, while driving a car) by detecting "blinks" and "eye closures". In that case, it is possible not only to record the occurrence but also to issue an alert to the worker.

また、ARアイウエア100に加速度センサ/ジャイロセンサ(図3の11e)を設けることにより、ARアイウエア100を装着したユーザの身体動作(居眠りに伴う頭部のこっくり等)の検出精度を(眼動検出部15だけしか使わない場合と比べて)向上できる。 In addition, by providing the AR eyewear 100 with an acceleration sensor / gyro sensor (11e in FIG. 3), the detection accuracy of the body movements of the user wearing the AR eyewear 100 (such as the head squeezing due to falling asleep) can be detected (eyes). This can be improved (compared to the case where only the motion detection unit 15 is used).

図7は、第3の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、緑内障視野検査時の被験者の集中度(視線がキョロキョロ動いてていないか)・疲労度・ストレスなどを集計し記録する。まず、図示しない視野検査装置のアイフレームのEOG電極に被験者の眼周辺の顔面皮膚を接触させる(ST50)。 FIG. 7 is a flowchart illustrating an example of the mental and physical state estimation method according to the third embodiment. Here, the degree of concentration (whether the line of sight is moving), the degree of fatigue, stress, etc. of the subject at the time of the glaucoma visual field test are aggregated and recorded. First, the facial skin around the eyes of the subject is brought into contact with the EOG electrode of the eye frame of a visual field test device (not shown) (ST50).

次に、タイムスタンプを提供するタイマ11fをスタートさせ、被験者の右眼(または左眼)の眼前で視野検査用の輝点(図示せず)を、所定のプログラム手順で発生させる。被験者は、輝点が見えたら、検査ボタン(図示せず)を押して、輝点が見えたことを装置に通知する。この検査ボタンを押したというイベントは、ボタンが押されたときのタイムスタンプと、そのときのEOGデータ(図4)ともに、検出データとしてメモリ11bに記録される(ST52)。 Next, the timer 11f that provides the time stamp is started, and a bright spot (not shown) for visual field test is generated in front of the right eye (or left eye) of the subject by a predetermined program procedure. When the subject sees the bright spot, he presses the inspection button (not shown) to notify the device that the bright spot is visible. The event that the inspection button is pressed is recorded in the memory 11b as detection data together with the time stamp when the button is pressed and the EOG data (FIG. 4) at that time (ST52).

輝点発生のプログラムが終了したら(ST54イエス)、メモリ11bに記録された検出データの信頼性が評価される(ST56)。この評価では、ボタンが押されたときのEOGデータが「きょろつき」に対応する波形(Pr、Ptなど)あるいは「目瞑り」に対応する波形(Pfなど)のときは、誤操作でボタンが押されたものと推定する。検査技師あるいは眼科医師が「ボタンの誤操作が多すぎる」と判断したら、再検査となる(ST58イエス)。 When the program for generating bright spots is completed (ST54 yes), the reliability of the detection data recorded in the memory 11b is evaluated (ST56). In this evaluation, if the EOG data when the button is pressed is a waveform corresponding to "Kyorotsuki" (Pr, Pt, etc.) or a waveform corresponding to "eye closure" (Pf, etc.), the button is erroneously operated. Is presumed to have been pressed. If the laboratory technician or ophthalmologist determines that "there are too many button errors", the examination will be re-examined (ST58 yes).

検査技師あるいは眼科医師が「ボタンの誤操作発生頻度は診断に問題がない程度に少ない」と判断したら、メモリ11b内の検査結果をローカルサーバ(パーソナルコンピュータ)1000に転送する。転送された検査結果は、その被験者の過去の検査結果や医師の診断見解を含め、被験者のカルテの一部として、レコーダ/ローカルデータベース1002に記録される(ST60)。 When the examination engineer or the ophthalmologist determines that "the frequency of button erroneous operation is low enough to cause no problem in diagnosis", the examination result in the memory 11b is transferred to the local server (personal computer) 1000. The transferred test results, including the subject's past test results and the physician's diagnostic opinion, are recorded in the recorder / local database 1002 as part of the subject's chart (ST60).

なお、ST50〜ST60の処理は、被験者の片目(右眼または左眼)だけに対する場合と、被験者の両目に対する場合がある。 The processing of ST50 to ST60 may be applied to only one eye (right eye or left eye) of the subject, or to both eyes of the subject.

図8は、第4の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、被験者のレム睡眠とノンレム睡眠を眼動のEOGから検出し、レムからノンレムに移行する際に、被験者がどのような映像を見ていたのか、および/またはどのような音声・音楽を聴いていたのか等の情報を収集し記録する。また、被験者のレム睡眠とノンレム睡眠を眼動のEOGから検出し、レムからノンレムに移行するタイミングで被験者を強制的に覚醒させて、覚醒前に見ていた夢の情報を収集し記録する。 FIG. 8 is a flowchart illustrating an example of the mental and physical state estimation method according to the fourth embodiment. Here, the subject's REM sleep and non-REM sleep are detected from the EOG of the eye movement, and what kind of image the subject was watching when transitioning from REM to non-REM, and / or what kind of voice / music Collect and record information such as whether you were listening. In addition, the subject's REM sleep and non-REM sleep are detected from the EOG of the eye movement, and the subject is forcibly awakened at the timing of transition from REM to non-REM, and information on the dream that was seen before awakening is collected and recorded.

まず、被験者(アイウエアのユーザ)が、EOG電極付きのARアイウエア(メガネ型、ゴーグル型またはアイマスク型)100を装着する(ST70)。アイウエア100がメガネ型またはゴーグル型の場合は、AR表示スクリーン越しに、図示しない外部モニタに映し出されたビデオ映像を見ることができる。アイウエア100がアイマスク型の場合は、アイマスクの内側に有機ELなどを用いた板状の画像表示部(図示せず)を設け、その画像表示部でビデオ表示するように構成できる。 First, a subject (user of eyewear) wears AR eyewear (glasses type, goggles type or eye mask type) 100 with an EOG electrode (ST70). When the eyewear 100 is a glasses type or goggles type, a video image projected on an external monitor (not shown) can be viewed through the AR display screen. When the eyewear 100 is an eye mask type, a plate-shaped image display unit (not shown) using an organic EL or the like is provided inside the eye mask, and the image display unit can be configured to display a video.

アイウエア100を装着する被験者は、睡眠を誘発しやすい環境におかれる。睡眠を誘発しやすい環境の一例として、適温(25℃位)適湿(50〜60%位)の薄暗い室内で、リクライニングシートに柔らかいシーツを被せた環境が考えられる。あるいは、寒い室内でコタツに入り横になっている環境でもよい。 The subject wearing the eyewear 100 is placed in an environment that easily induces sleep. As an example of an environment that easily induces sleep, an environment in which a reclining seat is covered with soft sheets in a dimly lit room at an appropriate temperature (about 25 ° C.) and an appropriate humidity (about 50 to 60%) can be considered. Alternatively, it may be an environment in which the kotatsu is laid down in a cold room.

このような睡眠を誘発しやすい環境において、睡眠誘導用ビデオの再生を開始する。このビデオ再生開始と同時に、タイマ(またはフレームカウンタ)11fをスタートさせて、被験者のEOGデータの連続記録を、メモリ11bを用いて開始する(ST72)。睡眠誘導用ビデオの映像は、コンピュータグラフィックス(CG)でも実写映像でもアニメーションでもよい。このビデオは、睡眠誘導だけを目的とするものに限らず、睡眠学習を意図した内容を含んでいてもよい。 In such an environment that easily induces sleep, playback of the sleep induction video is started. At the same time as the start of video playback, the timer (or frame counter) 11f is started to start continuous recording of the subject's EOG data using the memory 11b (ST72). The image of the sleep-inducing video may be computer graphics (CG), live-action image, or animation. This video is not limited to those intended only for sleep induction, and may include content intended for sleep learning.

映像の表示方法は、2D、3D、4Dのいずれでも良い。音声(4Dでは振動なども加わる)は、ステレオでもモノラルでもサラウンドでもよい。映像の表示方法や音声等の提示方法は、再生内容に応じて、適宜切替可能である。睡眠誘導ビデオの内容は、過去の実験で多数の人に対して睡眠誘導効果が認められた映像・音・ストーリーの作品から選択する(4D作品では振動や匂いなども適宜加わる)。被験者が眠りに付いたあと(目瞑りが継続される)は映像は見なくなるので、音(音楽など)や4D効果(振動など)が大きな意味を持つようになる。被験者が眠りについた後の音や4D効果の中身は、タイムスタンプ(またはフレーム番号)により特定できる。 The image display method may be any of 2D, 3D, and 4D. The audio (vibration, etc. is added in 4D) may be stereo, monaural, or surround. The video display method and the audio presentation method can be appropriately switched according to the playback content. The content of the sleep-inducing video is selected from the images, sounds, and stories that have been found to have a sleep-inducing effect on a large number of people in past experiments (vibrations and odors are added as appropriate in 4D works). After the subject falls asleep (eyes are closed), the image is no longer seen, so the sound (music, etc.) and 4D effect (vibration, etc.) become significant. The sound after the subject falls asleep and the contents of the 4D effect can be identified by the time stamp (or frame number).

なお、記録するEOGデータには、被験者の生理データ(呼吸数、脈拍、血圧など)を付加してもよい。毎分の呼吸数は、例えば図3のタイマ11fとマイク16(呼吸音を検出する)により検出できる。マイク16は、被験者の寝息やいびきの検出にも利用できる。血圧などの生理データは、例えばリストバンド型の小型血圧計(図示せず)を用いて得ることができる。EOGデータに生理データを適宜含めて検討すれば、被験者の心身状態の推定精度をより高めることができる。 In addition, physiological data (respiratory rate, pulse, blood pressure, etc.) of the subject may be added to the recorded EOG data. The respiratory rate per minute can be detected by, for example, the timer 11f and the microphone 16 (which detects the breath sounds) in FIG. The microphone 16 can also be used to detect the subject's sleeping breath and snoring. Physiological data such as blood pressure can be obtained using, for example, a wristband type small sphygmomanometer (not shown). The accuracy of estimating the physical and mental condition of the subject can be further improved by appropriately including the physiological data in the EOG data.

長い目瞑り(および、寝息やいびきの発生、もしくは脈拍や血圧の低下)から被験者の入眠(睡眠開始)を検出する。一般的にいって、入眠すると最初にノンレム睡眠が表れ、その後にレム睡眠が表れ、以後目覚めるまでの間に、ノンレム睡眠(脳は眠っている)とレム睡眠(脳は活動している)が交互に表れる。レム睡眠は、例えば90分毎に表れ、20〜30分くらい続く。レム睡眠中は眼動がある(眼がきょろきょろ動く)ので、この眼動をEOG波形から検出することにより、レム睡眠をノンレム睡眠から区別できる。これにより、睡眠中の眼動の有無から、レム睡眠とノンレム睡眠を検出し、それらの検出イベントを、タイムスタンプとともにメモリ11bに記録する(ST74)。レム睡眠中は脳が活動しているので、夢を見ていることが多い。 Detects subject falling asleep (beginning of sleep) from long-eyed meditation (and occurrence of snoring or snoring, or decreased pulse or blood pressure). Generally speaking, when you fall asleep, non-REM sleep first appears, then REM sleep, and then between non-REM sleep (brain is sleeping) and REM sleep (brain is active) before waking up. Appears alternately. REM sleep appears, for example, every 90 minutes and lasts about 20 to 30 minutes. Since there is eye movement during REM sleep (eyes move steadily), REM sleep can be distinguished from non-REM sleep by detecting this eye movement from the EOG waveform. Thereby, REM sleep and non-REM sleep are detected from the presence or absence of eye movement during sleep, and the detection events thereof are recorded in the memory 11b together with the time stamp (ST74). Since the brain is active during REM sleep, I often dream.

レム睡眠からノンレム睡眠に切り替わると、睡眠中の眼動が検出されなくなるという変化が生じる。このような変化があったとき(ST76イエス)、被験者を強制的に覚醒させると、直前のレム睡眠中に見ていた夢を思い出せる可能性が高い。 When switching from REM sleep to non-REM sleep, there is a change in which eye movements during sleep are not detected. When such a change occurs (ST76 yes), forcibly awakening the subject is likely to remind us of the dream we had during the last REM sleep.

そこで、夢の調査をする際は、被験者を強制的に覚醒させ(ST78イエス)、被験者に夢の内容を記録してもらう(夢の記録手段は問わない、マイク16を用いた音声記録でも、手書きメモでもよい)。夢の内容は、覚醒時のタイムスタンプとともに、メモリ11bに記録する(ST80)。覚醒以前のEOGデータは別途記録されており(ST72)、覚醒直前のレム睡眠中に再生されていたビデオの内容(特に視覚以外の五感に訴える情報:音楽や効果音あるいは、掛け算の九九のような、単純でリズミカルな音声など)は、タイムスタンプから特定できる。 Therefore, when investigating a dream, the subject is forcibly awakened (ST78 yes) and the subject is asked to record the contents of the dream (regardless of the means of recording the dream, voice recording using the microphone 16 is also possible. Handwritten notes are also acceptable). The content of the dream is recorded in the memory 11b together with the time stamp at the time of awakening (ST80). EOG data before awakening is recorded separately (ST72), and the content of the video played during REM sleep immediately before awakening (especially information that appeals to the five senses other than vision: music, sound effects, or multiplication tables Such as simple and rhythmic sounds) can be identified from the time stamp.

別の夢のデータをとりたいといは、被験者に再度寝てもらい(ST82イエス)、ST72〜ST80の処理を繰り返す。そうでなければ(ST82ノー)、被験者毎に記録した全てのデータ(タイムスタンプ、EOGデータ、夢の内容メモなど)をローカルサーバ1000に送り、整理してからレコーダ/ローカルデータベース1002に記録する(ST84)。とくに、夢の内容が手書きメモのときは、覚醒後の被験者に意味の分かりやすい文書に書き直してもらい(例えば、夢に出てきた人が「ににんがし、にさんがろく」と言っていたなど)、その文書データをレコーダ/ローカルデータベース1002に記録するとよい。ローカルサーバ1000に記録したデータは、適宜、メインサーバ10000に送ってそのサーバに記録する。 To collect data for another dream, the subject is asked to sleep again (ST82 yes), and the processes of ST72 to ST80 are repeated. Otherwise (ST82 no), all the data recorded for each subject (time stamp, EOG data, dream content memo, etc.) is sent to the local server 1000, organized, and then recorded in the recorder / local database 1002 (ST82 no). ST84). In particular, when the content of the dream is a handwritten memo, ask the subject after awakening to rewrite it in a document that is easy to understand (for example, the person who appears in the dream says "Ningashi, Nisangaroku". It is advisable to record the document data in the recorder / local database 1002. The data recorded in the local server 1000 is appropriately sent to the main server 10000 and recorded in that server.

ローカルサーバ1000および/またはメインサーバ10000に記録されたデータは、例えば次のような調査に利用できる。すなわち、1度の睡眠時間(3〜9時間位)の間に1度以上生じるレム睡眠とノンレム睡眠において、睡眠中に再生したビデオコンテンツがどのように夢に反映されたかを、調査できる(ST88)。この調査結果は、睡眠学習の開発に利用できる。 The data recorded on the local server 1000 and / or the main server 10000 can be used for the following investigations, for example. That is, it is possible to investigate how the video content played during sleep is reflected in the dream in REM sleep and non-REM sleep that occur once or more during one sleep time (about 3 to 9 hours) (ST88). ). The findings can be used to develop sleep-learning.

また、睡眠誘導用ビデオの再生を開始してから睡眠が始まるまで(あるいは最初のレム睡眠またはノンレム睡眠が検出されるまで)の睡眠誘導所用時間を、タイマ11fを用いて計測できる。複数の被験者に対して種々な睡眠誘導用ビデオV1、V2、V3、…を見せて、各ビデオV1、V2、V3、…の再生における個別の睡眠誘導所用時間データを複数の被験者から収集できる。これらの睡眠誘導所用時間データを分析すれば、「よく眠れる/快眠できるビデオ(映画)」の製作に役立てることができる。 In addition, the sleep induction station time from the start of playback of the sleep induction video to the start of sleep (or until the first REM sleep or non-REM sleep is detected) can be measured using the timer 11f. Various sleep-inducing videos V1, V2, V3, ... Can be shown to a plurality of subjects, and individual sleep-inducing time data in the reproduction of each video V1, V2, V3, ... Can be collected from a plurality of subjects. Analyzing these sleep induction station time data can be useful for producing "videos (movies) that allow you to sleep well / sleep well".

図9は、他の実施形態におけるEOG電極の実装例を説明する図である。この実施形態は、例えば緑内障患者の視野検査における、きょろつき、集中度・ストレスチェックにおいて利用できる。図9の電極実装例では、ゴーグル型アイウエアのクッション面(ユーザの顔面皮膚に接触する面)において、図1とは異なる電極配置を行っている。 FIG. 9 is a diagram illustrating a mounting example of the EOG electrode in another embodiment. This embodiment can be used, for example, in a visual field test of a glaucoma patient, for staggering, concentration / stress check. In the electrode mounting example of FIG. 9, the electrode arrangement is different from that of FIG. 1 on the cushion surface (the surface in contact with the user's facial skin) of the goggle type eyewear.

すなわち、例えばシリコーン製のクッションがゴーグルのフレーム110上に設けられ、このクッションの図示位置に所要の眼電位検出電極(EOG電極151a、151b、152a、152b)が取り付けられる。シリコーン製のクッションは、ユーザの顔面の凹凸に合うように柔らかく変形して、全てのEOG電極をユーザの皮膚面に安定接触させる。 That is, for example, a cushion made of silicone is provided on the frame 110 of the goggles, and the required electro-oculography detection electrodes (EOG electrodes 151a, 151b, 152a, 152b) are attached to the illustrated positions of the cushion. The silicone cushion is softly deformed to fit the unevenness of the user's face and provides stable contact of all EOG electrodes with the user's skin surface.

また、ゴーグルのフレーム110上には、キャリブレーションマーカーとなる4つのLED(M01、M02、M11、M12)が(オプションで)取り付けられている。さらに、ユーザが正視する際のガイドとして、左右両眼の真正面(P1とP2の位置)にセンターマーカーが(オプションで)形成されている。センターマーカーは、例えば、フレーム110内に嵌め込まれる透明プラスチック板の所定箇所(P1とP2の位置)に罫書き加工することで、形成できる。このセンターマーカーに周辺のフレーム110に取り付けられたLEDからのサイド光が当ると、その光の一部がセンターマーカー部分で乱反射して、ユーザが視認できるような輝点となる。 Further, four LEDs (M01, M02, M11, M12) serving as calibration markers are mounted (optionally) on the frame 110 of the goggles. Further, as a guide when the user looks straight ahead, a center marker (optionally) is formed directly in front of both the left and right eyes (positions of P1 and P2). The center marker can be formed, for example, by marking the predetermined positions (positions of P1 and P2) of the transparent plastic plate to be fitted in the frame 110. When the center marker is exposed to the side light from the LED attached to the surrounding frame 110, a part of the light is diffusely reflected at the center marker portion to become a bright spot that can be visually recognized by the user.

なお、フレーム110内の透明板上にフィルム液晶などを用いたディスプレイが設けられているときは、そのディスプレイによりAR表示またはVR表示が可能となる。(ARは拡張現実:Augmented Realityの略で、ゴーグル越しに見える現実の世界に種々な情報を付加させるテクノロジーを指す。また、VRは仮想現実:Virtual Realityの略で、現実世界とは切り離された任意の情報を表示できる。視野検査用の輝度パターン表示も、VR表示の一種とみることができる。)このAR表示(またはVR表示)を用いてマーカー(M01、M02、M11、M12、P1、P2)をユーザに提示することもできる。 When a display using a film liquid crystal or the like is provided on the transparent plate in the frame 110, AR display or VR display is possible by the display. (AR is an abbreviation for Augmented Reality, which refers to a technology that adds various information to the real world that can be seen through goggles. VR is an abbreviation for Virtual Reality, which is separated from the real world. Arbitrary information can be displayed. The brightness pattern display for visual field inspection can also be regarded as a kind of VR display.) Markers (M01, M02, M11, M12, P1, P1) can be displayed using this AR display (or VR display). P2) can also be presented to the user.

なお、12Lと12Rを有機ELパネルで作り。アイフレームの前面全体を遮光シートで覆えば、ビデオ表示(またはVR表示)機能付きのアイマスクになる。 In addition, 12L and 12R are made with an organic EL panel. If the entire front surface of the eye frame is covered with a light-shielding sheet, it becomes an eye mask with a video display (or VR display) function.

図9の構造をモディファイして、顎紐つきの帽子(車掌帽などのヘッドマウントデバイス)にEOG電極を設けることもできる。図示しないが、制服を着た電車の車掌(ユーザ)がよく着用する顎紐つきの車掌帽には、ユーザの額に当接する額鍔と、着用した帽子をユーザの頭部に固定する顎紐が付いている。図示しないが、この額鍔の内側箇所に、図9のEOG電極151aと152aを設けることができる。図示しないが、図9のEOG電極151bは顎紐の右頬寄り部分にスライド可能に取り付けられ、図9のEOG電極12bは顎紐の左頬寄り部分にスライド可能に取り付けられる。この車掌帽のユーザは、体を動かしたり風を受けたりしても帽子が脱げ落ちないように、車掌帽を着用したあとに顎紐の長さを調整して、帽子を固定する。この固定後、に、ユーザは、電極151aと151gを結ぶ線上に右眼の中心(図9のP2)がくるように、顎紐の右側についているEOG電極151bを右耳付近でスライドさせる。同様に、ユーザは、電極152aと152gを結ぶ線上に左眼の中心(図9のP1)がくるように、顎紐の左側についているEOG電極152bを左耳付近でスライドさせる。 The structure of FIG. 9 can be modified to provide an EOG electrode on a hat with a chin strap (a head mount device such as a conductor cap). Although not shown, the conductor cap with a chin strap that is often worn by train conductors (users) in uniform has a forehead brim that contacts the user's forehead and a chin strap that secures the worn hat to the user's head. attached. Although not shown, the EOG electrodes 151a and 152a of FIG. 9 can be provided inside the forehead collar. Although not shown, the EOG electrode 151b of FIG. 9 is slidably attached to the right cheek-side portion of the chin strap, and the EOG electrode 12b of FIG. 9 is slidably attached to the left cheek-side portion of the chin strap. The user of the conductor cap adjusts the length of the chin strap after wearing the conductor cap to fix the hat so that the hat does not come off even if the body is moved or the wind is received. After this fixation, the user slides the EOG electrode 151b attached to the right side of the chin strap near the right ear so that the center of the right eye (P2 in FIG. 9) is on the line connecting the electrodes 151a and 151g. Similarly, the user slides the EOG electrode 152b attached to the left side of the chin strap near the left ear so that the center of the left eye (P1 in FIG. 9) is on the line connecting the electrodes 152a and 152g.

このようにすると、ユーザの左右眼球の眼電位が、車掌帽の額鍔と顎紐に設けられたEOG電極151a、151b、152a、152bにより検出される。 In this way, the electro-oculography of the left and right eyeballs of the user is detected by the EOG electrodes 151a, 151b, 152a, 152b provided on the forehead collar and the chin strap of the conductor cap.

以上を纏めると、EOG電極を車掌帽に適用する場合は、
・車掌帽の額部内側に上側電極(151aと152a)を配置する;
・顎紐の耳下腺咬筋部(じかせんこうきんぶ)に上下方向へ可動可能な電極(151bと152b)を配置する。ここで、顎紐側の電極が上下方向で可動式になっているところがポイントである。左右それぞれの上下電極間を結ぶ線が左右それぞれの眼球中心付近を通過するように、顎紐上の電極位置を合わせる。これにより、瞬目や視線検出を行うに十分な振幅のEOG検出信号を得ることができる。
To summarize the above, when applying the EOG electrode to the conductor cap,
-Place the upper electrodes (151a and 152a) inside the forehead of the conductor cap;
-Place electrodes (151b and 152b) that can move in the vertical direction on the masseter muscle of the parotid gland of the jaw cord. Here, the point is that the electrodes on the jaw strap side are movable in the vertical direction. Align the electrodes on the chin strap so that the line connecting the upper and lower electrodes on the left and right passes near the center of each eyeball on the left and right. As a result, it is possible to obtain an EOG detection signal having a sufficient amplitude for detecting the blink of an eye or the line of sight.

図10は、他の実施形態に係るメガネ型アイウエアにおけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの例)である。図10のアイウエア100は、EOG電極配置に関しては図9と類似しているが、以下の点で図1のアイウエア100と違っている。 FIG. 10 is a diagram illustrating an example of mounting an EOG electrode in eyeglass-type eyewear according to another embodiment (an example of AR glasses in which the EOG electrode is arranged around the eyeball). The eyewear 100 of FIG. 10 is similar to the eyewear 100 of FIG. 9 in terms of the EOG electrode arrangement, but differs from the eyewear 100 of FIG. 1 in the following points.

すなわち、右ノーズパッド150RのEOG電極151aおよび151bが右アイフレーム101側に移動し、左ノーズパッド150LのEOG電極152aおよび152bが左アイフレーム102側に移動している。EOG電極151aおよび151bはユーザの右眼中心位置(図示せず)に対して略点対称となる位置に配置され、EOG電極152aおよび152bはユーザの左眼中心位置(図示せず)に対して略点対称となる位置に配置される。また、EOG電極151aおよび151bそれぞれを結ぶ右斜線とEOG電極152aおよび152bそれぞれを結ぶ左斜線は、ユーザの鼻筋に沿った垂直線(図示せず)に対して略線対称となっている。電極151a,151b,152a,152bは、弾性体(スポンジ、シリコーン製クッションなど)の先端に設けた導電性部材(金属、導電性高分子など)で構成できる。各EOG電極は、アイウエア100を装着したユーザの顔の皮膚面に、弾性体の弾性反発力で軽く圧接される。 That is, the EOG electrodes 151a and 151b of the right nose pad 150R are moved to the right eye frame 101 side, and the EOG electrodes 152a and 152b of the left nose pad 150L are moved to the left eye frame 102 side. The EOG electrodes 151a and 151b are arranged at positions that are substantially point-symmetrical with respect to the user's right eye center position (not shown), and the EOG electrodes 152a and 152b are arranged with respect to the user's left eye center position (not shown). It is placed at a position that is approximately point-symmetrical. Further, the right diagonal line connecting the EOG electrodes 151a and 151b and the left diagonal line connecting the EOG electrodes 152a and 152b are substantially axisymmetric with respect to the vertical line (not shown) along the user's nose. The electrodes 151a, 151b, 152a, 152b can be composed of a conductive member (metal, conductive polymer, etc.) provided at the tip of an elastic body (sponge, silicone cushion, etc.). Each EOG electrode is lightly pressed against the skin surface of the user's face wearing the eyewear 100 by the elastic rebound force of the elastic body.

図10のようなEOG電極配置構造を採ると、ノーズパッド部にEOG電極を配置する構造と比べて帯電した眼球の周囲にできる電界をより検知し易くなる。そのため、図1の実施形態よりも図10の実施形態の方が、より大きな振幅のEOG信号を検出できる。 When the EOG electrode arrangement structure as shown in FIG. 10 is adopted, it becomes easier to detect the electric field generated around the charged eyeball as compared with the structure in which the EOG electrode is arranged on the nose pad portion. Therefore, the EOG signal having a larger amplitude can be detected in the embodiment shown in FIG. 10 than in the embodiment shown in FIG.

図11は、さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイフレームが連続したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの他の例)である。図11のような構造を採ると、図10の構造よりもEOG電極の皮膚接触安定性が高くなる。そのため、より高精度にEOG信号を検出することができる。また、図11の構造では、大型化した情報処理部11その他の装置を内蔵し易い。そのため、図11の構造では、デザイン性をさして気にすることなく、GPS付きスマートフォンの機能を仕込むことができる。その場合の画面表示は、フィルム液晶などを利用した左右のディスプレイ12L/12Rにおいて、AR表示により行うことができる。図示しないが、ゴーグルフレームの左右の耳付近に小型スピーカを取り付け、ノーズクッション付近に小型マイクを取り付けることもできる。また、スマートフォンに対するコマンド入力は、視線移動、瞬目、目瞑り、ウインクなどの眼動により行うことができる。図11のようなゴーグル型アイウエア100は、スキーヤー、スノーボーダーの集中度・ストレスチェックに利用できる。また、ゴーグル型アイウエア100は、AR表示に限らずVR表示にも対応できる。 FIG. 11 is a diagram for explaining an implementation example of the EOG electrode in the goggle type eyewear (type in which the eye frames of the left and right eyes are continuous) 100 according to still another embodiment (AR glasses in which the EOG electrode is arranged around the eyeball). Another example). When the structure shown in FIG. 11 is adopted, the skin contact stability of the EOG electrode is higher than that of the structure shown in FIG. Therefore, the EOG signal can be detected with higher accuracy. Further, in the structure of FIG. 11, it is easy to incorporate the enlarged information processing unit 11 and other devices. Therefore, in the structure of FIG. 11, the function of the GPS-equipped smartphone can be incorporated without worrying about the design. In that case, the screen display can be performed by AR display on the left and right displays 12L / 12R using a film liquid crystal or the like. Although not shown, small speakers can be attached near the left and right ears of the goggle frame, and small microphones can be attached near the nose cushion. In addition, command input to the smartphone can be performed by eye movements such as eye movement, blinking, eye closing, and winking. The goggle type eyewear 100 as shown in FIG. 11 can be used for checking the concentration and stress of skiers and snowboarders. Further, the goggle type eyewear 100 can support not only AR display but also VR display.

図12は、さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイカップが分離したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネのさらに他の例)である。図12の実施形態では、図10の場合と同様な、EOG電極配置構造とセンサ部11eの配置構造を採用している。但し、図12のゴーグル構造は海中ダイビング使用(あるいはスカイダイビング使用)にも耐える。図12のゴーグルは、マリンダイバーやスカイダイバーの訓練中における、集中度・ストレスチェックに利用できる。 FIG. 12 is a diagram illustrating an implementation example of the EOG electrode in the goggle type eyewear (type in which the eye cups of the left and right eyes are separated) 100 according to still another embodiment (AR glasses in which the EOG electrode is arranged around the eyeball). Yet another example). In the embodiment of FIG. 12, the EOG electrode arrangement structure and the arrangement structure of the sensor unit 11e are adopted as in the case of FIG. However, the goggle structure of FIG. 12 can withstand underwater diving use (or skydiving use). The goggles of FIG. 12 can be used for concentration / stress check during training of marine divers and skydivers.

なお、VR表示機能の適用対象は、保護メガネとしてのゴーグル型アイウェアに限定されない。例えば図12に示すようなゴーグル100にVR表示機能を付加することができる。このVRゴーグル100で海中ダイビングやスカイダイビング(あるいはゲーム)のトレーニングビデオをユーザに見せることができる。(このトレーニングビデオは、初心者には対応が難しい訓練内容の、熟練者による対応実写、コンピュータグラフィック、あるいはアニメなどを含むことができる。)
トレーニングビデオの特定シーンでユーザがどのような眼動反応を示したのかは、VRゴーグル100のEOG電極(151a、151b、152a、152bのうち2つ以上)を用いて検出できる。また、眼動反応が検出されたときの特定シーンは、図3のタイマ/フレームカウンタ11fからのタイムスタンプ(またはフレーム番号)により特定できる。眼動反応の検出結果は、タイムスタンプ(またはフレーム番号)とともに、検出データとして図3のメモリ11bに一時記憶される。一時記憶された検出データは、トレーニングビデオ終了後にローカルサーバ(パーソナルコンピュータ)1000に取り込むことができる。
The application target of the VR display function is not limited to goggle-type eyewear as protective glasses. For example, a VR display function can be added to the goggles 100 as shown in FIG. With this VR goggles 100, training videos of underwater diving and skydiving (or games) can be shown to the user. (This training video can include live-action footage, computer graphics, or animation of training content that is difficult for beginners to handle.)
What kind of eye motion reaction the user showed in a specific scene of the training video can be detected by using the EOG electrodes (two or more of 151a, 151b, 152a, 152b) of the VR goggles 100. Further, the specific scene when the eye movement reaction is detected can be specified by the time stamp (or frame number) from the timer / frame counter 11f of FIG. The detection result of the eye movement reaction is temporarily stored in the memory 11b of FIG. 3 as detection data together with the time stamp (or frame number). The temporarily stored detection data can be taken into the local server (personal computer) 1000 after the training video ends.

トレーナー(訓練教官)は、チェックポイントとなるビデオシーンにおいて、被験者(VRゴーグルユーザ)の集中度がどうであったのか等を、瞬目の発生パターンやその変化などから、分析できる。この分析には、ローカルサーバ1000のパーソナルコンピュータを利用できる。 The trainer (training instructor) can analyze how the subject (VR goggles user) was concentrated in the video scene, which is a checkpoint, from the occurrence pattern of blinks and their changes. A personal computer of the local server 1000 can be used for this analysis.

チェックポイントとしては、多数の被験者がいずれも同じような眼動反応(瞬目の発生パターンやその変化タイミングが類似)をしたときのビデオ内容を用いることができる。そのチェックポイントのビデオ内容は、タイムスタンプ(またはフレーム番号)に基づき該当シーンを再生することにより、どんな内容であったのかを確認できる。例えばスカイダイビングの訓練ビデオにおいて、パラシュートのロープが体に絡み付いて開かなくなったシーンをチェックポイントとし、そのときの被験者の瞬目の出方が多くの被験者(あるいは熟練者)の場合と比べてどうであったのか(1〜2回の瞬目反応:落ち着いて集中できていたのか、あるいは眼瞑りや多数回の瞬目反応:パニック状態に陥っていたのか等)を調べることができる。 As the checkpoint, it is possible to use the video content when a large number of subjects all have similar eye movement reactions (similar eye movement patterns and their change timings). You can check what the video content of the checkpoint was by playing the corresponding scene based on the time stamp (or frame number). For example, in a skydiving training video, the checkpoint is a scene where the parachute rope is entangled in the body and cannot be opened, and how does the subject's blinking appearance at that time compare to the case of many subjects (or experts)? It can be investigated whether it was (1 or 2 flash reactions: calm and focused, or eye closure or multiple flash reactions: panicked, etc.).

訓練ビデオのシーンが単調な空撮シーンのときに検出された瞬目(被験者が無意識に行う瞬きなど)については、その発生タイミングが被験者毎にばらばらとなるので、そのようなシーンはチェックポイントから外すことができる。 For blinks detected when the training video scene is a monotonous aerial scene (such as blinks that the subject unconsciously makes), the timing of occurrence varies from subject to subject, so such scenes can be viewed from the checkpoint. Can be removed.

上記のようなVRゴーグル100の利用は、映画館用3Dメガネの適用と同様な効果を提供し得る。 The use of VR goggles 100 as described above may provide the same effect as the application of 3D glasses for movie theaters.

本願のAR/VRアイウエアには、上記以外の応用も考えられる。例えば図1または図10のアイウエア100にはカメラ13L/13Rが組み込まれている。このカメラを用いて実写録画をしているときに、種々な眼動反応(瞬目の発生パターンやその変化タイミング)をタイムスタンプ(またはフレーム番号)とともにメモリ11bに記録できる(この場合はメモリ11bになるべく容量の大きいフラッシュメモリを用いることが望ましい)。 Applications other than the above can be considered for the AR / VR eyewear of the present application. For example, the camera 13L / 13R is incorporated in the eyewear 100 of FIG. 1 or FIG. During live-action recording using this camera, various eye movement reactions (blink generation pattern and its change timing) can be recorded in the memory 11b together with a time stamp (or frame number) (in this case, the memory 11b). It is desirable to use a flash memory with as large a capacity as possible).

この実写録画の特定シーン(例えば駅のホームで電車を待っているときに突然後ろから人がぶつかってきたなど)とそのときに起きた眼動反応(例えば短い眼瞑りと多数回の瞬目)は、タイムスタンプ(またはフレーム番号)とともに記録し、その記録内容を適宜ローカルサーバ1000に転送できる。ローカルサーバ1000に転送されたデータは、アイウエア100のユーザが置かれた状況に応じてどんな緊張/ストレスが生じたのかの分析に役立てることができる。 A specific scene of this live-action recording (for example, a person suddenly hits from behind while waiting for a train at the platform of a station) and the eye movement reaction that occurred at that time (for example, a short eye close and many blinks). Can record together with a time stamp (or frame number) and transfer the recorded contents to the local server 1000 as appropriate. The data transferred to the local server 1000 can be useful for analyzing what kind of tension / stress has occurred depending on the situation in which the user of the eyewear 100 is placed.

<実施形態の纏め>
(a)例えば左右どちらかのノーズパッド上下に最小限1組の電極を配置し、最小限1個のADCを用いて眼電位センシングをおこなうことができる。これにより、3Dメガネにおいて低消費電力(ADCを用いた眼電位センシングに要する電力は、ワイヤレスで動作する心電計と同等)かつ、低コスト(「瞬目」検出用の特徴量計算を数MIPS〜数十MIPS程度で行うことにより、ワイヤレスで動作する心電計とコストは同程度)に「瞬目」(瞬時)および「目瞑り」(一定時間持続)の検出が可能となる。
<Summary of embodiments>
(A) For example, at least one set of electrodes can be arranged above and below the nose pad on either the left or right side, and electro-oculography sensing can be performed using at least one ADC. As a result, the power consumption of 3D glasses is low (the power required for electro-oculography sensing using ADC is equivalent to that of an electrocardiograph that operates wirelessly), and the cost is low (feature calculation for "blink" detection is performed by several MIPS. By performing at about several tens of MIPS, it is possible to detect "instantaneous eyes" (instantaneous) and "eye closure" (lasting for a certain period of time) with an electrocardiograph operating wirelessly (the cost is about the same).

(b)実施形態の技術によって、映画館の3D上映用3Dメガネ(シャッター方式、偏光方式のどちらにも対応可能))に眼電位センシングを応用でき、それに集中度・疲労・ストレス推定を組み合わせることができる。これにより、現在上映中の映画に対する観客の反応(時間軸に沿った、あるいはシーン毎の、集中度・疲労度・ストレス)を集計する事が可能となり、上映時間に合わせた本編の再編集や、更には、今後の新作映画の製作へVOC(Voice of the Customer:観客あるいは顧客の声)としてフィードバックする事ができる。 (B) By the technology of the embodiment, the electro-oculography sensing can be applied to 3D glasses for 3D screening in a movie theater (both shutter method and polarization method can be supported), and the degree of concentration, fatigue, and stress estimation are combined with the application. Can be done. This makes it possible to aggregate the reaction of the audience to the movie currently being shown (concentration, fatigue, stress along the time axis or for each scene), and re-editing the main part according to the screening time. Furthermore, it can be fed back as a VOC (Voice of the Customer) to the production of a new movie in the future.

(c)更に、加速度センサやジャイロセンサを3Dメガネに付加することで、4Dと呼称される体験型/アトラクション型のシアターにおけるVOC収集の幅を広げる事ができる。(体験型/アトラクション型のシアターでは、シートが動く以外に、Air、Waterミスト、香り、泡、霧、風、フラッシュ、雪、雨の体験ができる。そのような体験ができるものとして、4DX、TOHO CINEMASのMediaMation MX4Dなどがある。)
ここで、眼電位センシングでは、瞬目、目瞑り(ADCが最小限1個)から視線方向(ADCが2〜3個)などの推定が可能であるが、これに加速度センサやジャイロセンサを加える事で、3Dメガネの向く方向(メガネユーザの頭部の向く方向)を含めて、VOCの情報収集が可能となる。
(C) Furthermore, by adding an acceleration sensor or a gyro sensor to the 3D glasses, it is possible to expand the range of VOC collection in an experience-based / attraction-type theater called 4D. (In the experience-based / attraction-type theater, in addition to moving the seat, you can experience Air, Water mist, scent, bubbles, fog, wind, flash, snow, and rain. As such experience, 4DX, There is MediaMation MX4D of TOHO CINEMAS etc.)
Here, in the electro-oculography sensing, it is possible to estimate the line-of-sight direction (2 to 3 ADCs) from the blinking eyes and eye closure (minimum 1 ADC), and an acceleration sensor or a gyro sensor is added to this. This makes it possible to collect VOC information, including the direction in which the 3D glasses face (the direction in which the head of the eyeglass user faces).

(d)また、劇場3Dメガネでは字幕が読み難い(字幕も3D化され、一番手前に表示されるので、他の映像と視線を往復させると疲れる)と言う声があるため、ARメガネをベースとして輻輳角制御を含めて字幕表示するのも有効である(既知の方法も利用しつつ、それに眼電位センシングを利用したストレス推定をする事で、輻輳角制御を含むAR字幕表示の有効性を確認できる)。 (D) In addition, there are voices saying that subtitles are difficult to read with theater 3D glasses (subtitles are also converted to 3D and displayed in the foreground, so it gets tired if you move your eyes back and forth with other images), so wear AR glasses. It is also effective to display subtitles including congestion angle control as a base (effectiveness of AR subtitle display including congestion angle control by estimating stress using electro-oculography sensing while using a known method. Can be confirmed).

<出願当初請求項の内容と実施形態との対応関係例>
[1]一実施の形態に係る心身状態推定装置は、アイウエア(100)のデバイス形態を採り、このアイウエアを装着したユーザの眼電位(図4のEOG)に基づいて前記ユーザの眼動を検出する眼動検出部(15)と、前記眼動が検出されるときのタイミングを計測するタイマ(11f)と、前記眼動に基づく情報処理を行う情報処理部(11)を備えている。この心身状態推定装置において、前記アイウエアを装着したユーザに外部刺激(例えば、種々なエンターテイメントシーンにおける五感への刺激;種々なストレス試験映像における五感への刺激;視野検査における視覚および精神的緊張への刺激;種々な夢における意識の刺激)が与えられたときの前記ユーザの特徴的な眼動(例えば、図4の瞬目Pc/Ps、目瞑りPf、眼球の上下左右動または回転Pr/Ptなどに対応したEOG)を前記眼動検出部(15)により検出する。
<Example of correspondence between the content of the initial claim and the embodiment>
[1] The mental and physical state estimation device according to the embodiment adopts the device form of the eyewear (100), and the eye movement of the user based on the electro-oculography (EOG of FIG. 4) of the user wearing the eyewear. It is provided with an eye movement detection unit (15) for detecting the eye movement, a timer (11f) for measuring the timing when the eye movement is detected, and an information processing unit (11) for performing information processing based on the eye movement. .. In this mental and physical state estimation device, an external stimulus (for example, a stimulus to the five senses in various entertainment scenes; a stimulus to the five senses in various stress test images; a visual and mental tension in a visual field test) is given to the user wearing the eyewear. Stimulation of the user; characteristic eye movements of the user when given (stimulation of consciousness in various dreams) (for example, blink Pc / Ps in FIG. 4, eye closure Pf, eyeball up / down / left / right movement or rotation Pr / The EOG) corresponding to Pt or the like is detected by the eye movement detection unit (15).

また、前記特徴的な眼動が検出されたときのタイミングを前記タイマ(11f)により計測し、前記計測タイミングにおける前記外部刺激の内容と前記計測タイミングにおける前記特徴的な眼動の内容(その眼動に対応するEOG波形)との対応関係から、前記ユーザの心身状態(外部刺激に対する個人評価に関係)を推定できるように構成する。 Further, the timing when the characteristic eye movement is detected is measured by the timer (11f), and the content of the external stimulus at the measurement timing and the content of the characteristic eye movement at the measurement timing (the eye). It is configured so that the mental and physical state of the user (related to individual evaluation for external stimuli) can be estimated from the correspondence with the EOG waveform corresponding to the motion.

[2]前記[1]の装置は、各アイウエアで収集した情報を一時記憶するメモリを持つ。すなわち、この装置は、前記外部刺激の内容(種々な映画シーンなど)を特定する情報(タイマまたはフレームカウンタの出力)と、前記特徴的な眼動(瞬目など)の情報を記憶するメモリ(11b)をさらに具備することができる。 [2] The device of the above [1] has a memory for temporarily storing the information collected by each eyewear. That is, this device stores information (output of a timer or frame counter) that identifies the content of the external stimulus (various movie scenes, etc.) and information on the characteristic eye movement (blink, etc.) (memory that stores the information. 11b) can be further provided.

[3]前記[1]の装置は、外部のローカルサーバおよび/またはメインサーバが情報収集できるように構成される。すなわち、この装置は、前記外部刺激の内容(種々な映画シーンなど)を特定する情報(タイマまたはフレームカウンタの出力)と、前記特徴的な眼動(瞬目など)の情報とを相互に対応付けた調査情報を、外部サーバ(1000および/または10000)へ提供する手段(11a〜11d)をさらに具備することができる。 [3] The device of the above [1] is configured so that an external local server and / or a main server can collect information. That is, this device mutually corresponds information that identifies the content of the external stimulus (various movie scenes, etc.) (output of a timer or frame counter) and information on the characteristic eye movement (blink, etc.). Means (11a to 11d) for providing the attached survey information to an external server (1000 and / or 10000) can be further provided.

[4]前記[1]の装置が組み込まれたアイウエア(100)は、調査情報の提供元を特定できるように構成される。すなわち、この装置は、自身を特定できるデバイスID(11g)を持ち、このデバイスIDにより、個々の情報提供元となったアイウエアを特定できる。 [4] The eyewear (100) in which the device of the above [1] is incorporated is configured so that the source of the survey information can be identified. That is, this device has a device ID (11 g) that can identify itself, and the device ID can identify the eyewear that is the individual information provider.

[5]一実施の形態に係る心身状態推定方法は、アイウエア(100)を装着したユーザの眼電位(図4のEOG)に基づいて前記ユーザの眼動を検出し、前記眼動が検出されるときのタイミングを計測し、前記眼動に基づく情報処理を行う構成(図3)を用いる。この心身状態推定方法では、前記アイウエアを装着したユーザに外部刺激(例えば、種々なエンターテイメントシーンにおける五感への刺激;種々なストレス試験映像における五感への刺激;視野検査における視覚および精神的緊張への刺激;種々な夢における意識の刺激)を与え、外部刺激が与えられたときの前記ユーザの特徴的な眼動(例えば、図4の瞬目Pc/Ps、目瞑りPf、眼球の上下左右動または回転Pr/Ptなどに対応したEOG)を検出する(ST12;ST32:ST52;T72)。また、前記特徴的な眼動が検出されたときのタイミングを計測する(ST12;ST32;ST52;ST72)。そして、前記計測タイミングにおける前記外部刺激の内容と前記計測タイミングにおける前記特徴的な眼動の内容(その眼動に対応するEOG波形)との対応関係から、前記ユーザの心身状態(外部刺激に対する個人評価に関係)を推定する(ST24;ST42−ST44;ST56;ST74−ST88)。 [5] The mental and physical state estimation method according to the embodiment detects the eye movement of the user based on the electro-oculography (EOG of FIG. 4) of the user wearing the eyewear (100), and the eye movement is detected. A configuration (FIG. 3) is used in which the timing at which the information is processed is measured and information processing is performed based on the eye movement. In this method of estimating the physical and mental state, an external stimulus (for example, a stimulus to the five senses in various entertainment scenes; a stimulus to the five senses in various stress test images; a visual and mental tension in a visual field test) is given to the user wearing the eyewear. (Stimulation of consciousness in various dreams), and the characteristic eye movements of the user when an external stimulus is given (for example, blinking Pc / Ps in FIG. 4, eye closing Pf, eyeball up / down / left / right). EOG) corresponding to motion or rotation Pr / Pt or the like is detected (ST12; ST32: ST52; T72). In addition, the timing when the characteristic eye movement is detected is measured (ST12; ST32; ST52; ST72). Then, from the correspondence relationship between the content of the external stimulus at the measurement timing and the content of the characteristic eye movement at the measurement timing (EOG waveform corresponding to the eye movement), the physical and mental state of the user (individual to the external stimulus). (Relevant to evaluation) is estimated (ST24; ST42-ST44; ST56; ST74-ST88).

[6]前記[5]の方法は、例えば映画館での3D/4D上映作品に対する観客の反応調査に利用できる。この方法では、検出された前記特徴的な眼動が所定回数未満(1〜2回)の瞬目(図4のPc)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容(映画の痛快なシーンなど)に集中した状態であると推定する(図5のST24)。あるいは、検出された前記特徴的な眼動が所定回数以上連続した(3回以上)瞬目(図4のPs)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容(映画の怖いシーンなど)にストレスを受けた状態であると推定する(ST24)。 [6] The method of [5] above can be used, for example, to investigate the reaction of an audience to a 3D / 4D screening work in a movie theater. In this method, if the detected characteristic eye movement is less than a predetermined number of times (1-2 times) of blinks (Pc in FIG. 4), the physical and mental state of the user is the external stimulus at the measurement timing. It is presumed that the state is concentrated on the content (exciting scenes of the movie, etc.) (ST24 in FIG. 5). Alternatively, if the detected characteristic eye movements are continuous (three times or more) blinks (Ps in FIG. 4) a predetermined number of times or more, the mental and physical state of the user is the content of the external stimulus at the measurement timing (Ps in FIG. 4). It is presumed that he is in a state of being stressed by (such as a scary scene in a movie) (ST24).

[7]前記[5]の方法は、例えば長距離バスドライバの疲労度調査に利用できる。この方法では、検出された前記特徴的な眼動が所定時間未満(例えば3秒以上5分未満)の目瞑りに対応するもの(目瞑りが検出されてのち最初の瞬目が検出されるまでの時間が所定時間未満)であれば、前記ユーザの心身状態が前記計測タイミングにおいて疲労した状態あるいは居眠り(うたた寝)状態であると推定する(図6のST42)。あるいは、検出された前記特徴的な眼動が所定時間以上(例えば5分以上)の目瞑りに対応するもの(目瞑りが検出されてのち最初の瞬目が検出されるまでの時間間隔が所定時間以上)であれば、前記ユーザの心身状態が前記計測タイミング以降において仮眠(例えば15〜30分の睡眠)あるいは睡眠(例えば90以上の睡眠)状態であると推定する(ST42)。 [7] The method of [5] can be used, for example, for investigating the degree of fatigue of a long-distance bus driver. In this method, the detected characteristic eye movement corresponds to eye closure for less than a predetermined time (for example, 3 seconds or more and less than 5 minutes) (after eye closure is detected until the first blink is detected. If the time is less than a predetermined time), it is estimated that the physical and mental state of the user is a tired state or a dozing (nap) state at the measurement timing (ST42 in FIG. 6). Alternatively, the detected characteristic eye movement corresponds to eye closure for a predetermined time or longer (for example, 5 minutes or longer) (the time interval from the detection of eye closure to the detection of the first blink is predetermined. If it is (time or more), it is estimated that the physical and mental state of the user is a nap (for example, 15 to 30 minutes of sleep) or a sleep (for example, 90 or more sleep) after the measurement timing (ST42).

この方法を用いた疲労度調査において、短時間(例えば30分以下)の調査中に居眠り状態が認められたり、長時間(例えば2時間以上)の調査中に仮眠あるいは睡眠状態が認められたときは、被験者がこれから長距離バス運転の勤務につくのを止めさせることができる。 In a fatigue survey using this method, when a dozing state is observed during a short-term (for example, 30 minutes or less) survey, or a nap or sleeping state is observed during a long-term (for example, 2 hours or more) survey. Can stop the subject from now on the job of driving a long-distance bus.

[8]前記[5]の方法は、例えば緑内障患者の視野調査に利用できる。この方法では、輝点の有無または輝点の移動を被験者に対する検査用外部刺激として用いる。この視野検査において、検出された前記特徴的な眼動が所定回数未満(1〜2回)の瞬目(図4のPc)であれば、前記ユーザの心身状態が前記計測タイミング(視野検査中に検査ボタンを押したとき)における前記外部刺激の内容に集中した状態であると推定する(図7のST56)。あるいは、検出された前記特徴的な眼動が眼球の上下動または回転(きょろつき)を示す眼電波形(例えば図4のPr/Pt)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する(ST56)。 [8] The method of [5] can be used, for example, for a visual field survey of a glaucoma patient. In this method, the presence or absence of bright spots or the movement of bright spots is used as an external stimulus for examination of the subject. In this visual field test, if the characteristic eye movement detected is less than a predetermined number of times (1-2 times) of blinks (Pc in FIG. 4), the physical and mental state of the user is the measurement timing (during the visual field test). It is presumed that the state is concentrated on the content of the external stimulus when the test button is pressed (ST56 in FIG. 7). Alternatively, if the detected characteristic eye movement is an electrooculographic waveform (for example, Pr / Pt in FIG. 4) indicating vertical movement or rotation (staggering) of the eyeball, the mental and physical condition of the user is the measurement. It is presumed that the state is stressed by the content of the external stimulus at the timing (ST56).

[9]前記[5]の方法は、例えば睡眠調査に利用できる。この方法では、ラピッドアイモーションの有無を被験者の睡眠中の状態変化検出に用いる。この睡眠検査において、検出された前記特徴的な眼動が、特定時間以上(例えば90分以上)の睡眠に対応するもの(長めの目瞑りが検出されてから、目覚めにより最初の瞬目が検出されるまでの時間間隔が90分以上)であり、その睡眠期間中にラピッドアイモーションを示す眼電波形(例えば図4のPr/Pt)が検出されれば、前記ユーザの心身状態がレム睡眠状態であると推定する(図8のST74)。あるいは、検出された前記特徴的な眼動が、特定時間以上(例えば90分以上)の睡眠に対応するもの(長めの目瞑りが検出されてから、目覚めにより最初の瞬目が検出されるまでの時間間隔が90分以上)であり、その睡眠期間中にラピッドアイモーションを示す眼電波形(例えば図4のPr/Pt)が検出されなければ、前記ユーザの心身状態がノンレム睡眠状態であると推定する(ST74)。 [9] The method of [5] above can be used, for example, for a sleep survey. In this method, the presence or absence of rapid eye motion is used to detect a change of state during sleep of a subject. In this sleep test, the characteristic eye movements detected correspond to sleep for a specific time or longer (for example, 90 minutes or longer) (long eye closure is detected, and then the first blink is detected by awakening. (The time interval until the sleep is 90 minutes or more), and if an electroocular waveform (for example, Pr / Pt in FIG. 4) indicating rapid eye motion is detected during the sleep period, the physical and mental state of the user is REM sleep. It is presumed to be in a state (ST74 in FIG. 8). Alternatively, the detected characteristic eye movement corresponds to sleep for a specific time or longer (for example, 90 minutes or longer) (from the detection of long eye closure to the detection of the first blink by awakening). (The time interval is 90 minutes or more), and if the electrooculogram indicating rapid eye motion (for example, Pr / Pt in FIG. 4) is not detected during the sleep period, the user's mental and physical state is a non-REM sleep state. Is estimated (ST74).

例えばレム睡眠からノンレム睡眠に変化したときを被験者の眼動のEOG波形から検知したら、被験者を強制的に覚醒させる。すると、覚醒する直前のレム睡眠時に見ていた夢を思い出せる可能性が高いので、被験者に夢の内容を(音声、文字、絵などで)記録してもらう。そして、覚醒時のタイムスタンプから覚醒直前に再生していたビデオ映像の内容(睡眠に入る前は映像と音、睡眠に入ったあとは音)と、被験者に記録してもらった夢の内容を比較する。この比較から、レム睡眠中に再生していたビデオの内容が夢にどのように反映されたかのチェックができる。このチェック結果は、睡眠学習に利用できる。 For example, when the change from REM sleep to non-REM sleep is detected from the EOG waveform of the subject's eye movement, the subject is forcibly awakened. Then, since there is a high possibility that the dream that was dreamed during REM sleep just before awakening can be remembered, the subject is asked to record the content of the dream (voice, text, picture, etc.). Then, from the time stamp at the time of awakening, the content of the video image that was being played immediately before awakening (image and sound before going to sleep, sound after going to sleep) and the content of the dream recorded by the subject Compare. From this comparison, you can check how the content of the video you were playing during REM sleep was reflected in your dreams. This check result can be used for sleep learning.

この発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。なお、開示された複数の実施形態のうちのある実施形態の一部あるいは全部と、開示された複数の実施形態のうちの別の実施形態の一部あるいは全部を、組み合わせることも、発明の範囲や要旨に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof. It should be noted that it is also within the scope of the invention to combine a part or all of one embodiment of the disclosed embodiments and a part or all of another embodiment of the disclosed embodiments. And included in the abstract.

100…アイウエア(ゴーグル型またはメガネ型);110…アイフレーム;11…心身状態推定装置の主要部となる情報処理部(プロセッサ11a、不揮発性メモリ11b、メインメモリ11c、通信処理部(GPS処理部)11d、センサ部11eなどを含む集積回路);11e…加速度センサ、ジャイロセンサなどを含むセンサ部;BAT…電源(リチウムイオン電池など);12…ディスプレイ部(右ディスプレイ12Rと左ディスプレイ12L:フィルム液晶など);IM1…右表示画像(テンキー、アルファベット、文字列、マーク、アイコンなど);IM2…左表示画像(テンキー、アルファベット、文字列、マーク、アイコンなど);13…カメラ(右カメラ13Rと左カメラ13L、またはブリッジ103部分に取り付けられた図示しないセンターカメラ);15…眼動検出部(視線検出センサ);16…マイク(または振動ピックアップ);1510…右側(Ch1)ADコンバータ;1520…左側(Ch2)ADコンバータ;1512…左右間(Ch0)ADコンバータ;1514…左右間(Ch3)ADコンバータ。 100 ... Eyewear (goggles type or glasses type); 110 ... Eye frame; 11 ... Information processing unit (processor 11a, non-volatile memory 11b, main memory 11c, communication processing unit (GPS processing), which is the main part of the mental and physical state estimation device. (Unit) 11d, integrated circuit including sensor unit 11e, etc.); 11e ... Sensor unit including acceleration sensor, gyro sensor, etc .; BAT ... Power supply (lithium ion battery, etc.); 12 ... Display unit (right display 12R and left display 12L: Film liquid crystal, etc.); IM1 ... Right display image (tenkey, alphabet, character string, mark, icon, etc.); IM2 ... Left display image (tenkey, alphabet, character string, mark, icon, etc.); 13 ... Camera (right camera 13R) And left camera 13L, or center camera (not shown) attached to the bridge 103 part); 15 ... eye movement detection unit (line-of-sight detection sensor); 16 ... microphone (or vibration pickup); 1510 ... right side (Ch1) AD converter; 1520 ... Left side (Ch2) AD converter; 1512 ... Left and right (Ch0) AD converter; 1514 ... Left and right (Ch3) AD converter.

Claims (15)

特定の外部刺激が与えられたときのユーザの眼電位に基づいて特定の眼動を検出する検出部と、
前記検出部が前記特定の眼動を検出するときのタイミングを計測する計測部と、
前記計測部により計測された前記特定の眼動の検出タイミングにおける前記特定の外部刺激の内容と前記検出タイミングにおける前記特定の眼動の内容との対応関係から、前記ユーザの心身状態を推定する情報処理部と、
前記検出部により検出される前記特定の眼動の内容に関する情報と、前記検出タイミングに関する情報と、デバイス識別情報とからなる検出データをサーバに送信する送信部と、
を具備するアイウエア。
A detector that detects specific eye movements based on the user's electro-oculography when a specific external stimulus is given, and
A measuring unit that measures the timing when the detecting unit detects the specific eye movement, and a measuring unit.
Information for estimating the physical and mental state of the user from the correspondence between the content of the specific external stimulus at the detection timing of the specific eye movement measured by the measuring unit and the content of the specific eye movement at the detection timing. Processing unit and
A transmission unit that transmits detection data including information on the content of the specific eye movement detected by the detection unit, information on the detection timing, and device identification information to the server.
Eyewear equipped with.
前記検出データを記憶するメモリをさらに具備し、
前記送信部は前記メモリに記憶された前記検出データを前記サーバに送信する請求項1記載のアイウエア。
Further provided with a memory for storing the detected data,
The eyewear according to claim 1, wherein the transmission unit transmits the detection data stored in the memory to the server.
前記デバイス識別情報は前記アイウエアを装着するユーザの種類を示す請求項1又は請求項2記載のアイウエア。 The eyewear according to claim 1 or 2, wherein the device identification information indicates the type of user who wears the eyewear. 前記外部刺激は五感への刺激を含み、ユーザの心身状態を推定するための眼動に関連する内容を含む請求項1乃至請求項3のいずれか一項記載のアイウエア。 The eyewear according to any one of claims 1 to 3, wherein the external stimulus includes stimulation to the five senses and includes contents related to eye movement for estimating the physical and mental state of the user. 前記外部刺激は、ユーザの心身状態を推定するための眼動に関連する試験映像を含む請求項1乃至請求項3のいずれか一項記載のアイウエア。 The eyewear according to any one of claims 1 to 3, wherein the external stimulus includes a test image related to eye movement for estimating a user's mental and physical condition. アイウエアと、サーバと、を具備するデータ収集システムであって、
前記アイウエアは、
特定の外部刺激が与えられたときのユーザの眼電位に基づいて特定の眼動を検出する検出部と、
前記検出部が特定の眼動を検出するときのタイミングを計測する計測部と、
前記計測部により計測された前記特定の眼動の検出タイミングにおける前記外部刺激の内容と前記検出タイミングにおける前記特定の眼動の内容との対応関係から、前記ユーザの心身状態を推定する情報処理部と、
前記検出部により検出される前記特定の眼動の内容に関する情報と、前記検出タイミングに関する情報と、デバイス識別情報とからなる検出データを前記サーバに送信する送信部と、を具備するデータ収集システム。
A data collection system that includes eyewear and a server.
The eyewear
A detector that detects specific eye movements based on the user's electro-oculography when a specific external stimulus is given, and
A measuring unit that measures the timing when the detecting unit detects a specific eye movement,
An information processing unit that estimates the physical and mental state of the user from the correspondence between the content of the external stimulus at the detection timing of the specific eye movement measured by the measurement unit and the content of the specific eye movement at the detection timing. When,
A data collection system including a transmission unit that transmits detection data including information on the content of the specific eye movement detected by the detection unit, information on the detection timing, and device identification information to the server.
前記サーバは、
複数の前記アイウエアから前記検出データを収集する複数のローカルサーバと、
前記複数のローカルサーバから前記検出データを収集するメインサーバと、
を具備する請求項6記載のデータ収集システム。
The server
A plurality of local servers that collect the detection data from the plurality of eyewear, and
A main server that collects the detection data from the plurality of local servers, and
6. The data collection system according to claim 6.
前記検出データを記憶するメモリをさらに具備し、
前記送信部は前記メモリに記憶された前記検出データを前記サーバに送信する請求項6又は請求項7記載のデータ収集システム。
Further provided with a memory for storing the detected data,
The data collection system according to claim 6 or 7, wherein the transmission unit transmits the detection data stored in the memory to the server.
前記デバイス識別情報は前記アイウエアを装着するユーザの種類を示す請求項6、請求項7又は請求項8記載のデータ収集システム。 The data collection system according to claim 6, claim 7, or claim 8, wherein the device identification information indicates the type of user who wears the eyewear. 前記外部刺激は五感への刺激を含み、ユーザの心身状態を推定するための眼動に関連する内容を含む請求項6乃至請求項9のいずれか一項記載のデータ収集システム。 The data collection system according to any one of claims 6 to 9, wherein the external stimulus includes a stimulus to the five senses and includes contents related to eye movement for estimating the physical and mental state of the user. 前記外部刺激は、ユーザの心身状態を推定するための眼動に関連する試験映像を含む請求項6乃至請求項9のいずれか一項記載のデータ収集システム。 The data collection system according to any one of claims 6 to 9, wherein the external stimulus includes a test image related to eye movement for estimating a user's mental and physical condition. 特定の外部刺激が与えられたときのユーザの眼電位に基づいて特定の眼動を検出し、前記特定の外部刺激の内容と前記特定の眼動の内容との対応関係から、前記ユーザの心身状態を推定するアイウエアで検出された検出データをサーバが収集するデータ収集方法であって、
前記検出データは、前記特定の眼動の内容に関する情報と、前記特定の眼動の検出タイミングに関する情報と、デバイス識別情報とからなるデータ収集方法。
A specific eye movement is detected based on the user's electro-oculography when a specific external stimulus is given, and the mind and body of the user are based on the correspondence between the content of the specific external stimulus and the content of the specific eye movement. It is a data collection method in which the server collects the detection data detected by the eyewear that estimates the state.
The detection data is a data collection method including information on the content of the specific eye movement, information on the detection timing of the specific eye movement, and device identification information.
前記デバイス識別情報は前記アイウエアを装着するユーザの種類を示す請求項12記載のデータ収集方法。 The data collection method according to claim 12, wherein the device identification information indicates the type of user who wears the eyewear. 前記外部刺激は五感への刺激を含み、ユーザの心身状態を推定するための眼動に関連する内容を含む請求項12又は請求項13記載のデータ収集方法。 The data collection method according to claim 12 or 13, wherein the external stimulus includes stimulation to the five senses and includes contents related to eye movement for estimating the physical and mental state of the user. 前記外部刺激は、ユーザの心身状態を推定するための眼動に関連する試験映像を含む請求項12又は請求項13記載のデータ収集方法。 The data collection method according to claim 12 or 13, wherein the external stimulus includes a test image related to eye movement for estimating the physical and mental state of the user.
JP2020173309A 2020-10-14 2020-10-14 Eyewear, data collection system and data collection method Pending JP2021035499A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020173309A JP2021035499A (en) 2020-10-14 2020-10-14 Eyewear, data collection system and data collection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020173309A JP2021035499A (en) 2020-10-14 2020-10-14 Eyewear, data collection system and data collection method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018151694A Division JP2018202191A (en) 2018-08-10 2018-08-10 Eyewear, data collection system and data collection method

Publications (1)

Publication Number Publication Date
JP2021035499A true JP2021035499A (en) 2021-03-04

Family

ID=74716205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020173309A Pending JP2021035499A (en) 2020-10-14 2020-10-14 Eyewear, data collection system and data collection method

Country Status (1)

Country Link
JP (1) JP2021035499A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09135826A (en) * 1995-11-15 1997-05-27 Omron Corp Judgement method for concentration degree, eye fatigue judgement method and control method for difficulty
JP2005046305A (en) * 2003-07-28 2005-02-24 Sony Corp Conversation assisting device, conversation assisting system, conversation assisting method, information transmitting device, information transmitting system, information transmitting method, controlling device, controlling system, and controlling method
JP2013215356A (en) * 2012-04-06 2013-10-24 Panasonic Corp Eye fatigue measuring apparatus and method thereof
WO2015056742A1 (en) * 2013-10-17 2015-04-23 光一 菊池 Device for measuring visual efficacy
JP2017153887A (en) * 2016-03-04 2017-09-07 株式会社東芝 Psychosomatic state estimation apparatus, psychosomatic state estimation method, and eyewear

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09135826A (en) * 1995-11-15 1997-05-27 Omron Corp Judgement method for concentration degree, eye fatigue judgement method and control method for difficulty
JP2005046305A (en) * 2003-07-28 2005-02-24 Sony Corp Conversation assisting device, conversation assisting system, conversation assisting method, information transmitting device, information transmitting system, information transmitting method, controlling device, controlling system, and controlling method
JP2013215356A (en) * 2012-04-06 2013-10-24 Panasonic Corp Eye fatigue measuring apparatus and method thereof
WO2015056742A1 (en) * 2013-10-17 2015-04-23 光一 菊池 Device for measuring visual efficacy
JP2017153887A (en) * 2016-03-04 2017-09-07 株式会社東芝 Psychosomatic state estimation apparatus, psychosomatic state estimation method, and eyewear

Similar Documents

Publication Publication Date Title
JP6396351B2 (en) Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear
US10901509B2 (en) Wearable computing apparatus and method
Tian et al. A review of cybersickness in head-mounted displays: raising attention to individual susceptibility
US20170293356A1 (en) Methods and Systems for Obtaining, Analyzing, and Generating Vision Performance Data and Modifying Media Based on the Vision Performance Data
Gullberg et al. Keeping an eye on gestures: Visual perception of gestures in face-to-face communication
KR102113634B1 (en) Virtual reality head mounted display for showing user&#39;s status and user status display method and content control method using the system
JP6503519B2 (en) Detection device
JP2015109984A (en) Biosensor, communicator and controller monitoring eye movement, and methods for using them
US20120194648A1 (en) Video/ audio controller
US11460696B2 (en) Head-mountable apparatus and methods
JP2006293979A (en) Content providing system
US11779275B2 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
US20190274630A1 (en) Output control device, output control method, and program
WO2021024257A1 (en) System and method for patient monitoring
JP2018202191A (en) Eyewear, data collection system and data collection method
JP2021035499A (en) Eyewear, data collection system and data collection method
CN113995416A (en) Apparatus and method for displaying user interface in glasses
JP6871104B2 (en) Hats and headwear
Massoz Non-invasive, automatic, and real-time characterization of drowsiness based on eye closure dynamics
WO2024106195A1 (en) Information processing device and information processing system
US12097030B2 (en) System and method for patient monitoring
US20230320640A1 (en) Bidirectional sightline-position determination device, bidirectional sightline-position determination method, and training method
Cholach et al. Monitoring the Virtual Reality Influence on Cognitive Tasks Performance in Healthy Individuals
JP2024043867A (en) Measuring apparatus, program and model generating device
KR20190101336A (en) Virtual reality head mounted display system for showing user&#39;s status

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220816