JP6396351B2 - Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear - Google Patents
Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear Download PDFInfo
- Publication number
- JP6396351B2 JP6396351B2 JP2016042501A JP2016042501A JP6396351B2 JP 6396351 B2 JP6396351 B2 JP 6396351B2 JP 2016042501 A JP2016042501 A JP 2016042501A JP 2016042501 A JP2016042501 A JP 2016042501A JP 6396351 B2 JP6396351 B2 JP 6396351B2
- Authority
- JP
- Japan
- Prior art keywords
- eye movement
- user
- detected
- eye
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
この発明の実施形態は、眼電位センシング技術を応用した心身状態推定装置、心身状態推定方法、およびアイウエアに関する。 Embodiments described herein relate generally to a psychosomatic state estimation apparatus, a psychosomatic state estimation method, and eyewear to which an electrooculogram sensing technique is applied.
眼電位センシング技術に関しては、公知例1がある(特許文献1参照)。この公知例1では、眼電位センシングにEOG(Electro-Oculography)電極を用い、EOG電極から取得した眼電データよりユーザの眼球運動を検出している(段落0023)。公知例1の実施形態ではEOG電極をゴーグルに設けているが(段落0061)、EOG用の電極をメガネのノーズパッド部に設けた公知例2もある(特許文献2、段落0013参照)。ゴーグルやメガネは、一般の人々が手軽に使用できるアイウエアの一種である。 Regarding electrooculogram sensing technology, there is a known example 1 (see Patent Document 1). In this known example 1, an EOG (Electro-Oculography) electrode is used for electrooculogram sensing, and a user's eye movement is detected from electroocular data acquired from the EOG electrode (paragraph 0023). In the embodiment of the known example 1, the EOG electrode is provided in the goggles (paragraph 0061), but there is also the known example 2 in which the electrode for EOG is provided in the nose pad portion of the glasses (see Patent Document 2, paragraph 0013). Goggles and glasses are a type of eyewear that can be easily used by ordinary people.
EOGはアイウエアとの相性がよく、EOG付きアイウエアはその応用が色々研究されている。しかし、その応用範囲は研究され尽くしたとはいえず、EOG付きアイウエアの応用には新規な可能性が残されている。 EOG has good compatibility with eyewear, and the application of eyewear with EOG has been studied in various ways. However, the range of application has not been exhausted, and new possibilities remain for the application of eyewear with EOG.
例えば、映画館において上映作品の観客反応を観察しようとすると、映画鑑賞を妨げずに暗闇の中で多人数に対する観察を行わなければならない。しかしそのような観察は実施困難なため、現実的には映画鑑賞後の出口調査となってしまう。この場合、例えば上映時間が2時間のストーリーを数十秒で各観客に思い返して貰うことなる。しかし、観客が複数のシーンに感動してからそれらの印象を思い返すときまでに少なからぬ時間が経過しているため、上映作品に対する出口調査の結果は、大枠に限られたり的を絞った情報量の少ないものとなってしまう。ここで欲しい調査結果の内容は、例えば、上映作品の種々なシーンにおいて、観客にどのような感情が誘発されたのか、観客が集中して観たのか、観客に疲労やストレスがあったのか、居眠りしてしまったのか等の心身状態の推定に役立つ内容のものである。(この心身状態は、外部刺激に対する人々の反応あるいは評価がどうであったのかに関係する。)しかし、そのような調査内容を出口調査で得るのは難しい。 For example, in order to observe the audience reaction of a screened work in a movie theater, a large number of people must be observed in the dark without interfering with movie viewing. However, such observation is difficult to carry out, so in reality it becomes an exit survey after watching a movie. In this case, for example, a story with a screening time of 2 hours is recollected to each audience in tens of seconds. However, since a considerable amount of time has passed since the audience was impressed by multiple scenes and recalled their impressions, the results of the exit survey for the screening work were limited to a large frame and the amount of targeted information Will be less. The contents of the survey results that we want here are, for example, what kind of emotions were induced by the audience in various scenes of the screening work, whether the audience concentrated, or whether the audience was fatigued or stressed, The content is useful for estimating the state of mind and body, such as having fallen asleep. (This psychosomatic state is related to how people responded or evaluated to external stimuli.) However, it is difficult to obtain such survey contents through exit surveys.
例えば上に挙げたような問題(状況により変化し得る人々の心身状態の推定が困難)に対してEOG付きアイウエアをどのように利用すればよいのかについては、これまで分かっていなかった。 For example, it has not been known how to use eyewear with EOG for the above-mentioned problems (it is difficult to estimate the psychosomatic state of people who can change depending on the situation).
この発明の実施形態により解決しようとする課題の1つは、EOG付きアイウエアを利用して、人の心身状態を推定できるようにすることである。 One of the problems to be solved by the embodiment of the present invention is to make it possible to estimate a person's mind and body state using eyewear with EOG.
一実施の形態に係る心身状態推定装置は、アイウエアのデバイス形態で用いられる。そのアイウエアを装着したユーザの眼電位(図4のEOG)に基づいて、特徴的な眼動(瞬目、目瞑り、眼球の上下左右動または回転など)を検出する。そして、特徴的な眼動と、その眼動が検出されたときの外部刺激(例えば、映画やビデオの種々なシーンにおける、人の五感への刺激)とを、タイムコードなどにより対応付けて記録し、両者(特徴的な眼動と外部刺激)を比較検討できるようにする。 The psychosomatic state estimation apparatus according to one embodiment is used in the form of an eyewear device. Based on the electro-oculogram (EOG in FIG. 4) of the user wearing the eyewear, characteristic eye movements (such as blinking, eye meditation, up / down / left / right movement or rotation of the eyeball) are detected. Then, characteristic eye movements and external stimuli when the eye movements are detected (for example, stimulations of the human senses in various scenes of movies and videos) are recorded in association with time codes. And to be able to compare the two (characteristic eye movements and external stimuli).
特徴的な眼動のパターンとユーザの心身状態(泣き笑い怒りなどの感情発露、意欲、精神的な集中、疲労、ストレス、睡眠など)との対応関係を事前に調べておけば、特定の外部刺激によりユーザがどのような心身状態となったのかを推定できる。 If the correspondence between the characteristic eye movement pattern and the user's mental and physical condition (emotional expression such as crying, laughing, and anger, motivation, mental concentration, fatigue, stress, sleep, etc.) is examined in advance, specific external stimuli This makes it possible to estimate what kind of mental and physical state the user has entered.
以下、初めに基礎的な情報を提供し、続いて、図面を参照しながら種々な実施形態を説明する。 In the following, basic information will be provided first, and then various embodiments will be described with reference to the drawings.
<基礎情報>
成人の眼球の直径は約25mm。生後は17mm程度で、成長に伴い大きくなる。
成人男性の瞳孔間距離は約65mm。(一般市販のステレオカメラは65mmの間隔で作られている物が多い。)
成人女性の瞳孔間距離は男性に比べて数mm短い。
眼電位は数十mV。
眼球は角膜側にプラス、網膜側にマイナスの電位を持つ。これを皮膚の表面で測定すると数百μVの電位差として現れる。
<Basic information>
The diameter of an adult eyeball is about 25 mm. After birth, it is about 17 mm and grows with growth.
The distance between the pupils of an adult male is about 65 mm. (Many commercially available stereo cameras are made at intervals of 65 mm.)
The distance between the pupils of adult women is several mm shorter than that of men.
The electrooculogram is several tens of mV.
The eyeball has a positive potential on the cornea side and a negative potential on the retina side. When this is measured on the surface of the skin, it appears as a potential difference of several hundred μV.
なお、眼動検出に関係する眼球運動の種類および眼球の移動範囲としては、例えば以下のものがある:
<眼球運動(眼動)の種類>
(01)補償性眼球運動
頭や身体の動きにかかわらず、外界の像を網膜上で安定させるために発達した、非随意的な眼球運動。
Examples of types of eye movements and eye movement ranges related to eye movement detection include the following:
<Types of eye movement (eye movement)>
(01) Compensatory eye movement Involuntary eye movement developed to stabilize the image of the outside world on the retina regardless of the movement of the head or body.
(02)随意性眼球運動
視対像を網膜上の中心にくるようにするために発達した眼球運動であり、随意的なコントロールが可能な運動。
(02) Voluntary eye movement An eye movement developed to bring the visual image to the center of the retina and can be controlled arbitrarily.
(03)衝撃性眼球運動(サッケード)
物を見ようとして注視点を変えるときに発生する眼球運動(検出し易い)。
(03) Impact eye movement (saccade)
Eye movement that occurs when the point of sight is changed to see an object (easy to detect).
(04)滑動性眼球運動
ゆっくりと移動する物体を追尾するときに発生する滑らかな眼球運動(検出し難い)。
(04) Sliding eye movement Smooth eye movement that occurs when tracking slowly moving objects (difficult to detect).
<眼球の移動範囲(一般的な成人の場合)>
(11)水平方向
左方向: 50°以下
右方向: 50°以下
(12)垂直方向
下方向: 50°以下
上方向: 30°以下
(自分の意思で動かせる垂直方向の角度範囲は、上方向だけ狭い。(閉眼すると眼球が上転する「ベル現象」があるため、閉眼すると垂直方向の眼球移動範囲は上方向にシフトする。)
(13)その他
輻輳角: 20°以下。
<Eyeball movement range (for general adults)>
(11) Horizontal direction Left direction: 50 ° or less Right direction: 50 ° or less (12) Vertical direction Down direction: 50 ° or less Up direction: 30 ° or less (The vertical angle range that can be moved by one's intention is only upward. Narrow (Because there is a “bell phenomenon” in which the eyeball moves upward when the eye is closed, the eye movement range in the vertical direction shifts upward when the eye is closed.)
(13) Others Angle of convergence: 20 ° or less.
<瞬目から推定しようとする対象に>ついて
・集中度の推定では、単純な瞬目頻度の変化から、ストーリーに対する時間軸上での瞬目発生タイミングを調べる。
<Targets to be estimated from blinks> About the estimation of the degree of concentration, the blink occurrence timing on the time axis with respect to the story is examined from simple blink frequency changes.
・緊張/ストレスの推定では、瞬目の発生頻度の変化を調べる。 ・ In tension / stress estimation, examine changes in blink frequency.
・眠気の推定では、瞬目群発、瞬目時間/瞬目速度の変化を調べる。 ・ For sleepiness estimation, examine changes in blink cluster, blink time / blink speed.
・感情や体調その他の心身状態の推定については、今後の研究に委ねられる部分が多いが、本願実施形態では、感情や体調その他の心身状態の推定を行おうとする技術思想があることを、例示している。 ・ Estimation of emotions, physical condition, and other psychosomatic states is often left to future research, but in this embodiment, there is a technical idea to estimate emotions, physical condition, and other psychosomatic states. doing.
図1は、一実施の形態に係る心身状態推定装置用の情報処理部11が組み込まれたメガネ型アイウエア100を説明する図(EOG電極がノーズパッドに配置された例)である。この実施形態では、右アイフレーム(右リム)101と左アイフレーム(左リム)102がブリッジ103連結されている。左右アイフレーム102、101およびブリッジ103は、例えばアルミ合金、チタンなどで構成できる。左アイフレーム102の左外側は左ヒンジ104を介して左テンプルバー106に繋がり、左テンプルバー106の先端に左モダン(左イヤーパッド)108が設けられている。同様に、右アイフレーム101の右外側は右ヒンジ105を介して右テンプルバー107に繋がり、右テンプルバー107の先端に右モダン(右イヤーパッド)109が設けられている。
FIG. 1 is a diagram for explaining a glasses-
右テンプルバー107(または左テンプルバー106)内には、には、情報処理部11(数ミリ角の集積回路)が取り付けられている。この情報処理部11は、数十MIPS以上の処理能力を持つマイクロコンピュータ、数十MB以上のフリーエリアを持つフラッシュメモリ(EEPROM)、BlueTooth(登録商標)やUSBなどを利用した通信処理部、1以上のADC(Analog-to-Digital Converter)その他が集積されたLSIにより構成できる(情報処理部11の詳細については、図3を参照して後述する)。
In the right temple bar 107 (or the left temple bar 106), an information processing unit 11 (several millimeter square integrated circuit) is attached. This
リチウムイオン電池などの小型電池(BAT)が、例えば左テンプルバー106内(あるいは右テンプルバー107内、もしくはモダン108または109内)に埋め込まれ、メガネ型アイウエア100の動作に必要な電源となっている。
A small battery (BAT) such as a lithium ion battery is embedded in, for example, the left temple bar 106 (or the
左ヒンジ104寄りの左アイフレーム102端部には、左カメラ13Lが取り付けられ、右ヒンジ105寄りの右アイフレーム101端部には、右カメラ13Rが取り付けられている。これらのカメラは、超小型のCCDイメージセンサを用いて構成できる。
A
これらのカメラ(13L、13R)は、ステレオカメラを構成するものでもよい。あるいはこれらのカメラの位置に赤外線カメラ(13R)とレーザー(13L)を配置し、赤外線カメラ+レーザーによる距離センサを構成してもよい。この距離センサは、超音波を集音する小型半導体マイク(13R)と超音波を放射する小型圧電スピーカー(13L)などで構成することもできる。 These cameras (13L, 13R) may constitute a stereo camera. Alternatively, an infrared camera (13R) and a laser (13L) may be arranged at the positions of these cameras to form a distance sensor using an infrared camera + laser. This distance sensor can also be composed of a small semiconductor microphone (13R) that collects ultrasonic waves and a small piezoelectric speaker (13L) that emits ultrasonic waves.
上記距離センサにより、ユーザの視線の先にある目視対象物と左右フレーム101/102との間の距離が分かる。メガネフレームのデザインにもよるが、ユーザの眼球位置は左右フレーム101/102から40〜50mmほど後頭部側へ奥まった位置にずれており、大人の瞳孔間距離は65mmくらいある。この瞳孔間距離65mmと、前記距離センサで測った距離をフレームから眼球位置までのずれで補正した距離とから、ユーザが目視対象物を見ているときの輻輳角(より目の角度)を、算出できる。フレームから目視対象物までの距離がフレームから眼球位置までのずれ量よりずっと大きいときは、このずれ量を無視しても、輻輳角を大まかに算出できる。
By the distance sensor, the distance between the visual object at the tip of the user's line of sight and the left and
なお、左右カメラ13L/13Rの代わりに、あるいは左右カメラ13L/13Rに加えて、ブリッジ103部分に図示しない中央カメラを設ける実施形態も考えられる。逆に、カメラを全く装備しない実施形態もあり得る。(これらのカメラは、図3ではカメラ13として示されている。これらのカメラや外線カメラ+レーザーによる距離センサは、オプション扱いとすることができ、アイウエア100の用途に応じて適宜設ければよい。)
左アイフレーム102には左ディスプレイ12Lがはめ込まれ、右アイフレーム101には右ディスプレイ12Rがはめ込まれている。このディスプレイは、左右のアイフレームの少なくとも一方に設けられ、フィルム液晶などを用いて構成できる。具体的には、偏光板を用いないポリマー分散型液晶(PDLC)を採用したフィルム液晶表示デバイスを用いて、左右のディスプレイ12L、12Rの一方または両方を構成できる。(このディスプレイは、図3ではディスプレイ12として示されている。)
フィルム液晶を利用した透明な左右ディスプレイ12L/12Rは、メガネを通して見える現実の世界に数字や文字などの画像情報を付加させる拡張現実(AR:Augmented Reality)を提供する手段として、利用できる。
In addition, instead of the left and
A
The transparent left and
左右ディスプレイ12L/12Rのフィルム液晶は、3D映画(または3Dビデオ)を観賞する際に左右の映像を分離する液晶シャッタとして用いることもできる。なお、3Dメガネを構成するにあたっては、液晶シャッタ方式以外に、偏光方式も利用可能である。
The film liquid crystal of the left and
ユーザの眼球位置と目視対象物との距離が事前に分かっているときは、距離センサがなくても前述した輻輳角を算出できる。例えば、映画館の客席中央でスクリーンから10m離れた座席(座席番号で特定できる位置にある)に座っている観客(瞳孔間距離65mm)の輻輳角は、tan-1[65/10000]くらいになる。左右ディスプレイ12L/12Rにおいて3Dの字幕をAR表示する際は、そのAR表示を見る際の輻輳角が、10m先のスクリーンに投影された3D映像を見るときの輻輳角と同じくらいになるように、AR表示する3D字幕の左右表示位置を制御することができる。そうすれば、AR表示された3D字幕と10m先の3Dスクリーン映像を見続ける際に、目の疲れを軽減できる。
When the distance between the user's eyeball position and the visual object is known in advance, the above-described convergence angle can be calculated without a distance sensor. For example, the vergence angle of a spectator (65mm pupil distance) sitting in a seat 10m away from the screen (located at the seat number) in the center of a movie theater seat is about tan-1 [65/10000]. Become. When displaying 3D subtitles in AR on the left and
3D映画の鑑賞に限らず一般化していうと、ディスプレイが左右に存在する場合は、所望の輻輳角に対応して、左右のディスプレイに表示する画像(図1のIM1、IM2)の映像を左右で逆方向にずらすことができる。これにより、現実世界で見える対象物とAR表示を交互に見る場合の目の負担を減らすことができる。 Generally speaking, not only for viewing 3D movies, if the displays are on the left and right, the images (IM1 and IM2 in FIG. 1) displayed on the left and right displays correspond to the desired convergence angle. It can be shifted in the opposite direction. As a result, it is possible to reduce the burden on the eyes when alternately viewing the object that can be seen in the real world and the AR display.
左右のアイフレーム102、101の間であって、ブリッジ103の下側には、ノーズパッド部が設けられる。このノーズパッド部は、左ノーズパッド150Lと右ノーズパッド150Rのペアで構成される。右ノーズパッド150Rには右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lには左ノーズパッド電極152a,152bが設けられている。
A nose pad portion is provided between the left and right eye frames 102 and 101 and below the
これらの電極151a,151b,152a,152bは互いに電気的に分離され、絶縁された配線材(図示せず)を介して、3つのADコンバータ(ADC1510、1520、1512)に接続される。これらのADCからの出力は、アイウエア100を装着したユーザの眼の動きに応じて異なる信号波形を持ち、ユーザの眼動に応じたデジタルデータとして、情報処理部11に供給される。電極151a,151b,152a,152bは、視線検出センサとして用いられ、3つのADCとともに図3の眼動検出部15の構成要素となっている。なお、3つのADCは情報処理部11とともに1つのLSIに組み込むこともできる。また、使用するADCの数は、目的により適宜増減でき、3つという数は一例である(例えば目的が右側の瞬目によるEOG波形を検出するだけの場合は、使用するADCの数はADC1510の1つでよい。目的に応じて、ADCの数は1〜2個で済む場合もあれば4個以上使用する場合もある。)
右ノーズパッド150Rには右マイク(または右振動ピックアップ)16Rが設けられ、左ノーズパッド150Lには左マイク(または左振動ピックアップ)16Lが設けられている。左右のマイク16L/16Rは、例えば超小型のエレクトレットコンデンサマイクで構成できる。また、左右の振動ピックアップ16L/16Rは、例えば圧電素子で構成できる。笑い声、悲鳴、怒号、びっくりしたときの反射的な体動など大きな感情表出に伴い誘発された音や動きは、マイク(または振動ピックアップ)16L/16Rを用いて検出できる(これらのマイクまたは振動ピックアップは、図3ではマイク(または振動ピックアップ)16として示されている)。鼻をすする小さなすすり泣きは、左右のマイク16L/16Rで検出可能である。なお、ユーザの体動は、図3のセンサ部11eが内蔵する加速度センサやジャイロによって検出することもできる。
These
The
アイウエア100は、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)によって、図示しないユーザの頭部に固定される。この実施形態では、ユーザの頭部(または顔面)に直接触れるのは、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)だけでよいが、ADC(1510、1520、1512)とユーザのボディとの間の電圧合わせなどのために、それら(ノーズパッド、テンプルバー、モダン)以外の部分がユーザに触れる実施形態があってもよい。
The
図1の右ディスプレイ12Rのフィルム液晶には、例えば、日本語文字(ひらがなカタカナ漢字)、数字、アルファベット、所定形状のマーク、その他のアイコン群を含む右表示画像IM1を表示できる。左ディスプレイ12Lのフィルム液晶にも、IM1と同様な内容の左表示画像IM2を表示できる。
On the film liquid crystal of the
ディスプレイ12L、12Rの表示内容は、何でも良い。例えば緑内障の視野検査に用いる輝点をディスプレイ12Lまたは12Rで表示することができる。表示を行わないときは表示状態を全面黒表示にして、フィルム液晶を目隠しあるいは遮光シートとして用いることもできる。右ディスプレイ12R(または左ディスプレイ12L)に表示されるテンキーやアルファベットは、数字や文字を入力する際に利用できる。右ディスプレイ12R(または左ディスプレイ12L)に表示される文字列、マーク、アイコン等は、特定の情報項目を探したり、目的の項目の選択/決定したり、ユーザに注意喚起をする際に利用できる。
The display content of the
表示画像IM1、IM2は、メガネを通して見える現実の世界に数字、文字、マークなどの情報を付加させる拡張現実(AR)の表示手段として利用でき、このAR表示は適宜オンオフできる。表示画像IM1の内容と表示画像IM2は、実施形態に応じて、同じ内容(IM1=IM2)としても、異なる内容(IM1≠IM2)としてもよい。また、表示画像IM1(またはIM2)の表示は、右ディスプレイ12Rおよび/または左ディスプレイ12で行うことができる。AR表示の内容を、メガネ越しに見える現実世界に重なる(奥行きを伴った)3D画像としたいときは、IM1とIM2を左右別々の3D用画像とすることができる。
The display images IM1 and IM2 can be used as augmented reality (AR) display means for adding information such as numbers, letters and marks to the real world seen through the glasses, and the AR display can be turned on and off as appropriate. The content of the display image IM1 and the display image IM2 may be the same content (IM1 = IM2) or different content (IM1 ≠ IM2) depending on the embodiment. The display image IM1 (or IM2) can be displayed on the
また、ディスプレイ(12R、12L)が左右に存在する場合、例えば輻輳角を調整して、左右の表示画像(IM1、IM2)の映像を左右で逆方向にずらすこともできる。これにより、現実世界で見える対象物とAR表示を交互に見る場合の目の負担を減らすことが考えられる。しかし、通常は、左右のディスプレイ(12R、12L)で同じ内容の画像を表示する。 Further, when the displays (12R, 12L) are present on the left and right, for example, by adjusting the convergence angle, the images of the left and right display images (IM1, IM2) can be shifted in the opposite directions on the left and right. As a result, it can be considered that the burden on the eyes when the object and the AR display that are visible in the real world are alternately viewed is reduced. However, normally, images with the same contents are displayed on the left and right displays (12R, 12L).
ディスプレイ12L、12Rでの表示制御は、右テンプルバー107に埋め込まれた情報処理部11で行うことができる。(ディスプレイで文字、マーク、アイコンなどを表示する技術は周知。)情報制御部11その他の動作に必要な電源は、左テンプルバー106に埋め込まれた電池BATから得ることができる。
Display control on the
なお、実施形態に対応するアイウエア100の試作品をデザイナーや設計者が装着してみて重量バランスが悪いと感じる可能性がある。その主因が左テンプルバー106内のBATにあるならば、右テンプルバー107内に左テンプルバー106内のBATに見合った「おもり(または別の同重量バッテリ)」を入れておくことができる。
Note that there is a possibility that the designer or designer wears a prototype of the
図2は、一実施の形態に係るメガネ型アイウエア100におけるEOG電極の実装例を説明する図である。右ノーズパッド150Rの上下には右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lの上下には左ノーズパッド電極152a,152bが設けられている。右ノーズパッド電極151a,151bの出力はADC1510に与えられ、左ノーズパッド電極152a,152bの出力はADC1520に与えられ、左右ノーズパッドの下側電極151b,152b(または上側電極151a,152a)の出力はADC1512に与えられる。
FIG. 2 is a diagram for explaining an example of mounting the EOG electrode in the eyeglass-
ADC1510からは、ユーザの右側上下眼動に対応して変化するCh1信号が得られる。ADC1520からは、ユーザの左側上下眼動に対応して変化するCh2信号が得られる。ADC1512からは、ユーザの左右眼動に対応して変化するCh0信号が得られる。左右両眼の上下動については、ADC1510およびADC1520の出力の平均で評価してもよい。(Ch0,Ch1,Ch2の信号波形と眼動との関係については、図4を参照して後述する。)
<図1、図2に示される眼電位センサについての補足説明>
*ノーズパッドに設けるEOG電極について
上下方向の眼球移動検出用には最低限1組(151aと151bの組;または152aと152bの組)の測定電極を具備する。その場合は、左または右の(どちらか片方)のノーズパッドの上下に眼電位測定用の電極が設けられる(電極端子数は2個)。
From the
<Supplementary explanation about the electrooculogram sensor shown in FIGS. 1 and 2>
* EOG electrode provided on the nose pad At least one pair of measurement electrodes (a pair of 151a and 151b; or a pair of 152a and 152b) is provided for detection of eye movement in the vertical direction. In that case, electrodes for measuring electrooculogram are provided above and below the left or right (either one) nose pads (the number of electrode terminals is two).
上下方向の眼球移動検出精度向上に1組の測定電極を追加する。その場合は、左右(両方)のノーズパッド150L/150Rの上下に眼電位測定用の電極(151aと151b;および152aと152b)が設けられる(電極端子数は4個)。
A set of measurement electrodes is added to improve the detection accuracy of eye movement in the vertical direction. In that case, electrodes for electrooculogram measurement (151a and 151b; and 152a and 152b) are provided above and below the right and left (both)
*ADC(Analog-to-Digital Converter)について
上下方向の眼球移動検出用には最低限1個のADC(Ch1用またはCh2用)を具備する。
* ADC (Analog-to-Digital Converter) At least one ADC (for Ch1 or Ch2) is provided for detecting eye movement in the vertical direction.
上下方向の眼球移動検出精度向上のために1個のADC(Ch2用またはCh1用)を追加する(その結果Ch1とCh2の双方に1個ずつADCが設けられる)。(精度向上用オプション)
左右方向の眼球移動検出用には更に1個のADC(Ch0用)を追加する。(機能向上用オプション)
図3は、種々な実施の形態に取り付け可能な情報処理部11と、その周辺デバイスとの関係を説明する図である。図3の例では、情報処理部11は、プロセッサ11a、不揮発性メモリ(フラッシュメモリ/EEPROM)11b、メインメモリ11c、通信処理部11d、センサ部11e、タイマ(フレームカウンタ)11f、デバイスID11gなどで構成されている。プロセッサ11aは製品仕様に応じた処理能力を持つマイクロコンピュータで構成できる。このマイクロコンピュータが実行する種々なプログラムおよびプログラム実行時に使用する種々なパラメータは、不揮発性メモリ11bに格納しておくことができる。不揮発性メモリ11bには、タイマ11fを用いたタイムスタンプ(および/またはフレームカウンタでカウントしたフレーム番号)とともに、種々な検出データを記憶しておくことができる。プログラムを実行する際のワークエリアはメインメモリ11cが提供する。
One ADC (for Ch2 or Ch1) is added to improve the vertical eye movement detection accuracy (as a result, one ADC is provided for each of Ch1 and Ch2). (Option for improving accuracy)
One more ADC (for Ch0) is added for detection of eye movement in the left-right direction. (Function improvement option)
FIG. 3 is a diagram illustrating the relationship between the
センサ部11eは、アイウエア100(あるいはこのアイウエアを装着したユーザの頭部)の位置および/またはその向きを検出するためのセンサ群を含んでいる。これらのセンサ群の具体例としては、3軸方向(x−y−z方向)の移動を検出する加速度センサ、3軸方向の回転を検出するジャイロ、絶対方位を検出する地磁気センサ(羅針盤機能)、電波や赤外線などを受信して位置情報その他を得るビーコンセンサがある。この位置情報その他の獲得には、iBeacon(登録商標)あるいはBluetooth(登録商標)4.0を利用できる。
The
情報処理部11に利用可能なLSIは、製品化されている。その一例として、東芝セミコンダクター&ストレージ社の「ウエアラブル端末向けTZ1000シリーズ」がある。このシリーズのうち、製品名「TZ1011MBG」は、CPU(11a、11c)、フラッシュメモリ(11b)、Bluetooth Low Energy(登録商標)(11d)、センサ群(加速度センサ、ジャイロ、地磁気センサ)(11e)、24ビットデルタシグマADC、I/O(USB他)を持つ。
LSIs that can be used for the
プロセッサ11aで何をするかは、通信処理部11dを介して、ローカルサーバ(またはパーソナルコンピュータ)1000から、指令することができる。通信処理部11dでは、ZigBee(登録商標)、Bluetooth(登録商標)、Wi-Fi(登録商標)などの既存通信方式を利用できる。プロセッサ11aでの処理結果は、通信処理部11dを介して、ローカルサーバ1000にリアルタイムで送ることができる。また、メモリ11bに記憶された情報も、通信処理部11dを介して、ローカルサーバ1000に提供できる。ローカルサーバ1000は、1以上のアイウエア100の情報処理部11から送られてきた情報を、レコーダ/ローカルデータベース1002で記録し蓄積できる。レコーダ/ローカルデータベース1002に記録/蓄積された情報は、インターネットなどのネットワークを介して、メインサーバ10000に送ることができる。メインサーバ10000には1以上のローカルサーバ1000から種々な情報が送られてきており、それらの情報を統合してビッグデータのデータベースを構築できるようになっている。
What to do with the
情報処理部11のシステムバスには、ディスプレイ12(12Lと12R)、カメラ13(13Lと13R)、眼動検出部15、マイク(または振動ピックアップ)16等が接続されている。図3の各デバイス(11〜16)は、バッテリBATにより給電される。
A display 12 (12L and 12R), a camera 13 (13L and 13R), an eye
図3の眼動検出部15は、視線検出センサを構成する4つの眼動検出電極(151a,151b,152a,152b)と、これらの電極から眼動に対応したデジタル信号を取り出す3つのADC(1510、1520、1512)と、これらADCからの出力データをプロセッサ11a側に出力する回路を含んでいる。プロセッサ11aは、ユーザの種々な眼動(上下動、左右動、瞬目、眼瞑りなど)から、その眼動の種類に対応する指令または状態を解釈し、その指令または状態に対応する処理を実行することができる。
The eye
眼動の種類に対応する指令の具体例としては、眼動が例えば眼瞑りなら視線の先にある情報項目を選択し(コンピュータマウスのワンクリックに類似)、連続した所定回数の両目の瞬目(あるいは片目の瞬目/ウインク)なら選択された情報項目に対する処理の実行を開始させる(コンピュータマウスのダブルクリックに類似)指令がある。 As a specific example of a command corresponding to the type of eye movement, if the eye movement is, for example, eye meditation, select an information item at the tip of the line of sight (similar to one click of a computer mouse), and a blink of a predetermined number of consecutive eyes If it is (or blink / wink for one eye), there is a command for starting the processing for the selected information item (similar to double clicking with a computer mouse).
眼動の種類に対応する状態の具体例としては、所定数の瞬目、所定時間の目瞑り、視線の上下左右動がある、例えば、眼動が講演の節目における1〜2回の瞬目ならユーザが講演内容に集中し理解したことを推定できる。眼動が検査用映像の再生中における数秒以上の目瞑りならユーザが検査用映像の再生中に居眠りしたことを推定できる。眼動が睡眠中における上下左右動ならユーザがレム睡眠中であったことを推定できる。 Specific examples of the state corresponding to the type of eye movement include a predetermined number of blinks, eye meditation for a predetermined time, and vertical / horizontal movement of the line of sight. For example, the eye movement is one or two blinks in a lecture section. If so, it can be estimated that the user concentrated on the contents of the lecture. It can be estimated that the user has fallen asleep during the reproduction of the examination video if the eye movement is an eye meditation of several seconds or more during the reproduction of the examination video. If the eye movement is up / down / left / right movement during sleep, it can be estimated that the user was in REM sleep.
上記眼動の種類に対応する指令または状態は、眼動検出部15を用いた情報入力Bの一例である。
The command or state corresponding to the type of eye movement is an example of information input B using the eye
<図3に示される構成要素についての補足説明>
*プロセッサ11aを構成するマイクロコンピュータユニットの動作について
マイクロコンピュータユニットのプログラミングにより瞬目などの検出エンジンを構成し、この検出エンジンを動作させることで、リアルタイムのADC生データではなくて、タイムスタンプ付の瞬目イベントを記録することができる。(例えば、タイマをスタートしてから5分10秒後に1〜2回連続する瞬目の発生イベントがあったなら、その瞬目のEOG波形をAD変換した生データを記録するのではなくて、代わりにそのような瞬目が発生したことを5分10秒のタイムスタンプとともに記録する。)このようにすれば、生データをそのまま記録するよりも記録に必要なメモリ容量を大幅に節約できる。なお、メモリ容量に十分な余裕があるときは、ADC生データを記録するようにしてもよい。
<Supplementary explanation about the components shown in FIG. 3>
* About the operation of the microcomputer unit constituting the
*不揮発性メモリ11bを構成するフラッシュメモリ/EEPROMについて
例えば映画館で映画を鑑賞している大勢の観客から瞬目の情報を収集する場合を考えてみる。その場合、全ての観客からリアルタイムで瞬目の情報を集め続けるよりも、個々の観客の瞬目情報を個々の観客のローカルメモリ(11b)に一時記憶しておき、映画終了後に全ての観客のローカルメモリ(11b)から記憶した瞬目情報を回収する方が、効率的な情報収集ができる。
* Flash memory / EEPROM composing the non-volatile memory 11b For example, consider the case where blink information is collected from a large number of spectators watching a movie in a movie theater. In that case, rather than continuously collecting blink information in real time from all the audiences, the blink information of each audience is temporarily stored in the local memory (11b) of each audience, and after the movie ends, It is possible to collect information more efficiently by collecting the blink information stored from the local memory (11b).
*通信処理部11dについて
例えば映画が終了し、全ての観客のローカルメモリ(11b)で瞬目情報の一時記憶が終わったなら、一時記憶された瞬目情報(タイムスタンプ付き)を映画館のローカルサーバ(1000)で回収することができる。この回収は、例えば、映画館の座席または館内特定場所に設けたBlueTooth(無線)またはUSB(有線)を介して行うことができる。
* Communication processing unit 11d For example, if the movie ends and the blink information is temporarily stored in the local memory (11b) of all the audiences, the temporarily stored blink information (with a time stamp) is stored in the local movie theater. It can be collected by the server (1000). This collection can be performed via, for example, BlueTooth (wireless) or USB (wired) provided at a seat in a movie theater or at a specific location in the hall.
*電源(電池/バッテリー)BATについて
以下の動作を行うための電源供給維持のために、小型バッテリーが用いられる。
* Power supply (battery / battery) BAT A small battery is used to maintain power supply for the following operations.
・映画の上映中には、「瞬目」検出エンジンを動作させてEOG波形のAD変換結果から「瞬目」をリアルタイムで検出し、検出した「瞬目」イベントの情報をタイムスタンプと一緒にメモリ11bに記録してゆく。 ・ During movie screening, the “Blink” detection engine is operated to detect “Blink” in real time from the AD conversion result of the EOG waveform, and the information of the detected “Blink” event together with the time stamp The data is recorded in the memory 11b.
・映画の上映終了後には、メモリ11bに記録した「瞬目」イベント情報を回収できるようにする。 After the movie has ended, the “blink” event information recorded in the memory 11b can be collected.
図4は、アイウエア100を装着したユーザの種々な眼動(瞬目、目瞑り、眼球回転など;特に瞬目)と、図2に示す3つのアナログ/デジタルコンバータ(ADC)から得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図(EOG)である。縦軸は各ADCのサンプル値(EOG信号レベルに相当)を示し、横軸は時間を示す。 FIG. 4 shows various eye movements of the user wearing the eyewear 100 (blink, eye meditation, eyeball rotation, etc .; especially blink) and detection obtained from the three analog / digital converters (ADC) shown in FIG. It is an electrooculogram (EOG) which illustrates the relationship with signal level (Ch0, Ch1, Ch2). The vertical axis represents the sample value of each ADC (corresponding to the EOG signal level), and the horizontal axis represents time.
図4の上段に示すCh0のEOG波形のADCサンプル値において、視線が左を向いたときの凹波形と視線が右を向いたときの凸波形の組合せ波形Pr(またはPr*)により、左右方向の眼球回転が検出される。 In the ADC sample value of the Ch0 EOG waveform shown in the upper part of FIG. 4, the combination waveform Pr (or Pr *) of the concave waveform when the line of sight is directed to the left and the convex waveform when the line of sight is directed to the right is used. Eyeball rotation is detected.
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、視線が上を向いたときの凸波形と視線が下を向いたときの凹波形の組合せ波形Pt(またはPt*)により、上下方向の眼球回転が検出される。 In the ADC sample value of the Ch1 EOG waveform shown in the middle part of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of the figure, the convex waveform when the line of sight faces upward and the line of sight when the line of sight faces downward The eyeball rotation in the vertical direction is detected by the combination waveform Pt (or Pt *) of the concave waveform.
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、1〜2回の瞬目は、瞬間的にレベル上昇して元に戻る凸パルス波形Pcにより検出される。 In the ADC sample value of the Ch1 EOG waveform shown in the middle part of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of FIG. It is detected by the convex pulse waveform Pc.
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、3回の瞬目は、瞬間的にレベル上昇して元に戻る凸パルス波形Psにより検出される。(図示しないが、4回以上の瞬目も3回の場合と同様に検出できる。)
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、瞬目より長い期間生じる目瞑りは、幅広な凸パルス波形Pfにより検出される。(図示しないが、より長い目瞑りはより広いパルス幅の波形で検出される。)
<図4のEOG波形と眼動との関係>
(01)視線が左右にきょろきょろと動いているときは、波形Pr(またはPr*)が表れる。視線が上下にきょろきょろと動いているときは、波形Pt(またはPt*)が表れる。視線が左右上下にきょろきょろと動いているときは、波形Pr(またはPr*)と波形Pt(またはPt*)が連続して表れる。つまり、EOG波形Prおよび/またはPt(Pr*および/またはPt*)から、「きょろつき」型眼動を検出できる。
In the ADC sample value of the Ch1 EOG waveform shown in the middle part of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of FIG. It is detected by the waveform Ps. (Although not shown, four or more blinks can be detected as in the case of three.)
In the ADC sample value of the Ch1 EOG waveform shown in the middle part of FIG. 4 or the ADC sample value of the Ch2 EOG waveform shown in the lower part of the figure, eye meditation that occurs for a longer period than the blink is detected by the wide convex pulse waveform Pf. The (Although not shown, longer eye meditation is detected with a wider pulse width waveform.)
<Relationship between EOG Waveform and Eye Movement in FIG. 4>
(01) When the line of sight is moving from side to side, the waveform Pr (or Pr *) appears. When the line of sight is moving up and down, the waveform Pt (or Pt *) appears. When the line of sight is moving left and right and up and down, the waveform Pr (or Pr *) and the waveform Pt (or Pt *) appear continuously. In other words, the “shrinking” type eye movement can be detected from the EOG waveform Pr and / or Pt (Pr * and / or Pt *).
(02)瞬目がなされると、瞬目の回数に応じたパルス波形Pc、Ps(またはPc*,Ps*)が表れる。つまり、EOG波形Pc、Ps(またはPc*,Ps*)から、種々な回数の「瞬目」型眼動を検出できる。なお、「瞬目」型眼動の検出さえできればよいのであれば、Ch0のADCは不要となる。「瞬目」型眼動の検出目的では、最低限、Ch1またはCh2のADCが1つあればよい。しかしCh1およびCh2の2つのADCを用い、両者の出力を合成すれば、信号対雑音比(S/N)を改善できる。その理由は、Ch1とCh2の間で相関性がある信号成分(Pc、Ps、Pf、Ptなど)は2つのADC出力の合成により+6dB増えるが、相関性がないランダムなノイズ成分は+3dBしか増えないからである。 (02) When blinking is performed, pulse waveforms Pc, Ps (or Pc *, Ps *) corresponding to the number of blinks appear. In other words, various “blink” type eye movements can be detected from the EOG waveforms Pc, Ps (or Pc *, Ps *). Note that the ADC of Ch0 is not necessary if it is sufficient to detect “blink” type eye movement. For the purpose of detecting “blink” type eye movement, at least one ADC of Ch1 or Ch2 is sufficient. However, the signal-to-noise ratio (S / N) can be improved by using two ADCs Ch1 and Ch2 and combining the outputs of both. The reason is that the signal components (Pc, Ps, Pf, Pt, etc.) correlated between Ch1 and Ch2 increase by +6 dB by combining the two ADC outputs, but the random noise component without correlation increases only by +3 dB. Because there is no.
(03)目瞑りがなされると、目瞑りの長さに応じたパルス波形Pf(またはPf*)が表れる。つまり、EOG波形Pf(またはPf*)から、種々な長さの「目瞑り」型眼動を検出できる。「目瞑り」型眼動はCh0のEOG波形にも少し表れるが、「目瞑り」型眼動の検出目的では、Ch0のADCはなくてもよい。 (03) When eye meditation is performed, a pulse waveform Pf (or Pf *) corresponding to the length of eye meditation appears. That is, “eye meditation” type eye movements of various lengths can be detected from the EOG waveform Pf (or Pf *). Although “eye meditation” type eye movement appears in the EOG waveform of Ch0 a little, for the purpose of detecting “eye meditation” type eye movement, the ADC of Ch 0 is not necessary.
<眼動と心身状態の関係>
(11)EOGを利用した検査中(例えば緑内障の視野検査中)に「きょろつき」型眼動が検出されたときは、被験者の集中力が欠け落ち着きなない状態にあると推定することが考えられる。
<Relationship between eye movement and psychosomatic state>
(11) If a “shocking” type of eye movement is detected during an examination using EOG (for example, during a visual field examination of glaucoma), it is assumed that the subject's concentration is lacking and rests. Can be considered.
(12)EOGを利用した検査中(例えば講演や授業の理解度調査中)に、要所(講演内容の意味の区切り箇所など)で少数回(例えば1〜2回)の「瞬目」型眼動が検出されたときは、被験者は集中しており理解が進んでいる状態にあると推定することが考えられる。 (12) During examination using EOG (for example, during a lecture or class comprehension survey), a “blink” type that is a small number of times (for example, 1 to 2 times) at key points (separation points of the meaning of the lecture content, etc.) When eye movement is detected, it can be estimated that the subject is concentrated and understanding is advanced.
(13)EOGを利用した検査中(例えば接客店員の適性検査中)に、要所(「被験者が混雑した店内で複数客から矢継ぎ早に種々な注文を受ける」といった検査内容の箇所など)で数回以上(例えば3回以上)の「瞬目」型眼動が検出されたときは、被験者は緊張しており精神的にストレスを受けた状態にあると推定することが考えられる。 (13) During inspection using EOG (for example, during aptitude inspection of customer service staff), the number of important points (such as the location of the inspection contents such as “the subject receives various orders quickly from multiple customers in a crowded store”) When “blink” type eye movements are detected more than once (for example, three times or more), it may be presumed that the subject is tense and mentally stressed.
(14)EOGを利用した検査中(例えばドライブシミュレータを用いた検査において、単調な走行画面と単調な連続振動音の出力中)に短めの「目瞑り」型眼動が複数回検出されたときは、被験者は疲労しており検査項目に集中できない状態にあると推定することが考えられる。 (14) When a short “eye meditation” type of eye movement is detected multiple times during an examination using EOG (for example, in the examination using a drive simulator, while outputting a monotonous running screen and monotonous continuous vibration sound) It can be estimated that the subject is tired and cannot concentrate on the examination items.
(15)EOGを利用した検査中(例えば睡眠の調査中)に長期間の「目瞑り」型眼動が検出されたときは、被験者は睡眠(仮眠)しておりノンレム睡眠あるいはレム睡眠の状態にあると推定することが考えられる。 (15) If a long-term “eye meditation” type eye movement is detected during an examination using EOG (eg during sleep investigation), the subject is sleeping (nap) and is in non-REM sleep or REM sleep state It can be estimated that
(16)EOGを利用した検査(例えば睡眠状態の検査)において、長時間の「目瞑り」型眼動が検出されている間に「きょろつき」型眼動が検出されたときは、被験者がレム睡眠の状態にあると推定することが考えられる。 (16) In a test using EOG (for example, a sleep state test), when a “shrinking” type of eye movement is detected while a long-time “eye meditation” type of eye movement is detected, It can be estimated that the subject is in a state of REM sleep.
(17)EOGを利用した検査(例えば睡眠からの覚醒の検査)において、長時間の「目瞑り」型眼動が検出されたあと(ノンレム睡眠あるいはレム睡眠の状態にあると推定される)、「瞬目」型眼動が検出されたときは、その「瞬目」型眼動の検出により睡眠から覚醒したものと推定することが考えられる。 (17) In a test using EOG (for example, a test for awakening from sleep), after long-term "eye meditation" type eye movement is detected (it is estimated that the patient is in a state of non-REM sleep or REM sleep). When a “blink” type eye movement is detected, it may be estimated that the user has awakened from sleep by detecting the “blink” type eye movement.
<眼電位センシング技術を用いた劇場3Dメガネ向け感情(心身状態)推定/記録の要点>
*主要な検出対象は瞬目(瞬き)である。
<Emotional (mental and physical state) estimation / recording points for theater 3D glasses using electrooculography sensing technology>
* The main detection target is blinks.
ユーザの顔面に対して、最低限、上下方向(例えば左右ノーズパッドの片側の上下)に1組のEOG電極(使用するADCは最小限1個)を装着する。 A pair of EOG electrodes (a minimum of one ADC to be used) is attached to the user's face at least in the vertical direction (for example, up and down on one side of the left and right nose pads).
ユーザの顔面に装着した1組以上のEOG電極からの検出結果に基づいて、ユーザのストレス、集中度、眠気、睡眠状態(レム睡眠/ノンレム睡眠)などが推定可能となる。 Based on the detection results from one or more sets of EOG electrodes attached to the user's face, the user's stress, concentration, sleepiness, sleep state (REM sleep / non-REM sleep), etc. can be estimated.
*これに以下を追加して、スクリーン映像や4Dシアターのギミックに対する観客のリアクションを収集できるようになる。すなわち
ユーザ(個々の観客)の顔面に対して左右方向に、最小1組(精度を上げるには2組)のEOG電極(使用するADCは合計2個以上)を追加して装着する。(例えば、左右ノーズパッドの一方側の上下と他方側の上または下、あるいは左右ノーズパッド各々の上下に、合計3個または4個のEOG電極を設ける。)
以上の追加構成により、左右方向を含めた眼球の回転方向(任意方向の視線移動または眼球回転)を推定できるようになる。
* Add the following to collect screen reactions and audience reactions to 4D theater gimmicks. In other words, a minimum of one set (two sets to increase accuracy) of EOG electrodes (two or more ADCs in total) are additionally mounted in the horizontal direction on the face of the user (individual audience). (For example, a total of three or four EOG electrodes are provided above and below one side of the left and right nose pads and above or below the other side, or above and below each of the left and right nose pads.)
With the above additional configuration, it is possible to estimate the rotation direction of the eyeball including the left-right direction (gaze movement or eyeball rotation in an arbitrary direction).
図5は、第1の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。3Dビデオ再生は一般家庭では普及には至らなかったが、映画館における3D上映は継続的に行われている。図5は、3Dメガネを用いた3D映画(あるいは3Dメガネを用いた3D映画に振動など視聴覚以外の五感に対する効果を追加した4D映画)における観客の集中度・疲労度・ストレスなどを集計し記録する処理の一例を示している。さらに、図5は、或る期間に渡り上映された作品(3D/4D作品に限らず2D作品も含まれ得る)への不特定多数観客データを集計して、多数の観客の一般評価を判定し次回の作品プロデュースにフィードバックする処理も例示している。 FIG. 5 is a flowchart for explaining an example of the psychosomatic state estimation method according to the first embodiment. Although 3D video playback has not been widespread in ordinary households, 3D screening in movie theaters is ongoing. Figure 5 summarizes and records the concentration, fatigue, and stress of the audience in a 3D movie using 3D glasses (or a 4D movie that adds effects on the five senses other than audiovisual such as vibration to a 3D movie using 3D glasses). An example of processing to be performed is shown. Further, FIG. 5 shows the general evaluation of a large number of spectators by aggregating unspecified majority spectator data on works screened over a certain period (not only 3D / 4D works but also 2D works). It also illustrates the process of feeding back to the next production.
いま、図3に示すようなローカルサーバ1000を図示しない映写室(あるいは事務室)に備えた3D/4D対応映画館が存在し、この映画館で或る3D(または4D)作品が上映される場合を想定してみる。その3D作品の上映が始まる前に、映画館の係員は、図1のようなアイウエア形態を持つ3Dメガネ100を入場者(観客)に配布する(ST10)。
Currently, there is a 3D / 4D movie theater equipped with a
配布する3Dメガネ100は男性用と女性用で色分けされ、大人用と子供用でサイズが分けられている。つまり、この3Dメガネ100には大人の男女用に2種類と、子供の男女用に2種類の、合計4種類がある、この4種類は、例えば図3のデバイスID11gの先頭ビットにより区分けできる(2ビットで4種類、4ビットなら16種類の区分けが可能)。また、3Dメガネ100個々の識別(配布人数分の識別)は、デバイスID11gの後続ビットにより区分けできる(12ビットで4096人分、14ビットで16384人分の区分けが可能)。デバイスID11gのビット数は、配布するメガネ100の区分け分類数と、配布するメガネ100の最大個数に応じて、適宜決定すればよい。
The
なお、図1に示すようなメガネ100では、画像IM1および/またはIM2において字幕をオン/オフ可能にAR表示できる。その際、デバイスIDが大人用を示しておればデフォルト表示される字幕を小さ目の「かな漢字交じり日本語または原語(英語など)」とすることができ、デバイスIDが子供用を示しておればデフォルト表示される字幕を大き目の「ひらがなまたはカタカナのみの日本語」とすることができる。
Note that the
メガネ100を装着した観客が映画館の座席に着席したあと、上映開始時間になると、館内の照明が落とされ、上映が開始される。その上映開始と同時に、図3のローカルサーバ1000から各メガネ100へ上映開始の合図が送られる。この合図を通信処理部11dで受けると、各メガネ100のタイマ(またはフレームカウンタ)11fが自動的に(つまりメガネユーザが何もしなくても)スタートする。すると、メガネユーザ(個々の観客)の眼動(瞬目など)に対応したイベントが眼動検出部15で検出される毎に、あるいはメガネユーザの声や体動(笑い声やびっくりしたときの反射的な動き)に対応したイベントがマイク16やセンサ部15で検出される毎に、そのイベントを示す情報ビットにタイムスタンプ(またはフレームカウント値)の情報ビットを付加した検出データが、各メガネユーザのEOGデータとして、メモリ11bに連続記録される(ST12)。なお、メモリ11bの記憶容量が十分に大きいときは、AD変換したEOGの生データを各メガネユーザのEOGデータとしてメモリ11bに記録してもよい。
After the audience wearing the
上記検出データは、デバイスID11gの情報ビットに、検出されたイベントの種類(眼動の種類、声の種類、体動の種類など)を示す情報ビットと、タイムスタンプ(またはフレームカウント値)の情報ビットを付加したものとすることもできる。用途にもよるが、検出データのビット数としては、80〜160ビット(10〜20バイト)くらいあれば十分実用に耐えると考えられる。
The detection data includes information bits indicating the type of detected event (type of eye movement, type of voice, type of body movement, etc.) and information on a time stamp (or frame count value) in the information bits of the
上記イベントの発生原因となる映像の表示形式は、3Dに限られず、2Dであっても、4Dであってもよい(4Dは、映像部分だけで言えば3Dと同等)。また、イベント発生の原因となり得る音声/音響効果(4Dでは振動その他の体感効果も加わる)は、モノラルでも、前方2〜3チャネルステレオでも、4チャネル以上の前後サラウンドステレオでもよい。これらの音声/音響効果は、映画のシーンによって適宜切り替えられても良い。どのような音声/音響効果があったのかは、タイマ(またはフレームカウンタ)11fから得られるタイムスタンプ(またはフレームカウント値)から特定できる。 The display format of the video that causes the occurrence of the event is not limited to 3D, and may be 2D or 4D (4D is equivalent to 3D in terms of only the video portion). In addition, the sound / sound effect that can cause an event (in 4D, vibration and other bodily effects are also added) may be monaural, front 2-3 channel stereo, or front / rear surround stereo of 4 channels or more. These sound / sound effects may be appropriately switched depending on the movie scene. The sound / sound effect can be specified from the time stamp (or frame count value) obtained from the timer (or frame counter) 11f.
フレームカウント値は1枚1枚の映像フレームを示しており、例えば動画の連続フレーム中に1ないし数枚のサブリミナル画像を挿入した場合に、そのサブリミナル画像フレームをフレームカウント値で特定することができる。また、フレームレートが例えば毎秒60フレームであれば、フレームカウント値を60で割ることによりそのフレームカウント値に対応するタイムスタンプを算出できる。従い、フレームカウンタはタイマと同様な機能を持つことができる。 The frame count value indicates one video frame. For example, when one or several subliminal images are inserted in a continuous frame of a moving image, the subliminal image frame can be specified by the frame count value. . For example, if the frame rate is 60 frames per second, the time stamp corresponding to the frame count value can be calculated by dividing the frame count value by 60. Therefore, the frame counter can have the same function as the timer.
メモリ11bに記録されたデータは、自身のデバイスID11gを含めて、所定のタイミングで(例えば5〜10分毎に)、Bluetoothなどを利用して通信処理部11dからローカルサーバ1000へ自動転送することができる(ST14)。ローカルサーバ1000は、(小分けにして)転送されてきたデータを、送り元のデバイスID11gを含めて、デジタルレコーダ1002に連続記録し、および/またはローカルデータベース1002に累積記録する。種々なメガネユーザのデータがレコーダ/ローカルデータベース1002の記録エリア上で不連続に分断記録されていても、デバイスID11gを選別キーとすることにより、個々のメガネユーザのデータを選別し纏めて取り出すことができる。
Data recorded in the memory 11b is automatically transferred from the communication processing unit 11d to the
メモリ11bへのデータ記録(ST12)と記録データのローカルサーバ1000への小分け転送(ST14)は、上映作品が終了する前まで反復される(ST16ノー)。 The data recording to the memory 11b (ST12) and the divided transfer of the recorded data to the local server 1000 (ST14) are repeated until the screening work ends (NO in ST16).
上映作品が終了しエンドテロップが始まると(ST16イエス)、メモリ11b内の未転送分のデータがローカルサーバ1000へ転送される。これにより、観客に配布した全てのメガネ(全てのユーザメガネ)のデータがローカルサーバ1000で収集され、レコーダ/ローカルデータベース1002への記録が完了する(ST18)。なお、全てのメガネユーザのデータを収集するとデータ量が多くなりすぎるときは、デバイスIDをランダムに一定数決め、決めたデバイスIDのユーザデータだけを収集するようにしてもよい(あるいは、例えば奇数または偶数相当のデバイスIDのユーザデータだけを収集することで、データ量を半減できる)。
When the screening work ends and the end telop starts (YES in ST16), the untransferred data in the memory 11b is transferred to the
必要なユーザデータの収集が終わりその記録が完了したら、係員が配布した3Dメガネ100を退場するユーザ(観客)から回収する(ST20)。(または使用済みの3Dメガネを回収箱に入れてもらう。)回収されたメガネ100の通信機能は即座にオフされる。すると、未回収のメガネ100とローカルサーバ1000との間の通信回路は生きているので、メガネ100が持ち出されようとすると、劇場の出口にいる係員がビーコンセンサ11eなどによりそのメガネ100の持ち主を特定し、メガネ100の紛失を防止できる。
When the necessary user data is collected and the recording is completed, the
観客を入れ替えて再上映するときは(ST22イエス)、ST10〜ST20の処理を反復し、新たな観客からのデータを収集する。 When the audience is switched and re-screened (YES in ST22), the processes of ST10 to ST20 are repeated to collect data from a new audience.
その日の上映が全て終了したら(ST22ノー)、収集したデータの集計と記録の整理を行う(ST24)。例えば、収集したデータに基づいて、1以上のユーザ(観客)の特徴的なEOG波形変化(例えば瞬目に対応するイベント相当)と、その変化があったときのタイムスタンプ(またはフレーム番号)が示す上映内容(シーン、効果音、振動などの4Dエフェクトなど)と、ユーザの特徴(性別/年齢層など)等との対応関係を、スプレッドシート形式に纏めて集計する。すると、例えば大人の女性はあるシーンと効果音で驚き悲鳴を上げる頻度が多いが、男性ではその頻度は少ないなど、上映作品のシーンや効果音毎の観客の反応(心身状態)の程度を推定できるようになる。 When all the screenings on that day are completed (NO in ST22), the collected data is totaled and the records are organized (ST24). For example, based on the collected data, a characteristic EOG waveform change (for example, corresponding to an event corresponding to blinking) of one or more users (audience) and a time stamp (or frame number) when the change occurred Correspondences between the contents to be shown (4D effects such as scenes, sound effects, vibrations, etc.) and user characteristics (such as gender / age group) are summarized in a spreadsheet format. Then, for example, adult women often scream surprisedly with certain scenes and sound effects, but men rarely scream. For example, the degree of audience reaction (mind and body state) for each scene and sound effect is estimated. become able to.
1以上の映画館で一定期間(例えば1ヶ月)の間にローカルサーバ1000で集計したデータは、インターネットなどの通信回線を介して、メインサーバ10000へ継続的に送ることができる(ST26)。
Data collected by the
例えば、検出データを10バイトで構成しそのうちの2バイトをデバイスID用に用いるとすると、検出イベントの種類に2バイトを割り当て、タイムスタンプ(またはフレームカウント値)等に6バイトを割り当てることができる。1回の映画上映で1人当たり平均1000イベントの検出がなされたとすると、1回の映画上映で1000人の観客から10Mバイトの情報が集まる。1ヶ月間に100回の上映があったとすると検出データ量は1つの映画館当たり月間間で1Gバイトとなる。100箇所の映画館から同様なデータが図3のメインサーバ10000に集まると、トータルで100Gバイトのデータとなり、年単位では1Tバイト以上のビッグデータとなる。
For example, if the detection data is composed of 10 bytes and 2 bytes are used for the device ID, 2 bytes can be assigned to the type of detection event, and 6 bytes can be assigned to the time stamp (or frame count value) or the like. . Assuming that an average of 1000 events per person is detected in one movie screening, 10 Mbytes of information is collected from 1,000 audiences in one movie screening. If there are 100 screenings in a month, the amount of detected data is 1 Gbyte per month per movie theater. When similar data from 100 movie theaters is collected in the
このビックデータは、データ収集当事の社会情勢も考慮して、次回映画作品のジャンル選択のヒントを与えてくれる。例えば、自爆テロが頻発する社会情勢において、ある3D映画中のテロリストとの戦闘シーンに対して観客の集中度が高いことがEOGデータの集合から推測できたなら、テロに立ち向かうヒーローの3D映画を次に製作しよう、という映画製作会社の企画が可能になる。 This big data gives hints for selecting the genre of the next movie work, considering the social situation of the data collection. For example, in a social situation where suicide bombings occur frequently, if it can be inferred from a set of EOG data that the audience is highly concentrated in the battle scene with terrorists in a 3D movie, a 3D movie of a hero that confronts terrorism Next, it will be possible for a film production company to make a production.
<第1の実施形態(図5)の纏め>
映画館の3D上映用の3Dメガネ(シャッター方式、偏光方式のどちらでもよい)に、眼電位センシングを応用した集中度・疲労・ストレス推定を組み合わせる。これにより、現在上映中の映画に対する観客の反応(シーン毎の集中度・疲労度・ストレス)を集計する事が可能となり、上映時間に合わせた本編の再編集や、更には、今後の新作映画の製作へ、顧客の声(Voice of the Customer:VOC)としてフィードバックできる。
<Summary of First Embodiment (FIG. 5)>
Combined with 3D glasses for movie theater 3D screening (either shutter method or polarization method), concentration, fatigue, and stress estimation using electroocular sensing. This makes it possible to aggregate the audience's reactions (concentration / fatigue / stress for each scene) to the movie that is currently showing, re-editing the main part according to the screening time, and future new movies Can be fed back as a voice of the customer (VOC).
上映中の作品に対する観客反応の検出・推定・(時間軸に沿った)記録を個々のメガネ単体で行うことにより、映画館に居る全員分の反応結果を集める事が可能になる。 By detecting, estimating, and recording (along the time axis) the audience response to the movie being screened, it is possible to collect the response results of all the people in the movie theater.
図6は、第2の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、ARアイウエア(ARメガネ)100に眼電位センシング機能を設けて瞬目(瞬き)等の検出を行えるようにし、ARメガネ越しに(またはARメガネ上で)試験用映像(トレーニングビデオ)を表示しながら、「瞬目」等を基にした集中度・疲労・ストレス推定を行う。 FIG. 6 is a flowchart for explaining an example of the psychosomatic state estimation method according to the second embodiment. Here, the AR eyewear (AR glasses) 100 is provided with an electrooculogram sensing function so that blinks (blinks) can be detected, and a test video (training video) through the AR glasses (or on the AR glasses). The concentration, fatigue, and stress are estimated based on “blinks” and the like.
まず、被験者(アイウエアのユーザ)が、EOG電極付きのARアイウエア(メガネ型またはゴーグル型)100を装着する(ST30)。試験用映像(ドライバの適性試験ならドライブシミュレータの映像など)の上映開始と同時に、タイマ(またはフレームカウンタ)11fをスタートさせて、被験者(長距離バスのドライバや高齢の自動車ドライバなど)のEOGデータ(例えば図4のEOG波形に対応したイベントの情報)の連続記録を、メモリ11bを用いて開始する(ST32)。試験用映像は、コンピュータグラフィックス(CG)でも実写映像でもアニメーションでもよい。映像の表示方法は、2D、3D、4Dのいずれでも良い。音声(4Dでは振動なども加わる)は、ステレオでもモノラルでもサラウンドでもよい。映像の表示方法や音声等の提示方法は、試験内容に応じて、適宜切替可能である。 First, a subject (a user of eyewear) wears an AR eyewear (glasses type or goggles type) 100 with an EOG electrode (ST30). At the same time as the screening of the test video (driver simulator video for driver aptitude test, etc.), the timer (or frame counter) 11f is started, and EOG data of the subject (long-distance bus driver, elderly car driver, etc.) Continuous recording (for example, event information corresponding to the EOG waveform in FIG. 4) is started using the memory 11b (ST32). The test video may be computer graphics (CG), a live-action video, or an animation. The video display method may be any of 2D, 3D, and 4D. The sound (including vibrations in 4D) may be stereo, monaural, or surround. The video display method and audio presentation method can be switched as appropriate according to the test contents.
試験映像には、所定のチェック箇所において、被験者の集中度、疲労度、ストレスなどを推定するためのEOG信号波形パターンに関連する映像内容(種々なストレス映像)が組み込まれている。例えば、車線が急に曲がりくねったり、突然、横側からボールや動物が飛び出てきたり、単調で眠くなるような景色が続くような映像が組み込まれている。このような所定のチェック箇所において被験者が付けたアイウエア100から得られたEOGデータ(瞬目発生などのイベントに対応したデータ)は、タイムスタンプまたはフレーム番号とともに、メモリ11bに一時的に記録される。このメモリ11bに記録されたデータの内容は、所定のタイミング(例えば試験映像内のシーンの区切れ)でローカルサーバ1000に転送され、レコーダ/ローカルデータベース1002で記録される(ST34)。
The test video incorporates video content (various stress video) related to the EOG signal waveform pattern for estimating the concentration level, fatigue level, stress, etc. of the subject at predetermined check points. For example, a video that incorporates a landscape in which the lane suddenly turns, a ball or an animal suddenly pops out from the side, or a monotonous sleepy landscape continues. EOG data (data corresponding to an event such as blinking) obtained from the
種々なストレス映像を含む試験映像を用いた被験者のデータ記録が済むと(ST36イエス)、レコーダ/ローカルデータベース1002で記録されたデータの評価が行われる(ST38)。ST38の評価では、今回の試験で得られたEOGデータがうまく取れているかどうかがチェックされる。(普通は瞬目反応がある映像箇所で瞬目が認められないなど疑義があれば再チェックし(ST40イエス)、そうでなければ次の処理に進む。)
今回の試験で被験者のEOGデータがうまくとれているようであれば(ST40ノー)、被験者の特徴的なEOG波形変化(瞬目、目瞑りなどに対応)と、その変化があったときのタイムスタンプ(またはフレーム番号)が示す試験映像の内容(シーン、効果音、振動や気温等の4Dエフェクト、その他)と、被験者(メガネユーザ)の特徴(性別/年齢/過去の経歴など)との対応関係を、その被験者について、ローカルサーバ1000において集計し、集計結果をレコーダ/ローカルデータベース1002に記録する(ST42)。
When the subject's data is recorded using test images including various stress images (YES in ST36), the data recorded in the recorder /
If the subject's EOG data seems to be well in this test (NO in ST40), the subject's characteristic EOG waveform change (corresponding to blinking, eye meditation, etc.) and the time when the change occurred Correspondence between test video contents (scene, sound effect, 4D effects such as vibration and temperature, etc.) indicated by the stamp (or frame number) and characteristics (gender / age / past history, etc.) of the subject (glasses user) The relation is totalized in the
レコーダ/ローカルデータベース1002には、同じ被験者(長距離バスのドライバや高齢の自動車ドライバなど)が健常であったときの、同じ試験映像に対する過去の比較用EOGデータ、あるいは同じ業種で健常な平均的人物の、同じ試験映像に対する比較用EOGデータが、既に記録されている。今回の試験で得られた被験者のEOGデータは、既に記録されている比較用EOGデータと比較される。比較される両データの箇所は、同じタイムスタンプ(または同じフレームカウント値)の箇所である。比較の結果、今回の試験データから、単調な走行映像で居眠り(図4のPfなど)が認められたり、不意の飛び出し映像箇所で瞬目反応(図4のPc、Psなど)の発生がない箇所が散見されたときは、その発生状況に応じて、被験者(長距離バスのドライバや高齢の自動車ドライバなど)がこれからの業務(長時間に渡るバス運転など)を正常に行えるかどうか判定する(ST44)。
The recorder /
一定期間(たとえば1年)以上かけてローカルサーバ1000で集計したデータは、インターネットなどを介して、継続的にメインサーバ10000へ送られる。あちこちのローカルサーバ1000から継続的に送られてくる集計データは、メインサーバのデータベースに蓄積され、ビッグデータとなる(ST46)。このビッグデータを分析すれば、ST32の試験映像によりどのようなEOGデータが得られるのが健常者にとって普通なのかを推定できる。このような推定による知見は、疲労気味の労働者や高齢者の就業適性を判定することに役立つ。
Data collected by the
適切な内容の試験映像を作成することにより、図6の試験は、自動車運転以外の業種の作業(インフラの保守作業や倉庫のピッキング作業など)における集中度・疲労度・ストレスなどの推定にも利用可能である。例えば、作業時/トレーニング時において、集中度低下・ストレス増大・神経異常をきたした事などを、リアルタイムに推定できる。「瞬目」の回数が多くなる現象は、不安・緊張・心の葛藤・ストレスなど心因性なものと、神経に異常をきたしているケースが考えられる。作業においてはどの状態も好ましいものではない。「瞬目」の検出/記録を行うことにより、作業者の負担を軽減するための環境作りや作業手順の改善等について、検討・対策を講じる事ができる。 By creating test videos with appropriate content, the test in Fig. 6 can also be used to estimate concentration, fatigue, stress, etc. in work in industries other than automobile driving (such as infrastructure maintenance work and warehouse picking work). Is available. For example, during work / training, it is possible to estimate in real time that a concentration reduction, stress increase, or nerve abnormality has occurred. Phenomena in which the number of “blinks” increases may be psychogenic, such as anxiety, tension, mental conflict, and stress, and cases of abnormal nerves. In the work, any state is not preferable. By detecting / recording “blinks”, it is possible to examine and take measures to create an environment and improve work procedures to reduce the burden on workers.
また、トレーニング時の瞬目(瞬き)発生パターンより、理解度をリアルタイムに推定できる。説明を聞いている際、意味の切れ目に瞬きをしていれば良く理解されており、区切りではない箇所で瞬きをしていれば説明の聴講に集中できていないと推定できる。 In addition, the understanding level can be estimated in real time from the blink (blink) occurrence pattern during training. When listening to explanations, it is well understood if there is blinking at the breaks of meaning, and if blinking at a place that is not a break, it can be assumed that the user cannot concentrate on listening to the explanation.
「瞬目」の検出/記録を行うことにより、トレーニング効果の評価および、トレーニング内容の改善も可能となる。 By detecting / recording “blinks”, it is possible to evaluate the training effect and improve the training content.
作業時の「瞬目」および「目瞑り」の発生パターンより、居眠りをリアルタイムに推定できる。 The dozing can be estimated in real time from the occurrence pattern of “blinks” and “eye meditation” during work.
視線を真上に向けた場合と、意図的に一定時間以上目を閉じた場合とでは、垂直方向の眼電位の絶対値に明らかな差が見られる(視線を真上に向けた場合 << 一定時間、例えば0.5秒以上の閉眼)。 There is a clear difference in the absolute value of the electrooculogram in the vertical direction when the line of sight is directed straight up and when the eye is intentionally closed for a certain period of time (when the line of sight is directed straight up << A certain period of time, for example, 0.5 seconds or more of closed eyes).
日常的に一定時間(数秒)以上目を閉じ続ける事は無いため、「瞬目」および「目瞑り」を検出する事により、このような動作が作業中(例えば自動車の運転中)に発生した場合には、その発生を記録するだけでなく、作業者へアラートを出す事ができる。 Since the eyes are not kept closed for more than a certain period of time (several seconds) on a daily basis, such movements occurred during work (for example, while driving a car) by detecting “blinks” and “eye meditation” In some cases, not only can the occurrence be recorded, but an alert can be issued to the worker.
また、ARアイウエア100に加速度センサ/ジャイロセンサ(図3の11e)を設けることにより、ARアイウエア100を装着したユーザの身体動作(居眠りに伴う頭部のこっくり等)の検出精度を(眼動検出部15だけしか使わない場合と比べて)向上できる。
In addition, by providing the
図7は、第3の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、緑内障視野検査時の被験者の集中度(視線がキョロキョロ動いてていないか)・疲労度・ストレスなどを集計し記録する。まず、図示しない視野検査装置のアイフレームのEOG電極に被験者の眼周辺の顔面皮膚を接触させる(ST50)。 FIG. 7 is a flowchart for explaining an example of the psychosomatic state estimation method according to the third embodiment. Here, the degree of concentration (whether the line of sight is not moving), fatigue level, stress, etc. at the time of glaucoma visual field examination are totalized and recorded. First, the facial skin around the eye of the subject is brought into contact with the EOG electrode of the eye frame of the visual field inspection apparatus (not shown) (ST50).
次に、タイムスタンプを提供するタイマ11fをスタートさせ、被験者の右眼(または左眼)の眼前で視野検査用の輝点(図示せず)を、所定のプログラム手順で発生させる。被験者は、輝点が見えたら、検査ボタン(図示せず)を押して、輝点が見えたことを装置に通知する。この検査ボタンを押したというイベントは、ボタンが押されたときのタイムスタンプと、そのときのEOGデータ(図4)ともに、検出データとしてメモリ11bに記録される(ST52)。 Next, a timer 11f that provides a time stamp is started, and a bright spot (not shown) for visual field inspection is generated in accordance with a predetermined program procedure in front of the right eye (or left eye) of the subject. When the subject sees the bright spot, he presses an inspection button (not shown) to notify the apparatus that the bright spot has been seen. The event that the check button is pressed is recorded in the memory 11b as detection data together with the time stamp when the button is pressed and the EOG data (FIG. 4) at that time (ST52).
輝点発生のプログラムが終了したら(ST54イエス)、メモリ11bに記録された検出データの信頼性が評価される(ST56)。この評価では、ボタンが押されたときのEOGデータが「きょろつき」に対応する波形(Pr、Ptなど)あるいは「目瞑り」に対応する波形(Pfなど)のときは、誤操作でボタンが押されたものと推定する。検査技師あるいは眼科医師が「ボタンの誤操作が多すぎる」と判断したら、再検査となる(ST58イエス)。 When the bright spot generation program is completed (YES in ST54), the reliability of the detection data recorded in the memory 11b is evaluated (ST56). In this evaluation, if the EOG data when the button is pressed is a waveform corresponding to “Koromotsu” (Pr, Pt, etc.) or a waveform corresponding to “eye meditation” (Pf, etc.) It is estimated that is pressed. If the inspection engineer or ophthalmologist determines that “there are too many button misoperations”, the test is re-examined (YES in ST58).
検査技師あるいは眼科医師が「ボタンの誤操作発生頻度は診断に問題がない程度に少ない」と判断したら、メモリ11b内の検査結果をローカルサーバ(パーソナルコンピュータ)1000に転送する。転送された検査結果は、その被験者の過去の検査結果や医師の診断見解を含め、被験者のカルテの一部として、レコーダ/ローカルデータベース1002に記録される(ST60)。
If the examination engineer or ophthalmologist determines that “the frequency of erroneous button operation is low enough to cause no problem in diagnosis”, the examination result in the memory 11b is transferred to the local server (personal computer) 1000. The transferred examination result is recorded in the recorder /
なお、ST50〜ST60の処理は、被験者の片目(右眼または左眼)だけに対する場合と、被験者の両目に対する場合がある。 In addition, the process of ST50-ST60 has the case with respect to a test subject's one eye (right eye or left eye), and the case with respect to a test subject's both eyes.
図8は、第4の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、被験者のレム睡眠とノンレム睡眠を眼動のEOGから検出し、レムからノンレムに移行する際に、被験者がどのような映像を見ていたのか、および/またはどのような音声・音楽を聴いていたのか等の情報を収集し記録する。また、被験者のレム睡眠とノンレム睡眠を眼動のEOGから検出し、レムからノンレムに移行するタイミングで被験者を強制的に覚醒させて、覚醒前に見ていた夢の情報を収集し記録する。 FIG. 8 is a flowchart for explaining an example of the psychosomatic state estimation method according to the fourth embodiment. Here, the subject's REM sleep and non-REM sleep are detected from EOG of eye movements, and what kind of video the subject was watching when moving from REM to non-REM and / or what kind of voice / music Collect and record information such as whether you were listening. In addition, the REM sleep and non-REM sleep of the subject are detected from EOG of eye movement, and the subject is forcibly awakened at the timing of transition from the REM to the non-REM, and the information of the dream that was seen before awakening is collected and recorded.
まず、被験者(アイウエアのユーザ)が、EOG電極付きのARアイウエア(メガネ型、ゴーグル型またはアイマスク型)100を装着する(ST70)。アイウエア100がメガネ型またはゴーグル型の場合は、AR表示スクリーン越しに、図示しない外部モニタに映し出されたビデオ映像を見ることができる。アイウエア100がアイマスク型の場合は、アイマスクの内側に有機ELなどを用いた板状の画像表示部(図示せず)を設け、その画像表示部でビデオ表示するように構成できる。
First, the subject (eye wear user) wears the AR eyewear (glasses type, goggles type or eye mask type) 100 with an EOG electrode (ST70). When the
アイウエア100を装着する被験者は、睡眠を誘発しやすい環境におかれる。睡眠を誘発しやすい環境の一例として、適温(25℃位)適湿(50〜60%位)の薄暗い室内で、リクライニングシートに柔らかいシーツを被せた環境が考えられる。あるいは、寒い室内でコタツに入り横になっている環境でもよい。
The subject wearing the
このような睡眠を誘発しやすい環境において、睡眠誘導用ビデオの再生を開始する。このビデオ再生開始と同時に、タイマ(またはフレームカウンタ)11fをスタートさせて、被験者のEOGデータの連続記録を、メモリ11bを用いて開始する(ST72)。睡眠誘導用ビデオの映像は、コンピュータグラフィックス(CG)でも実写映像でもアニメーションでもよい。このビデオは、睡眠誘導だけを目的とするものに限らず、睡眠学習を意図した内容を含んでいてもよい。 In such an environment where sleep is likely to be induced, playback of the sleep induction video is started. Simultaneously with the start of the video reproduction, the timer (or frame counter) 11f is started, and continuous recording of the subject's EOG data is started using the memory 11b (ST72). The video of the sleep guiding video may be computer graphics (CG), a live-action video, or an animation. This video is not limited to the purpose only for sleep induction, and may include content intended for sleep learning.
映像の表示方法は、2D、3D、4Dのいずれでも良い。音声(4Dでは振動なども加わる)は、ステレオでもモノラルでもサラウンドでもよい。映像の表示方法や音声等の提示方法は、再生内容に応じて、適宜切替可能である。睡眠誘導ビデオの内容は、過去の実験で多数の人に対して睡眠誘導効果が認められた映像・音・ストーリーの作品から選択する(4D作品では振動や匂いなども適宜加わる)。被験者が眠りに付いたあと(目瞑りが継続される)は映像は見なくなるので、音(音楽など)や4D効果(振動など)が大きな意味を持つようになる。被験者が眠りについた後の音や4D効果の中身は、タイムスタンプ(またはフレーム番号)により特定できる。 The video display method may be any of 2D, 3D, and 4D. The sound (including vibrations in 4D) may be stereo, monaural, or surround. The video display method and the audio presentation method can be switched as appropriate according to the playback content. The content of the sleep-inducing video is selected from works of images, sounds, and stories that have been confirmed to have a sleep-inducing effect for many people in past experiments (in 4D works, vibration, smell, etc. are added as appropriate). After the subject has fallen asleep (the eye meditation continues), the video will not be seen, so sound (music, etc.) and 4D effects (vibration, etc.) will have a significant meaning. The sound after the subject falls asleep and the contents of the 4D effect can be specified by the time stamp (or frame number).
なお、記録するEOGデータには、被験者の生理データ(呼吸数、脈拍、血圧など)を付加してもよい。毎分の呼吸数は、例えば図3のタイマ11fとマイク16(呼吸音を検出する)により検出できる。マイク16は、被験者の寝息やいびきの検出にも利用できる。血圧などの生理データは、例えばリストバンド型の小型血圧計(図示せず)を用いて得ることができる。EOGデータに生理データを適宜含めて検討すれば、被験者の心身状態の推定精度をより高めることができる。
Note that physiological data (respiration rate, pulse, blood pressure, etc.) of the subject may be added to the EOG data to be recorded. The respiration rate per minute can be detected by, for example, the timer 11f and the microphone 16 (detecting a breathing sound) in FIG. The
長い目瞑り(および、寝息やいびきの発生、もしくは脈拍や血圧の低下)から被験者の入眠(睡眠開始)を検出する。一般的にいって、入眠すると最初にノンレム睡眠が表れ、その後にレム睡眠が表れ、以後目覚めるまでの間に、ノンレム睡眠(脳は眠っている)とレム睡眠(脳は活動している)が交互に表れる。レム睡眠は、例えば90分毎に表れ、20〜30分くらい続く。レム睡眠中は眼動がある(眼がきょろきょろ動く)ので、この眼動をEOG波形から検出することにより、レム睡眠をノンレム睡眠から区別できる。これにより、睡眠中の眼動の有無から、レム睡眠とノンレム睡眠を検出し、それらの検出イベントを、タイムスタンプとともにメモリ11bに記録する(ST74)。レム睡眠中は脳が活動しているので、夢を見ていることが多い。 The subject's sleep (start of sleep) is detected from long-term eye meditation (and the occurrence of sleep and snoring, or a decrease in pulse and blood pressure). Generally speaking, when you fall asleep, you will first see non-REM sleep, then REM sleep, and before you wake up, you will have non-REM sleep (the brain is sleeping) and REM sleep (the brain is active) Appear alternately. For example, REM sleep appears every 90 minutes and lasts about 20 to 30 minutes. Since there is eye movement during REM sleep (the eye moves slightly), REM sleep can be distinguished from non-REM sleep by detecting this eye movement from the EOG waveform. Thereby, REM sleep and non-REM sleep are detected from the presence or absence of eye movement during sleep, and those detection events are recorded in the memory 11b together with the time stamp (ST74). I often dream because my brain is active during REM sleep.
レム睡眠からノンレム睡眠に切り替わると、睡眠中の眼動が検出されなくなるという変化が生じる。このような変化があったとき(ST76イエス)、被験者を強制的に覚醒させると、直前のレム睡眠中に見ていた夢を思い出せる可能性が高い。 When switching from REM sleep to non-REM sleep, a change occurs that eye movement during sleep is not detected. When such a change occurs (ST76 YES), if the subject is forcibly awakened, there is a high possibility of recalling the dream he was looking at during the last REM sleep.
そこで、夢の調査をする際は、被験者を強制的に覚醒させ(ST78イエス)、被験者に夢の内容を記録してもらう(夢の記録手段は問わない、マイク16を用いた音声記録でも、手書きメモでもよい)。夢の内容は、覚醒時のタイムスタンプとともに、メモリ11bに記録する(ST80)。覚醒以前のEOGデータは別途記録されており(ST72)、覚醒直前のレム睡眠中に再生されていたビデオの内容(特に視覚以外の五感に訴える情報:音楽や効果音あるいは、掛け算の九九のような、単純でリズミカルな音声など)は、タイムスタンプから特定できる。
Therefore, when investigating a dream, the subject is forcibly awakened (ST78 YES), and the subject is recorded with the contents of the dream (regardless of the means for recording the dream, even with voice recording using the
別の夢のデータをとりたいといは、被験者に再度寝てもらい(ST82イエス)、ST72〜ST80の処理を繰り返す。そうでなければ(ST82ノー)、被験者毎に記録した全てのデータ(タイムスタンプ、EOGデータ、夢の内容メモなど)をローカルサーバ1000に送り、整理してからレコーダ/ローカルデータベース1002に記録する(ST84)。とくに、夢の内容が手書きメモのときは、覚醒後の被験者に意味の分かりやすい文書に書き直してもらい(例えば、夢に出てきた人が「ににんがし、にさんがろく」と言っていたなど)、その文書データをレコーダ/ローカルデータベース1002に記録するとよい。ローカルサーバ1000に記録したデータは、適宜、メインサーバ10000に送ってそのサーバに記録する。
In order to collect another dream data, the subject is caused to sleep again (YES in ST82), and the processes of ST72 to ST80 are repeated. Otherwise (NO in ST82), all the data recorded for each subject (time stamp, EOG data, dream content memo, etc.) is sent to the
ローカルサーバ1000および/またはメインサーバ10000に記録されたデータは、例えば次のような調査に利用できる。すなわち、1度の睡眠時間(3〜9時間位)の間に1度以上生じるレム睡眠とノンレム睡眠において、睡眠中に再生したビデオコンテンツがどのように夢に反映されたかを、調査できる(ST88)。この調査結果は、睡眠学習の開発に利用できる。
Data recorded in the
また、睡眠誘導用ビデオの再生を開始してから睡眠が始まるまで(あるいは最初のレム睡眠またはノンレム睡眠が検出されるまで)の睡眠誘導所用時間を、タイマ11fを用いて計測できる。複数の被験者に対して種々な睡眠誘導用ビデオV1、V2、V3、…を見せて、各ビデオV1、V2、V3、…の再生における個別の睡眠誘導所用時間データを複数の被験者から収集できる。これらの睡眠誘導所用時間データを分析すれば、「よく眠れる/快眠できるビデオ(映画)」の製作に役立てることができる。 In addition, the time required for sleep induction from the start of reproduction of the sleep induction video to the start of sleep (or until the first REM sleep or non-REM sleep is detected) can be measured using the timer 11f. Various sleep induction videos V1, V2, V3,... Are shown to a plurality of subjects, and individual sleep induction time data in the reproduction of each video V1, V2, V3,. Analyzing the time data for sleep guidance can be used to produce “videos that can sleep well / sleep” (movies).
図9は、他の実施形態におけるEOG電極の実装例を説明する図である。この実施形態は、例えば緑内障患者の視野検査における、きょろつき、集中度・ストレスチェックにおいて利用できる。図9の電極実装例では、ゴーグル型アイウエアのクッション面(ユーザの顔面皮膚に接触する面)において、図1とは異なる電極配置を行っている。 FIG. 9 is a diagram for explaining an example of mounting the EOG electrode in another embodiment. This embodiment can be used in, for example, gaze, concentration / stress checks in visual field examinations of glaucoma patients. In the electrode mounting example of FIG. 9, the electrode arrangement different from that of FIG. 1 is performed on the cushion surface of the goggle-type eyewear (the surface that contacts the user's facial skin).
すなわち、例えばシリコーン製のクッションがゴーグルのフレーム110上に設けられ、このクッションの図示位置に所要の眼電位検出電極(EOG電極151a、151b、152a、152b)が取り付けられる。シリコーン製のクッションは、ユーザの顔面の凹凸に合うように柔らかく変形して、全てのEOG電極をユーザの皮膚面に安定接触させる。
That is, for example, a silicone cushion is provided on the
また、ゴーグルのフレーム110上には、キャリブレーションマーカーとなる4つのLED(M01、M02、M11、M12)が(オプションで)取り付けられている。さらに、ユーザが正視する際のガイドとして、左右両眼の真正面(P1とP2の位置)にセンターマーカーが(オプションで)形成されている。センターマーカーは、例えば、フレーム110内に嵌め込まれる透明プラスチック板の所定箇所(P1とP2の位置)に罫書き加工することで、形成できる。このセンターマーカーに周辺のフレーム110に取り付けられたLEDからのサイド光が当ると、その光の一部がセンターマーカー部分で乱反射して、ユーザが視認できるような輝点となる。
On the
なお、フレーム110内の透明板上にフィルム液晶などを用いたディスプレイが設けられているときは、そのディスプレイによりAR表示またはVR表示が可能となる。(ARは拡張現実:Augmented Realityの略で、ゴーグル越しに見える現実の世界に種々な情報を付加させるテクノロジーを指す。また、VRは仮想現実:Virtual Realityの略で、現実世界とは切り離された任意の情報を表示できる。視野検査用の輝度パターン表示も、VR表示の一種とみることができる。)このAR表示(またはVR表示)を用いてマーカー(M01、M02、M11、M12、P1、P2)をユーザに提示することもできる。
When a display using film liquid crystal or the like is provided on the transparent plate in the
なお、12Lと12Rを有機ELパネルで作り。アイフレームの前面全体を遮光シートで覆えば、ビデオ表示(またはVR表示)機能付きのアイマスクになる。 In addition, 12L and 12R are made with an organic EL panel. If the entire front surface of the eye frame is covered with a light shielding sheet, an eye mask with a video display (or VR display) function is obtained.
図9の構造をモディファイして、顎紐つきの帽子(車掌帽などのヘッドマウントデバイス)にEOG電極を設けることもできる。図示しないが、制服を着た電車の車掌(ユーザ)がよく着用する顎紐つきの車掌帽には、ユーザの額に当接する額鍔と、着用した帽子をユーザの頭部に固定する顎紐が付いている。図示しないが、この額鍔の内側箇所に、図9のEOG電極151aと152aを設けることができる。図示しないが、図9のEOG電極151bは顎紐の右頬寄り部分にスライド可能に取り付けられ、図9のEOG電極12bは顎紐の左頬寄り部分にスライド可能に取り付けられる。この車掌帽のユーザは、体を動かしたり風を受けたりしても帽子が脱げ落ちないように、車掌帽を着用したあとに顎紐の長さを調整して、帽子を固定する。この固定後、に、ユーザは、電極151aと151gを結ぶ線上に右眼の中心(図9のP2)がくるように、顎紐の右側についているEOG電極151bを右耳付近でスライドさせる。同様に、ユーザは、電極152aと152gを結ぶ線上に左眼の中心(図9のP1)がくるように、顎紐の左側についているEOG電極152bを左耳付近でスライドさせる。
The structure shown in FIG. 9 can be modified to provide an EOG electrode on a hat with a chin strap (head mount device such as a conductor cap). Although not shown in the figure, a cap with a chin strap often worn by a train conductor (user) wearing a uniform has a forehead that abuts the user's forehead and a chin strap that fixes the worn hat to the user's head. attached. Although not shown, the
このようにすると、ユーザの左右眼球の眼電位が、車掌帽の額鍔と顎紐に設けられたEOG電極151a、151b、152a、152bにより検出される。
In this way, the electrooculogram of the user's left and right eyeballs is detected by the
以上を纏めると、EOG電極を車掌帽に適用する場合は、
・車掌帽の額部内側に上側電極(151aと152a)を配置する;
・顎紐の耳下腺咬筋部(じかせんこうきんぶ)に上下方向へ可動可能な電極(151bと152b)を配置する。ここで、顎紐側の電極が上下方向で可動式になっているところがポイントである。左右それぞれの上下電極間を結ぶ線が左右それぞれの眼球中心付近を通過するように、顎紐上の電極位置を合わせる。これにより、瞬目や視線検出を行うに十分な振幅のEOG検出信号を得ることができる。
In summary, when applying the EOG electrode to the conductor cap,
The upper electrodes (151a and 152a) are placed inside the forehead of the conductor cap;
-Electrodes (151b and 152b) that are movable in the vertical direction are arranged on the parotid masseter part of the jaw string. Here, the point is that the electrode on the chin strap side is movable in the vertical direction. The electrode positions on the chin strap are aligned so that the line connecting the left and right upper and lower electrodes passes near the center of each eyeball. This makes it possible to obtain an EOG detection signal with sufficient amplitude to detect blinks and line of sight.
図10は、他の実施形態に係るメガネ型アイウエアにおけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの例)である。図10のアイウエア100は、EOG電極配置に関しては図9と類似しているが、以下の点で図1のアイウエア100と違っている。
FIG. 10 is a diagram for explaining an example of mounting the EOG electrode in the eyeglass-type eyewear according to another embodiment (an example of AR glasses in which the EOG electrode is arranged around the eyeball). The
すなわち、右ノーズパッド150RのEOG電極151aおよび151bが右アイフレーム101側に移動し、左ノーズパッド150LのEOG電極152aおよび152bが左アイフレーム102側に移動している。EOG電極151aおよび151bはユーザの右眼中心位置(図示せず)に対して略点対称となる位置に配置され、EOG電極152aおよび152bはユーザの左眼中心位置(図示せず)に対して略点対称となる位置に配置される。また、EOG電極151aおよび151bそれぞれを結ぶ右斜線とEOG電極152aおよび152bそれぞれを結ぶ左斜線は、ユーザの鼻筋に沿った垂直線(図示せず)に対して略線対称となっている。電極151a,151b,152a,152bは、弾性体(スポンジ、シリコーン製クッションなど)の先端に設けた導電性部材(金属、導電性高分子など)で構成できる。各EOG電極は、アイウエア100を装着したユーザの顔の皮膚面に、弾性体の弾性反発力で軽く圧接される。
That is, the
図10のようなEOG電極配置構造を採ると、ノーズパッド部にEOG電極を配置する構造と比べて帯電した眼球の周囲にできる電界をより検知し易くなる。そのため、図1の実施形態よりも図10の実施形態の方が、より大きな振幅のEOG信号を検出できる。 When the EOG electrode arrangement structure as shown in FIG. 10 is adopted, the electric field generated around the charged eyeball can be detected more easily than the structure in which the EOG electrode is arranged in the nose pad portion. Therefore, the embodiment of FIG. 10 can detect an EOG signal having a larger amplitude than the embodiment of FIG.
図11は、さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイフレームが連続したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの他の例)である。図11のような構造を採ると、図10の構造よりもEOG電極の皮膚接触安定性が高くなる。そのため、より高精度にEOG信号を検出することができる。また、図11の構造では、大型化した情報処理部11その他の装置を内蔵し易い。そのため、図11の構造では、デザイン性をさして気にすることなく、GPS付きスマートフォンの機能を仕込むことができる。その場合の画面表示は、フィルム液晶などを利用した左右のディスプレイ12L/12Rにおいて、AR表示により行うことができる。図示しないが、ゴーグルフレームの左右の耳付近に小型スピーカを取り付け、ノーズクッション付近に小型マイクを取り付けることもできる。また、スマートフォンに対するコマンド入力は、視線移動、瞬目、目瞑り、ウインクなどの眼動により行うことができる。図11のようなゴーグル型アイウエア100は、スキーヤー、スノーボーダーの集中度・ストレスチェックに利用できる。また、ゴーグル型アイウエア100は、AR表示に限らずVR表示にも対応できる。
FIG. 11 is a view for explaining an example of mounting EOG electrodes in goggle-type eyewear (a type in which the eye frames of both left and right eyes are continuous) according to still another embodiment (AR glasses in which EOG electrodes are arranged around the eyeball). Other example). When the structure as shown in FIG. 11 is adopted, the skin contact stability of the EOG electrode is higher than that in the structure of FIG. Therefore, the EOG signal can be detected with higher accuracy. In the structure of FIG. 11, the
図12は、さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイカップが分離したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネのさらに他の例)である。図12の実施形態では、図10の場合と同様な、EOG電極配置構造とセンサ部11eの配置構造を採用している。但し、図12のゴーグル構造は海中ダイビング使用(あるいはスカイダイビング使用)にも耐える。図12のゴーグルは、マリンダイバーやスカイダイバーの訓練中における、集中度・ストレスチェックに利用できる。
FIG. 12 is a view for explaining an example of mounting EOG electrodes in goggle-type eyewear (a type in which the eye cups of the left and right eyes are separated) according to still another embodiment (AR glasses in which EOG electrodes are arranged around the eyeball). Is yet another example). In the embodiment of FIG. 12, the same EOG electrode arrangement structure and the arrangement structure of the
なお、VR表示機能の適用対象は、保護メガネとしてのゴーグル型アイウェアに限定されない。例えば図12に示すようなゴーグル100にVR表示機能を付加することができる。このVRゴーグル100で海中ダイビングやスカイダイビング(あるいはゲーム)のトレーニングビデオをユーザに見せることができる。(このトレーニングビデオは、初心者には対応が難しい訓練内容の、熟練者による対応実写、コンピュータグラフィック、あるいはアニメなどを含むことができる。)
トレーニングビデオの特定シーンでユーザがどのような眼動反応を示したのかは、VRゴーグル100のEOG電極(151a、151b、152a、152bのうち2つ以上)を用いて検出できる。また、眼動反応が検出されたときの特定シーンは、図3のタイマ/フレームカウンタ11fからのタイムスタンプ(またはフレーム番号)により特定できる。眼動反応の検出結果は、タイムスタンプ(またはフレーム番号)とともに、検出データとして図3のメモリ11bに一時記憶される。一時記憶された検出データは、トレーニングビデオ終了後にローカルサーバ(パーソナルコンピュータ)1000に取り込むことができる。
The application target of the VR display function is not limited to goggles type eyewear as protective glasses. For example, a VR display function can be added to the
It can be detected using the EOG electrodes (two or more of 151a, 151b, 152a, and 152b) of the
トレーナー(訓練教官)は、チェックポイントとなるビデオシーンにおいて、被験者(VRゴーグルユーザ)の集中度がどうであったのか等を、瞬目の発生パターンやその変化などから、分析できる。この分析には、ローカルサーバ1000のパーソナルコンピュータを利用できる。
The trainer (training instructor) can analyze the degree of concentration of the subject (VR goggles user) in the video scene serving as the checkpoint from the occurrence pattern of blinks and the change thereof. The personal computer of the
チェックポイントとしては、多数の被験者がいずれも同じような眼動反応(瞬目の発生パターンやその変化タイミングが類似)をしたときのビデオ内容を用いることができる。そのチェックポイントのビデオ内容は、タイムスタンプ(またはフレーム番号)に基づき該当シーンを再生することにより、どんな内容であったのかを確認できる。例えばスカイダイビングの訓練ビデオにおいて、パラシュートのロープが体に絡み付いて開かなくなったシーンをチェックポイントとし、そのときの被験者の瞬目の出方が多くの被験者(あるいは熟練者)の場合と比べてどうであったのか(1〜2回の瞬目反応:落ち着いて集中できていたのか、あるいは眼瞑りや多数回の瞬目反応:パニック状態に陥っていたのか等)を調べることができる。 As a checkpoint, the video content when a large number of subjects have the same eye movement reaction (similar blink generation pattern and change timing thereof) can be used. The video content at the checkpoint can be confirmed by reproducing the corresponding scene based on the time stamp (or frame number). For example, in a skydiving training video, the scene where the parachute rope gets entangled with the body becomes a checkpoint, and how the subject's blinking appears at that time compared to the case of many subjects (or experts) (One or two blink reactions: calm or focused, eye meditation or many blink reactions: panicked, etc.).
訓練ビデオのシーンが単調な空撮シーンのときに検出された瞬目(被験者が無意識に行う瞬きなど)については、その発生タイミングが被験者毎にばらばらとなるので、そのようなシーンはチェックポイントから外すことができる。 For the blinks that are detected when the training video scene is a monotonous aerial scene (such as blinks that the subject unconsciously performs), the occurrence timing varies from subject to subject. Can be removed.
上記のようなVRゴーグル100の利用は、映画館用3Dメガネの適用と同様な効果を提供し得る。
The use of the
本願のAR/VRアイウエアには、上記以外の応用も考えられる。例えば図1または図10のアイウエア100にはカメラ13L/13Rが組み込まれている。このカメラを用いて実写録画をしているときに、種々な眼動反応(瞬目の発生パターンやその変化タイミング)をタイムスタンプ(またはフレーム番号)とともにメモリ11bに記録できる(この場合はメモリ11bになるべく容量の大きいフラッシュメモリを用いることが望ましい)。
Applications other than those described above are also conceivable for the AR / VR eyewear of the present application. For example, a
この実写録画の特定シーン(例えば駅のホームで電車を待っているときに突然後ろから人がぶつかってきたなど)とそのときに起きた眼動反応(例えば短い眼瞑りと多数回の瞬目)は、タイムスタンプ(またはフレーム番号)とともに記録し、その記録内容を適宜ローカルサーバ1000に転送できる。ローカルサーバ1000に転送されたデータは、アイウエア100のユーザが置かれた状況に応じてどんな緊張/ストレスが生じたのかの分析に役立てることができる。
Specific scenes of this live-action recording (for example, people suddenly collided from behind when waiting for a train at the station platform) and eye movements that occurred at that time (for example, short eye meditation and many blinks) Can be recorded together with a time stamp (or frame number), and the recorded contents can be transferred to the
<実施形態の纏め>
(a)例えば左右どちらかのノーズパッド上下に最小限1組の電極を配置し、最小限1個のADCを用いて眼電位センシングをおこなうことができる。これにより、3Dメガネにおいて低消費電力(ADCを用いた眼電位センシングに要する電力は、ワイヤレスで動作する心電計と同等)かつ、低コスト(「瞬目」検出用の特徴量計算を数MIPS〜数十MIPS程度で行うことにより、ワイヤレスで動作する心電計とコストは同程度)に「瞬目」(瞬時)および「目瞑り」(一定時間持続)の検出が可能となる。
<Summary of Embodiment>
(A) For example, electrooculogram sensing can be performed using a minimum of one ADC by disposing at least one pair of electrodes on the upper and lower nose pads. As a result, low power consumption in 3D glasses (the power required for electrooculogram sensing using ADC is equivalent to an electrocardiograph operating wirelessly) and low cost (feature MIPS for feature value detection for “blink” detection) By performing at about several tens of MIPS, it is possible to detect “blink” (instantaneous) and “eye meditation” (continuous for a certain period of time) in a wirelessly operated electrocardiograph.
(b)実施形態の技術によって、映画館の3D上映用3Dメガネ(シャッター方式、偏光方式のどちらにも対応可能))に眼電位センシングを応用でき、それに集中度・疲労・ストレス推定を組み合わせることができる。これにより、現在上映中の映画に対する観客の反応(時間軸に沿った、あるいはシーン毎の、集中度・疲労度・ストレス)を集計する事が可能となり、上映時間に合わせた本編の再編集や、更には、今後の新作映画の製作へVOC(Voice of the Customer:観客あるいは顧客の声)としてフィードバックする事ができる。 (B) With the technology of the embodiment, electrooculogram sensing can be applied to 3D glasses for movie theater 3D screening (supporting both shutter and polarization methods) and combining it with concentration, fatigue, and stress estimation. Can do. This makes it possible to tabulate the audience's response (concentration / fatigue / stress along the time axis or for each scene) to the movie currently being shown. Furthermore, it can be fed back to the production of new movies as a VOC (Voice of the Customer).
(c)更に、加速度センサやジャイロセンサを3Dメガネに付加することで、4Dと呼称される体験型/アトラクション型のシアターにおけるVOC収集の幅を広げる事ができる。(体験型/アトラクション型のシアターでは、シートが動く以外に、Air、Waterミスト、香り、泡、霧、風、フラッシュ、雪、雨の体験ができる。そのような体験ができるものとして、4DX、TOHO CINEMASのMediaMation MX4Dなどがある。)
ここで、眼電位センシングでは、瞬目、目瞑り(ADCが最小限1個)から視線方向(ADCが2〜3個)などの推定が可能であるが、これに加速度センサやジャイロセンサを加える事で、3Dメガネの向く方向(メガネユーザの頭部の向く方向)を含めて、VOCの情報収集が可能となる。
(C) Furthermore, by adding an acceleration sensor or a gyro sensor to the 3D glasses, the range of VOC collection in an experience type / attraction type theater called 4D can be expanded. (In the experience type / attraction type theater, in addition to moving the seat, you can experience Air, Water mist, fragrance, foam, fog, wind, flash, snow, rain. 4DX, There is TOHO CINEMAS MediaMation MX4D etc.)
Here, in electrooculogram sensing, it is possible to estimate the direction of the line of sight (2 to 3 ADCs) from blinking or eye meditation (at least one ADC), but an acceleration sensor or gyro sensor is added to this. Thus, it is possible to collect VOC information including the direction in which the 3D glasses are facing (the direction in which the glasses user's head is facing).
(d)
また、劇場3Dメガネでは字幕が読み難い(字幕も3D化され、一番手前に表示されるので、他の映像と視線を往復させると疲れる)と言う声があるため、ARメガネをベースとして輻輳角制御を含めて字幕表示するのも有効である(既知の方法も利用しつつ、それに眼電位センシングを利用したストレス推定をする事で、輻輳角制御を含むAR字幕表示の有効性を確認できる)。
(D)
In addition, there is a voice saying that it is difficult to read subtitles in theater 3D glasses (subtitles are also 3D and displayed in the foreground, so if you reciprocate the line of sight with other images), there is congestion based on AR glasses It is also effective to display subtitles including angle control. (Effectiveness of AR subtitle display including convergence angle control can be confirmed by estimating stress using electrooculogram sensing while using known methods. ).
<出願当初請求項の内容と実施形態との対応関係例>
[1]一実施の形態に係る心身状態推定装置は、アイウエア(100)のデバイス形態を採り、このアイウエアを装着したユーザの眼電位(図4のEOG)に基づいて前記ユーザの眼動を検出する眼動検出部(15)と、前記眼動が検出されるときのタイミングを計測するタイマ(11f)と、前記眼動に基づく情報処理を行う情報処理部(11)を備えている。この心身状態推定装置において、前記アイウエアを装着したユーザに外部刺激(例えば、種々なエンターテイメントシーンにおける五感への刺激;種々なストレス試験映像における五感への刺激;視野検査における視覚および精神的緊張への刺激;種々な夢における意識の刺激)が与えられたときの前記ユーザの特徴的な眼動(例えば、図4の瞬目Pc/Ps、目瞑りPf、眼球の上下左右動または回転Pr/Ptなどに対応したEOG)を前記眼動検出部(15)により検出する。
<Example of Correspondence Between Contents of Claims Initially Applied and Embodiments>
[1] A psychosomatic state estimation apparatus according to an embodiment adopts a device form of eyewear (100), and based on the electrooculogram of the user wearing the eyewear (EOG in FIG. 4), An eye movement detection unit (15) for detecting the eye movement, a timer (11f) for measuring timing when the eye movement is detected, and an information processing unit (11) for performing information processing based on the eye movement. . In this psychosomatic state estimating apparatus, external stimuli (for example, stimulation to the five senses in various entertainment scenes; stimulation to the five senses in various stress test images; visual and mental tension in visual field examinations) are given to the user wearing the eyewear. Characteristic eye movements of the user (for example, blink Pc / Ps, eye meditation Pf, up / down / left / right movement or rotation Pr / of eyeball in FIG. 4) The eye movement detection unit (15) detects EOG corresponding to Pt or the like.
また、前記特徴的な眼動が検出されたときのタイミングを前記タイマ(11f)により計測し、前記計測タイミングにおける前記外部刺激の内容と前記計測タイミングにおける前記特徴的な眼動の内容(その眼動に対応するEOG波形)との対応関係から、前記ユーザの心身状態(外部刺激に対する個人評価に関係)を推定できるように構成する。 Also, the timing when the characteristic eye movement is detected is measured by the timer (11f), and the content of the external stimulus at the measurement timing and the characteristic eye movement at the measurement timing (the eye The user's psychosomatic state (related to personal evaluation with respect to external stimuli) can be estimated from the corresponding relationship with the EOG waveform corresponding to movement).
[2]前記[1]の装置は、各アイウエアで収集した情報を一時記憶するメモリを持つ。すなわち、この装置は、前記外部刺激の内容(種々な映画シーンなど)を特定する情報(タイマまたはフレームカウンタの出力)と、前記特徴的な眼動(瞬目など)の情報を記憶するメモリ(11b)をさらに具備することができる。 [2] The device of [1] has a memory for temporarily storing information collected by each eyewear. That is, this device stores information (output of a timer or a frame counter) for specifying the content of the external stimulus (such as various movie scenes) and information about the characteristic eye movement (such as blinks) ( 11b).
[3]前記[1]の装置は、外部のローカルサーバおよび/またはメインサーバが情報収集できるように構成される。すなわち、この装置は、前記外部刺激の内容(種々な映画シーンなど)を特定する情報(タイマまたはフレームカウンタの出力)と、前記特徴的な眼動(瞬目など)の情報とを相互に対応付けた調査情報を、外部サーバ(1000および/または10000)へ提供する手段(11a〜11d)をさらに具備することができる。 [3] The device of [1] is configured so that an external local server and / or main server can collect information. That is, this apparatus mutually corresponds information (timer or frame counter output) specifying the content of the external stimulus (various movie scenes, etc.) and characteristic eye movement (blinks, etc.) information. Means (11a to 11d) for providing the attached survey information to the external server (1000 and / or 10000) can be further provided.
[4]前記[1]の装置が組み込まれたアイウエア(100)は、調査情報の提供元を特定できるように構成される。すなわち、この装置は、自身を特定できるデバイスID(11g)を持ち、このデバイスIDにより、個々の情報提供元となったアイウエアを特定できる。 [4] The eyewear (100) in which the device of [1] is incorporated is configured so as to be able to specify the provider of the survey information. That is, this apparatus has a device ID (11g) that can identify itself, and the eyewear that is the individual information provider can be identified by this device ID.
[5]一実施の形態に係る心身状態推定方法は、アイウエア(100)を装着したユーザの眼電位(図4のEOG)に基づいて前記ユーザの眼動を検出し、前記眼動が検出されるときのタイミングを計測し、前記眼動に基づく情報処理を行う構成(図3)を用いる。この心身状態推定方法では、前記アイウエアを装着したユーザに外部刺激(例えば、種々なエンターテイメントシーンにおける五感への刺激;種々なストレス試験映像における五感への刺激;視野検査における視覚および精神的緊張への刺激;種々な夢における意識の刺激)を与え、外部刺激が与えられたときの前記ユーザの特徴的な眼動(例えば、図4の瞬目Pc/Ps、目瞑りPf、眼球の上下左右動または回転Pr/Ptなどに対応したEOG)を検出する(ST12;ST32:ST52;T72)。また、前記特徴的な眼動が検出されたときのタイミングを計測する(ST12;ST32;ST52;ST72)。そして、前記計測タイミングにおける前記外部刺激の内容と前記計測タイミングにおける前記特徴的な眼動の内容(その眼動に対応するEOG波形)との対応関係から、前記ユーザの心身状態(外部刺激に対する個人評価に関係)を推定する(ST24;ST42−ST44;ST56;ST74−ST88)。 [5] A psychosomatic state estimation method according to an embodiment detects an eye movement of the user based on an electrooculogram (EOG in FIG. 4) of the user wearing the eyewear (100), and the eye movement is detected. The structure (FIG. 3) which measures the timing when being performed and performs the information processing based on the said eye movement is used. In this psychosomatic state estimation method, external stimuli (for example, stimulation to the five senses in various entertainment scenes; stimulation to the five senses in various stress test images; visual and mental tension in visual field examinations) are applied to the user wearing the eyewear. The user's characteristic eye movements (for example, blink Pc / Ps in FIG. 4, eye meditation Pf, up / down / left / right of FIG. 4) EOG corresponding to motion or rotation Pr / Pt) is detected (ST12; ST32: ST52; T72). Further, the timing when the characteristic eye movement is detected is measured (ST12; ST32; ST52; ST72). Then, from the correspondence between the content of the external stimulus at the measurement timing and the content of the characteristic eye movement at the measurement timing (an EOG waveform corresponding to the eye movement), the user's psychosomatic state (individual to the external stimulus) (Related to evaluation) is estimated (ST24; ST42-ST44; ST56; ST74-ST88).
[6]前記[5]の方法は、例えば映画館での3D/4D上映作品に対する観客の反応調査に利用できる。この方法では、検出された前記特徴的な眼動が所定回数未満(1〜2回)の瞬目(図4のPc)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容(映画の痛快なシーンなど)に集中した状態であると推定する(図5のST24)。あるいは、検出された前記特徴的な眼動が所定回数以上連続した(3回以上)瞬目(図4のPs)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容(映画の怖いシーンなど)にストレスを受けた状態であると推定する(ST24)。 [6] The method of [5] can be used, for example, to investigate the reaction of the audience to a 3D / 4D screening work in a movie theater. In this method, if the characteristic eye movement detected is a blink (Pc in FIG. 4) that is less than a predetermined number of times (1 to 2 times), the user's psychosomatic state is that of the external stimulus at the measurement timing. It is presumed that the content is concentrated on the content (the exciting scene of the movie, etc.) (ST24 in FIG. 5). Alternatively, if the detected characteristic eye movement continues for a predetermined number of times or more (three or more times) blink (Ps in FIG. 4), the user's psychosomatic state is the content of the external stimulus at the measurement timing ( It is presumed that the subject is stressed by a scary scene of a movie) (ST24).
[7]前記[5]の方法は、例えば長距離バスドライバの疲労度調査に利用できる。この方法では、検出された前記特徴的な眼動が所定時間未満(例えば3秒以上5分未満)の目瞑りに対応するもの(目瞑りが検出されてのち最初の瞬目が検出されるまでの時間が所定時間未満)であれば、前記ユーザの心身状態が前記計測タイミングにおいて疲労した状態あるいは居眠り(うたた寝)状態であると推定する(図6のST42)。あるいは、検出された前記特徴的な眼動が所定時間以上(例えば5分以上)の目瞑りに対応するもの(目瞑りが検出されてのち最初の瞬目が検出されるまでの時間間隔が所定時間以上)であれば、前記ユーザの心身状態が前記計測タイミング以降において仮眠(例えば15〜30分の睡眠)あるいは睡眠(例えば90以上の睡眠)状態であると推定する(ST42)。 [7] The method of [5] can be used, for example, to investigate the fatigue level of a long-distance bus driver. In this method, the detected characteristic eye movement corresponds to eye meditation for less than a predetermined time (for example, 3 seconds or more and less than 5 minutes) (until the first blink is detected after eye meditation is detected). Is less than a predetermined time), it is estimated that the user's state of mind and body is tired or doze (nap) at the measurement timing (ST42 in FIG. 6). Alternatively, the detected characteristic eye movement corresponds to eye meditation for a predetermined time or more (for example, 5 minutes or more) (the time interval from when eye meditation is detected until the first blink is detected) If it is equal to or longer than the time, the user's mind and body state is estimated to be a nap (for example, 15 to 30 minutes of sleep) or a sleep (for example, 90 or more sleeps) after the measurement timing (ST42).
この方法を用いた疲労度調査において、短時間(例えば30分以下)の調査中に居眠り状態が認められたり、長時間(例えば2時間以上)の調査中に仮眠あるいは睡眠状態が認められたときは、被験者がこれから長距離バス運転の勤務につくのを止めさせることができる。 In a fatigue level survey using this method, when a dozing state is observed during a short period (for example, 30 minutes or less), or a nap or sleep state is observed during a long period (for example, two hours or longer) Can stop the subject from working on long distance bus driving.
[8]前記[5]の方法は、例えば緑内障患者の視野調査に利用できる。この方法では、輝点の有無または輝点の移動を被験者に対する検査用外部刺激として用いる。この視野検査において、検出された前記特徴的な眼動が所定回数未満(1〜2回)の瞬目(図4のPc)であれば、前記ユーザの心身状態が前記計測タイミング(視野検査中に検査ボタンを押したとき)における前記外部刺激の内容に集中した状態であると推定する(図7のST56)。あるいは、検出された前記特徴的な眼動が眼球の上下動または回転(きょろつき)を示す眼電波形(例えば図4のPr/Pt)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する(ST56)。 [8] The method of [5] can be used, for example, for visual field survey of glaucoma patients. In this method, the presence or absence of a bright spot or the movement of a bright spot is used as an external stimulus for examination with respect to a subject. In this visual field inspection, if the detected characteristic eye movement is a blink (Pc in FIG. 4) that is less than a predetermined number of times (1 to 2 times) (Pc in FIG. 4), the psychosomatic state of the user is the measurement timing (under visual inspection It is presumed that the state is concentrated on the content of the external stimulus when the examination button is pressed (ST56 in FIG. 7). Alternatively, if the detected characteristic eye movement is an electrooculogram waveform (for example, Pr / Pt in FIG. 4) indicating the vertical movement or rotation (shrinking) of the eyeball, the psychosomatic state of the user is the measurement. It is estimated that the content of the external stimulus at the timing is stressed (ST56).
[9]前記[5]の方法は、例えば睡眠調査に利用できる。この方法では、ラピッドアイモーションの有無を被験者の睡眠中の状態変化検出に用いる。この睡眠検査において、検出された前記特徴的な眼動が、特定時間以上(例えば90分以上)の睡眠に対応するもの(長めの目瞑りが検出されてから、目覚めにより最初の瞬目が検出されるまでの時間間隔が90分以上)であり、その睡眠期間中にラピッドアイモーションを示す眼電波形(例えば図4のPr/Pt)が検出されれば、前記ユーザの心身状態がレム睡眠状態であると推定する(図8のST74)。あるいは、検出された前記特徴的な眼動が、特定時間以上(例えば90分以上)の睡眠に対応するもの(長めの目瞑りが検出されてから、目覚めにより最初の瞬目が検出されるまでの時間間隔が90分以上)であり、その睡眠期間中にラピッドアイモーションを示す眼電波形(例えば図4のPr/Pt)が検出されなければ、前記ユーザの心身状態がノンレム睡眠状態であると推定する(ST74)。 [9] The method of [5] can be used, for example, for sleep surveys. In this method, the presence or absence of rapid eye motion is used to detect a change in the state of the subject during sleep. In this sleep test, the detected characteristic eye movement corresponds to sleep for a specific time or longer (for example, 90 minutes or longer) (after a long eye meditation is detected, the first blink is detected by awakening If an electrooculogram showing rapid eye motion (eg, Pr / Pt in FIG. 4) is detected during the sleep period, the user's psychosomatic state is REM sleep. The state is estimated (ST74 in FIG. 8). Alternatively, the detected characteristic eye movement corresponds to sleep of a specific time or longer (for example, 90 minutes or longer) (from the detection of long eye meditation until the first blink is detected by awakening) If the electrooculogram showing rapid eye motion (eg, Pr / Pt in FIG. 4) is not detected during the sleep period, the user's psychosomatic state is a non-REM sleep state. (ST74).
例えばレム睡眠からノンレム睡眠に変化したときを被験者の眼動のEOG波形から検知したら、被験者を強制的に覚醒させる。すると、覚醒する直前のレム睡眠時に見ていた夢を思い出せる可能性が高いので、被験者に夢の内容を(音声、文字、絵などで)記録してもらう。そして、覚醒時のタイムスタンプから覚醒直前に再生していたビデオ映像の内容(睡眠に入る前は映像と音、睡眠に入ったあとは音)と、被験者に記録してもらった夢の内容を比較する。この比較から、レム睡眠中に再生していたビデオの内容が夢にどのように反映されたかのチェックができる。このチェック結果は、睡眠学習に利用できる。 For example, when a change from REM sleep to non-REM sleep is detected from the EOG waveform of the subject's eye movement, the subject is forcibly awakened. Then, since there is a high possibility of remembering the dream that was seen at the time of REM sleep just before waking up, ask the subject to record the contents of the dream (sound, text, picture, etc.). And the contents of the video image that was played right before the awakening from the time stamp at the time of awakening (the video and sound before going to sleep, the sound after going to sleep) and the content of the dream that the subject had recorded Compare. From this comparison, you can check how the content of the video you were playing during REM sleep was reflected in your dream. This check result can be used for sleep learning.
この発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。なお、開示された複数の実施形態のうちのある実施形態の一部あるいは全部と、開示された複数の実施形態のうちの別の実施形態の一部あるいは全部を、組み合わせることも、発明の範囲や要旨に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof. Note that it is possible to combine a part or all of one embodiment of a plurality of disclosed embodiments with a part or all of another embodiment of the plurality of disclosed embodiments. Or included in the abstract.
100…アイウエア(ゴーグル型またはメガネ型);110…アイフレーム;11…心身状態推定装置の主要部となる情報処理部(プロセッサ11a、不揮発性メモリ11b、メインメモリ11c、通信処理部(GPS処理部)11d、センサ部11eなどを含む集積回路);11e…加速度センサ、ジャイロセンサなどを含むセンサ部;BAT…電源(リチウムイオン電池など);12…ディスプレイ部(右ディスプレイ12Rと左ディスプレイ12L:フィルム液晶など);IM1…右表示画像(テンキー、アルファベット、文字列、マーク、アイコンなど);IM2…左表示画像(テンキー、アルファベット、文字列、マーク、アイコンなど);13…カメラ(右カメラ13Rと左カメラ13L、またはブリッジ103部分に取り付けられた図示しないセンターカメラ);15…眼動検出部(視線検出センサ);16…マイク(または振動ピックアップ);1510…右側(Ch1)ADコンバータ;1520…左側(Ch2)ADコンバータ;1512…左右間(Ch0)ADコンバータ;1514…左右間(Ch3)ADコンバータ。
DESCRIPTION OF
Claims (19)
前記眼動が検出されるときのタイミングを計測するタイマと、
前記眼動に基づく情報処理を行う情報処理部と、
を備えた心身状態推定装置において、
前記アイウエアを装着した前記ユーザに所定の心身状態を推定するための眼動のパターンに関連する映像を含む外部刺激が与えられたときの前記ユーザの特徴的な眼動を前記眼動検出部により検出し、
前記特徴的な眼動が検出されたときのタイミングを前記タイマにより計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定できるように構成した心身状態推定装置。 An eye movement detection unit that adopts an eyewear device form, and detects an eye movement including at least vertical movement, left-right movement, blinking, and eye movement of the user based on the electrooculogram of the user wearing the eyewear A motion detector;
A timer for measuring timing when the eye movement is detected;
An information processing unit for performing information processing based on the eye movement;
In the psychosomatic state estimation device comprising:
The eye movement detecting unit detects a characteristic eye movement of the user when an external stimulus including an image related to an eye movement pattern for estimating a predetermined mental and physical state is given to the user wearing the eyewear. Detected by
The timer measures the timing when the characteristic eye movement is detected,
A psychosomatic state estimation apparatus configured to be able to estimate the user's psychosomatic state from a correspondence relationship between the content of the external stimulus at the measured timing and the characteristic eye movement content at the measured timing.
前記ユーザの眼電位に基づいて前記ユーザの少なくとも上下動、左右動、瞬目、目瞑りを含む眼動を検出する眼動検出部と、
前記眼動が検出されるときのタイミングを計測するタイマと、
前記眼動に基づく情報処理を行う情報処理部と、
を備え、
自身を特定できるデバイスIDを持ち、
前記ユーザに所定の心身状態を推定するための眼動のパターンに関連する映像を含む外部刺激が与えられたときの前記ユーザの特徴的な眼動を前記眼動検出部により検出し、
前記特徴的な眼動が検出されたときのタイミングを前記タイマにより計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定できるように構成したアイウエア。 Eyewear that can be worn on the user's head,
An eye movement detection unit that detects eye movement including at least vertical movement, left-right movement, blinking, and eye meditation based on the user's electrooculogram;
A timer for measuring timing when the eye movement is detected;
An information processing unit for performing information processing based on the eye movement;
With
It has a device ID that can identify itself,
The eye movement detection unit detects characteristic eye movement of the user when an external stimulus including an image related to an eye movement pattern for estimating a predetermined psychosomatic state is given to the user,
The timer measures the timing when the characteristic eye movement is detected,
Eyewear configured to be able to estimate the state of mind of the user from the correspondence between the content of the external stimulus at the measured timing and the content of the characteristic eye movement at the measured timing.
前記アイウエアを装着した前記ユーザに所定の心身状態を推定するための眼動のパターンに関連する映像を含む外部刺激が与えられたときの前記ユーザの特徴的な眼動を検出し、
前記特徴的な眼動が検出されたときのタイミングを計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定するように構成した心身状態推定方法。 Detecting eye movement including at least vertical movement, left-right movement, blinking, eye meditation of the user based on the electrooculogram of the user wearing the eyewear, measuring timing when the eye movement is detected, In a psychosomatic state estimation method using a configuration for performing information processing based on eye movements,
Detecting a characteristic eye movement of the user when an external stimulus including an image related to an eye movement pattern for estimating a predetermined psychosomatic state is given to the user wearing the eyewear;
Measure the timing when the characteristic eye movement is detected,
A psychosomatic state estimation method configured to estimate the psychosomatic state of the user from a correspondence relationship between the content of the external stimulus at the measured timing and the characteristic eye movement content at the measured timing.
検出された前記特徴的な眼動が所定回数以上連続した瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する請求項5の方法。 If the detected characteristic eye movement is blinking less than a predetermined number of times, it is estimated that the state of mind of the user is concentrated on the content of the external stimulus at the measured timing, or
If the detected characteristic eye movement is a blink that continues for a predetermined number of times or more, it is estimated that the state of mind of the user is stressed by the content of the external stimulus at the measured timing. Method 5.
検出された前記特徴的な眼動が所定回数未満の瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容に集中した状態であると推定し、あるいは、
検出された前記特徴的な眼動が眼球の上下動または回転を示す眼電波形であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する請求項5の方法。 In the visual field test using the presence or absence of bright spots or the movement of bright spots as an external stimulus for the test,
If the detected characteristic eye movement is blinking less than a predetermined number of times, it is estimated that the state of mind of the user is concentrated on the content of the external stimulus at the measured timing, or
If the detected characteristic eye movement is an electrooculogram that indicates the vertical movement or rotation of the eyeball, the state of mind of the user is stressed by the content of the external stimulus at the measured timing. The method of claim 5 for estimating.
検出された前記特徴的な眼動が、特定時間以上の睡眠に対応するものであり、その睡眠期間中にラピッドアイモーションを示す眼電波形が検出されれば、前記ユーザの心身状態がレム睡眠状態であると推定し、あるいは、
検出された前記特徴的な眼動が、特定時間以上の睡眠に対応するものであり、その睡眠期間中にラピッドアイモーションを示す眼電波形が検出されなければ、前記ユーザの心身状態がノンレム睡眠状態であると推定する請求項5の方法。 In a sleep test that uses the presence or absence of rapid eye motion to detect changes in the state of the subject during sleep,
If the detected characteristic eye movement corresponds to sleep of a specific time or more and an electrooculogram showing rapid eye motion is detected during the sleep period, the psychosomatic state of the user is REM sleep. Presumed to be in a state, or
If the detected characteristic eye movement corresponds to sleep of a specific time or more and an electrooculogram showing rapid eye motion is not detected during the sleep period, the psychosomatic state of the user is non-REM sleep. 6. The method of claim 5, wherein the method is estimated to be a condition.
前記眼動が検出されるときのタイミングを計測するタイマと、
前記眼動に基づく情報処理を行う情報処理部と、
を備えた心身状態推定装置において、
前記アイウエアを装着した前記ユーザに外部刺激が与えられたときの前記ユーザの特徴的な眼動を前記眼動検出部により検出し、
前記特徴的な眼動が検出されたときのタイミングを前記タイマにより計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定できるように構成し、
前記外部刺激の内容を特定する情報と前記特徴的な眼動の情報とを相互に対応付けた調査情報を、外部サーバへ提供する手段をさらに具備した心身状態推定装置。 An eye movement detection unit that adopts a device form of eyewear, and an eye movement detection unit that detects the eye movement of the user based on the electrooculogram of the user wearing the eyewear,
A timer for measuring timing when the eye movement is detected;
An information processing unit for performing information processing based on the eye movement;
In the psychosomatic state estimation device comprising:
Detecting the eye movement characteristic of the user when an external stimulus is given to the user wearing the eyewear by the eye movement detector;
The timer measures the timing when the characteristic eye movement is detected,
From the correspondence between the content of the external stimulus at the measured timing and the content of the characteristic eye movement at the measured timing, the psychosomatic state of the user can be estimated,
A psychosomatic state estimating apparatus further comprising means for providing, to an external server, survey information in which information specifying the content of the external stimulus and the characteristic eye movement information are associated with each other.
前記アイウエアを装着したユーザに外部刺激が与えられたときの前記ユーザの特徴的な眼動を検出し、
前記特徴的な眼動が検出されたときのタイミングを計測し、
前記計測したタイミングにおける前記外部刺激の内容と前記計測したタイミングにおける前記特徴的な眼動の内容との対応関係から、前記ユーザの心身状態を推定し、
前記外部刺激の内容を特定する情報と前記特徴的な眼動の情報とを相互に対応付けた調査情報を、外部サーバへ提供するように構成した心身状態推定方法。 Psychosomatic state estimation using a configuration that detects eye movement of the user based on the electrooculogram of the user wearing eyewear, measures timing when the eye movement is detected, and performs information processing based on the eye movement In the method
Detecting a characteristic eye movement of the user when an external stimulus is given to the user wearing the eyewear;
Measure the timing when the characteristic eye movement is detected,
From the correspondence between the content of the external stimulus at the measured timing and the characteristic eye movement content at the measured timing, the psychosomatic state of the user is estimated,
A psychosomatic state estimation method configured to provide, to an external server, survey information in which information specifying the content of the external stimulus and the characteristic eye movement information are associated with each other.
検出された前記特徴的な眼動が所定回数以上連続した瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する請求項14記載の方法。 If the detected characteristic eye movement is blinking less than a predetermined number of times, it is estimated that the state of mind of the user is concentrated on the content of the external stimulus at the measured timing, or
If the detected characteristic eye movement is a blink that continues for a predetermined number of times or more, it is estimated that the state of mind of the user is stressed by the content of the external stimulus at the measured timing. 14. The method according to 14.
検出された前記特徴的な眼動が所定回数未満の瞬目であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容に集中した状態であると推定し、あるいは、
検出された前記特徴的な眼動が眼球の上下動または回転を示す眼電波形であれば、前記ユーザの心身状態が前記計測したタイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する請求項14記載の方法。 In the visual field test using the presence or absence of bright spots or the movement of bright spots as an external stimulus for the test,
If the detected characteristic eye movement is blinking less than a predetermined number of times, it is estimated that the state of mind of the user is concentrated on the content of the external stimulus at the measured timing, or
If the detected characteristic eye movement is an electrooculogram that indicates the vertical movement or rotation of the eyeball, the state of mind of the user is stressed by the content of the external stimulus at the measured timing. The method of claim 14 to estimate.
検出された前記特徴的な眼動が、特定時間以上の睡眠に対応するものであり、その睡眠期間中にラピッドアイモーションを示す眼電波形が検出されれば、前記ユーザの心身状態がレム睡眠状態であると推定し、あるいは、
検出された前記特徴的な眼動が、特定時間以上の睡眠に対応するものであり、その睡眠期間中にラピッドアイモーションを示す眼電波形が検出されなければ、前記ユーザの心身状態がノンレム睡眠状態であると推定する請求項14記載の方法。 In a sleep test that uses the presence or absence of rapid eye motion to detect changes in the state of the subject during sleep,
If the detected characteristic eye movement corresponds to sleep of a specific time or more and an electrooculogram showing rapid eye motion is detected during the sleep period, the psychosomatic state of the user is REM sleep. Presumed to be in a state, or
If the detected characteristic eye movement corresponds to sleep of a specific time or more and an electrooculogram showing rapid eye motion is not detected during the sleep period, the psychosomatic state of the user is non-REM sleep. The method of claim 14, wherein the method is estimated to be a condition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016042501A JP6396351B2 (en) | 2016-03-04 | 2016-03-04 | Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016042501A JP6396351B2 (en) | 2016-03-04 | 2016-03-04 | Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018151694A Division JP2018202191A (en) | 2018-08-10 | 2018-08-10 | Eyewear, data collection system and data collection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017153887A JP2017153887A (en) | 2017-09-07 |
JP6396351B2 true JP6396351B2 (en) | 2018-09-26 |
Family
ID=59808991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016042501A Active JP6396351B2 (en) | 2016-03-04 | 2016-03-04 | Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6396351B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11806078B1 (en) | 2022-05-01 | 2023-11-07 | Globe Biomedical, Inc. | Tear meniscus detection and evaluation system |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7023504B2 (en) * | 2018-03-22 | 2022-02-22 | 国立研究開発法人科学技術振興機構 | Processing equipment, processing methods, and programs |
KR102516751B1 (en) * | 2018-03-22 | 2023-03-31 | 재팬 사이언스 앤드 테크놀로지 에이전시 | Processing device, processing method, data processing device, data processing system, data processing method and program |
US11137612B2 (en) * | 2018-09-12 | 2021-10-05 | Apple Inc. | Electronic device with adjustable support structures |
JP7236852B2 (en) * | 2018-12-03 | 2023-03-10 | 株式会社ジンズホールディングス | nose pads and eyewear |
CN111310713B (en) * | 2020-03-06 | 2023-05-30 | 杭州融梦智能科技有限公司 | Goods sorting method based on augmented reality and intelligent wearable equipment |
JP2021035499A (en) * | 2020-10-14 | 2021-03-04 | 株式会社東芝 | Eyewear, data collection system and data collection method |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09635A (en) * | 1995-06-21 | 1997-01-07 | Nissan Motor Co Ltd | Relaxation system |
JP2007130212A (en) * | 2005-11-10 | 2007-05-31 | Sharp Corp | Psychological state amplifying apparatus and computer program |
US7727139B2 (en) * | 2006-10-20 | 2010-06-01 | Daniel Topp | Dream detection system |
JP4655035B2 (en) * | 2006-12-27 | 2011-03-23 | トヨタ自動車株式会社 | Dozing detection device, dozing detection method |
JP2013215356A (en) * | 2012-04-06 | 2013-10-24 | Panasonic Corp | Eye fatigue measuring apparatus and method thereof |
JP2013258555A (en) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | Head-mounted display, biological information management apparatus, and biological information display method |
FR2997528B1 (en) * | 2012-10-26 | 2021-10-15 | Oberthur Technologies | BIOMETRIC IDENTIFICATION |
-
2016
- 2016-03-04 JP JP2016042501A patent/JP6396351B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11806078B1 (en) | 2022-05-01 | 2023-11-07 | Globe Biomedical, Inc. | Tear meniscus detection and evaluation system |
Also Published As
Publication number | Publication date |
---|---|
JP2017153887A (en) | 2017-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6396351B2 (en) | Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear | |
US10901509B2 (en) | Wearable computing apparatus and method | |
Tian et al. | A review of cybersickness in head-mounted displays: raising attention to individual susceptibility | |
US11815951B2 (en) | System and method for enhanced training using a virtual reality environment and bio-signal data | |
US20170293356A1 (en) | Methods and Systems for Obtaining, Analyzing, and Generating Vision Performance Data and Modifying Media Based on the Vision Performance Data | |
Gullberg et al. | Keeping an eye on gestures: Visual perception of gestures in face-to-face communication | |
Chung et al. | Involuntary attention restoration during exposure to mobile-based 360 virtual nature in healthy adults with different levels of restorative experience: Event-related potential study | |
KR20190095671A (en) | Virtual reality head mounted display for showing user's status and user status display method and content control method using the system | |
JP2006293979A (en) | Content providing system | |
US20120194648A1 (en) | Video/ audio controller | |
US11779275B2 (en) | Multi-sensory, assistive wearable technology, and method of providing sensory relief using same | |
JP7066115B2 (en) | Public speaking support device and program | |
Mandel et al. | Brain responds to another person's eye blinks in a natural setting—the more empathetic the viewer the stronger the responses | |
JP2018202191A (en) | Eyewear, data collection system and data collection method | |
US20190274630A1 (en) | Output control device, output control method, and program | |
JP2021035499A (en) | Eyewear, data collection system and data collection method | |
EP4331489A1 (en) | Sound-based attentive state assessment | |
JP2005044150A (en) | Data collecting device | |
KR101564042B1 (en) | A method on the characteristics of space search shown at observation seen in the process of perception and recognition of space and system thereof | |
Tan et al. | Mindful Moments: Exploring On-the-go Mindfulness Practice On Smart-glasses | |
US20240115831A1 (en) | Enhanced meditation experience based on bio-feedback | |
KR20190101336A (en) | Virtual reality head mounted display system for showing user's status | |
CN117677345A (en) | Enhanced meditation experience based on biofeedback | |
Toyosawa et al. | Video digest based on heart rate | |
Tag | Doctoral Dissertation Academic Year 2018 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171128 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180515 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180829 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6396351 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |