JP6535123B2 - Eye movement detection apparatus and eye movement detection method - Google Patents

Eye movement detection apparatus and eye movement detection method Download PDF

Info

Publication number
JP6535123B2
JP6535123B2 JP2018090396A JP2018090396A JP6535123B2 JP 6535123 B2 JP6535123 B2 JP 6535123B2 JP 2018090396 A JP2018090396 A JP 2018090396A JP 2018090396 A JP2018090396 A JP 2018090396A JP 6535123 B2 JP6535123 B2 JP 6535123B2
Authority
JP
Japan
Prior art keywords
detection unit
eye movement
detected
movement
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018090396A
Other languages
Japanese (ja)
Other versions
JP2018136989A (en
Inventor
広昭 古牧
広昭 古牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018090396A priority Critical patent/JP6535123B2/en
Publication of JP2018136989A publication Critical patent/JP2018136989A/en
Application granted granted Critical
Publication of JP6535123B2 publication Critical patent/JP6535123B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明の実施形態は、眼電位センシング技術を応用した眼球運動検出装置及び眼球運動検出方法に関する。   Embodiments of the present invention relate to an eye movement detection apparatus and an eye movement detection method to which an eye potential sensing technique is applied.

通常、人が前方を見つつ歩行する際は、その人の頭は上下左右に揺れているが、その人には周りの景色がはっきり見えている。これは、歩行時における頭部の動揺が身体の他の部分よりも小さい範囲(視線の遠近によらず振幅2〜3cm位)に抑えられ、その小さい範囲内で頭部と眼球が視線の安定を保つように協調的に動いているためである(非特許文献1参照)。この非特許文献1は、「歩行時には頭部が上下左右に動揺し、この動揺に対する視線安定化の動作として頭部の回転および眼球の補償回転が発生する」ことを教示している。   Usually, when a person walks while looking forward, the person's head shakes up and down, but the person can clearly see the surrounding scenery. This is because the head movement during walking is suppressed to a range smaller than the other parts of the body (amplitude of about 2 to 3 cm regardless of the distance to the line of sight), within which range the head and eye are stable in line of sight To move in a coordinated manner (see Non-Patent Document 1). This non-patent document 1 teaches that "the head shakes up and down and to the left and right during walking, and rotation of the head and compensated rotation of the eyeball occur as the operation of visual axis stabilization for the shake".

眼電位センシング技術に関しては、人の眼球運動による眼電に基づいてその人の視線位置を検出する公知例1がある(特許文献1参照)。この公知例1では、眼電検出(眼電位センシング)にEOG(Electro-Oculography)電極を用い、EOG電極から取得した眼電データよりユーザの視線位置を検出している(段落0025)。公知例1の実施形態ではEOG電極をゴーグルに設けているが(段落0061)、EOG用の電極をメガネに設けた公知例2もある(特許文献2参照)。ゴーグルやメガネは、人の眼球付近に装着されるアイウェアの一種である。アイウェアを装着したユーザが歩行すると、アイウェアも頭部と一緒に動揺する。   As for the electro-oculogram sensing technology, there is a known example 1 in which the gaze position of the person is detected based on the electro-oculogram by the human eye movement (see Patent Document 1). In this known example 1, an EOG (Electro-Oculography) electrode is used for electro-oculogram detection (electro-oculography sensing), and the user's gaze position is detected from electro-oculogram data acquired from the EOG electrode (paragraph 0025). Although the EOG electrode is provided on the goggles in the embodiment of the known example 1 (paragraph 0061), there is also a known example 2 in which an electrode for EOG is provided on glasses (see Patent Document 2). Goggles and glasses are a type of eyewear worn near the eyeballs of people. When the user wearing the eyewear walks, the eyewear also shakes with the head.

特開2009−288529号公報JP, 2009-288529, A 特開2013−244370号公報JP, 2013-244370, A

歩行中の視線安定を維持する頭部運動と眼球運動論文 2000-03 矢崎、鋭矢 大阪大学大学院人間科学研究科記要.26 P.177-P.193http://ir.library.osaka-u.ac.jp/dspace/bitstream/11094/5672/1/hs26-177.pdfHead Movement and Eye Movement Research to Maintain Gaze Stability while Walking 2000-03 Yazaki, 矢 Journal of Osaka University Graduate School of Human Sciences. 26 P. 177-P. 193 http: //ir.library.osaka-u .ac.jp / dspace / bitstream / 11094/5672/1 / hs26-177.pdf

静止した着座状態(EOG電極付アイウェアを装着したユーザの頭部に外乱となる動きが混入しない状態)では、眼電位センシングによって視線/眼球回転を安定して検出できる。しかし、歩行状態(EOG電極付アイウェアを装着したユーザの頭部に上下左右の揺れが発生する状態)において現実世界の固定物を注視した場合には、着座状態と比べて目的の視線/眼球回転を検出するのが困難となる。その理由は、人体の持つ視線安定化のための補完動作として眼球回転が無意識に行われており、眼電位センシング結果にもこの無意識な眼球回転の信号成分が(ノイズあるいは外乱として)重畳するためである。   In the stationary seating state (a state in which no movement causing disturbance is mixed in the head of the user wearing the eyewear with an EOG electrode), eye gaze / eyeball rotation can be stably detected by eye potential sensing. However, when gazing at a fixed object in the real world in a walking state (a state where up and down and left and right shaking occurs on the head of a user wearing eyewear with an EOG electrode), the target gaze / eyeball is compared to the sitting state. It becomes difficult to detect the rotation. The reason is that eye rotation is performed unconsciously as a complementary motion for visual axis stabilization possessed by the human body, and the signal component of this unconscious eye rotation is also superimposed (as noise or disturbance) on the electrooculogram sensing result. It is.

すなわち、EOG電極付アイウェアを装着したユーザが歩行すると、ユーザが視線を前方の特定物に固定していても、歩行に伴う頭部の動揺によって、EOG電極から取得した眼電データも変動する。この眼電データの変動分は、実際の視線に対応した眼電データに対して、ノイズ(外乱)となる。   That is, when the user wearing the eyewear with the EOG electrode walks, even if the user fixes his gaze to a specific object in front, the electrooculogram data acquired from the EOG electrode also fluctuates due to the movement of the head accompanying the walking . The fluctuation of the electro-oculogram data becomes noise (disturbance) with respect to the electro-oculogram data corresponding to the actual line of sight.

この発明の実施形態により解決しようとする課題の1つは、頭部の動揺によって眼電データに混入するノイズ成分を抑えることである。   One of the problems to be solved by the embodiment of the present invention is to suppress the noise component mixed in the electrooculogram by the movement of the head.

実施形態によれば、眼球運動検出装置は、現実世界画像又は前記現実世界画像に画像情報を付加させる拡張現実画像を表示する表示部と、ユーザの眼動を検出する第1検出部と、前記ユーザの頭部の動きを検出する第2検出部と、前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きに基づいて、前記ユーザが見ているものを判定する判定手段と、を具備する。前記判定手段は、前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期しているか否かに基づいて、前記ユーザが前記現実世界画像を見ているか又は前記拡張現実画像を見ているかを判定する。前記表示部は、前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期しているか否かの前記判定手段による判定結果に応じて前記拡張現実画像の表示をオン、オフする。 According to an embodiment, the eye movement detection apparatus includes a display unit configured to display a real world image or an augmented reality image to which image information is added to the real world image; a first detection unit configured to detect eye movement of a user; The second detection unit for detecting the movement of the head of the user, the user looking at the movement based on the eye movement detected by the first detection unit and the movement of the head detected by the second detection unit Determining means for determining what is being The determination unit determines whether the user is in the real world based on whether the eye movement detected by the first detection unit and the head movement detected by the second detection unit are synchronized. It is determined whether you are looking at an image or looking at the augmented reality image. The display unit is configured to determine whether the eye movement detected by the first detection unit and the head movement detected by the second detection unit are synchronized or not according to the determination result by the determination unit. The display of the augmented reality image is turned on and off.

前方を見ながら歩行中の人の頭部動揺(上下左右動による位置変化)を説明する図。The figure explaining the head sway (position change by up-and-down left-right motion) of the person in walking while looking ahead. 歩行中に前方の固定物を注視している人の頭部動揺(前屈/後屈による角度変化)を説明する図。The figure explaining the head sway (the angle change by forward bending / back bending) of the person who is gazing at a front fixed object while walking. 頭部が縦方向に前後屈変化をした場合の、視標距離(眼から注視対象までの距離)と眼球運動との関係を説明する図。The figure which illustrates the relationship between the target distance (the distance from the eye to the gaze target) and the eye movement when the head makes a back and forth change in the longitudinal direction. 頭部前後屈の角度変化/速度変化と眼動の角度変化/速度変化との間の位相関係を例示する図。The figure which illustrates the phase relationship between the angle change / velocity change of head order bending, and the angle change / velocity change of eye movement. 一実施の形態に係る眼球運動検出装置が組み込まれたメガネ型アイウェアを説明する図(EOG電極がノーズパッドに配置された例)。A figure explaining an eyeglass type eyewear into which an eye movement detection device concerning one embodiment was built (an example in which an EOG electrode is arranged at a nose pad). 一実施の形態に係るメガネ型アイウェアにおけるEOG電極の実装例を説明する図。The figure which demonstrates the example of mounting of the EOG electrode in the spectacles type eyewear which concerns on one Embodiment. 種々な実施の形態に取り付け可能な情報処理部11と、その周辺デバイスとの関係を説明する図。The figure explaining the relationship between the information processing part 11 which can be attached to various embodiment, and its peripheral device. 例えば25m先にある現実世界の固定物を注視しながら、右足から歩き始めて13歩目の右足で止まった場合の、EOG波形の一例を示す図。For example, the figure which shows an example of an EOG waveform at the time of starting walking from a right foot and stopping at the right foot of the 13th step while gazing at a fixed object in the real world 25 m away. 図8と同じ条件で、再び右足から歩き始めて13歩目の右足で止まった場合の、EOG波形の他例(反復再現性の確認)を示す図。The figure which shows the other example (confirmation of repetition reproducibility) of the EOG waveform at the same time as FIG. 8 starting from the right foot again and stopping at the right foot of the 13th step under the same conditions. 頭部の動揺に起因するノイズが打ち消された場合において、正面から上方への眼動と、図6に示す3つのアナログ/デジタルコンバータ(ADC)から得られる検出信号レベル(Ch0、Ch1、Ch2、およびCh1とCh2の平均レベルCh1+2)との関係を例示する眼電図(EOG)。In the case where the noise due to head movement is canceled, the eye movement from the front to the top and the detection signal levels (Ch0, Ch1, Ch2, and so on) obtained from the three analog / digital converters (ADCs) shown in FIG. And an electro-oculogram (EOG) illustrating the relationship between the average levels of Ch1 and Ch2 (Ch1 + 2). 頭部の動揺に起因するノイズが打ち消された場合において、正面から下方への眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2、およびCh1+2)との関係を例示する眼電図。In the case where noise due to head sway is canceled, the eye movement from the front to the bottom and the detection signal levels (Ch0, Ch1, Ch2 and Ch1 + 2) obtained from the three ADCs shown in FIG. Electrooculogram illustrating the relationship. 頭部の動揺に起因するノイズが打ち消された場合において、左から右への眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2、およびCh1+2)との関係を例示する眼電図。When noise due to head movement is canceled out, eye movement from left to right and detection signal levels (Ch0, Ch1, Ch2 and Ch1 + 2) obtained from three ADCs shown in FIG. Electrooculogram illustrating the relationship. 頭部の動揺に起因するノイズが打ち消された場合において、視線が正面を向いているときに、瞬き(両目)を5秒間隔で5回反復した眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図。In the case where the noise due to head movement is canceled out, when the line of sight is directed to the front, the eye movement that blinks (both eyes) repeated 5 times at intervals of 5 seconds, and from the three ADCs shown in FIG. The electrooculogram which illustrates the relationship with the detection signal level (Ch0, Ch1, Ch2) obtained from. 頭部の動揺に起因するノイズが打ち消された場合において、視線が正面を向いているときに、1秒の眼瞑り(両目)と4秒の眼開き(両目)を5回反復した眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図。In the case where the noise due to head sway is canceled out, when the sight line is facing the front, the eye movement is a repetition of one second of the eye (both eyes) and four seconds of the eye opening (both eyes) five times FIG. 7 is an electro-oculogram illustrating the relationship between detection signal levels (Ch0, Ch1, Ch2) obtained from the three ADCs shown in FIG. 頭部の動揺に起因するノイズが打ち消された場合において、視線が正面を向いているときに、両目の瞬きを5回反復した直後に左目のウインク(左側片目の瞬き)を5回反復した眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図。In the case where the noise due to head movement is canceled out, when the line of sight is directed to the front, the eye is obtained by repeating the blink of the left eye 5 times immediately after repeating the blink of both eyes 5 times FIG. 7 is an electro-oculogram illustrating the relationship between the motion and detection signal levels (Ch0, Ch1, Ch2) obtained from three ADCs shown in FIG. 頭部の動揺に起因するノイズが打ち消された場合において、視線が正面を向いているときに、両目の瞬きを5回反復した直後に右目のウインク(右側片目の瞬き)を5回反復した眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図。When noise from head sway is canceled, when the line of sight is facing the front, the eye is repeated five blinks of the right eye immediately after repeating the blink of both eyes five times FIG. 7 is an electro-oculogram illustrating the relationship between the motion and detection signal levels (Ch0, Ch1, Ch2) obtained from three ADCs shown in FIG. 頭部の動揺に起因するノイズを最小化する処理(ノイズ打ち消し処理)の一例を説明するフローチャート。The flowchart explaining an example of the processing (noise cancellation processing) which minimizes the noise resulting from head shaking. 他の実施形態に係るメガネ型アイウェアにおけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置された例)。The figure which illustrates the example of mounting of the EOG electrode in the spectacles type eyewear which concerns on other embodiment (an example in which the EOG electrode is arrange | positioned around the eyeball). さらに他の実施形態に係るゴーグル型アイウェア(左右両眼のアイフレームが連続したタイプ)におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置された他の例)。The figure which demonstrates the example of mounting of the EOG electrode in the goggle type eyewear (The type with which the eye frame of the right and left eyes continued) which concerns on other embodiment (The other example in which the EOG electrode is arrange | positioned around the eyeball). さらに他の実施形態に係るゴーグル型アイウェア(左右両眼のアイカップが分離したタイプ)におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたさらに他の例)。The figure which demonstrates the example of mounting of the EOG electrode in the goggle type eyewear (The type which the eye cup of the right and left eyes isolate | separated) which concerns on other embodiment (The further another example in which the EOG electrode is arrange | positioned around the eyeball).

以下、初めに基礎的な情報を提供し、続いて、図面を参照しながら種々な実施形態を説明する。
<基礎情報>
成人の眼球の直径は約25mm。生後は17mm程度で、成長に伴い大きくなる。
成人男性の瞳孔間距離は約65mm。(一般市販のステレオカメラは65mmの間隔で作られている物が多い。)
成人女性の瞳孔間距離は男性に比べて数mm短い。
眼電位は数十mV。
眼球は角膜側にプラス、網膜側にマイナスの電位を持つ。これを皮膚の表面で測定すると数百μVの電位差として現れる。
Hereinafter, basic information is provided first, and then various embodiments will be described with reference to the drawings.
<Basic information>
The eyeball diameter of an adult is about 25 mm. It is about 17 mm after birth and becomes larger as it grows.
The interpupillary distance of an adult male is about 65 mm. (Normally commercially available stereo cameras are often made at intervals of 65 mm.)
The interpupillary distance of adult women is several mm shorter than men.
The eye potential is several tens of mV.
The eye has a positive potential on the cornea side and a negative potential on the retina side. When this is measured on the surface of the skin, it appears as a potential difference of several hundred μV.

なお、眼動検出に関係する眼球運動の種類および眼球の移動範囲としては、例えば以下のものがある:
<眼球運動(眼動)の種類>
(01)補償性眼球運動
頭や身体の動きにかかわらず、外界の像を網膜上で安定させるために発達した、非随意的な眼球運動。
(02)随意性眼球運動
視対像を網膜上の中心にくるようにするために発達した眼球運動であり、随意的なコントロールが可能な運動。
(03)衝撃性眼球運動(サッケード)
物を見ようとして注視点を変えるときに発生する眼球運動(検出し易い)。
(04)滑動性眼球運動
ゆっくりと移動する物体を追尾するときに発生する滑らかな眼球運動(検出し難い)。
<眼球の移動範囲(一般的な成人の場合)>
(11)水平方向
左方向: 50°以下
右方向: 50°以下
(12)垂直方向
下方向: 50°以下
上方向: 30°以下
(自分の意思で動かせる垂直方向の角度範囲は、上方向だけ狭い。(閉眼すると眼球が上転する「ベル現象」があるため、閉眼すると垂直方向の眼球移動範囲は上方向にシフトする。)
(13)その他
輻輳角: 20°以下。
<歩行に伴う頭部の動きについて(図1、図2の出典は非特許文献1)>
図1は、前方を見ながら歩行中の人の頭部動揺(上下左右動による位置変化)を説明する図である。歩行時の下肢の動きによって、人の頭部は上下に位置変化する(図1(a))。一般的な大人の歩行周期(1歩行サイクル)は、例えば0.6秒位になる。同時に、この歩行において、人の頭部は左右にも位置変化する(図1(b))。この左右位置変化の周期は、歩行周期の2倍の1.2秒位になる。上下の位置変化幅および左右の位置変化幅は、それぞれ2〜3cm位ある。この上下左右動は略リニアで規則性があり、歩行周期と密接に関連した周期を持つ。
The types of eye movement related to eye movement detection and the movement range of the eye are, for example, as follows:
<Type of eye movement (eye movement)>
(01) Compensatory eye movement Non-voluntary eye movement developed to stabilize the external image on the retina regardless of head or body movement.
(02) Voluntary eye movement The eye movement developed to center the visual pair image on the retina, and a movement that can be freely controlled.
(03) Impact eye movement (saccade)
Eye movement (easy to detect) that occurs when you change the gaze point to look at things.
(04) Sliding eye movement Smooth eye movement (not easy to detect) generated when tracking a slowly moving object.
<Movement range of eye (in case of general adults)>
(11) Horizontal direction Left direction: 50 ° or less Right direction: 50 ° or less (12) Vertical downward direction: 50 ° or less Upward direction: 30 ° or less (The vertical angle range that can be moved by one's own intention is only upward direction Narrow (There is a “bell phenomenon” in which the eyeball turns up when closed eyes, so when closed eyes the range of eye movement in the vertical direction shifts upward).
(13) Others Convergence angle: 20 ° or less.
<About the movement of the head accompanying walking (the source of Fig. 1 and Fig. 2 is non-patent document 1)>
FIG. 1 is a view for explaining head sway (a change in position due to vertical and horizontal movement) of a person walking while looking forward. The movement of the lower limbs during walking changes the position of the human head up and down (Fig. 1 (a)). A typical adult walking cycle (one walking cycle) is, for example, about 0.6 seconds. At the same time, in this walking, the human head changes position to the left and right (FIG. 1 (b)). The cycle of this lateral position change is about 1.2 seconds, which is twice the walking cycle. The upper and lower position change widths and the left and right position change widths are each about 2 to 3 cm. The vertical and horizontal movements are substantially linear and regular, and have a cycle closely related to the walking cycle.

図2は、歩行中に前方の固定物を注視している人の頭部動揺(前屈/後屈による角度変化)を説明する図である。前方の目視対象(視標)を注視している人が歩行を開始すると、歩行に伴い頭部が上下に位置変化する(図2(a))。視標を注視している間、頭部が上位置にきたときはその頭部は前屈(ピッチダウン)し、頭部が下位置にきたときはその頭部は後屈(ピッチアップ)する(図2(b))。このような前後屈(頭部の縦方向回転運動)が、1歩行サイクル中に、頭部の上下動に対応(同期)して起きる。同様に、頭部が左右に位置変化した場合(図1(b))は、頭部に左右方向の回転運動(頭部の上下動に同期)が起きる。   FIG. 2 is a view for explaining head sway (a change in angle due to forward bending / back bending) of a person who is gazing at a fixed object in front while walking. When a person gazing at a front visual object (target) starts walking, the head position changes up and down with walking (FIG. 2A). While gazing at the target, when the head comes to the upper position, the head bends forward (pitch down), and when the head comes to the lower position, the head bends backward (pitch up) (FIG. 2 (b)). Such anteroposterior bending (longitudinal rotational movement of the head) occurs in response to (in synchronization with) vertical movement of the head during one walking cycle. Similarly, when the head is displaced to the left and right (FIG. 1 (b)), a rotational movement in the left and right direction (synchronized with the vertical movement of the head) occurs in the head.

すなわち、歩行中、人の頭部は上下左右の動きを代償するような回転運動を行っており、視線が前方の目視対象(視標)を捉えるのを助けるように頭部は高低位置で前後屈する。左右に対しても同様で、歩行に伴い身体が左右に揺れて頭部が左右に動くと、頭部は左右に回旋(往復回転)する。こうした頭部の回転は「代償的回転: Compensatory Rotation」と呼ばれ、視線の安定を助けていると考えられている。   That is, while walking, the head of a person performs a rotational movement that compensates for vertical and horizontal movements, and the head is back and forth at a high and low position so that the line of sight helps capture the visual target (target) ahead. Succumb. The same applies to left and right, and when the body swings to the left and right with walking and the head moves to the left and right, the head turns to the left and right (reciprocal rotation). Such head rotation is called "Compensatory Rotation", and is considered to help stabilize the gaze.

また、歩行中に人の体幹は前後左右に回転するため、頭部はこれらをも代償する必要がある。この体幹の変化に対して頭部を逆方向に回転させる事で、頭部の角度位置を水平に保っている。
<歩行に伴う眼球の動きについて(図3、図4の出典は非特許文献1)>
図3は、頭部が縦方向に前後屈変化をした場合の、視標距離(眼から注視対象までの距離)と眼球運動との関係を説明する図である。ここでは、頭部を固定した場合の視標位置をHFPとし、実際の視標がHFPよりも近い場合(Near Target)と遠い場合(Far Target)について、頭部の前後屈回転角(φh)と眼球の代償回転角(φen、φef)を例示している。
In addition, since the trunk of a person rotates back and forth and left and right during walking, the head needs to compensate for these as well. The angular position of the head is kept horizontal by rotating the head in the opposite direction to the change in the trunk.
<About the movement of the eyeball accompanying walking (the source of FIG. 3, FIG. 4 is nonpatent literature 1)>
FIG. 3 is a view for explaining the relationship between the target distance (the distance from the eye to the gaze target) and the eye movement when the head is bent in the longitudinal direction. Here, it is assumed that the target position when the head is fixed is HFP, and when the actual target is closer (Near Target) and farther (Far Target) than HFP, the fore-and-aft rotational angle (φh) of the head And the compensated rotation angles (φen, φef) of the eyeballs.

前述したように、頭部は代償的回転を行うが、それだけでは視線安定化を完全に達成できない。頭部は上下動を代償して回転する際に過不足を起こすことがままある。この代償回転の過不足によるズレを補うために、歩行中には周期的な眼球の補償回転が必要となる。例えば、30cm先の近い視標(Near Target)に対しては、眼球は頭部の回旋/回転(φh)と同方向の代償回転(φen)を行う。これにより頭部の回旋/回転が不十分でも眼球は頭部と動方向に協調回転して頭部の回旋不足を補う。一方、例えば100m先の遠い視標(Far Target)に対しては、眼球は頭部の回旋/回転(φh)と逆方向の代償回転(φef)を行う。これにより頭部の回旋/回転が過度となっても眼球は逆方向に回転して、頭部回旋の過度分を打ち消す。(なお、視標が近くても遠くても、歩行時の頭部の移動量に実質的な差はない。)
図4は、頭部前後屈の角度変化/速度変化と眼動の角度変化/速度変化との間の位相関係を例示する図である。図3に示す頭部の前後屈の角度(φh)は、アイウェアに取り付けられた3軸ジャイロ(図7の11e)によって検出できる。また図3に示す眼球の回転角度(φen、φef)は、眼球のEOGを利用した眼動検出部(図7の15)によって検出できる。
As mentioned above, the head performs compensatory rotation, but it alone can not achieve gaze stabilization completely. The head can still suffer from excess and deficiency when it is rotated to compensate for vertical movement. In order to compensate for the displacement due to the excess or deficiency of the compensation rotation, periodic compensation of the eyeball is required during walking. For example, for a near target 30 cm away (Near Target), the eyeball performs compensated rotation (φ en) in the same direction as rotation / rotation (φ h) of the head. As a result, even if the rotation / rotation of the head is insufficient, the eyeball rotates in coordination with the head in the moving direction to compensate for the lack of rotation of the head. On the other hand, for a far target 100 m away (Far Target), for example, the eyeball performs compensated rotation (φef) in the direction opposite to the rotation / rotation (φh) of the head. As a result, even if the head rotation / rotation is excessive, the eyeball rotates in the opposite direction to cancel the excess of head rotation. (Even if the target is near or far, there is no substantial difference in the amount of head movement during walking.)
FIG. 4 is a diagram illustrating a phase relationship between an angle change / velocity change in head longitudinal bending and an angle change / velocity change in eye movement. The anteroposterior bending angle (φh) of the head shown in FIG. 3 can be detected by a three-axis gyro (11e in FIG. 7) attached to the eyewear. The rotation angles (φen, φef) of the eyeball shown in FIG. 3 can be detected by the eye movement detection unit (15 in FIG. 7) using the EOG of the eyeball.

歩行にともなう頭部の上下動変化(縦方向の前後屈変化)は、視標が近い(Near Target)場合は眼球回転の変化と同相で変化する(図4(a))。一方、視標が遠い(Far Target)場合は、頭部の上下動変化(縦方向の前後屈変化)は眼球回転の変化と逆相で変化する(図4(b))。視標が図3の固定位置HFPにあるときは、眼球回転はなくなり、図4(a)(b)に示す破線の波形変化は極小(図示上では略水平)になる(この極小ポイントを境にして、頭部の縦方向の前後屈変化と眼球回転の変化との間の位相が反転する)。同様な位相反転は、頭部上下動の速度変化および眼球回転の速度変化の間でも見られる(図4(c)(d))。   The vertical movement change (longitudinal bending change) of the head accompanying walking changes in the same phase as the change in eyeball rotation when the target is near (Near Target) (FIG. 4A). On the other hand, when the target is far (Far Target), the vertical movement change (longitudinal bending change in the vertical direction) of the head changes in the opposite phase of the eye rotation change (FIG. 4 (b)). When the target is at the fixed position HFP shown in FIG. 3, the eyeball rotation disappears, and the waveform change of the broken line shown in FIGS. 4 (a) and 4 (b) becomes minimal (substantially horizontal in the figure). And the phase between the longitudinal bending change of the head and the change of the eye rotation is reversed). A similar phase reversal is also seen during changes in the velocity of the head vertical movement and in the velocity of the eye rotation (Fig. 4 (c) (d)).

いま、上記「歩行にともなう頭部の上下動変化」に起因してEOGに生じる信号変化を「体動ノイズ」と呼ぶことにする。歩行行為は加速度センサやジャイロセンサで検出可能であり、眼動行為はEOGから検出可能である。すると、「歩行中」かつ「眼動行為無し」が検出されている際に、EOGに体動ノイズが現れない場合には、「アイウェアのユーザは視標の距離によって体動ノイズが位相反転するポイント(図3の位置HFPに対応)を注視している」ことが示される。   Now, the signal change that occurs in the EOG due to the above-mentioned "up and down movement change of the head accompanying walking" will be referred to as "body movement noise". A walking act can be detected by an acceleration sensor or a gyro sensor, and an eye movement can be detected from an EOG. Then, when "moving" and "no eye movement" are detected, if body movement noise does not appear in the EOG, "the eyewear user reverses the body movement noise according to the distance of the visual target. It is indicated that the user is gazing at the point (corresponding to the position HFP in FIG. 3).

図5は、一実施の形態に係る眼球運動検出装置が組み込まれたメガネ型アイウェア100を説明する図(EOG電極がノーズパッドに配置された例)である。この実施形態では、右アイフレーム(右リム)101と左アイフレーム(左リム)102がブリッジ103連結されている。左右アイフレーム102、101およびブリッジ103は、例えばアルミ合金、チタンなどで構成できる。左アイフレーム102の左外側は左ヒンジ104を介して左テンプルバー106に繋がり、左テンプルバー106の先端に左モダン(左イヤーパッド)108が設けられている。同様に、右アイフレーム101の右外側は右ヒンジ105を介して右テンプルバー107に繋がり、右テンプルバー107の先端に右モダン(右イヤーパッド)109が設けられている。   FIG. 5 is a view for explaining an eyeglass-type eyewear 100 in which an eye movement detection device according to an embodiment is incorporated (an example in which an EOG electrode is disposed on a nose pad). In this embodiment, a right eye frame (right rim) 101 and a left eye frame (left rim) 102 are connected to a bridge 103. The left and right eye frames 102 and 101 and the bridge 103 can be made of, for example, an aluminum alloy, titanium or the like. The left outside of the left eye frame 102 is connected to the left temple bar 106 via the left hinge 104, and the left modern (left ear pad) 108 is provided at the tip of the left temple bar 106. Similarly, the right outer side of the right eye frame 101 is connected to the right temple bar 107 via the right hinge 105, and the right modern (right ear pad) 109 is provided at the tip of the right temple bar 107.

ブリッジ103には、眼球運動検出装置の主要部となる情報処理部11(数ミリ角の集積回路)が取り付けられている。この情報処理部11は、マイクロコンピュータ、メモリ、通信処理部などを集積したLSIにより構成できる(情報処理部11の詳細については、図7を参照して後述する)。   An information processing unit 11 (an integrated circuit of several millimeters square), which is a main part of the eye movement detection apparatus, is attached to the bridge 103. The information processing unit 11 can be configured by an LSI in which a microcomputer, a memory, a communication processing unit, and the like are integrated (the details of the information processing unit 11 will be described later with reference to FIG. 7).

リチウムイオン電池などの小型電池(BAT)が、例えば左テンプルバー106内(あるいは右テンプルバー107内、もしくはモダン108または109内)に埋め込まれ、メガネ型アイウェア100の動作に必要な電源となっている。
左ヒンジ104寄りの左アイフレーム102端部には、左カメラ13Lが取り付けられ、右ヒンジ105寄りの右アイフレーム101端部には、右カメラ13Rが取り付けられている。これらのカメラは、超小型のCCDイメージセンサを用いて構成できる。
A small battery (BAT) such as a lithium ion battery is embedded, for example, in the left temple bar 106 (or in the right temple bar 107, or in the modern 108 or 109) and becomes a power source necessary for the operation of the eyeglass-type eyewear 100. ing.
The left camera 13L is attached to the end of the left eye frame 102 closer to the left hinge 104, and the right camera 13R is attached to the end of the right eye frame 101 closer to the right hinge 105. These cameras can be configured using a very small CCD image sensor.

これらのカメラ(13L、13R)は、ステレオカメラを構成するものでもよい。あるいはこれらのカメラの位置に赤外線カメラ(13R)とレーザー(13L)を配置し、赤外線カメラ+レーザーによる距離センサを構成してもよい。この距離センサは、超音波を集音する小型半導体マイク(13R)と超音波を放射する小型圧電スピーカー(13L)などで構成することもできる。   These cameras (13L, 13R) may constitute a stereo camera. Alternatively, an infrared camera (13R) and a laser (13L) may be disposed at the position of these cameras, and a distance sensor by infrared camera + laser may be configured. This distance sensor can also be configured by a small semiconductor microphone (13R) that collects ultrasonic waves, a small piezoelectric speaker (13L) that emits ultrasonic waves, or the like.

なお、左右カメラ13L/13Rの代わりに、あるいは左右カメラ13L/13Rに加えて、ブリッジ103部分に図示しない中央カメラを設ける実施形態も考えられる。逆に、カメラを全く装備しない実施形態もあり得る(これらのカメラは、図7ではカメラ13として示されている)。   In addition, in place of the left and right cameras 13L / 13R, or in addition to the left and right cameras 13L / 13R, an embodiment may be considered in which a central camera (not shown) is provided in the bridge 103 portion. Conversely, in some embodiments there may be no camera at all (these cameras are shown as camera 13 in FIG. 7).

左アイフレーム102には左ディスプレイ12Lがはめ込まれ、右アイフレーム101には右ディスプレイ12Rがはめ込まれている。このディスプレイは、左右のアイフレームの少なくとも一方に設けられ、フィルム液晶などを用いて構成できる。具体的には、偏光板を用いないポリマー分散型液晶(PDLC)を採用したフィルム液晶表示デバイスを用いて、左右のディスプレイ12L、12Rの一方または両方を構成できる(このディスプレイは、図7ではディスプレイ12として示されている)。   The left display 12 L is fitted in the left eye frame 102, and the right display 12 R is fitted in the right eye frame 101. This display is provided on at least one of the left and right eye frames, and can be configured using film liquid crystal or the like. Specifically, one or both of the left and right displays 12L and 12R can be configured using a film liquid crystal display device employing a polymer dispersed liquid crystal (PDLC) that does not use a polarizing plate (this display is a display in FIG. 7) Shown as 12).

フィルム液晶を利用した透明な左右ディスプレイ12L/12Rは、メガネを通して見える現実の世界に数字や文字などの画像情報を付加させる拡張現実(AR:Augmented Reality)を提供する手段として、利用できる。
左右のアイフレーム102、101の間であって、ブリッジ103の下側には、ノーズパッド部が設けられる。このノーズパッド部は、左ノーズパッド150Lと右ノーズパッド150Rのペアで構成される。右ノーズパッド150Rには右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lには左ノーズパッド電極152a,152bが設けられている。
Transparent left and right displays 12L / 12R using film liquid crystal can be used as a means for providing augmented reality (AR) that adds image information such as numbers and characters to the real world seen through glasses.
A nose pad portion is provided between the left and right eye frames 102 and 101 below the bridge 103. The nose pad portion is composed of a pair of left nose pad 150L and right nose pad 150R. Right nose pad electrodes 151a and 151b are provided on the right nose pad 150R, and left nose pad electrodes 152a and 152b are provided on the left nose pad 150L.

これらの電極151a,151b,152a,152bは互いに電気的に分離され、絶縁された配線材(図示せず)を介して、3つのADコンバータ(ADC1510、1520、1512)に接続される。これらのADCからの出力は、アイウェア100を装着したユーザの眼の動きに応じて異なる信号波形を持ち、ユーザの眼動に応じたデジタルデータとして、情報処理部11に供給される。電極151a,151b,152a,152bは、視線検出センサとして用いられ、3つのADコンバータとともに図7の眼動検出部15の構成要素となっている。   The electrodes 151a, 151b, 152a, 152b are electrically separated from each other, and connected to three AD converters (ADCs 1510, 1520, 1512) via insulated wiring members (not shown). The outputs from these ADCs have different signal waveforms according to the eye movement of the user wearing the eyewear 100, and are supplied to the information processing unit 11 as digital data according to the user's eye movement. The electrodes 151a, 151b, 152a, and 152b are used as gaze detection sensors, and are components of the eye movement detection unit 15 of FIG. 7 together with three AD converters.

アイウェア100は、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)によって、図示しないユーザの頭部に固定される。この実施形態では、ユーザの頭部(または顔面)に直接触れるのは、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)だけでよいが、ADC(1510、1520、1512)とユーザのボディとの間の電圧合わせなどのために、それら(ノーズパッド、テンプルバー、モダン)以外の部分がユーザに触れる実施形態があってもよい。   The eyewear 100 is fixed to the user's head (not shown) by the left and right nose pads (150L, 150R), the left and right temple bars (106, 107), and the left and right moderns (108, 109). In this embodiment, it is only necessary to touch the head (or face) of the user directly with the left and right nose pads (150L, 150R), the left and right temple bars (106, 107) and the left and right moderns (108, 109). However, there may be embodiments in which portions other than those (nose pad, temple bar, modern) touch the user, such as for voltage alignment between the ADC (1510, 1520, 1512) and the user's body.

図5の右ディスプレイ12Rのフィルム液晶には、例えばテンキー(数字、演算子、Enter、他)、アルファベット、所定形状のマーク、その他のアイコン群を含む右表示画像IM1を表示できる。また、左ディスプレイ12Lのフィルム液晶には、例えば任意の文字列、任意形状のマーク、種々なアイコンなどを含む左表示画像IM2を表示できる(ディスプレイ12L、12Rの表示内容は、何でも良い)。右ディスプレイ12R(または左ディスプレイ12L)に表示されるテンキーやアルファベットは、数字や文字を入力する際に利用できる。右ディスプレイ12R(または左ディスプレイ12L)に表示される文字列、マーク、アイコン等は、特定の情報項目を探したり、目的の項目の選択/決定したり、ユーザに注意喚起をする際に利用できる。   On the film liquid crystal of the right display 12R of FIG. 5, the right display image IM1 including, for example, ten keys (numbers, operators, Enter, etc.), alphabets, marks of a predetermined shape, and other icon groups can be displayed. In addition, the left liquid crystal display 12L can display the left display image IM2 including, for example, an arbitrary character string, an arbitrary shaped mark, various icons and the like (the display contents of the displays 12L and 12R may be anything). The ten keys and alphabets displayed on the right display 12R (or the left display 12L) can be used to input numbers and characters. Character strings, marks, icons, etc. displayed on the right display 12R (or the left display 12L) can be used when searching for a specific information item, selecting / determining a desired item, or alerting the user. .

表示画像IM1、IM2は、メガネを通して見える現実の世界に数字、文字、マークなどの情報を付加させる拡張現実(AR)の表示手段として利用でき、このAR表示は適宜オンオフできる。表示画像IM1の内容と表示画像IM2は、実施形態に応じて、同じ内容(IM1=IM2)としても、異なる内容(IM1≠IM2)としてもよい。また、表示画像IM1(またはIM2)の表示は、右ディスプレイ12Rおよび/または左ディスプレイ12で行うことができる。AR表示の内容を、メガネ越しに見える現実世界に重なる(奥行きを伴った)3D画像としたいときは、IM1とIM2を左右別々の3D用画像とすることができる。   The display images IM1 and IM2 can be used as display means of augmented reality (AR) that adds information such as numbers, letters, marks, etc. to the real world seen through glasses, and this AR display can be turned on and off as appropriate. The content of the display image IM1 and the display image IM2 may have the same content (IM1 = IM2) or different content (IM1 ≠ IM2) according to the embodiment. Also, the display of the display image IM1 (or IM2) can be performed by the right display 12R and / or the left display 12. When the content of the AR display is to be a 3D image overlapping (with depth) in the real world viewed through the glasses, IM1 and IM2 can be left and right separate 3D images.

また、ディスプレイ(12R、12L)が左右に存在する場合、例えば輻輳角を調整して、左右の表示画像(IM1、IM2)の映像を左右で逆方向にずらすこともできる。これにより、現実世界で見える対象物とAR表示を交互に見る場合の目の負担を減らすことが考えられる。しかし、通常は、左右のディスプレイ(12R、12L)で同じ内容の画像を表示する。   Further, when the displays (12R, 12L) are present on the left and right, for example, the convergence angle can be adjusted to shift the images of the left and right display images (IM1, IM2) in opposite directions in the left and right. As a result, it is conceivable to reduce the burden on the eyes when alternately viewing an object and an AR display that are visible in the real world. However, usually, the left and right displays (12R, 12L) display images of the same content.

ディスプレイ12L、12Rでの表示制御は、右テンプルバー107に埋め込まれた情報処理部11で行うことができる。(ディスプレイで文字、マーク、アイコンなどを表示する技術は周知。)情報制御部11その他の動作に必要な電源は、左テンプルバー106に埋め込まれた電池BATから得ることができる。   Display control on the displays 12 </ b> L and 12 </ b> R can be performed by the information processing unit 11 embedded in the right temple bar 107. (Techniques for displaying characters, marks, icons, etc. on the display are well known.) A power source necessary for the operation of the information control unit 11 and the like can be obtained from the battery BAT embedded in the left temple bar 106.

なお、実施形態に対応するアイウェア100の試作品をデザイナーや設計者が装着してみて重量バランスが悪いと感じる可能性がある。その主因が左テンプルバー106内のBATにあるならば、右テンプルバー107内に左テンプルバー106内のBATに見合った「おもり(または別の同重量バッテリ)」を入れておくことができる。   The designer or the designer may wear the prototype of the eyewear 100 corresponding to the embodiment and feel that the weight balance is bad. If the main cause is the BAT in the left temple bar 106, a "weight (or another equal weight battery)" corresponding to the BAT in the left temple bar 106 can be inserted in the right temple bar 107.

図6は、一実施の形態に係るメガネ型アイウェア100におけるEOG電極の実装例を説明する図である。右ノーズパッド150Rの上下には右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lの上下には左ノーズパッド電極152a,152bが設けられている。右ノーズパッド電極151a,151bの出力はADC1510に与えられ、左ノーズパッド電極152a,152bの出力はADC1520に与えられ、左右ノーズパッドの下側電極151b,152b(または上側電極151a,152a)の出力はADC1512に与えられる。   FIG. 6 is a view for explaining an implementation example of the EOG electrode in the eyeglass-type eyewear 100 according to the embodiment. Right nose pad electrodes 151a and 151b are provided above and below the right nose pad 150R, and left nose pad electrodes 152a and 152b are provided above and below the left nose pad 150L. The outputs of the right nose pad electrodes 151a and 151b are applied to the ADC 1510, and the outputs of the left nose pad electrodes 152a and 152b are applied to the ADC 1520, and the outputs of the lower electrodes 151b and 152b (or upper electrodes 151a and 152a) of the left and right nose pads. Is given to the ADC 1512.

ADC1510からは、ユーザの右側上下眼動に対応して変化するCh1信号が得られる。ADC1520からは、ユーザの左側上下眼動に対応して変化するCh2信号が得られる。ADC1512からは、ユーザの左右眼動に対応して変化するCh0信号が得られる。左右両眼の上下動については、ADC1510およびADC1520の出力の平均に対応するCh1+2信号で評価できる。(Ch0,Ch1,Ch2,Ch1+2の信号波形と眼動との関係については、後述する。)
図7は、種々な実施の形態に取り付け可能な情報処理部11と、その周辺デバイスとの関係を説明する図である。図7の例では、情報処理部11は、プロセッサ11a、不揮発性メモリ11b、メインメモリ11c、通信処理部11d、センサ部11eなどで構成されている。プロセッサ11aは製品仕様に応じた処理能力を持つマイクロコンピュータで構成できる。このマイクロコンピュータが実行する種々なプログラムおよびプログラム実行時に使用する種々なパラメータは、不揮発性メモリ11bに格納しておくことができる。プログラムを実行する際のワークエリアはメインメモリ11cが提供する。
The ADC 1510 provides a Ch1 signal that changes in response to the user's right and left eye movements. The ADC 1520 obtains a Ch2 signal that changes in response to the user's left and right eye movements. From the ADC 1512, a Ch0 signal that changes corresponding to the user's left and right eye movement is obtained. The vertical movement of the left and right eyes can be evaluated by the Ch1 + 2 signal corresponding to the average of the outputs of the ADC 1510 and ADC 1520. (The relationship between the signal waveforms of Ch0, Ch1, Ch2, and Ch1 + 2 and eye movement will be described later.)
FIG. 7 is a view for explaining the relationship between the information processing unit 11 attachable to various embodiments and its peripheral devices. In the example of FIG. 7, the information processing unit 11 includes a processor 11a, a non-volatile memory 11b, a main memory 11c, a communication processing unit 11d, a sensor unit 11e, and the like. The processor 11a can be configured by a microcomputer having processing capability according to product specifications. Various programs executed by the microcomputer and various parameters used at the time of program execution can be stored in the non-volatile memory 11b. The main memory 11 c provides a work area when executing a program.

センサ部11eは、アイウェア100(あるいはこのアイウェアを装着したユーザの頭部)の位置および/またはその向きを検出するためのセンサ群を含んでいる。これらのセンサ群の具体例としては、3軸方向(x−y−z方向)の移動を検出する加速度センサ、3軸方向の回転を検出するジャイロ、絶対方位を検出する地磁気センサ(羅針盤機能)、電波や赤外線などを受信して位置情報その他を得るビーコンセンサがある。この位置情報その他の獲得には、iBeacon(登録商標)あるいはBluetooth(登録商標)4.0を利用できる。   The sensor unit 11 e includes a sensor group for detecting the position and / or the orientation of the eyewear 100 (or the head of the user wearing the eyewear). Specific examples of these sensor groups include an acceleration sensor that detects movement in three axial directions (x-y-z direction), a gyro that detects rotation in three axial directions, and a geomagnetic sensor that detects an absolute orientation (a compass function) There are beacon sensors that receive radio waves, infrared rays, and the like to obtain position information and the like. The iBeacon (registered trademark) or Bluetooth (registered trademark) 4.0 can be used to acquire the position information and the like.

情報処理部11に利用可能なLSIは、製品化されている。その一例として、東芝セミコンダクター&ストレージ社の「ウエアラブル端末向けTZ1000シリーズ」がある。このシリーズのうち、製品名「TZ1011MBG」は、CPU(11a、11c)、フラッシュメモリ(11b)、Bluetooth Low Energy(登録商標)(11d)、センサ群(加速度センサ、ジャイロ、地磁気センサ)(11e)、24ビットデルタシグマADC、I/O(USB他)を持つ。   The LSI that can be used for the information processing unit 11 is commercialized. One example is Toshiba Semiconductor & Storage's TZ1000 series for wearable terminals. The product name "TZ1011MBG" in this series includes CPU (11a, 11c), flash memory (11b), Bluetooth Low Energy (registered trademark) (11d), sensor group (acceleration sensor, gyro, geomagnetic sensor) (11e) , 24 bit delta sigma ADC, I / O (USB etc).

この情報処理部11は、加速度センサ、ジャイロセンサなどのセンサ部11eとEOG電極(151a,151b,152a,152b)との相対位置関係が崩れない場所の一例として、ブリッジ103に取り付けられている。
プロセッサ11aで何をするかは、通信処理部11dを介して、図示しない外部サーバ(またはパーソナルコンピュータ)から、指令することができる。通信処理部11dでは、ZigBee(登録商標)、Bluetooth(登録商標)、Wi-Fi(登録商標)などの既存通信方式を利用できる。プロセッサ11aでの処理結果は、通信処理部11dを介して、図示しないサーバなどへ送ることができる。
The information processing unit 11 is attached to the bridge 103 as an example of a place where the relative positional relationship between the sensor unit 11 e such as an acceleration sensor or a gyro sensor and the EOG electrodes (151a, 151b, 152a, 152b) is not broken.
What to do with the processor 11a can be instructed from an external server (or personal computer) (not shown) via the communication processing unit 11d. The communication processing unit 11 d can use an existing communication method such as ZigBee (registered trademark), Bluetooth (registered trademark), Wi-Fi (registered trademark) or the like. The processing result of the processor 11a can be sent to a server or the like (not shown) via the communication processing unit 11d.

情報処理部11のシステムバスには、ディスプレイ12(12Lと12R)、カメラ13(13Lと13R)、眼動検出部15等が接続されている。図7の各デバイス(11〜15)は、バッテリBATにより給電される。
なお、通信処理部11dには、携帯電話やスマートフォンなどで周知のGPS(Global Positioning System)機能を組み込んでも良い(あるいはGPS付き携帯電話機能をアイウェア100の何処かに仕込んでもよい)。このGPS機能を利用したインターネットの地図サービスアプリをプロセッサ11aで実行すれば、アイウェア100を装着したユーザが今現在どの場所でどの方向を見ながら歩いているのかを、歩行時の眼球補償回転に起因するノイズを抑えて、検出できる。(従来の携帯電話GPSではユーザの現在位置を地図画面上に表示できても、そのユーザの視線が何処を向いているかまでは表示できていない。)
図7の眼動検出部15は、視線検出センサを構成する4つの眼動検出電極(151a,151b,152a,152b)と、これらの電極から眼動に対応したデジタル信号を取り出す3つのADC(1510、1520、1512)と、これらADCからの出力データをプロセッサ11a側に出力する回路を含んでいる。プロセッサ11aは、ユーザの種々な眼動(上下動、左右動、瞬目、眼瞑りなど)から、その眼動の種類に対応する指令を解釈し、その指令を実行することができる。
The display 12 (12L and 12R), the cameras 13 (13L and 13R), the eye movement detection unit 15 and the like are connected to the system bus of the information processing unit 11. Each device (11-15) of FIG. 7 is powered by a battery BAT.
The communication processing unit 11 d may incorporate a GPS (Global Positioning System) function well known to mobile phones, smart phones, etc. (Or, a GPS mobile phone function may be installed somewhere in the eyewear 100). If the map service application of the Internet using this GPS function is executed by the processor 11a, the eye compensation rotation at the time of walking can be made to which user the user wearing the eyewear 100 is currently walking while looking at which direction. The noise caused can be suppressed and detected. (Even if the current position of the user can be displayed on the map screen with the conventional mobile phone GPS, it can not be displayed up to where the user's line of sight is facing.)
The eye movement detection unit 15 in FIG. 7 includes four eye movement detection electrodes (151a, 151b, 152a, 152b) that constitute a gaze detection sensor, and three ADCs that extract digital signals corresponding to eye movement from these electrodes ( 1510, 1520, 1512) and a circuit for outputting output data from these ADCs to the processor 11a side. The processor 11a can interpret a command corresponding to the type of eye movement from various eye movements of the user (vertical movement, left and right movement, blinks, eye closing, etc.), and can execute the command.

眼動の種類に対応する指令の具体例としては、眼動が例えば眼瞑りなら視線の先にある情報項目を選択し(コンピュータマウスのワンクリックに類似)、連続した複数回の瞬目あるいはウインクなら選択された情報項目に対する処理の実行を開始させる(コンピュータマウスのダブルクリックに類似)指令がある。この指令は、眼動検出部15を用いた情報入力Bの一例である。   As a specific example of a command corresponding to the type of eye movement, if the eye movement is, for example, an eye closing, an information item at the end of the sight line is selected (analogous to one click of a computer mouse), a plurality of consecutive blinks or winks Then there is a command (similar to a computer mouse double click) to start the execution of the process for the selected information item. This command is an example of the information input B using the eye movement detection unit 15.

図8は、例えば25m先にある現実世界の固定物を注視しながら、右足から歩き始めて13歩目の右足で止まった場合の、EOG波形の一例を示す図である。歩行に伴う頭部の上下動に対応する眼球の補償回転は、Ch1およびCh2のADC検出信号レベル変化(EOG変化)に表れている。このEOG変化に同期した頭部の上下動変化は、情報処理部11のセンサ部11eが持つ3軸加速度センサで検出できる。また、歩行に伴う頭部の左右回転に対応する眼球の補償回転は、Ch0のADC検出信号レベル変化(EOG変化)に表れている。このEOG変化に同期した頭部の左右回転変化は、情報処理部11のセンサ部11eが持つ3軸ジャイロセンサで検出できる。   FIG. 8 is a diagram showing an example of an EOG waveform in a case where, for example, while gazing at a fixed object in the real world 25 m ahead, the user starts walking from the right foot and stops at the right foot of the 13th step. The compensated rotation of the eye corresponding to the vertical movement of the head accompanying walking is represented by the change in the ADC detection signal level (change in EOG) of Ch1 and Ch2. The vertical movement change of the head synchronized with the EOG change can be detected by the three-axis acceleration sensor possessed by the sensor unit 11 e of the information processing unit 11. In addition, the compensated rotation of the eyeball corresponding to the lateral rotation of the head accompanying walking is represented by the change of the ADC detection signal level (EOG change) of Ch0. The left-right rotation change of the head synchronized with the EOG change can be detected by the three-axis gyro sensor that the sensor unit 11 e of the information processing unit 11 has.

図8の例では、Ch1およびCh2のEOG変動周期(約0.6秒)は歩行ピッチに同期しており、Ch0のEOG変動周期(約1.2秒)は歩行ピッチの2倍に同期している。歩行に伴う頭部の上下動および左右回転に対応したEOG変動周期ははっきりしているので、歩行ピッチに同期した周期(この例では約0.6秒とその2倍)で、歩行に起因するEOG変動を検出できる。   In the example of FIG. 8, the EOG fluctuation period of Ch1 and Ch2 (about 0.6 seconds) is synchronized with the walking pitch, and the EOG fluctuation period of Ch0 (about 1.2 seconds) is synchronized with twice the walking pitch. ing. Since the EOG fluctuation period corresponding to vertical movement and lateral rotation of the head accompanying walking is clear, it is caused by walking in a period synchronized with the walking pitch (about 0.6 seconds in this example, and twice thereof). EOG fluctuation can be detected.

図9は、図8と同じ条件で、再び右足から歩き始めて13歩目の右足で止まった場合の、EOG波形の他例(反復再現性の確認)を示す図である。図9の例でも、Ch1およびCh2のEOG変動周期(約0.6秒)は歩行ピッチに同期しており、Ch0のEOG変動周期(約1.2秒)は歩行ピッチの2倍に同期している。歩行に伴う頭部の上下動および左右回転に対応したEOG変動周期はやはり明確に認められ、歩行ピッチに同期した周期(この例でも約0.6秒とその2倍)でもって、歩行に起因するEOG変動を検出できることがわかる。   FIG. 9 is a diagram showing another example of the EOG waveform (confirmation of repeatability) when starting from the right foot again and stopping at the right foot of the 13th step under the same conditions as FIG. 8. Also in the example of FIG. 9, the EOG fluctuation period of Ch1 and Ch2 (about 0.6 seconds) is synchronized with the walking pitch, and the EOG fluctuation period of Ch0 (about 1.2 seconds) is synchronized with twice the walking pitch. ing. The EOG fluctuation period corresponding to vertical movement and left / right rotation of the head accompanying walking is clearly recognized as well, and caused by walking with a period synchronized with the walking pitch (about 0.6 seconds in this example as well as twice that). Can be detected.

図8および図9には以下の特徴が共通して認められ、事象の再現性があることが確認できる:
(1)歩行の周期(約0.6秒)に合わせて上下方向の眼球回転運動が確認できる(Ch1とCh2のEOG検出信号レベル参照)。
(2)歩行周期の2倍の周期(約1.2秒)に合わせて左右方向の眼球回転運動が確認できる(Ch0のEOG検出信号レベル参照)。
The following features are commonly observed in FIGS. 8 and 9 and it can be confirmed that the event is reproducible:
(1) The eyeball rotational motion in the vertical direction can be confirmed according to the walking cycle (about 0.6 seconds) (refer to the EOG detection signal level of Ch1 and Ch2).
(2) The eyeball rotational motion in the left and right direction can be confirmed in accordance with a cycle (about 1.2 seconds) twice as large as the walking cycle (see the EOG detection signal level of Ch0).

(3)歩行に伴う頭部の動揺に起因したEOG検出信号の振幅は、200μV〜400μVに達している場所がある。頭部が静止した状態で測定されるEOG信号振幅は、通常は約1mV程度なので、任意の眼球回転を検出する場合には、200μV〜400μVは無視できない大きさのノイズとなってしまう。このノイズは、以下に述べるように、打ち消す(低減または排除する)ことが可能である。   (3) The amplitude of the EOG detection signal resulting from head sway associated with walking may reach 200 μV to 400 μV. Since the EOG signal amplitude measured when the head is at rest is usually about 1 mV, 200 .mu.V to 400 .mu.V becomes a noise with a non-negligible magnitude when detecting any eyeball rotation. This noise can be canceled (reduced or eliminated) as described below.

すなわち、歩行に伴う頭部の上下動を歩行ピッチに同期した周期(この例では約0.6秒)で加速度センサにより検出でき、歩行に伴う頭部の左右回転を歩行ピッチに同期した別の周期(この例では約1.2秒)でジャイロセンサにより検出できる。そうすると、歩行に伴う頭部の上下動(動揺)に起因するEOG変動(ノイズとみなす)は加速度センサの検出結果によって打ち消す(低減または排除する)ことが可能となり、歩行に伴う頭部の左右回転(動揺)に起因するEOG変動(ノイズとみなす)はジャイロセンサの検出結果によって打ち消す(低減または排除する)ことが可能となる(この打ち消しの具体例は図17を参照して後述する)。   That is, the vertical movement of the head accompanying walking can be detected by the acceleration sensor in a cycle synchronized with the walking pitch (about 0.6 seconds in this example), and another rotation synchronizing the left and right rotation of the head accompanying walking with the walking pitch It can be detected by the gyro sensor in a cycle (about 1.2 seconds in this example). In this case, EOG fluctuation (considered as noise) caused by vertical movement (swing) of the head accompanying walking can be canceled (reduced or eliminated) by the detection result of the acceleration sensor, and the left and right rotation of the head accompanying walking EOG fluctuation (considered as noise) caused by (oscillation) can be canceled (reduced or eliminated) by the detection result of the gyro sensor (a specific example of this cancellation will be described later with reference to FIG. 17).

図10は、頭部の動揺に起因するノイズが打ち消された場合において、正面から上方への眼動と、図6に示す3つのアナログ/デジタルコンバータ(ADC)から得られる検出信号レベル(Ch0、Ch1、Ch2、およびCh1とCh2の平均レベルCh1+2)との関係を例示する眼電図(EOG)である。眼動検出は、図中の破線枠内の検出信号波形に基づいて行う。検出の基準は、アイウェア100を装着したユーザが真正面を見ており眼動がない場合とする(頭部の動揺に起因するノイズが打ち消されていれば、図6に示す3つのADCからの出力信号波形Ch0〜Ch2は、瞬きなしで真正面を見ている区間では、略平坦で時間経過に伴う変化は殆どない)。ユーザの左右両眼の視線が正面を向いた状態で、両眼の視線を瞬時に上へ動かし、視線を上に向けた状態を1秒維持し、そのあと瞬時に視線を正面に戻す。これを5回繰り返したときの検出信号レベルの変化が、図10に例示されている。   FIG. 10 shows the eye movement from the front to the top and the detection signal levels (Ch0, etc.) obtained from the three analog / digital converters (ADCs) shown in FIG. 6 when the noise due to head movement is canceled. It is an electro-oculogram (EOG) which illustrates the relationship between Ch1, Ch2, and the average level of Ch1 and Ch2 (Ch1 + 2). Eye movement detection is performed based on the detection signal waveform in the broken line frame in the figure. The detection criterion is that the user wearing the eyewear 100 is looking straight ahead and there is no eye movement (if the noise due to head sway is canceled, the three ADCs shown in FIG. The output signal waveforms Ch0 to Ch2 are substantially flat in the section looking straight ahead without blinking and hardly change with time). With the line of sight of the left and right eyes of the user facing forward, the line of sight of the two eyes is instantaneously moved up, and the line of sight is kept upward for 1 second, and then the line of sight is immediately returned to the front. Changes in the detection signal level when this is repeated five times are illustrated in FIG.

図11は、図10と同様な眼動検出を、視線が正面から下向きに動く場合について、例示している。頭部の動揺に起因するノイズが打ち消されておれば、例え歩行中であっても、図10および図11の波形変化から、視線が正面を向いている場合を基準として、視線が上にあるのか下にあるのかを、検出できる。   FIG. 11 illustrates eye movement detection similar to that of FIG. 10 when the sight line moves downward from the front. If the noise due to head sway is canceled out, even if you are walking, the line of sight is on the basis of the case where the line of sight is facing the front from the waveform changes in FIG. 10 and FIG. You can detect if it is under or under.

図12は、頭部の動揺に起因するノイズが打ち消された場合において、左から右への眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2、およびCh1+2)との関係を例示する眼電図である。左から右への眼動があると、Ch0の検出信号波形の経時変化が、右肩上がりになる(図示しないが、右から左への眼動があると、Ch0の検出信号波形の経時変化は、右肩下がりになる)。このようなCh0の波形変化から、視線が正面を向いている場合を基準として、視線が右にあるのか左にあるのかを、検出できる。   FIG. 12 shows eye movement from left to right and detection signal levels obtained from three ADCs shown in FIG. 6 (Ch0, Ch1, Ch2, and when noise due to head movement is canceled). It is an electro-oculogram which illustrates the relationship with Ch1 + 2). When there is an eye movement from left to right, the change over time of the detection signal waveform of Ch0 rises to the right shoulder (not shown, but when there is an eye movement from right to left, the change over time of the detection signal waveform of Ch0 Is going down the right shoulder). From such a waveform change of Ch0, it is possible to detect whether the line of sight is on the right or to the left based on the case where the line of sight is directed to the front.

図10〜図12の検出結果を総合すれば、次のことが分かる。すなわち、頭部の動揺に起因するノイズが打ち消されておれば、例え歩行中であっても、視線が正面を向いている場合を基準として、視線が上下左右のどちらを向いているのかが分かる。
図13は、頭部の動揺に起因するノイズが打ち消された場合において、視線が正面を向いているときに、瞬き/瞬目(両目)を5秒間隔で5回反復した眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図である。両目の瞬き/瞬目は、Ch1およびCh2に表れるパルスにより検出できる。ユーザが無意識に行う瞬きは周期性がないことが多い。そのため、図13に示すように一定間隔の複数パルスを検出することにより、ユーザの意図的な瞬き/瞬目を検知できる。
If the detection results of FIG. 10 to FIG. 12 are integrated, the following can be understood. That is, if the noise caused by the movement of the head is canceled out, it can be determined whether the line of sight is facing up, down, left, or right based on the case where the line of sight is directed to the front even while walking .
Fig. 13 shows eye movements in which blinks / blinks (both eyes) are repeated five times at 5-second intervals when the line of sight is directed to the front when noise due to head movement is canceled. FIG. 10 is an electrooculogram illustrating the relationship between detection signal levels (Ch0, Ch1, Ch2) obtained from three ADCs shown in FIG. The blink / blink of both eyes can be detected by the pulse appearing on Ch1 and Ch2. Blinks performed by the user involuntarily often have no periodicity. Therefore, the intentional blink / blink of the user can be detected by detecting a plurality of pulses at regular intervals as shown in FIG.

なお、人の「瞬き/瞬目」動作の時間あるいは「瞬き/瞬目」で視界が遮られる時間は、一説によれば300msec程度(他説によれば100msec〜150msec程度)とされている。どちらの場合であっても、歩行ピッチ周期を下回るハイパスフィルタ(またはバンドパスフィルタ)によって、「瞬き/瞬目」による信号成分は取り除くことができる。瞬き/瞬目の間隔(例えば約300msec)は通常歩行のピッチ(約600msec)とは異なり、また意図的でない瞬き/瞬目の間隔は通常の歩行ピッチと同期しない。そのため、通常歩行に伴う頭部動揺に起因したEOGノイズを打ち消す際に、瞬き/瞬目によるEOG波形変化が全て打ち消されてしまうことはない。   In addition, according to one theory, the time when the field of vision is interrupted by the time of the "blink / blink" movement of a person or "blink / blink" is about 300 msec (about 100 msec to about 150 msec according to another theory). In either case, a signal component due to “blink / blink” can be removed by a high pass filter (or a band pass filter) below the walking pitch period. The blink / blink interval (for example, about 300 msec) is different from the pitch of normal walking (about 600 msec), and the unintentional blink / blink interval is not synchronized with the normal walking pitch. Therefore, when canceling EOG noise caused by head sway associated with normal walking, EOG waveform change due to blink / blink will not be completely canceled out.

図14は、頭部の動揺に起因するノイズが打ち消された場合において、視線が正面を向いているときに、1秒の眼瞑り(両目)と4秒の眼開き(両目)を5回反復した眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図である。両目の眼瞑りは、Ch1およびCh2に表れる幅広パルスにより検出できる(意図的に眼を瞑っている時間は瞬き/瞬目で眼を閉じる時間よりも長いため、検出されるパルス幅が広くなる)。図14に例示されるようなCh1およびCh2の幅広パルスを検出することにより、ユーザの意図的な眼瞑りを検知できる。   FIG. 14 shows that when the line of sight is directed to the front when the noise due to head movement is canceled, the one second eye closing (both eyes) and the four second eye opening (both eyes) are repeated five times FIG. 7 is an electro-oculogram illustrating the relationship between the eye movement and the detection signal levels (Ch0, Ch1, Ch2) obtained from the three ADCs shown in FIG. Eye closing in both eyes can be detected by wide pulses appearing in Ch1 and Ch2 (The time to intentionally close the eye is longer than the time to close the eye with blinks / blinks, so the detected pulse width becomes wider) . By detecting the wide pulses of Ch1 and Ch2 as illustrated in FIG. 14, intentional closing of the user can be detected.

なお、図示しないが、ユーザが右目だけ瞑ったときはCh1に振幅の大きな幅広パルスが表れ、ユーザが左目だけ瞑ったときはCh2に振幅の大きな幅広パルスが表れる。このことから、左右別々に眼瞑りを検出することもできる。
片目だけを瞑った場合には、Ch0に左右で逆相となる小さな波が現れる。Ch0で見ると、以下のような小さな凹凸波形が現れる。
Although not shown, a wide pulse with a large amplitude appears on Ch1 when the user only closes the right eye, and a wide pulse with a large amplitude appears on Ch2 when the user closes only the left eye. From this, it is also possible to detect eye closure separately on the left and right.
When only one eye is closed, a small wave with opposite phase on the left and right appears on Ch0. Looking at Ch0, the following small uneven waveform appears.

・右眼を瞑ると、−電極のプラス電位が減少するため凸波形;
・左眼を瞑ると、+電極のプラス電位が減少するため凹波形。
図15は、頭部の動揺に起因するノイズが打ち消された場合において、視線が正面を向いているときに、両目の瞬きを5回反復した直後に左目のウインク(左側片目の瞬き)を5回反復した眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図である。
-Convex waveform because closing the right eye-decreases the positive potential of the electrode;
-Concave waveform because the positive potential of the + electrode decreases when the left eye is closed.
FIG. 15 shows that when the line of sight is directed to the front when the noise due to head movement is canceled, the wink of the left eye (blink of one left eye) is 5 immediately after the blink of both eyes is repeated 5 times. FIG. 7 is an electro-oculogram illustrating the relationship between repeated eye movements and detection signal levels (Ch0, Ch1, Ch2) obtained from three ADCs shown in FIG. 6.

図6に例示されるように、Ch0のADC1512の位置は、左右両目の眼球中心線より下方にオフセットしている。このオフセットのため、両目同時の瞬きでは、図6のADC1512の+入力と−入力の双方に負方向の電位変化が現れる。その際、+入力と−入力の双方の電位変化(量と方向)が略同じとすれば、その変化は殆ど打ち消され、Ch0のADC1512から出力される信号レベルの値は、略一定となる(図15の左側破線内のCh0レベル参照)。一方、片目(左目)の瞬きでは、ADC1512の−入力側は電位変化が殆どなく、ADC1512の+入力側に比較的大きめの負方向電位変化が現れる。そうすると、ADC1512の+入力と−入力の間における電位変化の打ち消し量は小さくなり、Ch0のADC1512から出力される信号レベルには、負方向に小さなパルス(信号レベルの小波)が表れる(図15の右側破線内のCh0レベル参照)。この信号レベルの小波(負方向のパルス)の極性から、左目のウインクがなされたことを検出できる(頭部の動揺に起因するEOGのノイズが打ち消された場合において、Ch0を利用した左ウインク検出の一例)。   As illustrated in FIG. 6, the position of the ADC 1512 of Ch0 is offset below the eyeball center line of the left and right eyes. Due to this offset, a potential change appears in the negative direction at both the + input and the − input of the ADC 1512 of FIG. At that time, assuming that the potential changes (amount and direction) of both the + input and the − input are substantially the same, the changes are almost canceled out, and the value of the signal level output from the ADC 1512 of Ch 0 becomes substantially constant ( See the Ch0 level in the left dashed line in FIG. On the other hand, in the blink of one eye (left eye), there is almost no change in potential on the-input side of the ADC 1512, and a relatively large change in negative direction potential appears on the + input side of the ADC 1512. Then, the amount of cancellation of the potential change between the positive input and the negative input of the ADC 1512 is reduced, and a small pulse (small wave of signal level) appears in the negative direction in the signal level output from the ADC 1512 of Ch0 (FIG. See the Ch0 level in the right dashed line). It is possible to detect that the wink of the left eye has been made from the polarity of the small wave (pulse in the negative direction) of this signal level (in the case where the EOG noise due to head sway is canceled, left wink detection using Ch0 An example of

なお、ユーザの顔の歪みや皮膚の状態等でADC1512の+入力と−入力の電位変化が均等にならない場合は、アイウェア100をユーザが装着し両目同時に瞬きしたときのCh0ADCの出力が最小(+入力成分と−入力成分との間の打ち消し量が最大)となるようなキャリブレーションを、事前に行っておけばよい。   If the potential changes on the + and-inputs of the ADC 1512 are not equal due to distortion of the user's face or skin condition, the output of the Ch0 ADC is minimum when the user wears the eyewear 100 and blinks simultaneously with both eyes ( Calibration may be performed in advance such that the amount of cancellation between the + input component and the − input component is maximized).

また、両目瞬き/瞬目が行われた時の検出信号Ch1/Ch2のピーク比SL1a/SL2aを基準とすると、左眼ウインクが行われたときのピーク比SL1b/SL2bは変化する(SL1b/SL2bはSL1a/SL2aとイコールでない)。このことからも、左ウインクを検出できる。   Further, based on the peak ratio SL1a / SL2a of the detection signal Ch1 / Ch2 when the double-eye blink / light blink is performed, the peak ratio SL1b / SL2b changes when the left-eye wink is performed (SL1b / SL2b Is not equal to SL1a / SL2a). Also from this, the left wink can be detected.

図16は、頭部の動揺に起因するノイズが打ち消された場合において、視線が正面を向いているときに、両目の瞬きを5回反復した直後に右目のウインク(右側片目の瞬き)を5回反復した眼動と、図6に示す3つのADCからから得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図である。   FIG. 16 shows that the wink (right-handed one-eye blink) is 5 immediately after repeating the blink of both eyes five times when the line of sight is directed to the front when the noise due to head movement is cancelled. FIG. 7 is an electro-oculogram illustrating the relationship between repeated eye movements and detection signal levels (Ch0, Ch1, Ch2) obtained from three ADCs shown in FIG. 6.

前述したように、図6のADC1512の位置が左右両目の眼球中心線より下方にオフセットしているため、両目同時の瞬きではADC1512の+入力と−入力の双方に負方向の電位変化が現れる。しかし、+入力と−入力における同様な電位変化は殆ど打ち消され、Ch0のADC1512から出力される信号レベルの値は、略一定となる(図16の左側破線内のCh0レベル参照)。一方、片目(右目)の瞬きでは、ADC1512の+入力側は電位変化が殆どなく、ADC1512の−入力側に比較的大きめの負方向電位変化が現れる。そうすると、ADC1512の−入力と+入力の間における電位変化の打ち消し量は小さくなり、Ch0のADC1512から出力される信号レベルには、正方向に小さなパルス(信号レベルの小波)が表れる(図16の右側破線内のCh0レベル参照)。この信号レベルの小波(正方向のパルス)の極性から、右目のウインクがなされたことを検出できる(頭部の動揺に起因するEOGのノイズが打ち消された場合において、Ch0を利用した右ウインク検出の一例)。   As described above, since the position of the ADC 1512 in FIG. 6 is offset below the eyeball center line of the left and right eyes, a potential change in the negative direction appears in both the + input and the − input of the ADC 1512 in blinks of both eyes simultaneously. However, similar potential changes at the + input and − input are almost canceled out, and the value of the signal level output from the ADC 1512 of Ch 0 becomes substantially constant (see the Ch 0 level in the left dashed line in FIG. 16). On the other hand, in the blink of one eye (right eye), the positive input side of the ADC 1512 hardly changes in potential, and a relatively large negative direction potential change appears on the negative input side of the ADC 1512. Then, the amount of cancellation of the potential change between the − input and the + input of the ADC 1512 is reduced, and a small pulse (small wave of signal level) appears in the positive direction in the signal level output from the ADC 1512 of Ch0 (FIG. 16). See the Ch0 level in the right dashed line). From the polarity of the small wave (positive direction pulse) of this signal level, it is possible to detect that the winking of the right eye has been made (right wink detection using Ch0 in the case where the EOG noise due to head movement is cancelled) An example of

また、両目瞬きが行われた時の検出信号Ch1/Ch2のピーク比SR1a/SR2aを基準とすると、右眼ウインクが行われたときのピーク比SR1b/SR2bは変化する(SR1b/SR2bはSR1a/SR2aとイコールでない)。また、左ウインク時のピーク比SL1b/SL2bは右ウインク時のピーク比SR1b/SR2bと異なった値を持つ(どの程度異なるのかは実験で確認できる)。このことから、右ウインクとは別に、左ウインクを検出できる(Ch1とCh2を利用した左右ウインク検出の一例)。   Further, based on the peak ratio SR1a / SR2a of the detection signal Ch1 / Ch2 when the double-eye blink is performed, the peak ratio SR1b / SR2b changes when the right-eye wink is performed (SR1b / SR2b is SR1a / Not equal to SR2a). Further, the peak ratio SL1b / SL2b at the time of left wink has a value different from the peak ratio SR1b / SR2b at the time of right wink (how much difference can be confirmed by an experiment). From this, the left wink can be detected separately from the right wink (an example of left and right wink detection using Ch1 and Ch2).

左右のウインク検出にCh0を利用するのかCh1/Ch2を利用するのかは、機器設計者が適宜決めればよい。Ch0〜Ch2を利用した左右のウインク検出結果は、操作コマンドとして利用できる。
図17は、頭部の動揺に起因するノイズを最小化する処理(ノイズ打ち消し処理)の一例を説明するフローチャートである。このフローチャートに対応するコンピュータプログラムは、例えば図7の不揮発性メモリ11bに格納され、プロセッサ11aにより実行される。
The device designer may appropriately determine whether to use Ch0 or Ch1 / Ch2 for the left and right wink detection. The left and right wink detection results using Ch0 to Ch2 can be used as operation commands.
FIG. 17 is a flowchart for explaining an example of processing (noise cancellation processing) for minimizing noise caused by head movement. A computer program corresponding to this flowchart is stored, for example, in the non-volatile memory 11 b of FIG. 7 and executed by the processor 11 a.

まず、図5に例示されるようなアイウェア100を装着したユーザが、前方の固定物を注視しつつ一定リズムで定速歩行する(ST10)。この歩行に伴い、ユーザの頭部は所定パターンで動揺(移動/回転)する(図1(a)、(b)参照)。
歩行に伴うユーザの頭部の移動/回転は、図5の情報処理部11の内部に設けられた加速度センサ/ジャイロセンサ(図7の11e)によって検出される(ST12)。歩行に伴うユーザの頭部の移動/回転は、ノイズとして、EOG検出信号波形に混入してくる(図8または図9参照)。このEOG検出信号波形に、加速度センサ/ジャイロセンサの検出信号を、所定の位相で加算する(ST14)。
First, a user wearing the eyewear 100 as illustrated in FIG. 5 walks at a constant speed with constant rhythm while gazing at a front fixed object (ST10). Along with this walking, the head of the user shakes (moves / rotates) in a predetermined pattern (see FIGS. 1A and 1B).
Movement / rotation of the head of the user accompanying walking is detected by an acceleration sensor / gyro sensor (11e in FIG. 7) provided inside the information processing unit 11 in FIG. 5 (ST12). Movement / rotation of the head of the user accompanying walking is mixed in the EOG detection signal waveform as noise (see FIG. 8 or 9). The detection signal of the acceleration sensor / gyro sensor is added to this EOG detection signal waveform with a predetermined phase (ST14).

上記信号加算の結果、もし信号振幅が増えてしまったなら(ST16ノー)、加算する検出信号の位相を反転し(ST18)、再度、EOG検出信号波形に加速度センサ/ジャイロセンサの検出信号を加算する(ST14)。
上記信号加算の結果、信号振幅が減少したなら(ST16イエス)、加算結果の信号振幅が最小(極小)となるように、加算する信号のレベルを調整する(ST20)。加算結果の信号振幅を最小(極小)とすることで、EOG検出信号波形に混入してくるノイズを打ち消す(低減または排除する)。
As a result of the signal addition, if the signal amplitude increases (NO in ST16), the phase of the detection signal to be added is inverted (ST18), and the detection signal of the acceleration sensor / gyrosensor is added again to the EOG detection signal waveform To do (ST14).
If the signal amplitude decreases as a result of the signal addition (YES in ST16), the level of the signal to be added is adjusted so that the signal amplitude of the addition result becomes minimum (minimum) (ST20). By minimizing (minimizing) the signal amplitude of the addition result, the noise mixed in the EOG detection signal waveform is canceled (reduced or eliminated).

頭部の動揺(移動/回転)に起因するノイズが打ち消されたあとのEOG検出結果に基づいて、ユーザの眼動(図10〜図16の視線移動、瞬目、目瞑り、ウインクなど)を判定し(ST22)、その判定に基づく処理を行う(ST24)。例えば、ユーザがウインクすると、視線の先にある建物の名称がアイウェア100の表示画面(図5のIM1/IM2)にAR表示される、といった処理を行うことができる。   Based on the EOG detection result after noise due to head movement (movement / rotation) is canceled, the user's eye movement (eye movement in FIG. 10 to FIG. 16, blink, eye closing, wink, etc.) A determination is made (ST22), and a process based on the determination is performed (ST24). For example, when the user winks, it is possible to perform processing such that the name of the building at the end of the line of sight is AR-displayed on the display screen (IM1 / IM2 in FIG. 5) of the eyewear 100.

ユーザ頭部の動揺パターンが変わると、ノイズ打ち消しの内容も変わる。そこで、ユーザ頭部の動揺パターンが変わったかどうかを、加速度センサ/ジャイロセンサの検出結果の変化から、検出する(ST26)。例えば、前方の固定物を注視しつつ定速歩行しているアイウェア100のユーザが地下鉄へ降りる降り階段の前で立ち止まり、階段の隣接ステップの段差を前後屈および視線移動で視線スイープしたとする。すると、この段差前後での視線スイープにより頭部の動揺パターンが歩行時とは異なるものとなり、またEOG検出信号波形も歩行時とは違うものとなる。   When the fluctuation pattern of the user's head changes, the content of the noise cancellation also changes. Therefore, it is detected from the change in the detection result of the acceleration sensor / gyro sensor whether the movement pattern of the user's head has changed (ST26). For example, it is assumed that a user of eyewear 100 who is walking at a constant speed while gazing at a fixed object in front stops in front of the down stairs going down to the subway, and sweeps the steps of adjacent steps of the stairs with forward and backward bending and gaze movement. . Then, the motion pattern of the head is different from that during walking due to the line-of-sight sweep before and after this step, and the EOG detection signal waveform is also different from that during walking.

そこで、ユーザ頭部の動揺パターンが変化したときは(ST26イエス)、ステップST12に戻り、ST14〜ST20の処理をやり直す。ST14〜ST20の処理をやり直すことにより、新たな頭部の動揺パターンに起因するEOGノイズが打ち消され(低減または排除され)、純粋な視線移動に対応したEOGが検出される。この純粋な視線移動に対応したEOG検出結果と、変化したユーザ頭部の動揺パターンに対応した加速度センサ/ジャイロセンサの検出結果を比較する。この比較の結果、例えば階段の段差位置で図4(a)から図4(b)への位相反転が検出されたとすれば、その位相反転ポイント付近に階段の段差があるものと判定する(ST22)。そして、段差の存在を示すマークをアイウェア100でAR表示する(ST24)。このAR表示は、ユーザ頭部の動揺パターンに対応した加速度センサ/ジャイロセンサの検出結果が消滅してから一定時間後(例えば10秒後)に自動的に消すことができる。   Therefore, when the motion pattern of the user's head changes (YES in ST26), the process returns to step ST12, and the processing in ST14 to ST20 is performed again. By repeating the processing of ST14 to ST20, EOG noise caused by the new head movement pattern is canceled (reduced or eliminated), and EOG corresponding to pure eye movement is detected. The EOG detection result corresponding to this pure line-of-sight movement is compared with the detection result of the acceleration sensor / gyro sensor corresponding to the changed movement pattern of the user's head. If, as a result of this comparison, phase inversion from FIG. 4A to FIG. 4B is detected at the step position of the stairs, for example, it is determined that there is a step difference in the vicinity of the phase inversion point (ST22 ). Then, a mark indicating the presence of the step is AR-displayed by the eyewear 100 (ST24). The AR display can be automatically erased after a predetermined time (for example, 10 seconds) after the detection result of the acceleration sensor / gyro sensor corresponding to the movement pattern of the user's head disappears.

AR表示のオン/オフは、EOG波形(図8または図9のCh1/Ch2波形)と加速度センサの検出信号波形とが同期しているかどうかで、自動的に行うこともできる。ユーザがAR表示を見ているときは眼球は頭部の動揺を補償する回転をしていないので上記の同期関係はないが、ユーザがAR表示でなく現実世界を注視しているときは上記の同期関係が生じる。同様な考えで、EOG波形(図8または図9のCh0波形)とジャイロセンサの検出信号波形とが同期しているかどうかで、AR表示を自動的にオン/オフできる。   The on / off of the AR display can also be automatically performed depending on whether the EOG waveform (Ch1 / Ch2 waveform in FIG. 8 or 9) and the detection signal waveform of the acceleration sensor are synchronized. When the user is looking at the AR display, the eyeball does not rotate to compensate for head movement, so there is no synchronization relationship as above, but when the user is looking at the real world instead of the AR display, the above A synchronization relationship occurs. With the same idea, the AR display can be automatically turned on / off depending on whether the EOG waveform (Ch0 waveform in FIG. 8 or 9) and the detection signal waveform of the gyro sensor are synchronized.

ユーザ頭部の動揺パターンが変化しない間ユーザがアイウェアを使用し続ければ(ST28ノー)、ST22〜ST24の処理は続く。ユーザが数秒目瞑りするなどして図7のプロセッサ11aにアイウェア100の使用終了を指示すれば(ST28イエス)、図17の処理は終了する。   If the user continues using the eyewear while the motion pattern of the user's head does not change (NO in ST28), the processing in ST22 to ST24 continues. If the user instructs the processor 11a in FIG. 7 to finish using the eyewear 100 (YES in ST28), the process in FIG. 17 ends.

図18は、他の実施形態に係るメガネ型アイウェア100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置された例)である。図18のアイウェア100は、以下の点で図5のアイウェア100と違っている。
第1の違いは、右ノーズパッド150RのEOG電極151aおよび151bが右アイフレーム101側に移動し、左ノーズパッド150LのEOG電極152aおよび152bが左アイフレーム102側に移動している点にある。EOG電極151aおよび151bはユーザの右眼中心位置(図示せず)に対して略点対称となる位置に配置され、EOG電極152aおよび152bはユーザの左眼中心位置(図示せず)に対して略点対称となる位置に配置される。また、EOG電極151aおよび151bそれぞれを結ぶ右斜線とEOG電極152aおよび152bそれぞれを結ぶ左斜線は、ユーザの鼻筋に沿った垂直線(図示せず)に対して略線対称となっている。電極151a,151b,152a,152bは、弾性体(スポンジ、シリコーン製クッションなど)の先端に設けた導電性部材(金属、導電性高分子など)で構成できる。各EOG電極は、アイウェア100を装着したユーザの顔の皮膚面に、弾性体の弾性反発力で軽く圧接される。
FIG. 18 is a view for explaining an implementation example of the EOG electrode in the eyeglass-type eyewear 100 according to another embodiment (an example in which the EOG electrode is disposed around the eye). The eyewear 100 of FIG. 18 differs from the eyewear 100 of FIG. 5 in the following respects.
The first difference is that the EOG electrodes 151a and 151b of the right nose pad 150R move toward the right eye frame 101, and the EOG electrodes 152 a and 152 b of the left nose pad 150L move toward the left eye frame 102. . EOG electrodes 151a and 151b are arranged at positions substantially symmetrical with respect to the user's right eye center position (not shown), and EOG electrodes 152a and 152b are with respect to the user's left eye center position (not shown). It is disposed at a position that is substantially point-symmetrical. The right oblique lines connecting the EOG electrodes 151a and 151b and the left oblique lines connecting the EOG electrodes 152a and 152b are substantially line symmetrical with respect to a vertical line (not shown) along the user's nose. The electrodes 151a, 151b, 152a, 152b can be made of a conductive member (metal, conductive polymer, etc.) provided at the tip of an elastic body (sponge, cushion made of silicone, etc.). Each EOG electrode is lightly pressed to the skin surface of the face of the user wearing the eyewear 100 by the elastic repulsive force of the elastic body.

図18のようなEOG電極配置構造を採ると、ノーズパッド部にEOG電極を配置する構造と比べて帯電した眼球の周囲にできる電界をより検知し易くなる。そのため、図5の実施形態よりも図18の実施形態の方が、より大きな振幅のEOG信号を検出できる。   When the EOG electrode arrangement structure as shown in FIG. 18 is adopted, it becomes easier to detect the electric field generated around the charged eyeball compared with the structure in which the EOG electrode is arranged in the nose pad portion. Therefore, the embodiment of FIG. 18 can detect an EOG signal of larger amplitude than the embodiment of FIG.

第2の違いは、加速度センサやジャイロセンサを含むセンサ部11eをブリッジ103に残し、それ以外の情報処理部11の機能をテンプルバー107側に移した点にある。例えば情報処理能力の強化やGPS機能の追加などで情報処理部11の物理的なサイズが大きくなる場合、大きくなった情報処理部11をブリッジ103に取り付けると、アイウェア100のデザイン性やその装着感に問題が生じる恐れがある。ブリッジ103に取り付ける構造体をセンサ部11eだけにすれば、ブリッジ103上の構造体は情報処理部11全体を設けるよりも小型軽量化されるため、デザイン性や装着感は改善される可能性がある。一方、テンプルバー107(および/または106)の内部なら、比較的大きな構造体を設けてもアイウェア100のデザイン性やその装着感に問題が生じる恐れは小さい。   The second difference is that the sensor unit 11 e including an acceleration sensor and a gyro sensor is left on the bridge 103 and the other functions of the information processing unit 11 are shifted to the temple bar 107 side. For example, when the physical size of the information processing unit 11 is increased due to, for example, the enhancement of the information processing capability or the addition of the GPS function, the attached information processing unit 11 is attached to the bridge 103. There may be a problem with the feeling. If the structure attached to the bridge 103 is only the sensor unit 11e, the structure on the bridge 103 can be smaller and lighter than providing the entire information processing unit 11, so the designability and fit may be improved. is there. On the other hand, within the temple bar 107 (and / or 106), even if a relatively large structure is provided, there is little possibility that the design of the eyewear 100 and the feeling of wearing thereof will be problematic.

図19は、さらに他の実施形態に係るゴーグル型アイウェア(左右両眼のアイフレームが連続したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置された他の例)である。図19のような構造を採ると、図18の構造よりもEOG電極の皮膚接触安定性が高くなる。そのため、頭部の動揺に起因するノイズを打ち消しつつ、より高精度にEOG信号を検出することができる。また、図19の構造では、大型化した情報処理部11その他の装置を内蔵し易い。そのため、図19の構造では、デザイン性をさして気にすることなく、GPS付きスマートフォンの機能を仕込むことができる。その場合の画面表示は、フィルム液晶などを利用した左右のディスプレイ12L/12Rにおいて、AR表示により行うことができる。図示しないが、ゴーグルフレームの左右の耳付近に小型スピーカを取り付け、ノーズクッション付近に小型マイクを取り付けることもできる。また、スマートフォンに対するコマンド入力は、視線移動、瞬目、目瞑り、ウインクなどの眼動により行うことができる。   FIG. 19 is a view for explaining an implementation example of EOG electrodes in goggle-type eyewear (type in which left and right eye frames are continuous) 100 according to still another embodiment (other EOG electrodes are arranged around the eye) Example). When the structure as shown in FIG. 19 is adopted, the skin contact stability of the EOG electrode becomes higher than that of the structure of FIG. Therefore, it is possible to detect the EOG signal with higher accuracy while canceling out the noise caused by the head movement. Further, in the structure of FIG. 19, the enlarged information processing unit 11 and other devices can be easily incorporated. Therefore, in the structure of FIG. 19, the function of the smartphone with GPS can be loaded without concern for the design. The screen display in that case can be performed by AR display on the left and right displays 12L / 12R using film liquid crystal or the like. Although not shown, small speakers can be attached near the left and right ears of the goggle frame and a small microphone can be attached near the nose cushion. In addition, command input to the smartphone can be performed by eye movement such as eye movement, blink, eye closing, wink and the like.

図20は、さらに他の実施形態に係るゴーグル型アイウェア(左右両眼のアイカップが分離したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたさらに他の例)である。図20の実施形態では、図18の場合と同様な、EOG電極配置構造とセンサ部11eの配置構造を採用している。但し、図20のゴーグル構造は水中使用(あるいは宇宙遊泳訓練使用)にも耐える。水中で泳ぐダイバーの頭部は地上歩行よりも大きな動揺をするが、その大きな動揺(上下左右の位置移動や回転)は、センサ部11e内の3軸加速度センサや3軸ジャイロセンサで検出できる。検出した動揺成分はEOG信号に混入するノイズ成分の打ち消しに利用できる。頭部の動揺に起因したノイズが抑えられたEOG信号を利用して、両手が塞がったユーザ(ダイバー)の眼動(瞬目、目瞑り、その他)に基づき、種々なコマンド入力が可能となる。
<実施形態の纏め>
(a)従来の視線検出技術には赤外線カメラを用いて画像処理にて視線方向を推定する方式があるが、必要となる装置の量(高輝度な赤外線LEDに加え、外部に見える眼球全体を撮影可能なカメラ、画像処理用の比較的高性能な演算装置、これらを動作させる電力供給装置)が大規模となる。そのため、従来の視線検出技術は据置タイプの装置では応用されているが、ウェアラブル機器への適用は進んでいない。
FIG. 20 is a view for explaining an implementation example of the EOG electrodes in the goggle type eyewear (the type in which the eye cups of the left and right eyes are separated) 100 according to still another embodiment (the EOG electrodes are arranged around the eye) Example). In the embodiment of FIG. 20, the EOG electrode arrangement structure and the arrangement structure of the sensor unit 11e are adopted, which are similar to the case of FIG. However, the goggle structure of FIG. 20 can withstand underwater use (or use of space swimming training). Although the head of a diver who swims in water vibrates more than walking on the ground, the large fluctuation (positional movement or rotation in the vertical and horizontal directions) can be detected by a three-axis acceleration sensor or a three-axis gyro sensor in the sensor unit 11e. The detected motion component can be used to cancel the noise component mixed in the EOG signal. Various commands can be input based on the eye movement (blinks, eye closing, etc.) of the user (diver) whose both hands are blocked by using the EOG signal in which the noise caused by the head movement is suppressed. .
<Late of embodiment>
(A) The conventional gaze detection technology includes a method of estimating the gaze direction by image processing using an infrared camera, but the amount of required equipment (in addition to the high brightness infrared LED, the entire eyeball seen outside is Cameras capable of photographing, relatively high-performance arithmetic devices for image processing, and power supply devices for operating them become large scale. Therefore, although the conventional gaze detection technology is applied to stationary type devices, its application to wearable devices is not advanced.

これに対し、眼電位センシングによる視線検出は、必要となる装置の量(電極および、ADC、比較的性能の低い演算装置、これらを動作させる電力供給装置)が赤外線カメラ方式と比較してかなり小規模であり、ARメガネのようなウェアラブル機器への応用も可能となる。EOGはARメガネとの親和性が高く赤外線方式と比べると低消費電力なためウェアラブル機器への適用が期待できる技術である。   On the other hand, eye-gaze detection by electro-oculogram sensing requires much less amount of devices (electrodes, ADCs, relatively low-performance arithmetic devices, power supply devices that operate these) compared to infrared camera methods The scale is also applicable to wearable devices such as AR glasses. EOG is a technology that can be expected to be applied to wearable devices because it has high affinity with AR glasses and lower power consumption compared to infrared methods.

(b)現実世界の固定物を注視する時の、アイウェアユーザの頭部の揺れ分を打ち消す。これにより、任意の眼球回転に対する検出精度が向上する。
(c)注視している現実世界の固定物が遠景か近景かを検出する(図4の位相反転ポイントの検出)。これにより、アイウェアユーザの頭部の揺れから、現実世界(固定物)の注視の有無を検出する。
(B) It cancels the shaking of the head of the eyewear user when gazing at a fixed object in the real world. This improves the detection accuracy for arbitrary eyeball rotation.
(C) Detecting whether the fixed object in the real world that is gazing at is a distant view or a near view (detection of phase inversion point in FIG. 4). Thereby, the presence or absence of gaze of the real world (fixed object) is detected from the shaking of the head of the eyewear user.

(d)アイウェアユーザの頭部の揺れをAR表示の自動オン/オフ制御に利用する。
(e)眼球の補償回転を打ち消した、任意の眼球動作のみを抽出する。
(f)注視しているものが、現実世界か否かを検出する(歩行時に加速度センサおよび/またはジャイロセンサの検出波形と眼電位EOG波形が同期していれば現実世界にあるものを見ていると判定し、加速度センサおよび/またはジャイロセンサの検出波形と眼電位EOG波形は同期しないときは歩行時にAR表示などを見ていると判定する)。
(D) Use the shaking of the eyewear user's head for automatic on / off control of the AR display.
(E) Extract only arbitrary eye movement that has compensated for the compensated rotation of the eye.
(F) It is detected whether the subject is gazing at the real world or not (If the detection waveform of the acceleration sensor and / or the gyro sensor is synchronized with the electrooculogram EOG waveform at the time of walking, it looks at something in the real world It is determined that the detection waveform of the acceleration sensor and / or the gyro sensor and the electrooculogram EOG waveform are not synchronized, it is determined that the AR display or the like is seen during walking).

(g)眼球動作をUI(ユーザインターフェース)として使用する場合のノイズ打ち消しとして有効。
(h)アイウェアを利用した作業履歴情報収集に使用すると、これまでに無い指標となる(例えば、頭部動揺によるノイズの影響を排除した状態で、倉庫のピッキング作業などにおいて、「正しい標的物に視線を向けた度数が一定値以上なら作業員として合格」といった合否判定に利用できる)。
<出願当初請求項の内容と実施形態との対応関係例>
[1]一実施の形態に係る眼電位検出装置(図7の11:図17の処理を実行するプロセッサ11aを含む)は、アイウェア(100)を装着したユーザの眼電位(EOG)に基づいて前記ユーザの眼球回転を含む眼動(視線移動、瞬目など)を検出する眼動検出部(15;151a,151b,152a,152b)と、前記アイウェアの移動を検出する加速度センサ(11eの一部)と、前記アイウェアの回転を検出するジャイロセンサ(11eの一部)を備えている。この眼球運動検出装置は、前記眼電位(EOG)に基づいて前記眼動が検出される際に、前記加速度センサおよび/または前記ジャイロセンサにより前記アイウェアの移動および/または回転を検出する検出手段(ST12を実行する11a)と、前記アイウェアの移動および/または回転に起因して前記眼電位に混入するノイズ(頭部の動きを打ち消す方向に働く代償的眼球回転によって付加された眼電位成分)を、前記加速度センサおよび/または前記ジャイロセンサによって検出した信号成分(混入ノイズに対して逆相となる成分)の合成によって低減(最小化または打ち消し)するノイズ低減手段(ST14〜ST20を実行する11a)を具備している。
(G) Effective as noise cancellation when using eye movement as UI (user interface).
(H) When used for collecting work history information using eyewear, it becomes an index that has never been seen (for example, in the picking operation of a warehouse, etc. with the influence of noise due to head sway eliminated) It can be used for a pass / fail judgment such as “passing as a worker” if the frequency with which the line of sight is directed is a certain value or more
<Example of correspondence relationship between contents of the claim in the initial application and the embodiment>
[1] An electro-oculogram detection apparatus according to an embodiment (11 in FIG. 7: including a processor 11 a for executing the process of FIG. 17) is based on the electro-oculography (EOG) of the user wearing the eyewear (100) Eye movement detection unit (15; 151a, 151b, 152a, 152b) for detecting eye movement (gaze movement, blink etc.) including the eyeball rotation of the user, and an acceleration sensor (11e) for detecting movement of the eyewear And a gyro sensor (part of 11e) for detecting the rotation of the eyewear. The eye movement detecting device is a detecting unit that detects movement and / or rotation of the eyewear by the acceleration sensor and / or the gyro sensor when the eye movement is detected based on the electro-oculogram (EOG). (11a executing ST12) noise added to the electrooculogram due to movement and / or rotation of the eyewear (eoptoelectric component added by compensatory eye rotation acting in a direction to cancel head movement Noise reduction means (ST14 to ST20) for reducing (minimizing or canceling) by combining the signal components (components that are in the reverse phase to the mixed noise) detected by the acceleration sensor and / or the gyro sensor. 11a).

[2]前記[1]の装置は、前記低減手段による信号合成結果が減少に向かうように、前記加速度センサおよび/または前記ジャイロセンサによって検出した信号成分の位相を選択する位相選択手段(ST16〜ST18を実行する11a)をさらに具備している。   [2] The apparatus according to the above [1] selects a phase of the signal component detected by the acceleration sensor and / or the gyro sensor such that the result of signal synthesis by the reduction means decreases, (ST16- It further comprises 11a) for performing ST18.

[3]前記[1]の装置(11)は、アイウェア(図5、図18〜図20の100)に組み込まれる。
[4]前記[3]のアイウェア(100)は、ディスプレイ部(12L、12R)を持ち、前記ノイズ低減手段によりノイズが低減されたあとの前記眼電位(EOG)に基づく表示(AR表示)を前記ディスプレイ部(12L、12R)で行う表示手段(ST22〜ST24を実行する11a)を具備している。
[3] The device (11) of the above [1] is incorporated in eyewear (100 in FIGS. 5 and 18 to 20).
[4] The eyewear (100) of [3] has a display unit (12L, 12R), and displays (AR display) based on the electrooculogram (EOG) after noise is reduced by the noise reduction means And display means (11a for executing ST22 to ST24) for performing the above in the display unit (12L, 12R).

[5]前記[1]の装置は、前記ユーザの頭部の前後屈変化に対応した回転を前記ジャイロセンサ(11e)により検出し、そのユーザの視線方向の変化(図10、図11:Ch1/Ch2の±レベル変化から上下の視線方向変化を検出できる)を前記眼動検出部(15)により検出し、前記前後屈変化の信号位相と前記視線方向変化の信号位相が同相(図4(a))か逆相(図4(b))かによって前記ユーザが見ている場所の遠近を識別するように構成されている(注視している現実世界の固定物が、遠景か近景かを検出できる)。   [5] The apparatus according to the above [1] detects the rotation corresponding to the back-and-forth bending change of the head of the user by the gyro sensor (11e), and changes the sight direction of the user (FIG. 10, FIG. 11: Ch1 The eye movement detection unit (15) can detect the change in the vertical line-of-sight direction from the ± level change of / Ch2, and the signal phase of the longitudinal bending change and the signal phase of the line-of-sight direction change are in phase (FIG. a)) It is configured to identify the perspective of the place where the user is looking by whether it is the opposite phase (FIG. 4 (b)) Can be detected).

[6]前記[1]の装置は、前記眼電位(EOG)に基づいて前記眼動が検出される際に、前記加速度センサおよび/または前記ジャイロセンサにより検出された前記アイウェアの移動および/または回転(図1)が前記眼電位(EOG)の変化(図8または図9)に同期する場合(図17のST14において「所定の位相関係」を維持できる場合)は前記ユーザが現実世界を見ているものと判定するように構成されている(注視しているものが、現実世界か否かを検出できる)。   [6] The apparatus according to the above [1], wherein when the eye movement is detected based on the electro-oculogram (EOG), movement of the eyewear detected by the acceleration sensor and / or the gyro sensor and / or Or, if the rotation (FIG. 1) is synchronized with the change in the electro-oculogram (EOG) (FIG. 8 or 9) (if it is possible to maintain the “predetermined phase relationship” in ST14 of FIG. It is configured to determine that it is looking (it can detect whether what you are looking at is the real world or not).

[7]一実施の形態に係る眼電位検出方法は、アイウェア(100)を装着したユーザの眼電位(EOG)に基づいて前記ユーザの眼球回転を含む眼動(視線移動、瞬目など)を検出し、前記アイウェアを装着したユーザの頭部の移動を検出し、前記アイウェアを装着したユーザの頭部の回転を検出する処理を含む。この方法は、前記眼電位(EOG)に基づいて前記眼動が検出される際に、前記アイウェアを装着したユーザの頭部の移動および/または回転を検出する工程と(ST12)、前記アイウェアを装着したユーザの頭部の移動および/または回転に起因して前記眼電位に混入するノイズ(頭部の動きを打ち消す方向に働く代償的眼球回転によって付加された眼電位成分)を、前記アイウェアを装着したユーザの頭部の移動および/または回転に対応して検出した信号成分(混入ノイズに対して逆相となる成分)の合成によって低減(最小化または打ち消し)する工程(ST14〜ST20)を具備している。   [7] An eye potential detection method according to an embodiment includes eye movement (eye movement, blink, etc.) including eye rotation of the user based on eye potential (EOG) of the user wearing the eyewear (100) And detecting movement of the head of the user wearing the eyewear, and detecting rotation of the head of the user wearing the eyewear. This method comprises the steps of detecting movement and / or rotation of the head of the user wearing the eyewear when the eye movement is detected based on the electro-oculogram (EOG) (ST12); Noise mixed in the eye potential due to movement and / or rotation of the head of the user wearing the clothing (an eye potential component added by compensatory eye rotation acting in a direction to cancel head movement), Step of reducing (minimizing or canceling) by combining signal components (components that are in anti-phase to mixed noise) detected corresponding to movement and / or rotation of the head of the user wearing the eyewear (ST 14- ST20) is included.

[8]前記[7]の方法は、前記信号成分の合成結果が減少に向かうように、前記アイウェアを装着したユーザの頭部の移動および/または回転に対応して検出した信号成分の位相を選択する工程(ST16〜ST18)をさらに具備している。
この発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。
[8] The method according to the above [7], wherein the phase of the signal component detected corresponding to the movement and / or rotation of the head of the user wearing the eyewear causes the synthesis result of the signal component to decrease. Are further included (ST16 to ST18).
While several embodiments of the invention have been described, these embodiments have been presented by way of example only, and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the scope of the invention.

例えば、実施形態の説明においてEOG電極を備えたアイウェアとしてメガネ型やゴーグル型のデバイスを紹介したが、それ以外に、アイマスク、眼帯、ヘルメット、帽子、頭巾のような形態の物品をEOG電極付アイウェアに利用することも考えられる。
これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。なお、開示された複数の実施形態のうちのある実施形態の一部あるいは全部と、開示された複数の実施形態のうちの別の実施形態の一部あるいは全部を、組み合わせることも、発明の範囲や要旨に含まれる。
For example, in the description of the embodiment, a glasses-type or goggle-type device is introduced as an eyewear having an EOG electrode, but in addition to that, an EOG electrode is an article having a form such as an eye mask, an eyepiece, a helmet, a hat or a hood It is also conceivable to use it for attached eyewear.
These embodiments and modifications thereof are included in the scope and the gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof. In addition, combining some or all of one embodiment among the plurality of disclosed embodiments and some or all of another embodiment among the plurality of disclosed embodiments is also within the scope of the invention. And included in the abstract.

100…アイウェア(ゴーグル型またはメガネ型);110…アイフレーム;11…眼球運動検出装置の主要部となる情報処理部(プロセッサ11a、不揮発性メモリ11b、メインメモリ11c、通信処理部(GPS処理部)11d、センサ部11eなどを含む集積回路);11e…加速度センサ、ジャイロセンサなどを含むセンサ部;BAT…電源(リチウムイオン電池など);12…ディスプレイ部(右ディスプレイ12Rと左ディスプレイ12L:フィルム液晶など);IM1…右表示画像(テンキー、アルファベット、文字列、マーク、アイコンなど);IM2…左表示画像(テンキー、アルファベット、文字列、マーク、アイコンなど);13…カメラ(右カメラ13Rと左カメラ13L、またはブリッジ103部分に取り付けられた図示しないセンターカメラ);15…眼動検出部(視線検出センサ);1510…右側(Ch1)ADコンバータ;1520…左側(Ch2)ADコンバータ;1512…左右間(Ch0)ADコンバータ;1514…左右間(Ch3)ADコンバータ。   100: eyewear (goggle type or glasses type) 110: eye frame 11: information processing unit (processor 11a, non-volatile memory 11b, main memory 11c, communication processing unit (GPS processing) which is a main part of the eye movement detection apparatus 11) integrated circuit including sensor 11e, etc. 11e: sensor including acceleration sensor, gyro sensor etc. BAT: power source (lithium ion battery etc.) 12: display (right display 12R and left display 12L: Film liquid crystal etc.) IM1 ... right display image (ten key, alphabet, character string, mark, icon etc) IM2 ... left display image (ten key, alphabet, character string, mark, icon etc); 13 ... camera (right camera 13R And mounted on the left camera 13L or bridge 103 Center camera (not shown); 15: eye movement detection unit (line of sight detection sensor); 1510: right (Ch1) AD converter; 1520: left (Ch2) AD converter; 1512: left and right (Ch0) AD converter; Left to right (Ch3) AD converter.

Claims (13)

現実世界画像又は前記現実世界画像に画像情報を付加させる拡張現実画像を表示する表示部と、
ユーザの眼動を検出する第1検出部と、
前記ユーザの頭部の動きを検出する第2検出部と、
前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きに基づいて、前記ユーザが見ているものを判定する判定手段と、
を具備する眼球運動検出装置であって、
前記判定手段は、前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期しているか否かに基づいて、前記ユーザが前記現実世界画像を見ているか又は前記拡張現実画像を見ているかを判定し、
前記表示部は、前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期しているか否かについての前記判定手段による判定結果に応じて前記拡張現実画像の表示をオン、オフする眼球運動検出装置。
A display unit for displaying a real world image or an augmented reality image for adding image information to the real world image;
A first detection unit that detects eye movement of the user;
A second detection unit that detects the movement of the head of the user;
A determination unit that determines what the user is looking at based on the eye movement detected by the first detection unit and the head movement detected by the second detection unit;
A eye movement detecting apparatus comprising,
The determination unit determines whether the user is in the real world based on whether the eye movement detected by the first detection unit and the head movement detected by the second detection unit are synchronized. Determine if you are looking at the image or looking at the augmented reality image,
The display unit is responsive to the determination result by the determination unit as to whether or not the eye movement detected by the first detection unit and the movement of the head detected by the second detection unit are synchronized. Eye movement detection device which turns on and off the display of the augmented reality image .
前記判定手段は、
前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期している場合、前記ユーザが前記現実世界画像を見ていると判定し、
前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期していない場合、前記ユーザが前記拡張現実画像を見ていると判定する請求項記載の眼球運動検出装置。
The determination means
When the eye movement detected by the first detection unit and the movement of the head detected by the second detection unit are synchronized, it is determined that the user is looking at the real world image,
When it is determined that the user is looking at the augmented reality image when the eye movement detected by the first detection unit and the head movement detected by the second detection unit are not synchronized The eye movement detection device according to item 1 .
前記判定手段は、前記第1検出部により検出された前記眼動の位相と前記第2検出部により検出された前記頭部の動きの位相が同相であるか否かに基づいて、前記ユーザが見ている物体の遠近を判定する請求項1記載の眼球運動検出装置。   The determination unit is configured to determine whether the phase of the eye movement detected by the first detection unit is in phase with the phase of the head movement detected by the second detection unit. The eye movement detection device according to claim 1, wherein the perspective of an object being viewed is determined. 前記判定手段は、
前記第1検出部により検出された前記眼動の位相と前記第2検出部により検出された前記頭部の動きの位相が同相である場合、前記ユーザが前記現実世界画像の中の近距離の物体を見ていると判定し、
前記第1検出部により検出された前記眼動の位相と前記第2検出部により検出された前記頭部の動きの位相が逆相である場合、前記ユーザが前記現実世界画像の中の遠距離の物体を見ていると判定する請求項記載の眼球運動検出装置。
The determination means
When the phase of the eye movement detected by the first detection unit and the phase of the movement of the head detected by the second detection unit are in phase, the user is at a short distance in the real world image Determine that you are looking at an object,
When the phase of the eye movement detected by the first detection unit and the phase of the movement of the head detected by the second detection unit are opposite in phase, the user is at a far distance in the real world image The eye movement detection apparatus according to claim 3, wherein it is determined that the user is looking at an object of
前記表示部は、前記第1検出部により検出された前記眼動の位相及び前記第2検出部により検出された前記頭部の動きの位相が同相から逆相へ変化することを前記判定手段が検出すると、前記拡張現実画像の表示をオンする請求項又は請求項記載の眼球運動検出装置。 The display unit is configured to determine that the phase of the eye movement detected by the first detection unit and the phase of the head movement detected by the second detection unit change from the same phase to the opposite phase. The eye movement detection device according to claim 3 or 4, which turns on the display of the augmented reality image when it is detected. 前記第1検出部により検出された前記眼動に含まれるノイズを前記第2検出部により検出された前記動きに基づいて低減する補償手段をさらに具備する請求項1、請求項2、請求項3、請求項4又は請求項5記載の眼球運動検出装置。 3. The image processing apparatus according to claim 1, further comprising: a compensation unit configured to reduce noise included in the eye movement detected by the first detection unit based on the movement detected by the second detection unit. The eye movement detection device according to claim 4 or 5 . 前記第1検出部は上下方向の眼動及び左右方向の眼動を検出し、
前記判定手段は前記ユーザが歩行時に前記現実世界画像を見ていることを判定した場合、前記第1検出部により検出され前記補償手段によりノイズが低減された前記上下方向の眼動及び左右方向の眼動に基づいて、前記ユーザの注視点が上下方向又は左右方向に移動したことを判定する請求項記載の眼球運動検出装置。
The first detection unit detects eye movement in the vertical direction and eye movement in the horizontal direction,
When the determination means determines that the user is looking at the real world image while walking , the eye movement in the vertical direction and the horizontal direction detected by the first detection unit and reduced in noise by the compensation means The eye movement detection device according to claim 6 , wherein it is determined based on eye movement that the fixation point of the user has moved in the vertical direction or in the horizontal direction.
現実世界画像又は前記現実世界画像に画像情報を付加させる拡張現実画像を表示部により表示することと、
ユーザの眼動を第1検出部により検出することと、
前記ユーザの頭部の動きを第2検出部による検出することと、
前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きに基づいて前記ユーザが見ているものを判定手段により判定することと、
を具備する眼球運動検出方法であって、
前記判定することは、前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期しているか否かに基づいて、前記ユーザが前記現実世界画像を見ているか又は前記拡張現実画像を見ているかを前記判定手段により判定することを具備し、
前記表示することは、前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期しているか否かについての前記判定手段による判定結果に応じて前記拡張現実画像の表示をオン、オフすることと、
を具備する眼球運動検出方法。
Displaying a real world image or an augmented reality image for adding image information to the real world image by a display unit;
Detecting a user's eye movement by the first detection unit;
Detecting the movement of the head of the user by a second detection unit;
And determining by the first based on the motion of the head detected by the second detector and said detected Meadow by the detection unit, determining means what the user is looking,
A eye movement detection method comprising the,
The determining may be performed by the user based on whether the eye movement detected by the first detection unit and the head movement detected by the second detection unit are synchronized. Determining whether the world image is viewed or the augmented reality image is viewed by the determining means;
The displaying may be based on a determination result by the determination unit as to whether or not the eye movement detected by the first detection unit and the head movement detected by the second detection unit are synchronized. Turning on or off the display of the augmented reality image accordingly;
Eye movement detection method comprising.
前記第1検出部により検出された前記眼動に含まれるノイズを前記第2検出部により検出された前記動きに基づいて補償手段により低減させることをさらに具備し、
前記ユーザの眼動を前記第1検出部により検出することは上下方向の眼動及び左右方向の眼動を検出することを具備し、
前記判定することは、前記ユーザが歩行時に前記現実世界画像を見ていることを前記判定手段が判定した場合、前記第1検出部により検出され前記補償手段によりノイズが低減された前記上下方向の眼動及び左右方向の眼動に基づいて、前記ユーザの注視点が上下方向又は左右方向に移動したことを前記判定手段により判定する請求項記載の眼球運動検出方法。
The method further includes reducing noise included in the eye movement detected by the first detection unit by the compensation unit based on the movement detected by the second detection unit.
The detection of the user's eye movement by the first detection unit comprises detecting an eye movement in the vertical direction and an eye movement in the left and right direction,
In the determination, when the determination means determines that the user is looking at the real world image during walking, the first detection unit detects the noise and the compensation means reduces the noise in the vertical direction. based on the Meadow and lateral directions Meadow, claim 8 eye movement detecting method according determining by said determining means that the gazing point of the user moves in the vertical direction or the horizontal direction.
前記判定することは、  The above determination is
前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期している場合、前記ユーザが前記現実世界画像を見ていると判定し、    When the eye movement detected by the first detection unit and the movement of the head detected by the second detection unit are synchronized, it is determined that the user is looking at the real world image,
前記第1検出部により検出された前記眼動と前記第2検出部により検出された前記頭部の動きとが同期していない場合、前記ユーザが前記拡張現実画像を見ていると判定することを具備する請求項8記載の眼球運動検出方法。    When the eye movement detected by the first detection unit and the head movement detected by the second detection unit are not synchronized, it is determined that the user is looking at the augmented reality image The eye movement detection method according to claim 8, comprising
前記判定することは、前記第1検出部により検出された前記眼動の位相と前記第2検出部により検出された前記頭部の動きの位相が同相であるか否かに基づいて、前記ユーザが見ている物体の遠近を判定する請求項8記載の眼球運動検出方法。  The determining may be performed based on whether or not the phase of the eye movement detected by the first detection unit and the phase of the head movement detected by the second detection unit are in phase. The eye movement detection method according to claim 8, wherein the perspective of the object being viewed is determined. 前記判定することは、  The above determination is
前記第1検出部により検出された前記眼動の位相と前記第2検出部により検出された前記頭部の動きの位相が同相である場合、前記ユーザが前記現実世界画像の中の近距離の物体を見ていると判定し、    When the phase of the eye movement detected by the first detection unit and the phase of the movement of the head detected by the second detection unit are in phase, the user is at a short distance in the real world image Determine that you are looking at an object,
前記第1検出部により検出された前記眼動の位相と前記第2検出部により検出された前記頭部の動きの位相が逆相である場合、前記ユーザが前記現実世界画像の中の遠距離の物体を見ていると判定する請求項11記載の眼球運動検出方法。    When the phase of the eye movement detected by the first detection unit and the phase of the movement of the head detected by the second detection unit are opposite in phase, the user is at a far distance in the real world image The eye movement detection method according to claim 11, wherein it is determined that the user is looking at an object.
前記表示することは、前記第1検出部により検出された前記眼動の位相及び前記第2検出部により検出された前記頭部の動きの位相が同相から逆相へ変化することを前記判定手段が検出すると、前記拡張現実画像の表示をオンする請求項11又は請求項12記載の眼球運動検出方法。  It is determined that the display changes the phase of the eye movement detected by the first detection unit and the phase of the movement of the head detected by the second detection unit from the same phase to the opposite phase. The eye movement detection method according to claim 11 or 12, wherein the display of the augmented reality image is turned on when is detected.
JP2018090396A 2018-05-09 2018-05-09 Eye movement detection apparatus and eye movement detection method Active JP6535123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018090396A JP6535123B2 (en) 2018-05-09 2018-05-09 Eye movement detection apparatus and eye movement detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018090396A JP6535123B2 (en) 2018-05-09 2018-05-09 Eye movement detection apparatus and eye movement detection method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016042184A Division JP6342440B2 (en) 2016-03-04 2016-03-04 Eye movement detection device, eye movement detection method, and eyewear

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019100305A Division JP6830981B2 (en) 2019-05-29 2019-05-29 Wearable device and display method

Publications (2)

Publication Number Publication Date
JP2018136989A JP2018136989A (en) 2018-08-30
JP6535123B2 true JP6535123B2 (en) 2019-06-26

Family

ID=63365670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018090396A Active JP6535123B2 (en) 2018-05-09 2018-05-09 Eye movement detection apparatus and eye movement detection method

Country Status (1)

Country Link
JP (1) JP6535123B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220100006A1 (en) * 2018-12-14 2022-03-31 Luxottica S.R.L. Electronic eyeglasses
WO2020240864A1 (en) * 2019-05-31 2020-12-03 日本電信電話株式会社 Distance estimation device, distance estimation method, and distance estimation program
CN112540084A (en) * 2019-09-20 2021-03-23 联策科技股份有限公司 Appearance inspection system and inspection method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552060B2 (en) * 2014-01-28 2017-01-24 Microsoft Technology Licensing, Llc Radial selection by vestibulo-ocular reflex fixation
JP2015202199A (en) * 2014-04-14 2015-11-16 株式会社ジェイアイエヌ Eye potential information processing equipment, eye potential information processing system, attachment tool, and program

Also Published As

Publication number Publication date
JP2018136989A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
US11880508B2 (en) Eyeglasses-type wearable device and method using the same
JP6426589B2 (en) Electro-oculogram detection device, electro-oculogram detection method, eyewear and frame
RU2644265C2 (en) Imaging device and device for entering information
JP6535123B2 (en) Eye movement detection apparatus and eye movement detection method
JP6342440B2 (en) Eye movement detection device, eye movement detection method, and eyewear
US11526133B2 (en) Electronic devices and systems
JP6774975B2 (en) Eye rotation detectors, electronic devices and systems
JP7455167B2 (en) Head-mounted information processing device
JP2023174820A (en) Wearable apparatus and display method
EP3697086A1 (en) Information processing device, information processing method, and program
US20160091717A1 (en) Head-mounted display system and operation method thereof
JP6830981B2 (en) Wearable device and display method
US20220350167A1 (en) Two-Eye Tracking Based on Measurements from a Pair of Electronic Contact Lenses
JP6524320B2 (en) Glasses-type wearable terminal and method using the same
JP2021009719A (en) Electronic apparatus and display method
US11579690B2 (en) Gaze tracking apparatus and systems
WO2017051720A1 (en) Information processing device, information processing method, and program
WO2021246134A1 (en) Device, control method, and program
JP2022059595A (en) Electronic apparatus and display method
Vora et al. Gaze-contingent Screen Adjustment
WO2023220294A1 (en) Head-worn wearable device providing indications of received and monitored sensor data, and methods and systems of use thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190530

R151 Written notification of patent or utility model registration

Ref document number: 6535123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151