JP2015203957A - Information processor, information processing system, and program - Google Patents

Information processor, information processing system, and program Download PDF

Info

Publication number
JP2015203957A
JP2015203957A JP2014082758A JP2014082758A JP2015203957A JP 2015203957 A JP2015203957 A JP 2015203957A JP 2014082758 A JP2014082758 A JP 2014082758A JP 2014082758 A JP2014082758 A JP 2014082758A JP 2015203957 A JP2015203957 A JP 2015203957A
Authority
JP
Japan
Prior art keywords
electrooculogram
user
unit
detected
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014082758A
Other languages
Japanese (ja)
Other versions
JP6266417B2 (en
Inventor
一鷹 井上
Kazutaka Inoue
一鷹 井上
晋 一戸
Susumu ICHINOHE
晋 一戸
淳子 中嶋
Junko Nakajima
淳子 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jin Co Ltd
Original Assignee
Jin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jin Co Ltd filed Critical Jin Co Ltd
Priority to JP2014082758A priority Critical patent/JP6266417B2/en
Publication of JP2015203957A publication Critical patent/JP2015203957A/en
Application granted granted Critical
Publication of JP6266417B2 publication Critical patent/JP6266417B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a correspondence relation between an ocular potential and information without making a user to perform any special operation.SOLUTION: An information processor includes: an ocular potential acquisition part for acquiring the continuously detected ocular potential of a user; a lock control part for, when it is determined that a predetermined condition is satisfied by the ocular potential acquired by the ocular potential acquisition part, releasing the lock state of the information processor; and a correlation acquisition part for, when it is determined that the predetermined condition is satisfied by the ocular potential by the lock control part, acquiring a correlation between the ocular potential and the visual line direction of the user on the basis of the ocular potential and the visual line direction corresponding to the predetermined condition.

Description

本発明は、情報処理装置、情報処理システム、及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, and a program.

眼電位等を計測する装置が知られている(例えば、特許文献1−3参照)。
特許文献1 特開2011−120887号公報
特許文献2 特開平9−034631号公報
特許文献3 特表2013−55383公報
An apparatus for measuring an electrooculogram or the like is known (for example, see Patent Documents 1-3).
Patent Document 1 Japanese Patent Application Laid-Open No. 2011-12087 Patent Document 2 Japanese Patent Application Laid-Open No. 9-034631 Japanese Patent Application Laid-Open No. 2013-55383

眼電位と視線方向等の情報との間の対応関係が不正確であると、眼電位から特定される情報が不正確になる場合がある。眼電位からより正確に情報を特定するためには、眼電位と情報との間の対応関係を取得するための特別な動作を、ユーザに行わせる必要があった。   If the correspondence between the electrooculogram and information such as the line-of-sight direction is inaccurate, information specified from the electrooculogram may be inaccurate. In order to specify information more accurately from the electrooculogram, it is necessary to cause the user to perform a special operation for acquiring the correspondence between the electrooculogram and the information.

第1の態様においては、情報処理装置は、連続的に検出されたユーザの眼電位を取得する眼電位取得部と、眼電位取得部が取得した眼電位が予め定められた条件を満たすと判断した場合に、情報処理装置のロック状態を解除するロック制御部と、ロック制御部によって眼電位が予め定められた条件を満たすと判断された場合に、眼電位と、予め定められた条件に対応する視線方向とに基づいて、眼電位とユーザの視線方向との間の相関を取得する相関取得部とを備える。   In the first aspect, the information processing apparatus determines that the electrooculogram acquisition unit that continuously detects the electrooculogram of the user and the electrooculogram acquired by the electrooculogram acquisition unit satisfy a predetermined condition. In the case where the lock control unit for releasing the lock state of the information processing device and the lock control unit determines that the electrooculogram satisfies a predetermined condition, the electrooculogram corresponds to the predetermined condition. A correlation acquisition unit that acquires a correlation between the electrooculogram and the user's line-of-sight direction based on the line-of-sight direction.

相関取得部が取得した相関と、ロック状態が解除された後に検出された眼電位とに基づいて、ロック状態が解除された後におけるユーザの視線方向を特定する視線特定部をさらに備えてよい。   A line-of-sight specifying unit that specifies the line-of-sight direction of the user after the lock state is released may be further provided based on the correlation acquired by the correlation acquisition unit and the electrooculogram detected after the lock state is released.

予め定められた条件に対応する視線方向は、ロック状態を解除するためにユーザが予め定められた順で見るべき第1位置及び第2位置の位置関係を規定し、ロック制御部は、第1タイミングで検出された第1の眼電位と第2タイミングで検出された第2の眼電位との間の眼電位の変化量と、第1位置及び第2位置の位置関係とを比較して、眼電位取得部が取得した眼電位が予め定められた条件を満たすか否かを判断してよい。   The line-of-sight direction corresponding to the predetermined condition defines the positional relationship between the first position and the second position that the user should see in a predetermined order in order to release the locked state. Comparing the amount of change in electrooculogram between the first electrooculogram detected at the timing and the second electrooculogram detected at the second timing and the positional relationship between the first position and the second position; It may be determined whether or not the electrooculogram acquired by the electrooculogram acquisition unit satisfies a predetermined condition.

表示部をさらに備え、ロック制御部は、表示部による表示領域内における第1位置及び第2位置にそれぞれ対応する位置に、マーカを表示させてよい。   The lock control unit may further include a display unit, and the lock control unit may display the marker at a position corresponding to each of the first position and the second position in the display area by the display unit.

眼電位取得部は、ユーザに装着された眼電位検出部で検出された眼電位を取得してよい。   The electrooculogram acquisition unit may acquire the electrooculogram detected by the electrooculogram detection unit attached to the user.

眼電位取得部は、ユーザが装着している装着具に設けられた眼電位検出部で検出された眼電位を取得してよい。   The electrooculogram acquisition unit may acquire the electrooculogram detected by the electrooculogram detection unit provided in the wearing tool worn by the user.

眼電位取得部は、ユーザが装着しているアイウエアに設けられた眼電位検出部で検出された眼電位を取得してよい。   The electrooculogram acquisition unit may acquire the electrooculogram detected by the electrooculogram detection unit provided in the eyewear worn by the user.

第2の態様においては、情報処理システムは、上記情報処理装置と、ユーザに装着される装着具とを備え、眼電位取得部は、装着具に設けられた眼電位検出部で検出された眼電位を取得する。   In a second aspect, an information processing system includes the information processing apparatus and a wearing tool worn by a user, and the electrooculogram acquisition unit detects an eye detected by an electrooculogram detection unit provided in the wearing tool. Get the potential.

第3の態様においては、プログラムは、コンピュータを、連続的に検出されたユーザの眼電位を取得する眼電位取得部、眼電位取得部が取得した眼電位が予め定められた条件を満たすと判断した場合に、コンピュータのロック状態を解除するロック制御部、ロック制御部によって眼電位が予め定められた条件を満たすと判断された場合に、眼電位と、予め定められた条件に対応する基準視線方向とに基づいて、眼電位とユーザの視線方向との間の相関を取得する相関取得部として機能させる。   In the third aspect, the program determines that the computer has an electrooculogram acquisition unit that acquires the electrooculogram of the user detected continuously, and the electrooculogram acquired by the electrooculogram acquisition unit satisfies a predetermined condition. In the case where the electrooculogram is determined to satisfy a predetermined condition by the lock control unit for releasing the lock state of the computer and the lock control unit, the electrooculogram and the reference line of sight corresponding to the predetermined condition It is made to function as a correlation acquisition part which acquires the correlation between electrooculogram and a user's gaze direction based on a direction.

なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The summary of the invention does not enumerate all the features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

一実施形態における眼電位情報処理システム10の利用形態の一例を概略的に示す。An example of the utilization form of electrooculogram information processing system 10 in one embodiment is shown roughly. メガネ100及びスマートフォン40を模式的に示す。The glasses 100 and the smartphone 40 are schematically shown. スマートフォン40の機能ブロック構成及び処理ユニット180の機能ブロック構成を概略的に示す。The functional block configuration of the smart phone 40 and the functional block configuration of the processing unit 180 are schematically shown. メガネ100が有する眼電位検出用電極とユーザ20との位置関係を概略的に示す。The positional relationship between the electrooculogram detection electrode of the glasses 100 and the user 20 is schematically shown. ユーザ20の視線方向の変化を概略的に示す。The change of the gaze direction of the user 20 is shown schematically. UI部370が表示するパスコード入力画面42の一例を示す。An example of the passcode input screen 42 displayed by the UI unit 370 is shown. 眼電位の時間発展の一例を、ロック制御部330の制御内容とともに概略的に示す。An example of temporal development of the electrooculogram is schematically shown together with the control contents of the lock control unit 330.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態における眼電位情報処理システム10の利用形態の一例を概略的に示す。眼電位情報処理システム10は、メガネ100、スマートフォン40及びヘッドフォン50を備える。   FIG. 1 schematically illustrates an example of a usage pattern of an electrooculogram information processing system 10 according to an embodiment. The electrooculogram information processing system 10 includes glasses 100, a smartphone 40, and headphones 50.

ユーザ20は、メガネ100、スマートフォン40及びヘッドフォン50のそれぞれの使用者である。ユーザ20は、メガネ100を装着する装着者である。スマートフォン40は、眼電位等の情報を処理する情報処理装置の一例である。   The user 20 is a user of each of the glasses 100, the smartphone 40, and the headphones 50. The user 20 is a wearer who wears the glasses 100. The smartphone 40 is an example of an information processing apparatus that processes information such as electrooculogram.

メガネ100は、ユーザ20の顔部に装着される。メガネ100は、スマートフォン40と通信する機能を有する。メガネ100は、ユーザ20に接触する電極を介してユーザ20の眼電位を検出して、検出した眼電位の情報をスマートフォン40に送信する。また、メガネ100は、メガネ100の加速度を検出して、検出した加速度の情報をスマートフォン40に送信する。また、メガネ100は、メガネ100の角速度を検出して、検出した角速度の情報をスマートフォン40に送信する。   The glasses 100 are worn on the face of the user 20. The glasses 100 have a function of communicating with the smartphone 40. The glasses 100 detect the electrooculogram of the user 20 via the electrode that contacts the user 20, and transmit the detected electrooculogram information to the smartphone 40. Further, the glasses 100 detect the acceleration of the glasses 100 and transmit the detected acceleration information to the smartphone 40. Further, the glasses 100 detect the angular velocity of the glasses 100 and transmit information on the detected angular velocity to the smartphone 40.

スマートフォン40は、メガネ100から受信した眼電位を解析する。スマートフォン40は、メガネ100から受信した眼電位を、メガネ100から受信した加速度及び角速度の少なくとも一方とともに解析する。スマートフォン40は、眼電位、加速度、角速度等の解析結果に基づいて、ユーザ20に情報を提供する。   The smartphone 40 analyzes the electrooculogram received from the glasses 100. The smartphone 40 analyzes the electrooculogram received from the glasses 100 together with at least one of acceleration and angular velocity received from the glasses 100. The smartphone 40 provides information to the user 20 based on analysis results such as electrooculogram, acceleration, and angular velocity.

例えば、スマートフォン40は、眼電位、加速度及び角速度等を解析して、ユーザ20の状態を特定する。具体的には、スマートフォン40は、眼電位を解析して、ユーザ20の視線方向及び瞬目状態等を特定する。例えば、スマートフォン40は、視線方向及び瞬目状態等に基づき、ユーザ20の状態を判断する。具体的には、スマートフォン40は、視線方向及び瞬目状態等に基づき、ユーザ20に疲れ、痛み等が生じているか否かを判断する。スマートフォン40は、ユーザ20に疲れ、痛み等が生じていると判断した場合に、ユーザ20に警告を発する。例えば、スマートフォン40は、ユーザ20に疲れ、痛み等が生じていると判断した場合に、警告音を発生する。   For example, the smartphone 40 identifies the state of the user 20 by analyzing the electrooculogram, acceleration, angular velocity, and the like. Specifically, the smartphone 40 analyzes the electrooculogram and identifies the user's 20 line-of-sight direction, the blink state, and the like. For example, the smartphone 40 determines the state of the user 20 based on the line-of-sight direction and the blink state. Specifically, the smartphone 40 determines whether the user 20 is tired or painful based on the line-of-sight direction and the blink state. The smartphone 40 issues a warning to the user 20 when determining that the user 20 is tired, painful, or the like. For example, the smartphone 40 generates a warning sound when it is determined that the user 20 is tired or painful.

また、スマートフォン40は、眼電位等の解析結果に基づいて、ユーザ20からの指示を特定する。例えば、スマートフォン40は、ユーザ20の視線方向の変化の組み合わせ、視線方向及び瞬目状態の組み合わせにより、スマートフォン40に対するユーザ20からの指示を特定する。スマートフォン40は、ユーザ20からの指示に基づき、スマートフォン40の動作を制御する。例えば、スマートフォン40は、予め定められた再生順序で音楽を再生している場合に、眼電位等の解析結果に基づいてユーザ20から次の曲を再生するよう指示されたと判断すると、再生順序において現在再生中の次の順番の曲の再生を開始する。スマートフォン40が再生している曲は、ユーザ20の頭部に装着されたヘッドフォン50に無線又は有線で出力されて、ヘッドフォン50からユーザ20の耳に音として提供される。   Moreover, the smart phone 40 specifies the instruction | indication from the user 20 based on analysis results, such as electrooculogram. For example, the smartphone 40 specifies an instruction from the user 20 to the smartphone 40 by a combination of changes in the line-of-sight direction of the user 20 and a combination of the line-of-sight direction and the blink state. The smartphone 40 controls the operation of the smartphone 40 based on an instruction from the user 20. For example, when the smartphone 40 is playing music in a predetermined playback order and determines that the user 20 has instructed to play the next song based on the analysis result such as electrooculogram, Start playing the next song in the current order. The music being played back by the smartphone 40 is output wirelessly or by wire to a headphone 50 attached to the head of the user 20 and provided as a sound from the headphone 50 to the ear of the user 20.

眼電位情報処理システム10においては、スマートフォン40には、ユーザ20がスマートフォン40の機能を使用する前に入力するべき認証用のパスコードが設定されている。例えば、スマートフォン40は、ロック状態にある場合に、パスコード入力画面42を表示させて、パスコードを視線で入力するようユーザ20に要求する。スマートフォン40は、視線入力により正しいパスコードを入力されると、ロック状態を解除する。   In the electrooculogram information processing system 10, an authentication passcode to be input before the user 20 uses the function of the smartphone 40 is set in the smartphone 40. For example, when in the locked state, the smartphone 40 displays the passcode input screen 42 and requests the user 20 to input the passcode with a line of sight. The smartphone 40 releases the locked state when the correct passcode is input by the line-of-sight input.

スマートフォン40は、視線入力によりパスコードを入力させる場合、メガネ100で検出された眼電位に基づいて、正しいパスコードが入力されたか否かを判断する。例えば、パスコード入力画面42を表示している場合に、スマートフォン40は、ユーザ20の眼電位に基づいて右方に視線方向が変化した後に、下方に視線方向が変化したと判断した場合に、正しいパスコードが入力されたと判断して、ロック状態を解除する。   The smartphone 40 determines whether or not a correct passcode is input based on the electrooculogram detected by the glasses 100 when the passcode is input by the line-of-sight input. For example, when the passcode input screen 42 is displayed, the smartphone 40 determines that the line-of-sight direction has changed downward after the line-of-sight direction has changed to the right based on the electrooculogram of the user 20. It is determined that the correct passcode has been input, and the lock state is released.

このとき、スマートフォン40は、右方への視線方向の変化を表す眼電位が検出されたタイミングにおいて、ユーザ20が、パスコード入力画面42内の「2」の表示位置を見ているとみなす。また、スマートフォン40は、下方への視線方向の変化を表す眼電位が検出されたタイミングにおいて、ユーザ20が、パスコード入力画面42内の「3」の表示位置を見ているとみなす。これにより、スマートフォン40は、眼電位とユーザ20の視線方向との間の相関を取得する。スマートフォン40は、当該相関の取得後に検出される眼電位を、当該相関に基づいて解析して、ユーザ20の視線方向を特定する。これにより、ユーザ20の視線方向をより正しく特定できる。眼電位情報処理システム10によれば、スマートフォン40のロック状態の解除、及び、眼電位と視線方向との間の相関関係の取得とを、同時に行うことができる。   At this time, the smartphone 40 considers that the user 20 is looking at the display position “2” in the passcode input screen 42 at the timing when the electrooculogram representing the change in the gaze direction to the right is detected. In addition, the smartphone 40 considers that the user 20 is viewing the display position “3” in the passcode input screen 42 at the timing when the electrooculogram representing the downward change in the line-of-sight direction is detected. Thereby, the smartphone 40 obtains a correlation between the electrooculogram and the line-of-sight direction of the user 20. The smartphone 40 analyzes the electrooculogram detected after obtaining the correlation based on the correlation, and specifies the line-of-sight direction of the user 20. Thereby, the user's 20 gaze direction can be specified more correctly. According to the electrooculogram information processing system 10, the smartphone 40 can be unlocked and the correlation between the electrooculogram and the line-of-sight direction can be acquired simultaneously.

なお、本実施形態の説明において、図1等に示される直交座標系の座標軸を用いて、各種の方向を特定する場合がある。z軸プラス方向を、ユーザ20の正面に沿う方向に定める。z軸プラス方向は、ユーザ20の顔に装着されているメガネ100の、ユーザ20の顔からメガネ100のフロント部へ向かう方向の加速度である。また、y軸マイナス方向を、鉛直方向、すなわち鉛直下方に定める。x軸、y軸、z軸は、右手系の直交座標系である。説明の都合上、z軸プラス方向を正面方向等と呼ぶ場合がある。また、y軸プラス方向を上方等と呼ぶ場合がある。また、y軸マイナス方向を下方等と呼ぶ場合がある。また、x軸プラス方向を左方等と呼ぶ場合がある。また、x軸マイナス方向を右方等と呼ぶ場合がある。   In the description of the present embodiment, various directions may be specified using the coordinate axes of the orthogonal coordinate system shown in FIG. The z-axis plus direction is defined as a direction along the front of the user 20. The z-axis plus direction is an acceleration in a direction from the face of the user 20 toward the front portion of the glasses 100 of the glasses 100 attached to the face of the user 20. Further, the negative y-axis direction is defined as the vertical direction, that is, vertically downward. The x-axis, y-axis, and z-axis are right-handed orthogonal coordinate systems. For convenience of explanation, the z-axis plus direction may be referred to as the front direction. In addition, the y-axis plus direction may be referred to as upward or the like. Also, the y-axis minus direction may be referred to as downward or the like. Further, the x-axis plus direction may be referred to as the left side or the like. Also, the x-axis minus direction may be referred to as the right side or the like.

図2は、メガネ100及びスマートフォン40を模式的に示す。メガネ100は、レンズ110及びフレーム120を備える。メガネ100及びフレーム120は、アイウエアの一例である。   FIG. 2 schematically shows the glasses 100 and the smartphone 40. The glasses 100 include a lens 110 and a frame 120. Glasses 100 and frame 120 are examples of eyewear.

フレーム120は、一対のレンズ110を支持する。フレーム120は、リム122、ブリッジ124、ヨロイ126、テンプル130、モダン132、右ノーズパッド141、左ノーズパッド142、第1電極151、第2電極152、第3電極153、接地電極154、処理ユニット180及び電源ユニット190を有する。レンズ110、リム122、ヨロイ126、テンプル130、及びモダン132は、それぞれ左右一対に設けられる。フレーム120のうち、リム122、ブリッジ124、右ノーズパッド141、左ノーズパッド142及びヨロイ126の部分を、メガネ100のフロント部と呼ぶ。   The frame 120 supports the pair of lenses 110. The frame 120 includes a rim 122, a bridge 124, an alloy 126, a temple 130, a modern 132, a right nose pad 141, a left nose pad 142, a first electrode 151, a second electrode 152, a third electrode 153, a ground electrode 154, and a processing unit. 180 and a power supply unit 190. The lens 110, the rim 122, the armor 126, the temple 130, and the modern 132 are each provided in a pair of left and right. Of the frame 120, the rim 122, the bridge 124, the right nose pad 141, the left nose pad 142, and the armor 126 are referred to as a front portion of the glasses 100.

リム122は、レンズ110を保持する。ヨロイ126は、リム122の外側に設けられテンプル130を可動に保持する。テンプル130は、ユーザ20の耳の上部を押圧して、押圧した部位を挟持する。モダン132は、テンプル130の先端に設けられる。モダン132は、ユーザ20の耳の上部に接触する。   The rim 122 holds the lens 110. The armor 126 is provided outside the rim 122 and holds the temple 130 movably. The temple 130 presses the upper part of the user's 20 ear and pinches the pressed part. The modern 132 is provided at the tip of the temple 130. The modern 132 contacts the upper part of the ear of the user 20.

第1電極151は、眼電位を検出する眼電位検出部の一例である。第1電極151は、右ノーズパッド141の表面に設けられる。第1電極151は、右ノーズパッド141が有する表面のうち、ユーザ20がメガネ100を装着した場合にユーザ20の顔に対向する側の表面に設けられる。ユーザ20がメガネ100を装着した場合、第1電極151はユーザ20の皮膚に接触する。例えば、ユーザ20がメガネ100を装着した場合、第1電極151はユーザ20の鼻の右側に接触する。本実施形態において、第1電極151は、主としてユーザ20の右眼の眼電位を検出する。   The first electrode 151 is an example of an electrooculogram detection unit that detects electrooculogram. The first electrode 151 is provided on the surface of the right nose pad 141. The first electrode 151 is provided on the surface of the right nose pad 141 that faces the face of the user 20 when the user 20 wears the glasses 100. When the user 20 wears the glasses 100, the first electrode 151 contacts the skin of the user 20. For example, when the user 20 wears the glasses 100, the first electrode 151 contacts the right side of the user 20 nose. In the present embodiment, the first electrode 151 mainly detects the electrooculogram of the right eye of the user 20.

第2電極152は、眼電位を検出する眼電位検出部の一例である。第2電極152は、左ノーズパッド142の表面に設けられる。第2電極152は、左ノーズパッド142が有する表面のうち、ユーザ20がメガネ100を装着した場合にユーザ20の顔に対向する側の表面に設けられる。ユーザ20がメガネ100を装着した場合、第2電極152はユーザ20の皮膚に接触する。例えば、ユーザ20がメガネ100を装着した場合、第2電極152はユーザ20の鼻の左側に接触する。本実施形態において、第2電極152は、主としてユーザ20の左眼の眼電位を検出する。   The second electrode 152 is an example of an electrooculogram detection unit that detects an electrooculogram. The second electrode 152 is provided on the surface of the left nose pad 142. The second electrode 152 is provided on the surface of the left nose pad 142 that faces the face of the user 20 when the user 20 wears the glasses 100. When the user 20 wears the glasses 100, the second electrode 152 contacts the skin of the user 20. For example, when the user 20 wears the glasses 100, the second electrode 152 contacts the left side of the user 20 nose. In the present embodiment, the second electrode 152 mainly detects the electrooculogram of the left eye of the user 20.

第3電極153は、眼電位を検出する眼電位検出部の一例である。第3電極153は、ブリッジ124の表面に設けられる。第3電極153は、ブリッジ124が有する表面のうち、ユーザ20がメガネ100を装着した場合にユーザ20の顔に対向する表面に設けられる。ユーザ20がメガネ100を装着した場合、第3電極153はユーザ20の皮膚に接触する。例えば、ユーザ20がメガネ100を装着した場合、第3電極153はユーザ20の眉間の上部に接触する。本実施形態において、第3電極153で検出される眼電位は、ユーザ20の右眼の眼電位及び左眼の眼電位を測定するための測定用の基準に用いられる。   The third electrode 153 is an example of an electrooculogram detection unit that detects electrooculogram. The third electrode 153 is provided on the surface of the bridge 124. The third electrode 153 is provided on the surface of the bridge 124 that faces the face of the user 20 when the user 20 wears the glasses 100. When the user 20 wears the glasses 100, the third electrode 153 contacts the skin of the user 20. For example, when the user 20 wears the glasses 100, the third electrode 153 contacts the upper part of the eyebrow of the user 20. In the present embodiment, the electrooculogram detected by the third electrode 153 is used as a measurement reference for measuring the electrooculogram of the right eye and the electrooculogram of the left eye of the user 20.

接地電極154は、モダン132の表面に設けられる。接地電極154は、例えば右側のモダン132の表面に設けられる。接地電極154は、モダン132が有する表面のうち、ユーザ20がメガネ100を装着した場合にユーザ20の顔に対向する表面に設けられる。ユーザ20がメガネ100を装着した場合、接地電極154はユーザ20の皮膚に接触する。例えば、ユーザ20がメガネ100を装着した場合、接地電極154はユーザ20の右耳の上部に接触する。本実施形態において、接地電極154の電位は、メガネ100が有する電気回路の接地電位を提供する。   The ground electrode 154 is provided on the surface of the modern 132. The ground electrode 154 is provided on the surface of the modern 132 on the right side, for example. The ground electrode 154 is provided on the surface of the modern 132 that faces the face of the user 20 when the user 20 wears the glasses 100. When the user 20 wears the glasses 100, the ground electrode 154 contacts the user 20's skin. For example, when the user 20 wears the glasses 100, the ground electrode 154 contacts the upper part of the right ear of the user 20. In the present embodiment, the potential of the ground electrode 154 provides the ground potential of the electric circuit included in the glasses 100.

処理ユニット180は、左側のテンプル130の内部に設けられる。処理ユニット180には、第1電極151、第2電極152及び第3電極153で検出されたユーザ20の眼電位が入力される。処理ユニット180は、入力された眼電位を処理して、処理された電位をスマートフォン40に送信する。   The processing unit 180 is provided inside the left temple 130. The electrooculogram of the user 20 detected by the first electrode 151, the second electrode 152, and the third electrode 153 is input to the processing unit 180. The processing unit 180 processes the input electrooculogram and transmits the processed potential to the smartphone 40.

電源ユニット190は、左側のテンプル130の内部に設けられる。電源ユニット190は、二次電池等の電池を含む。電源ユニット190は、電源ユニット190が含む電池に蓄積された電気エネルギーを、処理ユニット180に供給する。具体的には、電源ユニット190は、電池に蓄積された電気エネルギーから、接地電極154の電位を基準とした直流電力を生成する。電源ユニット190は、電池に蓄積された電気エネルギーから生成した直流電力を、処理ユニット180に供給する。   The power supply unit 190 is provided inside the left temple 130. The power supply unit 190 includes a battery such as a secondary battery. The power supply unit 190 supplies the electrical energy stored in the battery included in the power supply unit 190 to the processing unit 180. Specifically, the power supply unit 190 generates DC power based on the potential of the ground electrode 154 from the electrical energy stored in the battery. The power supply unit 190 supplies DC power generated from the electrical energy stored in the battery to the processing unit 180.

なお、電源ユニット190は、接地電極154が設けられた側のテンプル130の内部に設けられている。接地電極154の電位は、電源ユニット190から処理ユニット180に供給される直流電力の負側の電位を提供する。また、右側のモダン132には、電源ユニット190を充電するために充電口が形成されている。電源ユニット190が含む電池は、右側のモダン132に設けられた充電口を介して充電される。   The power supply unit 190 is provided inside the temple 130 on the side where the ground electrode 154 is provided. The potential of the ground electrode 154 provides a negative potential of DC power supplied from the power supply unit 190 to the processing unit 180. The right modern 132 has a charging port for charging the power supply unit 190. The battery included in the power supply unit 190 is charged through a charging port provided in the modern 132 on the right side.

図3は、スマートフォン40の機能ブロック構成及び処理ユニット180の機能ブロック構成を概略的に示す。処理ユニット180は、処理部200、角速度検出部260、加速度検出部270、送受信部280及び基板部290を含む。スマートフォン40は、処理部300、格納部360、UI部370、送受信部380及び電源部390を含む。   FIG. 3 schematically shows a functional block configuration of the smartphone 40 and a functional block configuration of the processing unit 180. The processing unit 180 includes a processing unit 200, an angular velocity detection unit 260, an acceleration detection unit 270, a transmission / reception unit 280, and a substrate unit 290. The smartphone 40 includes a processing unit 300, a storage unit 360, a UI unit 370, a transmission / reception unit 380, and a power supply unit 390.

処理ユニット180において、処理部200、角速度検出部260、加速度検出部270及び送受信部280は、基板部290に実装される。処理部200は、MPU等のプロセッサで実現される。スマートフォン40の各部は、主として処理部300によって制御される。送受信部280は、スマートフォン40と無線通信する機能を担う。送受信部280は、通信用プロセッサで実現される。例えば、送受信部280は、Bluetooth(登録商標)等の近距離無線通信機能を有する通信用プロセッサで実現される。   In the processing unit 180, the processing unit 200, the angular velocity detection unit 260, the acceleration detection unit 270, and the transmission / reception unit 280 are mounted on the substrate unit 290. The processing unit 200 is realized by a processor such as an MPU. Each unit of the smartphone 40 is mainly controlled by the processing unit 300. The transmission / reception unit 280 has a function of performing wireless communication with the smartphone 40. The transmission / reception unit 280 is realized by a communication processor. For example, the transmission / reception unit 280 is realized by a communication processor having a short-range wireless communication function such as Bluetooth (registered trademark).

メガネ100のフレーム120の内部には、電線部160が設けられる。電線部160は、第1電極151、第2電極152、第3電極153、接地電極154及び電源ユニット190と、処理ユニット180とを電気的に接続する。電線部160は、第1電極151と処理ユニット180とを電気的に接続して、第1電極151で検出された眼電位を処理ユニット180に出力する電線と、第2電極152と処理ユニット180とを電気的に接続して、第2電極152で検出された眼電位を処理ユニット180に出力する電線と、第3電極153と処理ユニット180とを電気的に接続して、第3電極153で検出された眼電位を処理ユニット180に出力する電線と、電源ユニット190から処理ユニット180に電力を供給する電線とを有する。   An electric wire portion 160 is provided inside the frame 120 of the glasses 100. The electric wire part 160 electrically connects the first electrode 151, the second electrode 152, the third electrode 153, the ground electrode 154, the power supply unit 190, and the processing unit 180. The electric wire unit 160 electrically connects the first electrode 151 and the processing unit 180, outputs an electrooculogram detected by the first electrode 151 to the processing unit 180, and the second electrode 152 and the processing unit 180. Are electrically connected to each other, and the third electrode 153 and the processing unit 180 are electrically connected to the third electrode 153 by electrically connecting the electric wire that outputs the electrooculogram detected by the second electrode 152 to the processing unit 180. And an electric wire for supplying electric power from the power supply unit 190 to the processing unit 180.

メガネ100において、処理部200は、ユーザ20の眼電位を取得して、取得した眼電位を処理する。具体的には、処理部200は、第1電極151で検出された眼電位である第1眼電位を取得して、取得した第1眼電位を処理する。また、処理部200は、第2電極152で検出された眼電位である第2眼電位を取得して、取得した第2眼電位を処理する。また、処理部200は、第3電極153で検出された眼電位である第3眼電位を取得して、取得した第3眼電位を処理する。   In the glasses 100, the processing unit 200 acquires the electrooculogram of the user 20 and processes the acquired electrooculogram. Specifically, the processing unit 200 acquires the first electrooculogram that is the electrooculogram detected by the first electrode 151, and processes the acquired first electrooculogram. In addition, the processing unit 200 acquires a second electrooculogram that is an electrooculogram detected by the second electrode 152 and processes the acquired second electrooculogram. In addition, the processing unit 200 acquires a third ocular potential that is an ocular potential detected by the third electrode 153, and processes the acquired third ocular potential.

例えば、処理部200は、第3眼電位を基準とした第1眼電位を処理する。本実施形態では、第3眼電位を基準とした第1眼電位を、V1と呼ぶ。処理部200は、V1を予め定められた周期でサンプリングして、V1の時系列データを生成する。処理部200は、生成したV1の時系列データを、送受信部280に出力する。   For example, the processing unit 200 processes the first ocular potential based on the third ocular potential. In the present embodiment, the first electrooculogram based on the third electrooculogram is referred to as V1. The processing unit 200 samples V1 at a predetermined cycle and generates time series data of V1. The processing unit 200 outputs the generated time series data of V1 to the transmission / reception unit 280.

また、処理部200は、第3眼電位を基準とした第2眼電位を処理する。本実施形態では、第3眼電位を基準とした第2眼電位を、V2と呼ぶ。処理部200は、V2を予め定められた周期でサンプリングして、V2の時系列データを生成する。処理部200は、生成したV2の時系列データを、送受信部280に出力する。   Further, the processing unit 200 processes the second ocular potential based on the third ocular potential. In the present embodiment, the second ocular potential based on the third ocular potential is referred to as V2. The processing unit 200 samples V2 at a predetermined cycle and generates time-series data of V2. The processing unit 200 outputs the generated V2 time-series data to the transmission / reception unit 280.

加速度検出部270は、メガネ100の加速度を検出する。加速度検出部270は、例えば3軸加速度センサである。加速度検出部270は、メガネ100の重心の加速度を検出する。メガネ100がユーザ20に装着されている場合、メガネ100の重心の加速度は、ユーザ20の頭部の加速度に対応する。処理部200には、加速度検出部270で検出された加速度が入力される。   The acceleration detection unit 270 detects the acceleration of the glasses 100. The acceleration detection unit 270 is, for example, a triaxial acceleration sensor. The acceleration detection unit 270 detects the acceleration of the center of gravity of the glasses 100. When the glasses 100 are worn on the user 20, the acceleration of the center of gravity of the glasses 100 corresponds to the acceleration of the head of the user 20. The acceleration detected by the acceleration detection unit 270 is input to the processing unit 200.

角速度検出部260は、メガネ100の角速度を検出する。角速度検出部260は、例えば3軸角速度センサである。処理部200には、角速度検出部260で検出された角速度が入力される。   The angular velocity detection unit 260 detects the angular velocity of the glasses 100. The angular velocity detection unit 260 is, for example, a triaxial angular velocity sensor. The processing unit 200 receives the angular velocity detected by the angular velocity detection unit 260.

処理部200は、加速度検出部270で検出された加速度を取得して、取得した加速度を処理する。処理部200は、加速度を予め定められた周期でサンプリングして、時系列の加速度のデータを生成する。処理部200は、生成した加速度の時系列データを送受信部280に出力する。送受信部280に出力される加速度データは、3軸の各方向の加速度の時系列データを含む。   The processing unit 200 acquires the acceleration detected by the acceleration detection unit 270 and processes the acquired acceleration. The processing unit 200 samples the acceleration at a predetermined cycle, and generates time-series acceleration data. The processing unit 200 outputs the generated time series data of acceleration to the transmission / reception unit 280. The acceleration data output to the transmission / reception unit 280 includes time-series data of acceleration in each direction of the three axes.

処理部200は、角速度検出部260で検出された角速度を取得して、取得した角速度を処理する。処理部200は、角速度を予め定められた周期でサンプリングして、時系列の角速度のデータを生成する。処理部200は、生成した角速度の時系列データを送受信部280に出力する。送受信部280に出力される角速度データは、3軸の各方向の角速度の時系列データを含む。   The processing unit 200 acquires the angular velocity detected by the angular velocity detection unit 260 and processes the acquired angular velocity. The processing unit 200 samples the angular velocity at a predetermined cycle, and generates time-series angular velocity data. The processing unit 200 outputs the generated time series data of the angular velocity to the transmission / reception unit 280. The angular velocity data output to the transmission / reception unit 280 includes time-series data of angular velocities in the directions of the three axes.

送受信部280は、処理部200から取得したV1の時系列データ、V2の時系列データ、加速度の時系列データ及び角速度の時系列データを、無線信号で送受信部380に送信する。このように、送受信部280は、連続的に検出された眼電位の情報、加速度の情報及び角速度の情報を、スマートフォン40に送信する。   The transmission / reception unit 280 transmits the V1 time-series data, the V2 time-series data, the acceleration time-series data, and the angular velocity time-series data acquired from the processing unit 200 to the transmission / reception unit 380 by radio signals. As described above, the transmission / reception unit 280 transmits the electrooculogram information, the acceleration information, and the angular velocity information that are continuously detected to the smartphone 40.

なお、処理部200における処理には、入力眼電位、加速度及び角速度の信号を増幅する増幅処理、入力眼電位、加速度及び角速度の信号をデジタル化するデジタル化処理が含まれる。処理部200は、入力眼電位、加速度及び角速度のアナログ信号を増幅する増幅回路を有してよい。処理部200は、入力眼電位、加速度及び角速度のアナログ信号又は増幅回路で増幅されたアナログ信号をデジタル化するAD変換回路を有してよい。   Note that the processing in the processing unit 200 includes amplification processing for amplifying the input ocular potential, acceleration, and angular velocity signals, and digitization processing for digitizing the input ocular potential, acceleration, and angular velocity signals. The processing unit 200 may include an amplifier circuit that amplifies analog signals of input electrooculogram, acceleration, and angular velocity. The processing unit 200 may include an analog-to-digital conversion circuit that digitizes an analog signal of input electrooculogram, acceleration, and angular velocity or an analog signal amplified by an amplifier circuit.

スマートフォン40において、電源部390は、二次電池等の電池を含む。電源部390は、処理部300、送受信部380及びUI部370を含むスマートフォン40の各部に電力を供給する。   In the smartphone 40, the power supply unit 390 includes a battery such as a secondary battery. The power supply unit 390 supplies power to each unit of the smartphone 40 including the processing unit 300, the transmission / reception unit 380, and the UI unit 370.

UI部370は、ユーザ20とのユーザインタフェース(UI)を提供する。例えば、UI部370は、タッチパネル等の表示部、操作キー、音生成装置等を含む。   The UI unit 370 provides a user interface (UI) with the user 20. For example, the UI unit 370 includes a display unit such as a touch panel, operation keys, a sound generation device, and the like.

格納部360は、記憶媒体で実現される。記録媒体としては、揮発性記憶媒体、不揮発性記憶媒体等を例示できる。格納部360は、処理部300の動作に必要な各種のパラメータを格納する。また、格納部360は、処理部300で生成された各種の情報を格納する。   Storage unit 360 is implemented by a storage medium. Examples of the recording medium include a volatile storage medium and a nonvolatile storage medium. The storage unit 360 stores various parameters necessary for the operation of the processing unit 300. The storage unit 360 stores various types of information generated by the processing unit 300.

送受信部380は、メガネ100と無線通信する機能を担う。送受信部380は、Bluetooth(登録商標)等の近距離無線通信機能を有する通信用プロセッサで実現される。送受信部380と送受信部280とは、Bluetooth(登録商標)規格に従って無線通信を行う。なお、送受信部280と送受信部380との間の通信は、Bluetooth(登録商標)通信に限られない。送受信部280と送受信部380との間の通信は、例えば無線LAN等を含む様々な方式の無線通信で実現され得る。送受信部280と送受信部380との間の通信は、USB等を含む様々な方式の有線通信によって実現され得る。   The transmission / reception unit 380 has a function of performing wireless communication with the glasses 100. The transmission / reception unit 380 is realized by a communication processor having a short-range wireless communication function such as Bluetooth (registered trademark). The transmission / reception unit 380 and the transmission / reception unit 280 perform wireless communication in accordance with the Bluetooth (registered trademark) standard. Note that communication between the transmission / reception unit 280 and the transmission / reception unit 380 is not limited to Bluetooth (registered trademark) communication. Communication between the transmission / reception unit 280 and the transmission / reception unit 380 can be realized by various types of wireless communication including, for example, a wireless LAN. Communication between the transmission / reception unit 280 and the transmission / reception unit 380 can be realized by various types of wired communication including USB.

送受信部380は、メガネ100から送信された眼電位を示す情報を受信する。また、送受信部380は、メガネ100から送信された加速度を示す情報を受信する。また、送受信部380は、メガネ100から送信された角速度を示す情報を受信する。具体的には、送受信部380は、送受信部280から受信した無線信号を受信して、受信した無線信号を復調して、V1の時系列データ、V2の時系列データ、加速度の時系列データ及び角速度の時系列データを含む受信データを生成する。送受信部380は、生成した受信データを、処理部300に出力する。   The transmission / reception unit 380 receives information indicating the electrooculogram transmitted from the glasses 100. In addition, the transmission / reception unit 380 receives information indicating the acceleration transmitted from the glasses 100. In addition, the transmission / reception unit 380 receives information indicating the angular velocity transmitted from the glasses 100. Specifically, the transmission / reception unit 380 receives the radio signal received from the transmission / reception unit 280, demodulates the received radio signal, and performs time series data of V1, time series data of V2, time series data of acceleration, and Receive data including time-series data of angular velocity is generated. The transmission / reception unit 380 outputs the generated reception data to the processing unit 300.

処理部300は、眼電位取得部310、加速度取得部320、角速度取得部322、ロック制御部330、相関取得部340及び解析部350を有する。   The processing unit 300 includes an electrooculogram acquisition unit 310, an acceleration acquisition unit 320, an angular velocity acquisition unit 322, a lock control unit 330, a correlation acquisition unit 340, and an analysis unit 350.

眼電位取得部310は、ユーザ20に装着された眼電位検出部で検出されたユーザ20の眼電位を取得する。具体的には、眼電位取得部310は、ユーザ20が装着しているメガネ100に設けられた第1電極151、第2電極152及び第3電極153で検出されたユーザ20の眼電位を取得する。より具体的には、眼電位取得部310は、送受信部380から出力された受信データからV1の時系列データ及びV2の時系列データを抽出することにより、メガネ100で検出された眼電位を取得する。   The electrooculogram acquisition unit 310 acquires the electrooculogram of the user 20 detected by the electrooculogram detection unit attached to the user 20. Specifically, the electrooculogram acquisition unit 310 acquires the electrooculogram of the user 20 detected by the first electrode 151, the second electrode 152, and the third electrode 153 provided in the glasses 100 worn by the user 20. To do. More specifically, the electrooculogram acquisition unit 310 acquires the electrooculogram detected by the glasses 100 by extracting the time series data of V1 and the time series data of V2 from the reception data output from the transmission / reception unit 380. To do.

加速度取得部320は、メガネ100で検出された、メガネ100の加速度を取得する。具体的には、加速度取得部320は、送受信部380で受信した情報に基づいて、メガネ100で検出された加速度を取得する。より具体的には、加速度取得部320は、送受信部380から出力された受信データから加速度データを抽出することにより、メガネ100で検出された加速度を取得する。   The acceleration acquisition unit 320 acquires the acceleration of the glasses 100 detected by the glasses 100. Specifically, the acceleration acquisition unit 320 acquires the acceleration detected by the glasses 100 based on the information received by the transmission / reception unit 380. More specifically, the acceleration acquisition unit 320 acquires the acceleration detected by the glasses 100 by extracting the acceleration data from the reception data output from the transmission / reception unit 380.

角速度取得部322は、メガネ100で検出された、メガネ100の角速度を取得する。具体的には、角速度取得部322は、送受信部380で受信した情報に基づいて、メガネ100で検出された角速度を取得する。より具体的には、角速度取得部322は、送受信部380から出力された受信データから角速度データを抽出することにより、メガネ100で検出された角速度を取得する。   The angular velocity acquisition unit 322 acquires the angular velocity of the glasses 100 detected by the glasses 100. Specifically, the angular velocity acquisition unit 322 acquires the angular velocity detected by the glasses 100 based on the information received by the transmission / reception unit 380. More specifically, the angular velocity acquisition unit 322 acquires the angular velocity detected by the glasses 100 by extracting the angular velocity data from the reception data output from the transmission / reception unit 380.

ロック制御部330は、眼電位取得部310が取得した眼電位が予め定められた条件を満たすと判断した場合に、情報処理装置のロック状態を解除する。相関取得部340は、ロック制御部330によって眼電位が予め定められた条件を満たすと判断された場合に、眼電位取得部310が取得した眼電位と、予め定められた条件に対応する視線方向とに基づいて、眼電位とユーザ20の視線方向との間の相関を取得する。   When the lock control unit 330 determines that the electrooculogram acquired by the electrooculogram acquisition unit 310 satisfies a predetermined condition, the lock control unit 330 unlocks the information processing apparatus. The correlation acquisition unit 340, when the lock control unit 330 determines that the electrooculogram satisfies a predetermined condition, the electrooculogram acquired by the electrooculogram acquisition unit 310 and the gaze direction corresponding to the predetermined condition Based on the above, the correlation between the electrooculogram and the line-of-sight direction of the user 20 is acquired.

一例として、予め定められた条件に対応する視線方向は、ロック状態を解除するためにユーザ20が予め定められた順で見るべき第1位置及び第2位置の位置関係を規定する。そして、ロック制御部330は、第1タイミングで検出された第1の眼電位と第2タイミングで検出された第2の眼電位との間の眼電位の変化量が示す位置関係と、第1位置及び第2位置の位置関係とを比較することにより、眼電位取得部310が取得した眼電位が当該予め定められた条件を満たすか否かを判断する。例えば、ロック制御部330は、第1タイミングで検出された第1の眼電位と第2タイミングで検出された第2の眼電位との間の眼電位の変化量が示す位置関係と、第1位置及び第2位置の位置関係とが、予め定められた値より高い一致度で一致した場合に、眼電位取得部310が取得した眼電位が当該予め定められた条件を満たすと判断する。例えば、ロック制御部330は、第1タイミングで検出された第1の眼電位と第2タイミングで検出された第2の眼電位との間の眼電位の変化量が示す視線方向の方向と、第1位置から第2位置の変化方向とが、略一致した場合に、眼電位取得部310が取得した眼電位が当該予め定められた条件を満たすと判断する。   As an example, the line-of-sight direction corresponding to a predetermined condition defines the positional relationship between the first position and the second position that the user 20 should see in a predetermined order in order to release the locked state. Then, the lock control unit 330 includes a positional relationship indicated by a change amount of the electrooculogram between the first electrooculogram detected at the first timing and the second electrooculogram detected at the second timing, and the first By comparing the positional relationship between the position and the second position, it is determined whether or not the electrooculogram acquired by the electrooculogram acquisition unit 310 satisfies the predetermined condition. For example, the lock control unit 330 includes the positional relationship indicated by the amount of change in electrooculogram between the first electrooculogram detected at the first timing and the second electrooculogram detected at the second timing, When the positional relationship between the position and the second position matches with a degree of coincidence higher than a predetermined value, it is determined that the electrooculogram acquired by the electrooculogram acquisition unit 310 satisfies the predetermined condition. For example, the lock control unit 330 has a gaze direction indicated by an electrooculogram change amount between the first electrooculogram detected at the first timing and the second electrooculogram detected at the second timing; When the direction of change from the first position to the second position substantially matches, it is determined that the electrooculogram acquired by the electrooculogram acquisition unit 310 satisfies the predetermined condition.

ロック制御部330は、表示部による表示領域内における第1位置及び第2位置にそれぞれ対応する位置に、マーカを表示させる。具体的には、ロック制御部330は、例えばパスコード入力画面42を表示させる。ロック制御部330は、眼電位に基づいて特定したユーザ20の視線方向の変化方向が、パスコード入力画面42に表示させたパスコードの表示位置の位置関係から期待される視線方向の変化方向と略一致している場合に、眼電位取得部310が取得した眼電位が予め定められた条件を満たすと判断する。   The lock control unit 330 displays a marker at a position corresponding to each of the first position and the second position in the display area by the display unit. Specifically, the lock control unit 330 displays a passcode input screen 42, for example. The lock control unit 330 is configured such that the change direction of the line-of-sight direction of the user 20 specified based on the electrooculogram is expected from the change direction of the line-of-sight direction expected from the positional relationship of the display position of the passcode displayed on the passcode input screen 42. If they substantially match, it is determined that the electrooculogram acquired by the electrooculogram acquisition unit 310 satisfies a predetermined condition.

解析部350は、眼電位取得部310により取得された眼電位を解析する。具体的には、解析部350は、眼電位取得部310により取得された連続的な眼電位の情報を用いて、複数のタイミングにおけるユーザ20の状態を特定する。例えば、解析部350は、眼電位取得部310により取得された連続的な第1眼電位及び第2眼電位の情報を用いて、複数のタイミングにおけるユーザ20の状態を特定する。ユーザ20の状態としては、ユーザ20の視線方向等を例示できる。解析部350は、ユーザ20の視線方向を特定する視線方向特定部として機能する。   The analysis unit 350 analyzes the electrooculogram acquired by the electrooculogram acquisition unit 310. Specifically, the analysis unit 350 uses the continuous electrooculogram information acquired by the electrooculogram acquisition unit 310 to specify the state of the user 20 at a plurality of timings. For example, the analysis unit 350 specifies the state of the user 20 at a plurality of timings using information on the continuous first and second electrooculograms acquired by the electrooculogram acquisition unit 310. Examples of the state of the user 20 include the user's 20 line-of-sight direction. The analysis unit 350 functions as a gaze direction identification unit that identifies the gaze direction of the user 20.

例えば、解析部350は、相関取得部340が取得した相関を示す情報を、相関取得部340から取得する。解析部350は、相関取得部340が取得した相関と、ロック状態が解除された後に検出された眼電位とに基づいて、ロック状態が解除された後におけるユーザ20の視線方向を特定する。このように、解析部350は、相関取得部340が取得した眼電位の相関情報と、眼電位取得部310により取得された連続的な眼電位の情報とを用いて、ユーザの視線方向を特定する。   For example, the analysis unit 350 acquires information indicating the correlation acquired by the correlation acquisition unit 340 from the correlation acquisition unit 340. The analysis unit 350 specifies the line-of-sight direction of the user 20 after the lock state is released based on the correlation acquired by the correlation acquisition unit 340 and the electrooculogram detected after the lock state is released. In this way, the analysis unit 350 identifies the user's line-of-sight direction using the correlation information of the electrooculogram acquired by the correlation acquisition unit 340 and the continuous electrooculogram information acquired by the electrooculogram acquisition unit 310. To do.

また、解析部350は、特定したユーザ20の視線方向を解析して、ユーザ20の状態を特定する。また、解析部350は、第1眼電位又は第2眼電位に基づいて、瞬目の有無を特定する。また、解析部350は、視線方向及びユーザ20の瞬目状態を解析して、ユーザ20の状態を特定する。例えば、解析部350は、ユーザ20の状態として、ユーザ20に疲れ、痛み等が生じているか否かを判断する。解析部350は、ユーザ20に疲れ、痛み等が生じていると判断した場合、UI部370を通じてユーザ20に警告を発する。このように、解析部350が、相関取得部340が取得した相関と、ロック状態が解除された後に検出された眼電位とに基づいて、ユーザ20の状態を特定するので、解析部350は、ユーザ20の状態をきちんと特定できる。   In addition, the analysis unit 350 analyzes the identified line-of-sight direction of the user 20 and identifies the state of the user 20. Moreover, the analysis part 350 specifies the presence or absence of a blink based on a 1st ocular potential or a 2nd ocular potential. The analysis unit 350 also analyzes the line-of-sight direction and the blink state of the user 20 to identify the state of the user 20. For example, the analysis unit 350 determines whether the user 20 is tired or painful as the state of the user 20. The analysis unit 350 issues a warning to the user 20 through the UI unit 370 when it is determined that the user 20 is tired or painful. Thus, the analysis unit 350 identifies the state of the user 20 based on the correlation acquired by the correlation acquisition unit 340 and the electrooculogram detected after the lock state is released. The state of the user 20 can be identified properly.

また、解析部350は、特定したユーザ20の視線方向に基づいて、ユーザ20からの指示を特定する。例えば、スマートフォン40においては、視線方向の変化の組み合わせと、スマートフォン40に対する指示とが予め対応づけられている。解析部350は、予め定められた時間内に特定したユーザ20の視線方向の変化に適合する組み合わせに対応づけられている指示を、ユーザ20からの指示として特定する。処理部300は、ユーザ20からの指示に基づき、スマートフォン40の各部の動作を制御する。例えば、処理部300は、予め定められた再生順序で音楽を再生している場合に、解析部350によってユーザ20の視線方向に基づきユーザ20から次の曲を再生するよう指示されたことが特定されると、再生順序において現在再生中の次の順番の曲の再生を開始する。このように、解析部350が、相関取得部340が取得した相関と、ロック状態が解除された後に検出された眼電位とに基づいて、ユーザ20の指示を特定するので、解析部350は、スマートフォン40に対するユーザ20の指示をきちんと特定できる。これにより、ユーザ20は、ユーザ20の視線によって、スマートフォン40をきちんと操作することができる。   In addition, the analysis unit 350 identifies an instruction from the user 20 based on the identified line-of-sight direction of the user 20. For example, in the smartphone 40, a combination of changes in the line-of-sight direction and an instruction for the smartphone 40 are associated in advance. The analysis unit 350 specifies, as an instruction from the user 20, an instruction associated with a combination that matches the change in the line-of-sight direction of the user 20 specified within a predetermined time. The processing unit 300 controls the operation of each unit of the smartphone 40 based on an instruction from the user 20. For example, when the processing unit 300 is playing music in a predetermined playback order, the processing unit 300 specifies that the analysis unit 350 has instructed the user 20 to play the next song based on the line-of-sight direction of the user 20 Then, the reproduction of the music in the next order currently being reproduced in the reproduction order is started. As described above, the analysis unit 350 specifies the instruction of the user 20 based on the correlation acquired by the correlation acquisition unit 340 and the electrooculogram detected after the lock state is released. The instruction of the user 20 with respect to the smartphone 40 can be specified properly. Thereby, the user 20 can operate the smart phone 40 properly according to the user's 20 line of sight.

また、解析部350は、加速度取得部320により取得された加速度及び角速度取得部322により取得された角速度の少なくとも一方の情報を解析してユーザ20の動きを特定する。例えば、解析部350は、加速度及び角速度の少なくとも一方の情報に基づいて、ユーザ20の体部のランニングフォームを特定する。格納部360は、上述した眼電位の情報の解析結果と、特定したユーザ20の動きを示す情報とを対応づけて、格納部360に格納させる。UI部370は、格納部360に格納されているランニングフォームと視線方向とに基づくトータルのランニング姿勢を表す情報を、映像等によりユーザ20に提示してよい。例えば、UI部370は、ランニングフォームを表すアイコンとともに、ユーザ20の視線方向を示す矢印等のアイコンを、ユーザ20に提示してよい。   The analysis unit 350 also analyzes at least one of the acceleration acquired by the acceleration acquisition unit 320 and the angular velocity acquired by the angular velocity acquisition unit 322 to identify the movement of the user 20. For example, the analysis unit 350 specifies the running form of the body part of the user 20 based on at least one of acceleration and angular velocity. The storage unit 360 causes the storage unit 360 to store the electrooculogram information analysis result described above and the information indicating the identified movement of the user 20 in association with each other. The UI unit 370 may present information representing the total running posture based on the running form and the line-of-sight direction stored in the storage unit 360 to the user 20 using a video or the like. For example, the UI unit 370 may present an icon such as an arrow indicating the viewing direction of the user 20 to the user 20 together with an icon representing the running form.

眼電位情報処理システム10によれば、スマートフォン40は、ユーザ20がスマートフォン40のロックを解除する動作をすることで、眼電位とユーザ20の視線方向との間の相関を取得できる。そのため、その後に検出される眼電位に基づいて、ユーザ20の視線方向をより正しく特定できる。   According to the electrooculogram information processing system 10, the smartphone 40 can acquire the correlation between the electrooculogram and the visual line direction of the user 20 when the user 20 performs an operation of releasing the lock of the smartphone 40. Therefore, the line-of-sight direction of the user 20 can be more correctly specified based on the electrooculogram detected thereafter.

図4は、メガネ100が有する眼電位検出用電極とユーザ20との位置関係を概略的に示す。図4には、ユーザ20がメガネ100を装着している場合において、眼電位検出用電極がユーザ20に接触する位置である接触位置が示されている。   FIG. 4 schematically shows the positional relationship between the electrooculogram detection electrode of the glasses 100 and the user 20. FIG. 4 shows a contact position where the electrooculogram detection electrode contacts the user 20 when the user 20 is wearing the glasses 100.

第1接触位置451は、第1電極151がユーザ20に接触する位置を表す。第2接触位置452は、第2電極152がユーザ20に接触する位置を表す。第3接触位置453は、第3電極153がユーザ20に接触する位置を表す。   The first contact position 451 represents a position where the first electrode 151 contacts the user 20. The second contact position 452 represents a position where the second electrode 152 contacts the user 20. The third contact position 453 represents a position where the third electrode 153 contacts the user 20.

第1接触位置451及び第2接触位置452は、右眼の眼球401の角膜411の中心及び左眼の眼球402の角膜412の中心より、下側に位置する。   The first contact position 451 and the second contact position 452 are located below the center of the cornea 411 of the right-eye eyeball 401 and the center of the cornea 412 of the left-eye eyeball 402.

第1接触位置451及び第2接触位置452は、第1接触位置451と眼球401との間の距離と、第2接触位置452と眼球402との間の距離とが略等しい位置にあることが望ましい。また、第1接触位置451及び第2接触位置452は、互いに一定の距離以上離間していることが望ましい。   The first contact position 451 and the second contact position 452 may be at positions where the distance between the first contact position 451 and the eyeball 401 and the distance between the second contact position 452 and the eyeball 402 are substantially equal. desirable. Further, it is desirable that the first contact position 451 and the second contact position 452 are separated from each other by a certain distance or more.

第3接触位置453は、右眼の眼球401の角膜411の中心及び左眼の眼球402の角膜412の中心より、上側に位置する。第3接触位置453の位置は、第3接触位置453と第1接触位置451との間の距離と、第3接触位置453と第2接触位置452との間の距離とが略等しくなる位置にあってよい。第3接触位置453は、第3接触位置453と眼球401との間の距離が、眼球401と第1接触位置451との間の距離より離間し、かつ、第3接触位置453と眼球402との間の距離が、眼球402と第2接触位置452との間の距離より離間する位置にあってよい。   The third contact position 453 is located above the center of the cornea 411 of the right eyeball 401 and the center of the cornea 412 of the left eyeball 402. The position of the third contact position 453 is a position where the distance between the third contact position 453 and the first contact position 451 and the distance between the third contact position 453 and the second contact position 452 are substantially equal. It may be. The third contact position 453 is such that the distance between the third contact position 453 and the eyeball 401 is separated from the distance between the eyeball 401 and the first contact position 451, and the third contact position 453 and the eyeball 402 are separated from each other. May be at a position that is separated from the distance between the eyeball 402 and the second contact position 452.

眼球においては、角膜側が正に帯電しており、網膜側が負に帯電している。したがって、ユーザ20の視線方向が上方に変化した場合、第3電極153を基準とした第1電極151の電位であるV1及び第3電極153を基準とした第2電極152の電位であるV2は、ともに低下する。ユーザ20の視線方向が下方に変化した場合、V1及びV2の電位はともに上昇する。ユーザ20の視線方向が右方に変化した場合、V1は低下し、V2は上昇する。ユーザ20の視線方向が左方に変化した場合、V1は上昇し、V2は低下する。解析部350は、V1の変化及びV2の変化に基づいて、視線方向が変化した方向を特定する。   In the eyeball, the cornea side is positively charged and the retina side is negatively charged. Therefore, when the line-of-sight direction of the user 20 changes upward, V1 that is the potential of the first electrode 151 with respect to the third electrode 153 and V2 that is the potential of the second electrode 152 with respect to the third electrode 153 are Both will decline. When the line-of-sight direction of the user 20 changes downward, both the potentials V1 and V2 rise. When the line-of-sight direction of the user 20 changes to the right, V1 decreases and V2 increases. When the line-of-sight direction of the user 20 changes to the left, V1 increases and V2 decreases. The analysis unit 350 identifies the direction in which the line-of-sight direction has changed based on the change in V1 and the change in V2.

なお、処理部200は、V1及びV2を検出することにより、右眼の眼電位及び左眼の眼電位を測定する。そのため、眼電位に加わるノイズの影響を軽減できる。   Note that the processing unit 200 measures the electrooculogram of the right eye and the electrooculogram of the left eye by detecting V1 and V2. Therefore, the influence of noise applied to the electrooculogram can be reduced.

なお、ユーザ20の頭部を固定したとすると、ユーザ20の視線方向は、眼球401の向き及び眼球402の向きによって定まる。ユーザ20の視線方向は、ユーザ20の頭部の向きによっても変わるから、ユーザ20のグローバルな視線方向は、眼球401の向き、眼球401及びユーザ20の頭部の向きによって定まる。本実施形態の説明において、眼球401の向き及び眼球401の向きによって定まる視線方向のことを、単に視線方向という場合がある。   If the head of the user 20 is fixed, the line-of-sight direction of the user 20 is determined by the direction of the eyeball 401 and the direction of the eyeball 402. Since the line-of-sight direction of the user 20 also changes depending on the direction of the head of the user 20, the global line-of-sight direction of the user 20 is determined by the direction of the eyeball 401, the direction of the eyeball 401 and the head of the user 20. In the description of the present embodiment, the line-of-sight direction determined by the direction of the eyeball 401 and the direction of the eyeball 401 may be simply referred to as the line-of-sight direction.

図5は、ユーザ20の視線方向の変化を概略的に示す。ここでは、眼球401の向きを取り上げる。特に、xz平面内における眼球401の向きを取り上げる。図5では、眼球401が角度θ1の方向を向いている状態から、眼球401がxz面内で回転した場合を示す。   FIG. 5 schematically shows a change in the viewing direction of the user 20. Here, the direction of the eyeball 401 is taken up. In particular, the direction of the eyeball 401 in the xz plane will be taken up. FIG. 5 shows a case where the eyeball 401 is rotated in the xz plane from the state where the eyeball 401 is oriented in the direction of the angle θ1.

眼球401が角度θ1の方向を向いている状態から、眼球401がxz面内で回転することで角膜411の位置が変化すると、角膜411の位置に応じてV1が変化する。解析部350は、V1の変化量に基づいて、眼球401の回転角度の変化量である角度変化量Δθ1を特定する。解析部350は、変化前の角度θ1と角度変化量Δθ1とに基づいて、回転後の眼球401の角度を特定する。具体的には、解析部350は、眼球401がθ1+Δθ1の角度を向いていると判断する。   When the position of the cornea 411 changes as the eyeball 401 rotates in the xz plane from the state in which the eyeball 401 is oriented in the direction of the angle θ1, V1 changes according to the position of the cornea 411. The analysis unit 350 identifies the angle change amount Δθ1 that is the change amount of the rotation angle of the eyeball 401 based on the change amount of V1. The analysis unit 350 identifies the angle of the eyeball 401 after the rotation based on the angle θ1 before the change and the angle change amount Δθ1. Specifically, analysis unit 350 determines that eyeball 401 is oriented at an angle of θ1 + Δθ1.

本図においては、xy面内の回転角度について説明したが、他の面内の回転角度についても同様に特定できる。このように、解析部350は、V1の時間変化に基づいて眼球401の向きを特定する。なお、解析部350は、眼球401の角度に関する処理と同様の処理により、V2の時間変化に基づいて、眼球402の向きを特定する。   In this figure, the rotation angle in the xy plane has been described, but the rotation angles in other planes can be specified in the same manner. As described above, the analysis unit 350 specifies the orientation of the eyeball 401 based on the temporal change of V1. Note that the analysis unit 350 identifies the orientation of the eyeball 402 based on the time change of V2 by the same processing as the processing related to the angle of the eyeball 401.

解析部350は、眼球401の向き及び眼球402の向きに基づいて、ユーザ20の視線方向を特定する。例えば、解析部350は、眼球401の向きのベクトルと、眼球402の向きのベクトルとを合成したベクトルが向く方向を、ユーザ20の視線方向として特定してよい。   The analysis unit 350 identifies the line-of-sight direction of the user 20 based on the orientation of the eyeball 401 and the orientation of the eyeball 402. For example, the analysis unit 350 may specify a direction in which a vector obtained by combining a vector of the direction of the eyeball 401 and a vector of the direction of the eyeball 402 faces as the line-of-sight direction of the user 20.

なお、眼球401の向き及び眼球402の向きは、ユーザ20の視線方向を表す指標の一例である。また、ユーザ20の視線方向とは、眼球401の向きのベクトル及び眼球402の向きのベクトル等から定まる1つの視線方向であってよい。すなわち、解析部350は、V1及びV2から、当該1つの視線方向を特定してよい。この場合、解析部350は、眼球401の向き及び眼球402の向きを特定することなく、V1の変化量及びV2の変化量に基づく予め定められた演算を行うことで、1つの視線方向を特定してよい。例えば、解析部350は、V1の変化量及びV2の変化量と1つの視線方向の変化量とを対応づける予め定められた演算を行うことで、1つの視線方向を特定してよい。   Note that the orientation of the eyeball 401 and the orientation of the eyeball 402 are examples of indices representing the line-of-sight direction of the user 20. Further, the line-of-sight direction of the user 20 may be one line-of-sight direction determined from a vector of the direction of the eyeball 401, a vector of the direction of the eyeball 402, and the like. That is, the analysis unit 350 may specify the one line-of-sight direction from V1 and V2. In this case, the analysis unit 350 specifies one gaze direction by performing a predetermined calculation based on the change amount of V1 and the change amount of V2 without specifying the direction of the eyeball 401 and the direction of the eyeball 402. You can do it. For example, the analysis unit 350 may specify one gaze direction by performing a predetermined calculation that associates the variation amount of V1 and the variation amount of V2 with the variation amount of one gaze direction.

なお、眼球401の向きは、角膜411の位置と言い換えることができる。また、眼球402の向きを、角膜412の位置と言い換えることができる。すなわち、解析部350は、メガネ100で検出された眼電位に基づき、ユーザ20の角膜の位置を特定してよい。また、眼球401の向きの変化を、眼球401の眼球運動と言い換えることができる。また、眼球402の向きの変化を、眼球運動と言い換えることができる。すなわち、解析部350は、メガネ100で検出された眼電位に基づき、ユーザ20の眼球運動を特定してよい。   Note that the direction of the eyeball 401 can be rephrased as the position of the cornea 411. Further, the direction of the eyeball 402 can be rephrased as the position of the cornea 412. That is, the analysis unit 350 may specify the position of the cornea of the user 20 based on the electrooculogram detected by the glasses 100. Further, the change in the direction of the eyeball 401 can be rephrased as the eyeball movement of the eyeball 401. Further, a change in the direction of the eyeball 402 can be rephrased as eyeball movement. That is, the analysis unit 350 may specify the eye movement of the user 20 based on the electrooculogram detected by the glasses 100.

図6は、UI部370が表示するパスコード入力画面42の一例を示す。ここでは、正しいパスコードとして、「123」が設定されているとする。パスコードは、ユーザ20が設定可能である。ユーザ20が設定したパスコードを示す情報は、格納部360に格納される。   FIG. 6 shows an example of the passcode input screen 42 displayed by the UI unit 370. Here, it is assumed that “123” is set as the correct passcode. The passcode can be set by the user 20. Information indicating the passcode set by the user 20 is stored in the storage unit 360.

ロック制御部330は、ユーザ20が設定したパスコードの数字「1」、「2」及び「3」をそれぞれ表すマークと、ユーザ20が設定したパスコードの数字以外の数字「4」、「5」、「6」、「7」、「8」及び「9」をそれぞれ表すマークとを、UI部370に表示させる。   The lock control unit 330 includes marks representing the passcode numbers “1”, “2”, and “3” set by the user 20, and numbers “4” and “5” other than the passcode numbers set by the user 20. , “6”, “7”, “8”, and “9” are displayed on the UI unit 370.

パスコード入力画面42において、ユーザ20が、「1」の表示位置、「2」の表示位置及び「3」の表示位置をこの順番で見ることで、パスコードが解除され得る。ロック制御部330は、V1及びV2の変化を監視して、V1及びV2の変化方向に基づいて視線方向の変化を特定することで、ユーザ20が「1」の表示位置、「2」の表示位置及び「3」の表示位置を順に見たか否かを判断する。   On the passcode input screen 42, the user 20 can release the passcode by viewing the display position “1”, the display position “2”, and the display position “3” in this order. The lock control unit 330 monitors changes in V1 and V2, and specifies a change in the line-of-sight direction based on the change directions of V1 and V2, so that the user 20 can display the display position “1” and “2”. It is determined whether or not the position and the display position “3” have been viewed in order.

図7は、眼電位の時間発展の一例を、ロック制御部330による制御内容とともに概略的に示す。ここでは、パスコード入力中において取得されたV1及びV2の時間発展の一例を概略的に示す。   FIG. 7 schematically shows an example of temporal development of the electrooculogram together with the contents of control by the lock control unit 330. Here, an example of temporal development of V1 and V2 acquired during passcode input is schematically shown.

グラフ601は、V1の時間発展を示す。グラフ602は、V2の時間発展を示す。グラフ601及びグラフ602の横軸は、時間を表す。グラフ601の縦軸はV1を表す。グラフ602の縦軸はV2を表す。   A graph 601 shows the time evolution of V1. Graph 602 shows the time evolution of V2. The horizontal axis of the graph 601 and the graph 602 represents time. The vertical axis of the graph 601 represents V1. The vertical axis of the graph 602 represents V2.

時刻t0において、UI部370は、パスコードロック画面を表示する。ロック制御部330は、V1及びV2を連続的に監視する。   At time t0, the UI unit 370 displays a passcode lock screen. The lock control unit 330 continuously monitors V1 and V2.

時刻t1において、ロック制御部330は、V1が実質的に上昇し、V2が実質的に低下したと判断する。ロック制御部330は、時刻t1におけるV1の変化方向及びV2の変化方向に基づいて、時刻t1において、ユーザ20の視線方向が左方に変化したと判断する。ロック制御部330は、時刻t1の時点で、1番目に見るべきコードの表示位置をユーザ20が見ていると判断する。   At time t1, the lock control unit 330 determines that V1 has substantially increased and V2 has substantially decreased. Based on the change direction of V1 and the change direction of V2 at time t1, the lock control unit 330 determines that the line-of-sight direction of the user 20 has changed to the left at time t1. The lock control unit 330 determines that the user 20 is viewing the display position of the code to be viewed first at time t1.

続いて、時刻t2において、ロック制御部330は、V1が実質的に低下し、V2が実質的に上昇したと判断する。ロック制御部330は、時刻t2におけるV1の変化方向及びV2の変化方向に基づいて、時刻t2において、ユーザ20の視線方向が右方に変化したと判断する。そして、ロック制御部330は、時刻t2の時点で、2番目に見るべきコードの表示位置をユーザ20が見ていると判断する。   Subsequently, at time t2, the lock control unit 330 determines that V1 has substantially decreased and V2 has substantially increased. Based on the change direction of V1 and the change direction of V2 at time t2, the lock control unit 330 determines that the line-of-sight direction of the user 20 has changed to the right at time t2. Then, the lock control unit 330 determines that the user 20 is looking at the display position of the code to be viewed second at the time t2.

続いて、時刻t3において、ロック制御部330は、V1が実質的に上昇し、V2も実質的に上昇したと判断する。ロック制御部330は、時刻t3におけるV1の変化方向及びV2の変化方向に基づいて、時刻t2において、ユーザ20の視線方向が下方に変化したと判断する。そして、ロック制御部330は、時刻t3の時点で、3番目に見るべきコードの表示位置をユーザ20が見ていると判断する。   Subsequently, at time t3, the lock control unit 330 determines that V1 has substantially increased and V2 has also substantially increased. Based on the change direction of V1 and the change direction of V2 at time t3, the lock control unit 330 determines that the line-of-sight direction of the user 20 has changed downward at time t2. Then, the lock control unit 330 determines that the user 20 is viewing the display position of the third code to be viewed at the time t3.

パスコード入力画面42では、パスコード「123」の位置関係は、「2」が「1」より右方にあり、「3」が「2」より下方にある。そのため、ユーザ20が正しいパスコードを視線入力した場合、ユーザ20の視線方向は、右方から下方に変化する。上述したように、時刻t2において右方に変化し、時刻t3において下方に変化しているので、ロック制御部330は、「123」の位置関係を満たす視線方向の変化が検出されたと判断して、正しいパスコードが入力されたと判断する。したがって、ロック制御部330は、時刻t3の後の時刻t4において、ロックを解除する。例えば、ロック制御部330は、ユーザ20がスマートフォン40に対して指示するメニューを表示するメニュー画面をUI部370に表示させる。   On the passcode input screen 42, the positional relationship of the passcode “123” is “2” to the right of “1” and “3” below “2”. Therefore, when the user 20 inputs a correct passcode, the direction of the user's line of sight changes from the right to the bottom. As described above, since it changes to the right at time t2 and changes downward at time t3, the lock control unit 330 determines that a change in the line-of-sight direction that satisfies the positional relationship of “123” has been detected. It is determined that the correct passcode has been entered. Therefore, the lock control unit 330 releases the lock at time t4 after time t3. For example, the lock control unit 330 causes the UI unit 370 to display a menu screen that displays a menu that the user 20 instructs the smartphone 40.

ここで、相関取得部340は、時刻t1におけるユーザ20の視線方向が「1」の表示位置を見る方向にあり、時刻t2におけるユーザ20の視線方向が「2」の表示位置を見る方向にあり、時刻t3におけるユーザ20の視線方向が「3」の表示位置を見る方向にあったと判断する。そして、相関取得部340は、「1」の表示位置と「2」の表示位置との間の視線方向の変化量と、V1の変化量及びV2の変化量との間の相関を、左右方向の相関として取得する。また、相関取得部340は、「2」の表示位置と「3」の表示位置との間の視線方向の変化量と、V1の変化量及びV2の変化量との間の相関を、上下方向の相関として取得する。これにより、相関取得部340は、互いに直交する方向の相関を取得する。   Here, the correlation acquisition unit 340 is in the direction of viewing the display position where the line of sight of the user 20 is “1” at the time t1, and is in the direction of viewing the display position of “2”. Then, it is determined that the line-of-sight direction of the user 20 at time t3 is in the direction of viewing the display position “3”. Then, the correlation acquisition unit 340 calculates the correlation between the change amount in the line-of-sight direction between the display position of “1” and the display position of “2” and the change amount of V1 and the change amount of V2. Obtained as the correlation. In addition, the correlation acquisition unit 340 calculates the correlation between the change amount in the line-of-sight direction between the display position “2” and the display position “3” and the change amount of V1 and the change amount of V2 in the vertical direction. Obtained as the correlation. Thereby, the correlation acquisition part 340 acquires the correlation of the direction orthogonal to each other.

ロックが解除された後、時刻t5において、解析部350は、V1が実質的に上昇し、V2が実質的に低下したと判断する。ロック制御部330は、時刻t3におけるV1の変化方向及びV2の変化方向に基づいて、時刻t5において、ユーザ20の視線方向が左方に変化したと判断する。また、解析部350は、相関取得部340によって取得された左右方向の相関関係と、V1の変化量の大きさ及びV2の変化量の大きさとに基づいて、視線方向の左方向への変化量を算出する。そして、解析部350は、現在の視線方向が、当該変化量だけ変化したと判断する。例えば、時刻t3の時点から視線方向が変わっていないと判断できる場合、解析部350は、パスコード「3」の表示位置を向いている方向から、当該変化量だけ左方に変化した方向を、現在の視線方向として特定してよい。   After unlocking, at time t5, analysis unit 350 determines that V1 has substantially increased and V2 has substantially decreased. Based on the change direction of V1 and the change direction of V2 at time t3, the lock control unit 330 determines that the line-of-sight direction of the user 20 has changed to the left at time t5. The analysis unit 350 also determines the amount of change in the gaze direction to the left based on the correlation in the left-right direction acquired by the correlation acquisition unit 340 and the amount of change in V1 and the amount of change in V2. Is calculated. Then, the analysis unit 350 determines that the current line-of-sight direction has changed by the amount of change. For example, if it can be determined that the line-of-sight direction has not changed since time t3, the analysis unit 350 determines the direction that has changed to the left by the amount of change from the direction facing the display position of the passcode “3”. The current line-of-sight direction may be specified.

なお、ロック制御部330は、パスコード入力画面を表示させる場合、各数字を表すマークの表示位置をランダムに決定してよい。ここで、ロック制御部330は、ユーザ20が設定したパスコードの数字を表す複数のマークの表示面内の位置関係が、全てのマークの任意の組み合せの表示面内の位置関係と相似にならないように、各マークの表示位置を決定してよい。例えば、図6に例示されるパスコード入力画面において、「1」「2」及び「3」のマークの位置関係については、他のどの組み合せでマークを選択しても、同じ位置関係の組合せは得られない。また、「1」「2」、「3」のマークの表示位置を順に結ぶ線で形成される図形の形状は、他の組み合せのマークの表示位置を順に結ぶ線で形成されるどの図形の形状とも異なる。このようにロック制御部330が各マークの表示位置を決定することで、ユーザ20の正確な視線方向を特定できない場合でも、視線方向の変化から正しいパスコードが入力されたか否かを判断できる場合がある。   Note that when displaying the passcode input screen, the lock control unit 330 may randomly determine the display position of the mark representing each number. Here, in the lock control unit 330, the positional relationship in the display surface of the plurality of marks representing the passcode numbers set by the user 20 is not similar to the positional relationship in the display surface of any combination of all marks. Thus, the display position of each mark may be determined. For example, in the passcode input screen illustrated in FIG. 6, regarding the positional relationship of the marks “1”, “2”, and “3”, the combination of the same positional relationship is the same regardless of which combination is selected. I can't get it. The shape of the figure formed by the lines connecting the display positions of the marks “1”, “2”, and “3” in order is the shape of any figure formed by the lines connecting the display positions of the marks of other combinations in order. Also different. As described above, when the lock control unit 330 determines the display position of each mark, even when the user 20 cannot determine the exact line-of-sight direction, it can be determined whether or not the correct passcode is input from the change in the line-of-sight direction. There is.

なお、上述したパスコードの入力方法では、数字によってコードが識別される。コードを識別する情報としては、数字以外に、識別可能な任意の情報を適用できる。マークが表す表示内容が異なれば、ユーザ20はコードを識別できる。コードを識別する情報として、マークの形状、大きさ、色、明るさ等を適用できる。   In the passcode input method described above, the code is identified by a number. As the information for identifying the code, any identifiable information other than numbers can be applied. If the display content represented by the mark is different, the user 20 can identify the code. As information for identifying the code, the shape, size, color, brightness, etc. of the mark can be applied.

なお、以上に説明したパスコード入力は、視線入力に限られない。UI部370がタッチパネル機能を持つ表示部を有する場合、ロック制御部330は、ユーザ20にタッチされたタッチ位置によって、ユーザ20が入力したコードを特定できる。タッチ操作によってコードを入力する場合、相関取得部340は、タッチされた位置をユーザ20が見ていると判断して、タッチされた位置と眼電位との相関を取得してよい。   Note that the passcode input described above is not limited to the line-of-sight input. When the UI unit 370 includes a display unit having a touch panel function, the lock control unit 330 can specify a code input by the user 20 based on a touch position touched by the user 20. When inputting a code by a touch operation, the correlation acquisition unit 340 may determine that the user 20 is looking at the touched position, and may acquire a correlation between the touched position and the electrooculogram.

また、以上に説明したパスコード入力によりロックを解除する方法は、ロックを解除する方法の一例である。ロックを解除する方法の他の例としては、ロック制御部330は、UI部370の表示領域内に表示させるマークの表示位置を時間的に移動させて、当該マークの表示位置をユーザ20の視線またはタッチ操作で追従させてよい。   Further, the method of releasing the lock by inputting the passcode described above is an example of a method of releasing the lock. As another example of the unlocking method, the lock control unit 330 moves the display position of the mark to be displayed in the display area of the UI unit 370 in time, and sets the display position of the mark to the line of sight of the user 20. Or you may make it follow by touch operation.

例えば、ロック制御部330は、ユーザ20の視線方向の変化が、追従させるマークの表示位置の変化に適合していると判断した場合に、ロック状態を解除すると判断してよい。この場合、相関取得部340は、追従させるマークの表示位置の変化と、ユーザ20の視線方向の変化との相関に基づいて、眼電位と視線方向との間の相関を取得してよい。   For example, the lock control unit 330 may determine to release the lock state when it is determined that the change in the viewing direction of the user 20 matches the change in the display position of the mark to be followed. In this case, the correlation acquisition unit 340 may acquire a correlation between the electrooculogram and the line-of-sight direction based on the correlation between the change in the display position of the mark to be followed and the change in the line-of-sight direction of the user 20.

以上に説明した眼電位情報処理システム10においては、V1及びV2を演算する処理は、処理部200が行う。これに代えて、スマートフォン40の解析部350が、V1及びV2を演算する処理を行ってよい。この場合、処理部200は、第1眼電位、第2眼電位及び第3眼電位のそれぞれの時系列データを生成し、送受信部280が第1眼電位、第2眼電位及び第3眼電位のそれぞれの時系列データをスマートフォン40に送信してよい。   In the electrooculogram information processing system 10 described above, the processing unit 200 performs processing for calculating V1 and V2. It replaces with this and the analysis part 350 of the smart phone 40 may perform the process which calculates V1 and V2. In this case, the processing unit 200 generates time series data of the first ocular potential, the second ocular potential, and the third ocular potential, and the transmission / reception unit 280 causes the first ocular potential, the second ocular potential, and the third ocular potential. Each of the time series data may be transmitted to the smartphone 40.

また、以上に説明した眼電位情報処理システム10では、解析部350は、V1及びV2を用いて、ユーザ20の視線方向等のユーザ20の状態を特定する。他にも、解析部350は、V1及びV2の任意の線形結合を用いて、ユーザ20の状態を特定してよい。例えば、解析部350は、V1+V2と、V1−V2とを用いて、ユーザ20の状態を特定してよい。また、解析部350は、V1の時間微分と、V2の時間微分とを用いて、ユーザ20の状態を特定してもよい。また、解析部350は、視線方向を特定するための眼電位として、以上に説明したV1及びV2に代えて、接地電極154等の電位等の予め定められた基準電位を基準とした第1眼電位と、接地電極154の電位を基準とした第2眼電位とを適用してよい。   Further, in the electrooculogram information processing system 10 described above, the analysis unit 350 specifies the state of the user 20 such as the visual line direction of the user 20 using V1 and V2. In addition, the analysis unit 350 may specify the state of the user 20 using an arbitrary linear combination of V1 and V2. For example, the analysis unit 350 may specify the state of the user 20 using V1 + V2 and V1−V2. Moreover, the analysis part 350 may specify the state of the user 20 using the time differentiation of V1 and the time differentiation of V2. In addition, the analysis unit 350 uses the first eye based on a predetermined reference potential such as the potential of the ground electrode 154 instead of the above-described V1 and V2 as the eye potential for specifying the line-of-sight direction. The potential and the second ocular potential based on the potential of the ground electrode 154 may be applied.

なお、加速度を検出する検出部の機能は、スマートフォン40が有してよい。また、角速度を検出する検出部の機能は、スマートフォン40が有してよい。   Note that the smartphone 40 may have a function of a detection unit that detects acceleration. In addition, the smartphone 40 may have a function of a detection unit that detects the angular velocity.

上記の説明において、スマートフォン40において処理部300、送受信部380の動作として説明した処理は、処理部300、送受信部380等のプロセッサがプログラムに従ってスマートフォン40が有する各ハードウェアを制御することにより実現される。このように、本実施形態のスマートフォン40に関連して説明した、スマートフォン40の少なくとも一部の処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータによって実現することができる。コンピュータは、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータは、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。同様に、メガネ100において処理部200、送受信部280の動作として説明した処理は、いわゆるコンピュータによって実現することができる。   In the above description, the processing described as operations of the processing unit 300 and the transmission / reception unit 380 in the smartphone 40 is realized by a processor such as the processing unit 300 and the transmission / reception unit 380 controlling each hardware included in the smartphone 40 according to a program. The As described above, at least a part of the processing of the smartphone 40 described in relation to the smartphone 40 of the present embodiment includes a processor, a memory, and the like by the processor operating according to the program and controlling each hardware. This can be realized by the hardware and the program operating in cooperation. That is, the process can be realized by a so-called computer. The computer may load a program for controlling execution of the above-described processing, operate according to the read program, and execute the processing. The computer can load the program from a computer-readable recording medium storing the program. Similarly, the processing described as the operations of the processing unit 200 and the transmission / reception unit 280 in the glasses 100 can be realized by a so-called computer.

眼電位情報処理システム10は、情報処理システムの一例である。スマートフォン40は、眼電位に限らず、種々の情報を処理してよい。また、スマートフォン40は、メガネ100で検出された眼電位等の情報を処理する情報処理装置の一例である。情報処理装置としては、通信機能を有する種々の電子機器であってよい。情報処理装置は、ユーザ20が所持する携帯電話機、携帯情報端末、携帯音楽プレーヤ等の携帯型の電子機器であってよい。   The electrooculogram information processing system 10 is an example of an information processing system. The smartphone 40 may process various information without being limited to the electrooculogram. The smartphone 40 is an example of an information processing apparatus that processes information such as electrooculogram detected by the glasses 100. The information processing apparatus may be various electronic devices having a communication function. The information processing apparatus may be a portable electronic device such as a mobile phone, a portable information terminal, a portable music player, etc. possessed by the user 20.

なお、アイウエアの一例としてのメガネ100は、ユーザ20の目の屈折異常を補正したり、ユーザ20の目を保護したり、着飾ったりすること等を目的として利用され得る。しかし、アイウエアはメガネに限定されない。アイウエアは、サングラス、ゴーグル、ヘッドマウントディスプレイなどの顔面装着具または頭部装着具であってよい。アイウエアは、顔面装着具または頭部装着具のフレームまたは当該フレームの一部であってもよい。アイウエアは、ユーザに装着され得る装着具の一例である。装着具は、アイウエア等の眼に関連する装着具に限られない。装着具としては、帽子、ヘルメット、ヘッドフォン、補聴器等の様々な部材を適用できる。   The eyeglasses 100 as an example of eyewear can be used for the purpose of correcting the refractive error of the eyes of the user 20, protecting the eyes of the user 20, dressing up, and the like. However, eyewear is not limited to glasses. The eyewear may be a face wearing device such as sunglasses, goggles, a head mounted display, or a head wearing device. The eyewear may be a frame of a face wearing device or a head wearing device or a part of the frame. Eyewear is an example of a wearing tool that can be worn by a user. The wearing tool is not limited to a wearing tool related to the eye such as eyewear. Various members such as a hat, a helmet, headphones, and a hearing aid can be applied as the wearing tool.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 眼電位情報処理システム
100 メガネ
20 ユーザ
40 スマートフォン
42 パスコード入力画面
50 ヘッドフォン
110 レンズ
120 フレーム
122 リム
124 ブリッジ
126 ヨロイ
130 テンプル
132 モダン
141 右ノーズパッド
142 左ノーズパッド
151 第1電極
152 第2電極
153 第3電極
154 接地電極
160 電線部
180 処理ユニット
190 電源ユニット
200 処理部
260 角速度検出部
270 加速度検出部
280 送受信部
290 基板部
300 処理部
310 眼電位取得部
320 加速度取得部
322 角速度取得部
330 ロック制御部
340 相関取得部
350 解析部
360 格納部
370 UI部
380 送受信部
390 電源部
401、402 眼球
411、412 角膜
451 第1接触位置
452 第2接触位置
453 第3接触位置
601、602 グラフ
10 Ocular Potential Information Processing System 100 Glasses 20 User 40 Smartphone 42 Passcode Input Screen 50 Headphone 110 Lens 120 Frame 122 Rim 124 Bridge 126 Yoroi 130 Temple 132 Modern 141 Right Nose Pad 142 Left Nose Pad 151 First Electrode 152 Second Electrode 153 Third electrode 154 Ground electrode 160 Electric wire unit 180 Processing unit 190 Power supply unit 200 Processing unit 260 Angular velocity detection unit 270 Acceleration detection unit 280 Transmission / reception unit 290 Substrate unit 300 Processing unit 310 Ocular potential acquisition unit 320 Acceleration acquisition unit 322 Angular velocity acquisition unit 330 Lock Control unit 340 Correlation acquisition unit 350 Analysis unit 360 Storage unit 370 UI unit 380 Transmission / reception unit 390 Power supply unit 401, 402 Eyeball 411, 412 Cornea 451 First contact position 452 Second contact Position 453 third contact position 601,602 graph

Claims (9)

情報処理装置であって、
連続的に検出されたユーザの眼電位を取得する眼電位取得部と、
前記眼電位取得部が取得した前記眼電位が予め定められた条件を満たすと判断した場合に、前記情報処理装置のロック状態を解除するロック制御部と、
前記ロック制御部によって前記眼電位が前記予め定められた条件を満たすと判断された場合に、前記眼電位と、前記予め定められた条件に対応する視線方向とに基づいて、前記眼電位と前記ユーザの視線方向との間の相関を取得する相関取得部と
を備える情報処理装置。
An information processing apparatus,
An electrooculogram acquisition unit for acquiring the electrooculogram of the user detected continuously;
A lock control unit for releasing the lock state of the information processing device when it is determined that the electrooculogram acquired by the electrooculogram acquisition unit satisfies a predetermined condition;
When the lock control unit determines that the electrooculogram satisfies the predetermined condition, the electrooculogram and the electrooculogram based on the electrooculogram and the line-of-sight direction corresponding to the predetermined condition An information processing apparatus comprising: a correlation acquisition unit that acquires a correlation with a user's line-of-sight direction.
前記相関取得部が取得した前記相関と、前記ロック状態が解除された後に検出された前記眼電位とに基づいて、前記ロック状態が解除された後における前記ユーザの視線方向を特定する視線特定部
をさらに備える請求項1に記載の情報処理装置。
Based on the correlation acquired by the correlation acquisition unit and the electrooculogram detected after the lock state is released, a line-of-sight specifying unit that specifies the user's line-of-sight direction after the lock state is released The information processing apparatus according to claim 1, further comprising:
前記予め定められた条件に対応する視線方向は、前記ロック状態を解除するために前記ユーザが予め定められた順で見るべき第1位置及び第2位置の位置関係を規定し、
前記ロック制御部は、第1タイミングで検出された第1の前記眼電位と第2タイミングで検出された第2の前記眼電位との間の眼電位の変化量によって示される位置関係と、前記第1位置及び前記第2位置の前記位置関係とを比較して、前記眼電位取得部が取得した前記眼電位が前記予め定められた条件を満たすか否かを判断する
請求項1または2に記載の情報処理装置。
The line-of-sight direction corresponding to the predetermined condition defines the positional relationship between the first position and the second position that the user should see in a predetermined order to release the locked state,
The lock control unit includes a positional relationship indicated by an electrooculogram change amount between the first electrooculogram detected at a first timing and the second electrooculogram detected at a second timing; 3. The method according to claim 1, wherein the positional relationship between the first position and the second position is compared to determine whether the electrooculogram acquired by the electrooculogram acquisition unit satisfies the predetermined condition. The information processing apparatus described.
表示部
をさらに備え、
前記ロック制御部は、前記表示部による表示領域内における前記第1位置及び前記第2位置にそれぞれ対応する位置に、マーカを表示させる
請求項3に記載の情報処理装置。
A display unit;
The information processing apparatus according to claim 3, wherein the lock control unit displays a marker at a position corresponding to each of the first position and the second position in a display area by the display unit.
前記眼電位取得部は、前記ユーザに装着された眼電位検出部で検出された前記眼電位を取得する
請求項1から4のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 4, wherein the electrooculogram acquisition unit acquires the electrooculogram detected by an electrooculogram detection unit attached to the user.
前記眼電位取得部は、前記ユーザが装着している装着具に設けられた前記眼電位検出部で検出された前記眼電位を取得する
請求項5に記載の情報処理装置。
The information processing apparatus according to claim 5, wherein the electrooculogram acquisition unit acquires the electrooculogram detected by the electrooculogram detection unit provided in a wearing tool worn by the user.
前記眼電位取得部は、前記ユーザが装着しているアイウエアに設けられた前記眼電位検出部で検出された前記眼電位を取得する
請求項6に記載の情報処理装置。
The information processing apparatus according to claim 6, wherein the electrooculogram acquisition unit acquires the electrooculogram detected by the electrooculogram detection unit provided in eyewear worn by the user.
請求項1から4のいずれか一項に記載の情報処理装置と、
前記ユーザに装着される装着具と
を備え、
前記眼電位取得部は、前記装着具に設けられた眼電位検出部で検出された前記眼電位を取得する
情報処理システム。
An information processing apparatus according to any one of claims 1 to 4,
A wearing tool to be worn by the user,
The information processing system in which the electrooculogram acquisition unit acquires the electrooculogram detected by an electrooculogram detection unit provided in the wearing tool.
コンピュータを、
連続的に検出されたユーザの眼電位を取得する眼電位取得部、
前記眼電位取得部が取得した前記眼電位が予め定められた条件を満たすと判断した場合に、前記コンピュータのロック状態を解除するロック制御部、
前記ロック制御部によって前記眼電位が予め定められた条件を満たすと判断された場合に、前記眼電位と、前記予め定められた条件に対応する基準視線方向とに基づいて、前記眼電位と前記ユーザの視線方向との間の相関を取得する相関取得部
として機能させるためのプログラム。
Computer
An electrooculogram acquisition unit for acquiring the electrooculogram of the user detected continuously;
A lock control unit for releasing the locked state of the computer when it is determined that the electrooculogram acquired by the electrooculogram acquisition unit satisfies a predetermined condition;
When it is determined by the lock control unit that the electrooculogram satisfies a predetermined condition, the electrooculogram and the electrooculogram based on the electrooculogram and a reference line-of-sight direction corresponding to the predetermined condition The program for functioning as a correlation acquisition part which acquires the correlation between a user's gaze directions.
JP2014082758A 2014-04-14 2014-04-14 Information processing apparatus, information processing system, and program Active JP6266417B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014082758A JP6266417B2 (en) 2014-04-14 2014-04-14 Information processing apparatus, information processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014082758A JP6266417B2 (en) 2014-04-14 2014-04-14 Information processing apparatus, information processing system, and program

Publications (2)

Publication Number Publication Date
JP2015203957A true JP2015203957A (en) 2015-11-16
JP6266417B2 JP6266417B2 (en) 2018-01-24

Family

ID=54597392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014082758A Active JP6266417B2 (en) 2014-04-14 2014-04-14 Information processing apparatus, information processing system, and program

Country Status (1)

Country Link
JP (1) JP6266417B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157139A (en) * 2016-03-04 2017-09-07 株式会社東芝 Eyeball motion detection device, eyeball motion detection method, and eyewear

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5360971A (en) * 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
JP2011125692A (en) * 2009-11-18 2011-06-30 Panasonic Corp Visual axis detector, visual axis detecting method, instrument for measuring eye potential, wearable camera, head mounted display, electronic glasses, and ophthalmologic diagnostic apparatus
JP2013244370A (en) * 2012-05-29 2013-12-09 Jin Co Ltd Eyewear
JP2014022937A (en) * 2012-07-18 2014-02-03 Nikon Corp Head-mounted information input/output device and head-mounted information input/output method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5360971A (en) * 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
JP2011125692A (en) * 2009-11-18 2011-06-30 Panasonic Corp Visual axis detector, visual axis detecting method, instrument for measuring eye potential, wearable camera, head mounted display, electronic glasses, and ophthalmologic diagnostic apparatus
JP2013244370A (en) * 2012-05-29 2013-12-09 Jin Co Ltd Eyewear
JP2014022937A (en) * 2012-07-18 2014-02-03 Nikon Corp Head-mounted information input/output device and head-mounted information input/output method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157139A (en) * 2016-03-04 2017-09-07 株式会社東芝 Eyeball motion detection device, eyeball motion detection method, and eyewear

Also Published As

Publication number Publication date
JP6266417B2 (en) 2018-01-24

Similar Documents

Publication Publication Date Title
US20200294243A1 (en) Method, electronic device and storage medium for segmenting image
CN105677015B (en) virtual reality system
US9836663B2 (en) User authenticating method and head mounted device supporting the same
KR102349716B1 (en) Method for sharing images and electronic device performing thereof
CN113646734A (en) Method and apparatus for gesture detection and classification
US20170144042A1 (en) Mobile terminal, training management program and training management method
US20190227642A1 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
CN106618479B (en) Pupil tracking system and method thereof
CN103914128B (en) Wear-type electronic equipment and input method
WO2015159851A1 (en) Detection unit, eyewear, and ocular potential detection system
US11029754B2 (en) Calibration method, portable device, and computer-readable storage medium
US11006873B2 (en) Calculating a score of a degree of arousal of a user
WO2015159853A1 (en) Ocular potential information processing device, ocular potential information processing system, mounting fixture and program
US10853652B2 (en) Measurement data collection device and program
WO2015159861A1 (en) Detection control device, mounting fixture, ocular potential information processing system and program
WO2015159850A1 (en) Ocular potential information processing device, ocular potential information processing system, mounting fixture and program
JP6266417B2 (en) Information processing apparatus, information processing system, and program
CN111566597A (en) Information processing apparatus, information processing method, and program
US11137600B2 (en) Display device, display control method, and display system
WO2021004194A1 (en) Earphone and earphone control method
US20230015732A1 (en) Head-mountable display systems and methods
JP2015202198A (en) Eyewear
JP6738308B2 (en) Information processing method, program, virtual space distribution system and device
US20180081175A1 (en) Visual field enhancement system
KR20200034329A (en) Method for synchronizing time and apparatus using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171121

R150 Certificate of patent or registration of utility model

Ref document number: 6266417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250