JP4399513B2 - EEG interface system, EEG interface apparatus, method, and computer program - Google Patents

EEG interface system, EEG interface apparatus, method, and computer program Download PDF

Info

Publication number
JP4399513B2
JP4399513B2 JP2009516809A JP2009516809A JP4399513B2 JP 4399513 B2 JP4399513 B2 JP 4399513B2 JP 2009516809 A JP2009516809 A JP 2009516809A JP 2009516809 A JP2009516809 A JP 2009516809A JP 4399513 B2 JP4399513 B2 JP 4399513B2
Authority
JP
Japan
Prior art keywords
electroencephalogram
user
screen
eye movement
option
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009516809A
Other languages
Japanese (ja)
Other versions
JPWO2009093435A1 (en
Inventor
透 中田
幸治 森川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP4399513B2 publication Critical patent/JP4399513B2/en
Publication of JPWO2009093435A1 publication Critical patent/JPWO2009093435A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、脳波を利用して機器を操作することが可能なインタフェース(脳波インタフェース)システムに関する。より具体的には、本発明は、多数の選択肢の中からユーザが所望する選択肢を効率良く選択するための機能を備えた脳波インタフェースシステムに関する。   The present invention relates to an interface (electroencephalogram interface) system capable of operating a device using an electroencephalogram. More specifically, the present invention relates to an electroencephalogram interface system having a function for efficiently selecting an option desired by a user from among a large number of options.

近年、テレビ、携帯電話、PDA(Personal Digital Assistant)等の様々な種類の情報機器が普及してきたため、ユーザは普段の生活の中の多くの場面で情報機器を操作する必要が生じている。通常、その操作入力手段として、例えばボタンを押す、カーソルを移動させて決定する、画面を見ながらマウスを操作する、などの方法が用いられている。   In recent years, various types of information devices such as a television, a mobile phone, and a PDA (Personal Digital Assistant) have become widespread, and thus the user needs to operate the information device in many scenes in daily life. Usually, as the operation input means, for example, a method of pressing a button, determining by moving a cursor, operating a mouse while watching a screen, and the like are used.

しかし、例えば家事、育児、自動車の運転中など、両手が機器操作以外の作業のために使えない場合は、操作入力手段を利用した入力が困難となり、機器操作が実現できないことがあった。そのため、あらゆる状況で情報機器を操作したいというユーザのニーズが高まっている。   However, when both hands cannot be used for work other than device operation, such as housework, childcare, and driving a car, it is difficult to input using the operation input means, and device operation may not be realized. For this reason, there is an increasing need for users who want to operate information devices in all situations.

このようなニーズに対して、ユーザの生体信号を利用した入力手段、より具体的には、ユーザの脳波の事象関連電位を利用した脳波インタフェースが開発されている。ここで「事象関連電位」とは、外的あるいは内的な事象に時間的に関連して生じる脳の一過性の電位変動をいう。脳波インタフェースでは、外的な事象の発生タイミングを起点として計測される事象関連電位が利用される。例えば、視覚刺激などに対して発生する事象関連電位のP300という成分を利用すると、メニューの選択肢を選択できるとされている。この「P300」とは、起点から約300ミリ秒付近に現れる事象関連電位の陽性の成分のことである。   In response to such needs, input means utilizing a user's biological signal, more specifically, an electroencephalogram interface utilizing an event-related potential of the user's electroencephalogram has been developed. As used herein, “event-related potential” refers to a transient potential fluctuation in the brain that occurs in time relation to an external or internal event. In the electroencephalogram interface, an event-related potential measured from the occurrence timing of an external event is used. For example, it is supposed that a menu option can be selected by using a P300 component of an event-related potential generated for a visual stimulus or the like. This “P300” is a positive component of the event-related potential that appears around 300 milliseconds from the starting point.

特許文献1には、事象関連電位を用いてユーザが選択したいと思っている選択肢を識別する脳波インタフェース技術が開示されている。特許文献1に記載された技術を具体的に説明すると、選択肢を一定の時間間隔でランダムにハイライトし、選択肢がハイライトされたタイミングを起点に約300ミリ秒後に出現する事象関連電位の波形を利用して、ユーザが選択したいと思っている選択肢の識別を実現している。この技術によれば、ユーザは両手がふさがっている状況においても、また病気等により手足が動かせない状況においても、選択したいと思った選択肢が選択できる。よって、上述のニーズに合致する機器操作等のインタフェースが実現される。   Patent Document 1 discloses an electroencephalogram interface technique for identifying an option that a user wants to select using an event-related potential. The technique described in Patent Document 1 will be described in detail. The waveform of an event-related potential that appears at about 300 milliseconds from the timing when the option is highlighted at random and the timing when the option is highlighted is described in detail. Is used to identify the options that the user wants to select. According to this technique, the user can select the option he / she wants to select even in a situation where both hands are occupied or in a situation where the limbs cannot be moved due to illness or the like. Therefore, an interface such as device operation that meets the above-described needs is realized.

事象関連電位をインタフェースに応用するためには、インタフェース画面上の選択肢をハイライトさせる、あるいはポップアップさせる等の視覚刺激が必要である。選択肢が多い(たとえば十数個あるいは数十個)場合には、それらを個々にハイライトさせては非常に多くの時間を要するため、効率良くハイライトさせることが重要である。   In order to apply the event-related potential to the interface, visual stimulation such as highlighting or popping up options on the interface screen is necessary. When there are many options (for example, more than a dozen or a few dozen), it takes a very long time to highlight them individually, so it is important to highlight them efficiently.

図18は、非特許文献1に挙げられているインタフェース画面を示す。36個の文字を6×6の行列で表示している。非特許文献1では、各行および各列が一定の時間間隔でランダムにハイライトされ、ユーザが何行目および何列目の文字を選択したいと思っているのかを、前述の事象関連電位を利用して識別している。これにより、個々にハイライトさせる場合に36回必要であったハイライトの回数を、6+6の12回に低減している。   FIG. 18 shows an interface screen described in Non-Patent Document 1. 36 characters are displayed in a 6 × 6 matrix. In Non-Patent Document 1, each row and each column is randomly highlighted at a certain time interval, and the above-mentioned event-related potential is used to determine what row and column the user wants to select. To identify. As a result, the number of highlights required 36 times for individual highlighting is reduced to 12 (6 + 6).

一方、たとえば特許文献2に示すような、視線検出装置を用いた視線入力インタフェース技術が従来から提案されている。特許文献2では、ユーザのインタフェース画面上での注視領域が検出され、当該注視領域中の選択肢が被選択状態として取り扱われる。そして被選択状態の選択肢が存在するときに、ユーザによる十分長い時間瞼を閉じる動作(閉瞼動作)が検出されると、当該選択肢の選択が確定したと判断される。これにより、情報の入力を確定する信号が出力され、選択が確定される。   On the other hand, for example, a line-of-sight input interface technique using a line-of-sight detection device as shown in Patent Document 2 has been proposed. In Patent Literature 2, a gaze area on a user interface screen is detected, and options in the gaze area are handled as a selected state. Then, when there is an option in the selected state, if an operation (closing operation) for closing a sufficiently long time by the user is detected, it is determined that the selection of the option has been confirmed. As a result, a signal for confirming the input of information is output and the selection is confirmed.

この技術では、ユーザの閉瞼動作を検出するための時間の閾値を小さな値に設定すると、例えば無意識に行われる瞬きでも選択肢の選択が確定されたと誤検出し、ユーザが意図しない情報入力が行われる可能性がある。一方、ユーザの閉瞼動作を検出するための時間の閾値を大きな値に設定すると、瞬きに関する誤検出の可能性は減少するものの、ユーザは意識的に長い時間、閉瞼動作を維持している必要があるため、力が入り過ぎて眼の周りの筋肉が疲労することがある。   In this technique, if the time threshold for detecting the user's closing operation is set to a small value, for example, it is erroneously detected that selection of an option has been confirmed even in an unconscious blink, and information input that is not intended by the user is performed. There is a possibility that. On the other hand, if the time threshold for detecting the user's closing operation is set to a large value, the possibility of false detection regarding blinking is reduced, but the user consciously maintains the closing operation for a long time. Necessary, too much force can cause fatigue around the muscles around the eyes.

上述のように視線入力インタフェースは、選択肢の選択実行を確定する際にユーザに所定の動作を強いるものであるのに対して、脳波インタフェースは、ユーザに所定の動作を強いることなく、ユーザが選択したいと思っている選択肢を識別できるという点において、非常に有効である。   As described above, the line-of-sight input interface forces the user to perform a predetermined action when confirming selection execution of an option, whereas the electroencephalogram interface does not force the user to perform a predetermined action, and the user selects This is very effective in identifying the option you want to do.

特開2005−34620公報JP 2005-34620 A 特開平10−187334公報JP-A-10-187334

エマニュエル・ドンチン(Emanuel Donchin)、他2名、“The Mental Prosthesis : Assessing the Speed of a P300−Based Brain−Computer Interface”、IEEE TRANSACTIONS ON REHABILITATION ENGINEERING、Vol. 8、No.2、2000年6月Emmanuel Donchin, two others, "The Mental Prosthesis: Assessing the Speed of P300-Based Brain-Computer Ionization Ion." 8, no. 2. June 2000

上述した脳波インタフェース技術では、ハイライトの対象となる選択肢やハイライトを開始させるタイミング、およびハイライトの時間間隔は全てインタフェースのシステムによって一意に決定されていた。したがって、脳波インタフェースを利用するユーザは、希望する選択肢がハイライトされるのを待つ必要があり、また希望しない選択肢がハイライトされてもインタフェース画面を注視し続けなければならなかった。よって必ずしも効率良く選択肢を選択できなかった。   In the above-described electroencephalogram interface technology, the options to be highlighted, the timing for starting highlighting, and the time interval between highlights are all uniquely determined by the interface system. Therefore, the user who uses the electroencephalogram interface has to wait for the desired option to be highlighted, and has to keep watching the interface screen even if the desired option is highlighted. Therefore, it was not always possible to select options efficiently.

その結果、以下のような問題を生じていた。   As a result, the following problems have occurred.

第1の例を挙げると、脳波インタフェース上に表示される選択肢の座標位置が明確であったとしても、ユーザは素早く目的の選択肢を選択することができない。前述の非特許文献1における6×6個の選択肢の場合、ハイライト間隔を350ミリ秒とすると、1回の選択に4.2秒(=350ミリ秒×12回)もの時間を要することになる。これは、日常で使用する機器の操作を想定した場合、使いづらさやフラストレーションを感じさせるほどに長い時間である。   In the first example, even if the coordinate position of the option displayed on the electroencephalogram interface is clear, the user cannot quickly select the target option. In the case of the 6 × 6 choices in Non-Patent Document 1 described above, if the highlight interval is 350 milliseconds, one selection takes 4.2 seconds (= 350 milliseconds × 12 times). Become. This is a long period of time that makes you feel uncomfortable and frustrated when you assume the operation of equipment used in daily life.

第2の例を挙げると、選択対象を迷っていて未だ決めきれていないユーザがスムーズに意志決定行為を行えない。選択対象を迷っているユーザに対して多数の選択肢をハイライトさせると、ユーザにとってはそれが不必要で目障りなハイライトとなるためである。脳波インタフェースを日常的な用途に応用する際には、ユーザに使いづらさやフラストレーションを感じさせることなく、本来の機能を発揮できなければならない。   As a second example, a user who is confused about a selection target and has not yet decided cannot perform a decision-making action smoothly. This is because highlighting a large number of choices for a user who is confused about a selection target is unnecessary and annoying highlight for the user. When an electroencephalogram interface is applied to daily use, it must be able to demonstrate its original functions without making the user feel uncomfortable or frustrated.

本発明の目的は、脳波を利用するインタフェースを備えたシステムにおいて、脳波インタフェース上での表示位置が明確な選択肢を選択したいユーザや、どの選択肢を選択すべきか迷っているユーザに対して、システムの使いづらさやフラストレーションを感じさせることなく、多数の選択肢の中からユーザが所望する選択肢を効率良く選択させることにある。   An object of the present invention is to provide a system with an interface using an electroencephalogram to a user who wants to select an option whose display position on the electroencephalogram interface is clear or who is wondering which option should be selected. An object is to efficiently select an option desired by the user from among a large number of options without making the user feel uncomfortable or frustrated.

本発明による脳波インタフェースシステムは、ユーザの脳波信号を利用して機器の動作を制御するために用いられるものであって、前記脳波インタフェースシステムは、前記ユーザの脳波信号を計測する脳波計測部と、前記ユーザの眼球運動を計測する眼球運動計測部と、機器の動作に関連する選択肢を画面上に提示する出力部と、前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定し、所定の時間が経過したときには、前記ユーザが注視している前記画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するハイライト判定部と、前記ハイライト判定部によって決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として前記脳波信号に含まれる事象関連電位の成分を識別し、識別した前記成分に基づいて前記機器の動作を決定するインタフェース部と、前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの開始タイミングを調整するタイミング調整部とを備えている。   An electroencephalogram interface system according to the present invention is used to control the operation of a device using a user's electroencephalogram signal, and the electroencephalogram interface system includes an electroencephalogram measurement unit that measures the electroencephalogram signal of the user; An eye movement measuring unit that measures the eye movement of the user, an output unit that presents options related to the operation of the device on a screen, and a point in time when the rotational angular velocity of the eye movement is equal to or less than a predetermined threshold. It is determined whether or not a predetermined time has elapsed as a starting point, and when the predetermined time has elapsed, an area in the screen that the user is gazing at is specified based on the eye movement, and an option for highlighting is selected. A highlight determination unit to be determined; and the option determined by the highlight determination unit is highlighted, and the timing is selected when the option is highlighted. The event-related potential component included in the electroencephalogram signal as a starting point, and the interface unit that determines the operation of the device based on the identified component, and the process for displaying the screen is started. And a timing adjustment unit that adjusts the highlight start timing based on the eye movements until the screen is displayed.

前記タイミング調整部は、前記眼球運動の変化量が予め保持した閾値以上になり、かつ、前記画面表示後に、前記所定時間より短い時間、前記眼球運動の変化量が予め保持した閾値以下の状態になった時点から、前記選択肢のハイライトを開始させてもよい。   The timing adjustment unit has a state in which the amount of change in the eye movement is equal to or greater than a predetermined threshold, and after the screen display, the amount of change in the eye movement is equal to or less than a predetermined threshold after a predetermined time. The highlighting of the options may be started from that point.

前記タイミング調整部は、前記画面が表示された後、前記ユーザが前記画面中の領域を注視している場合に各注視領域での注視時間を測定し、測定時間の平均値が前記所定時間以上になった場合であって、かつ、前記眼球運動の変化量が前記所定時間より長い時間、予め保持した閾値以下の状態になった時点から、前記選択肢のハイライトを開始させてもよい。   The timing adjustment unit measures a gaze time in each gaze area when the user gazes an area in the screen after the screen is displayed, and an average value of the measurement time is equal to or greater than the predetermined time The highlighting of the option may be started when the amount of change in the eye movement is equal to or less than a predetermined threshold for a longer time than the predetermined time.

前記ハイライト判定部は、前記画面中の領域に含まれる選択肢を前記ハイライトさせる選択肢として決定してもよい。   The highlight determination unit may determine an option included in an area in the screen as an option for highlighting.

前記インタフェース部は、前記画面上において、前記ハイライト判定部によって決定された前記選択肢の輝度、色相および大きさの少なくとも一つを変化させることにより、決定された前記選択肢をハイライトさせてもよい。   The interface unit may highlight the determined option by changing at least one of luminance, hue, and size of the option determined by the highlight determination unit on the screen. .

前記インタフェース部は、前記ハイライト判定部によって決定された前記選択肢の数に応じて、ハイライトさせる方法を変化させてもよい。   The interface unit may change a highlighting method according to the number of the options determined by the highlight determination unit.

前記ハイライト判定部によって決定された前記選択肢が複数存在する場合は、複数の選択肢をランダムにまたは順番に所定のハイライト間隔でハイライトさせてもよい。   When there are a plurality of the options determined by the highlight determination unit, the plurality of options may be highlighted randomly or sequentially in a predetermined highlight interval.

前記ハイライト判定部は、前記画面中の領域に選択肢が存在しない場合には、前記ハイライトさせる選択肢を決定しなくてもよい。   The highlight determination unit may not determine the option to be highlighted when there is no option in the area on the screen.

脳波インタフェースシステムは、前記眼球運動に基づいて、ハイライトの時間間隔を調整する間隔調整部をさらに備えていてもよい。   The electroencephalogram interface system may further include an interval adjustment unit that adjusts a highlight time interval based on the eye movement.

前記間隔調整部は、前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの時間間隔を調整してもよい。   The interval adjustment unit may adjust the time interval of highlights based on the eye movement from when the process for displaying the screen is started until the screen is displayed.

前記間隔調整部は、前記眼球運動の変化量が予め保持した閾値以上になり、かつ、前記画面表示後に、前記所定時間より短い時間、前記眼球運動の変化量が予め保持した閾値以下の状態になったときにおいて、前記ハイライトの時間間隔を設定値より短く調整してもよい。   The interval adjusting unit has a state in which the amount of change in the eye movement is equal to or greater than a predetermined threshold, and after the screen is displayed, the amount of change in the eye movement is equal to or less than a predetermined threshold after a predetermined time. When this happens, the highlight time interval may be adjusted to be shorter than the set value.

前記間隔調整部は、前記画面が表示された後、前記ユーザが前記画面中の領域を注視している場合に各注視領域での注視時間を測定し、測定時間の平均値が前記所定時間以上になった場合には、前記ハイライトの時間間隔を設定値より長く調整してもよい。   The interval adjustment unit measures the gaze time in each gaze area when the user is gazes at the area in the screen after the screen is displayed, and the average value of the measurement time is equal to or greater than the predetermined time In such a case, the highlight time interval may be adjusted to be longer than a set value.

本発明による他の脳波インタフェースシステムは、ユーザの脳波信号を利用して機器の動作を制御するために用いられるものであって、前記脳波インタフェースシステムは、前記ユーザの脳波信号を計測する脳波計測部と、前記ユーザの眼球運動を計測する眼球運動計測部と、機器の動作に関連する選択肢を画面上に提示する出力部と、前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定し、所定の時間が経過したときには、前記ユーザが注視している前記画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するハイライト判定部と、前記ハイライト判定部によって決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として前記脳波信号に含まれる事象関連電位の成分を識別し、識別した前記成分に基づいて前記機器の動作を決定するインタフェース部とを備えている。   Another electroencephalogram interface system according to the present invention is used to control the operation of a device using a user's electroencephalogram signal, and the electroencephalogram interface system measures the electroencephalogram signal of the user. And an eye movement measurement unit that measures the user's eye movement, an output unit that presents options related to the operation of the device on the screen, and the rotational angular velocity of the eye movement is in a state equal to or less than a previously held threshold. It is determined whether or not a predetermined time has elapsed from the time point, and when the predetermined time has elapsed, an area in the screen that the user is gazing at is specified based on the eye movement and highlighted. A highlight determination unit that determines an option, and highlights the option determined by the highlight determination unit, so that the type in which the option is highlighted Identifying a component of an event-related potential contained in the electroencephalogram signal ing starting, and a interface unit for determining the operation of the device based on the components identified.

前記ハイライト判定部は、前記画面中の領域に含まれる選択肢を前記ハイライトさせる選択肢として決定してもよい。   The highlight determination unit may determine an option included in an area in the screen as an option for highlighting.

前記インタフェース部は、前記画面上において、前記ハイライト判定部によって決定された前記選択肢の輝度、色相および大きさの少なくとも一つを変化させることにより、決定された前記選択肢をハイライトさせてもよい。   The interface unit may highlight the determined option by changing at least one of luminance, hue, and size of the option determined by the highlight determination unit on the screen. .

前記インタフェース部は、前記ハイライト判定部によって決定された前記選択肢の数に応じて、ハイライトさせる方法を変化させてもよい。   The interface unit may change a highlighting method according to the number of the options determined by the highlight determination unit.

前記ハイライト判定部によって決定された前記選択肢が複数存在する場合は、複数の選択肢をランダムにまたは順番に所定のハイライト間隔でハイライトさせてもよい。   When there are a plurality of the options determined by the highlight determination unit, the plurality of options may be highlighted randomly or sequentially in a predetermined highlight interval.

前記ハイライト判定部は、前記画面中の領域に選択肢が存在しない場合には、前記ハイライトさせる選択肢を決定しなくてもよい。   The highlight determination unit may not determine the option to be highlighted when there is no option in the area on the screen.

本発明による脳波インタフェース装置は、機器の動作に関連する選択肢を画面上に提示し、ユーザの眼球運動および脳波信号を利用して、前記機器の動作を制御する脳波インタフェースシステムにおいて用いられる。前記脳波インタフェースシステムは、前記ユーザの脳波信号を計測する脳波計測部と、前記ユーザの眼球運動を計測する眼球運動計測部とを有している。前記脳波インタフェース装置は、前記眼球運動計測部から受け取った前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定し、所定の時間が経過したときには、前記ユーザが注視している画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するハイライト判定部と、前記ハイライト判定部によって決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として、前記脳波計測部から受け取った前記脳波信号に含まれる事象関連電位の成分を識別し、識別した前記成分に基づいて前記機器の動作を決定するインタフェース部と、前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの開始タイミングを調整するタイミング調整部とを備えている。   The electroencephalogram interface apparatus according to the present invention is used in an electroencephalogram interface system that presents options related to the operation of the device on the screen and controls the operation of the device using the user's eye movements and electroencephalogram signals. The electroencephalogram interface system includes an electroencephalogram measurement unit that measures the electroencephalogram signal of the user and an eye movement measurement unit that measures the eye movement of the user. The electroencephalogram interface apparatus determines whether or not a predetermined time has elapsed from a point in time when the rotational angular velocity of the eye movement received from the eye movement measurement unit is equal to or lower than a previously held threshold. When the time has elapsed, an area in the screen on which the user is gazing is specified based on the eye movement, and a highlight determination unit that determines an option to be highlighted, and the highlight determination unit that is determined by the highlight determination unit Highlighting the option, starting from the timing when the option is highlighted, the event-related potential component included in the electroencephalogram signal received from the electroencephalogram measurement unit is identified, and based on the identified component, An interface unit that determines an operation, and a period between the start of processing for displaying the screen and the display of the screen. Based on the eye movement, and a timing adjustment unit that adjusts the start timing of the highlight.

本発明による方法は、ユーザの脳波信号を利用して機器の動作を制御する脳波インタフェースシステムにおいて用いられる方法であって、前記ユーザの脳波信号を計測するステップと、前記ユーザの眼球運動を計測するステップと、機器の動作に関連する選択肢を画面上に提示するステップと、記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定するステップと、所定の時間が経過したときには、前記ユーザが注視している前記画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するステップと、決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として前記脳波信号に含まれる事象関連電位の成分を識別するステップと、識別した前記成分に基づいて前記機器の動作を決定するステップと、前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの開始タイミングを調整するステップを包含する。   The method according to the present invention is a method used in an electroencephalogram interface system that controls the operation of a device using a user's electroencephalogram signal, the step of measuring the electroencephalogram signal of the user, and measuring the eye movement of the user. A step, a step of presenting options related to the operation of the device on the screen, and whether or not a predetermined time has elapsed from the time when the rotational angular velocity of the eyeball movement is equal to or lower than a previously held threshold value. Determining a region in the screen that the user is gazing at based on the eye movement when a predetermined time has elapsed, determining an option to be highlighted, and the determined option To identify the event-related potential components contained in the EEG signal, starting from the timing when the option is highlighted A step of determining the operation of the device based on the identified component, and based on the eye movement from when processing for displaying the screen is started until the screen is displayed. And the step of adjusting the start timing of the highlight.

本発明による方法は、ユーザの脳波信号を利用して機器の動作を制御する脳波インタフェースシステムにおいて用いられる方法であって、前記ユーザの脳波信号を計測するステップと、前記ユーザの眼球運動を計測するステップと、機器の動作に関連する選択肢を画面上に提示するステップと、前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定するステップと、所定の時間が経過したときには、前記ユーザが注視している前記画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するステップと、決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として前記脳波信号に含まれる事象関連電位の成分を識別するステップと、識別した前記成分に基づいて前記機器の動作を決定するステップとを包含する。   The method according to the present invention is a method used in an electroencephalogram interface system that controls the operation of a device using a user's electroencephalogram signal, the step of measuring the electroencephalogram signal of the user, and measuring the eye movement of the user. A step, a step of presenting options related to the operation of the device on the screen, and whether or not a predetermined time has elapsed from the time when the rotational angular velocity of the eye movement is equal to or lower than a previously held threshold. Determining a region in the screen that the user is gazing at based on the eye movement when a predetermined time has elapsed, determining an option to be highlighted, and the determined option And the component of the event-related potential contained in the electroencephalogram signal is identified from the timing when the option is highlighted. Comprising the steps of, and determining the operation of the device based on the components identified.

本発明によるコンピュータプログラムは、脳波インタフェース装置において実行されるコンピュータプログラムであって、前記脳波インタフェース装置は、ユーザの脳波信号を利用して機器の動作を制御する脳波インタフェースシステムに組み込まれており、前記脳波インタフェースシステムは、前記ユーザの脳波信号を計測する脳波計測部と、前記ユーザの眼球運動を計測する眼球運動計測部と、機器の動作に関連する選択肢を画面上に提示する出力部とを有しており、前記コンピュータプログラムは、前記脳波インタフェース装置のコンピュータに対し、前記眼球運動計測部によって計測された、前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定するステップと、所定の時間が経過したときには、前記ユーザが注視している前記画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するステップと、決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として前記脳波信号に含まれる事象関連電位の成分を識別するステップと、識別した前記成分に基づいて前記機器の動作を決定するステップと、前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの開始タイミングを調整するステップとを実行させる。   A computer program according to the present invention is a computer program executed in an electroencephalogram interface apparatus, and the electroencephalogram interface apparatus is incorporated in an electroencephalogram interface system that controls the operation of a device using a user's electroencephalogram signal, The electroencephalogram interface system has an electroencephalogram measurement unit that measures the user's electroencephalogram signal, an eye movement measurement unit that measures the user's eye movement, and an output unit that presents options related to the operation of the device on the screen. The computer program is predetermined for a computer of the electroencephalogram interface apparatus, starting from the time when the rotational angular velocity of the eye movement measured by the eye movement measuring unit is equal to or lower than a pre-stored threshold value. Determining whether or not When the time elapses, a region in the screen on which the user is gazing is specified based on the eye movement, and an option to be highlighted is determined, and the determined option is highlighted, To identify an event-related potential component included in the electroencephalogram signal from the timing when the option is highlighted, to determine the operation of the device based on the identified component, and to display the screen And a step of adjusting a highlight start timing based on the eye movement from when the process is started until the screen is displayed.

本発明によるコンピュータプログラムは、脳波インタフェース装置において実行されるコンピュータプログラムであって、前記脳波インタフェース装置は、ユーザの脳波信号を利用して機器の動作を制御する脳波インタフェースシステムに組み込まれており、前記脳波インタフェースシステムは、前記ユーザの脳波信号を計測する脳波計測部と、前記ユーザの眼球運動を計測する眼球運動計測部と、機器の動作に関連する選択肢を画面上に提示する出力部とを有しており、前記コンピュータプログラムは、前記脳波インタフェース装置のコンピュータに対し、前記眼球運動計測部によって計測された、前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定するステップと、所定の時間が経過したときには、前記ユーザが注視している前記画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するステップと、決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として前記脳波信号に含まれる事象関連電位の成分を識別するステップと、識別した前記成分に基づいて前記機器の動作を決定するステップとを実行させる。   A computer program according to the present invention is a computer program executed in an electroencephalogram interface apparatus, and the electroencephalogram interface apparatus is incorporated in an electroencephalogram interface system that controls the operation of a device using a user's electroencephalogram signal, The electroencephalogram interface system has an electroencephalogram measurement unit that measures the user's electroencephalogram signal, an eye movement measurement unit that measures the user's eye movement, and an output unit that presents options related to the operation of the device on the screen. The computer program is predetermined for a computer of the electroencephalogram interface apparatus, starting from the time when the rotational angular velocity of the eye movement measured by the eye movement measuring unit is equal to or lower than a pre-stored threshold value. Determining whether or not When the time elapses, a region in the screen on which the user is gazing is specified based on the eye movement, and an option to be highlighted is determined, and the determined option is highlighted, A step of identifying a component of an event-related potential included in the electroencephalogram signal starting from a timing when an option is highlighted, and a step of determining an operation of the device based on the identified component are executed.

本発明の脳波インタフェース装置、脳波インタフェース装置、方法およびコンピュータプログラムによれば、脳波インタフェースに必要とされるハイライトに関して、その対象となる選択肢や開始させるタイミング、または、時間間隔がユーザの眼球運動に基づいて判定される。これにより、脳波を利用したインタフェースを備えたシステムにおいて、脳波インタフェース上での表示位置が明確な選択肢を選択したいユーザや、どの選択肢を選択すべきか迷っているユーザに対して、システムの使いづらさやフラストレーションを感じさせることなく、多数の選択肢の中からユーザが所望する選択肢を効率良く選択させることができる。   According to the electroencephalogram interface apparatus, the electroencephalogram interface apparatus, the method, and the computer program of the present invention, with respect to the highlights required for the electroencephalogram interface, the target option, the timing to start, or the time interval is determined by the user's eye movement. Judgment based on. As a result, in a system equipped with an interface using an electroencephalogram, it is difficult to use the system for a user who wants to select an option whose display position on the electroencephalogram interface is clear or who is wondering which option should be selected. Without feeling frustrated, it is possible to efficiently select the option desired by the user from among a large number of options.

脳波インタフェースシステム1の構成および利用環境を示す図である。It is a figure which shows the structure and utilization environment of the electroencephalogram interface system. 実施形態1による脳波インタフェースシステム1の機能ブロック構成を示す図である。1 is a diagram showing a functional block configuration of an electroencephalogram interface system 1 according to Embodiment 1. FIG. EOG法によって眼球運動を計測する眼球運動計測部13の構成を示す図である。It is a figure which shows the structure of the eye movement measurement part 13 which measures eye movement by the EOG method. 角膜反射法によって眼球運動を計測する眼球運動計測部13の構成を示す図である。It is a figure which shows the structure of the eye movement measurement part 13 which measures eye movement by a cornea reflection method. (a)は一体化された第1および第2キャリブレーション情報のデータ構造の例を示す図であり、(b)はディスプレイ画面上での注視位置の座標の例を示す図である。(A) is a figure which shows the example of the data structure of the integrated 1st and 2nd calibration information, (b) is a figure which shows the example of the coordinate of the gaze position on a display screen. 図18に示す6×6個の選択肢のインタフェース画面を9つの領域に分割した際の分割例を示す図である。It is a figure which shows the example of a division | segmentation at the time of dividing | segmenting the interface screen of 6x6 choice shown in FIG. 18 into nine area | regions. 各インタフェース画面の分割情報のデータ構造の例を示す図である。It is a figure which shows the example of the data structure of the division information of each interface screen. ハイライト判定部15の処理の手順を示すフローチャートである。7 is a flowchart illustrating a processing procedure of a highlight determination unit 15; 脳波IF部14の処理の手順を示すフローチャートである。3 is a flowchart showing a processing procedure of an electroencephalogram IF section 14; (a)〜(e)は脳波インタフェースシステム1において、テレビを操作し、ユーザ10が視聴したいチャンネルの番組を見るときの例を示す図である。(A)-(e) is a figure which shows the example when operating the television in the electroencephalogram interface system 1 and watching the program of the channel which the user 10 wants to view. コンテンツ表示領域111とメニュー表示領域110とが含まれたインタフェース画面の例を示す図である。It is a figure which shows the example of the interface screen containing the content display area 111 and the menu display area 110. FIG. (a)〜(b)は実施形態2におけるインタフェース画面での注視位置およびタイミングチャート図である。(A)-(b) is the gaze position and timing chart figure in the interface screen in Embodiment 2. FIG. 実施形態2による脳波インタフェースシステム1の構成を示す図である。It is a figure which shows the structure of the electroencephalogram interface system 1 by Embodiment 2. FIG. ハイライト判定部15の処理の手順を示すフローチャートである。7 is a flowchart illustrating a processing procedure of a highlight determination unit 15; ハイライトタイミング調整部16の処理の手順を示すフローチャートである。5 is a flowchart showing a processing procedure of a highlight timing adjustment unit 16; ハイライト間隔調整部17の処理の手順を示すフローチャートである。5 is a flowchart showing a processing procedure of a highlight interval adjustment unit 17; (a)および(b)は、ユーザ10と出力部11との距離に応じて項目の分割単位を変更したときの分割例を示す図である。(A) And (b) is a figure which shows the example of a division | segmentation when the division | segmentation unit of an item is changed according to the distance of the user 10 and the output part 11. FIG. 従来例によるインタフェース提供時の画面表示例を示す図である。It is a figure which shows the example of a screen display at the time of the interface provision by a prior art example.

以下、添付の図面を参照しながら、本発明による脳波インタフェースシステムおよび脳波インタフェース装置の実現形態を説明する。   Hereinafter, embodiments of an electroencephalogram interface system and an electroencephalogram interface apparatus according to the present invention will be described with reference to the accompanying drawings.

はじめに、本発明による脳波インタフェースシステムおよび脳波インタフェース装置の主要な特徴の概略を説明する。その後、脳波インタフェース装置の各実施形態を説明する。   First, an outline of main features of an electroencephalogram interface system and an electroencephalogram interface apparatus according to the present invention will be described. Thereafter, each embodiment of the electroencephalogram interface apparatus will be described.

本願発明者らは、将来的には、装着型の脳波計と装着型のディスプレイとを組み合わせた環境で脳波インタフェースシステムが構築されることを想定している。ユーザは脳波計とディスプレイとを常に装着し、装着型ディスプレイを利用してコンテンツの視聴や画面の操作を行うことができる。また、他には、家庭用のテレビと装着型の脳波計とを組み合わせた家庭内などの環境でも、脳波インタフェースシステムが構築されることを想定している。ユーザはテレビを見るときに、脳波計を装着してコンテンツの視聴や画面の操作を行うことができる。   In the future, the present inventors assume that an electroencephalogram interface system will be constructed in an environment in which a wearable electroencephalograph and a wearable display are combined. A user always wears an electroencephalograph and a display, and can use the wearable display to view content and operate a screen. In addition, it is assumed that an electroencephalogram interface system is constructed even in an environment such as a home in which a home television and a wearable electroencephalograph are combined. When watching a TV, the user can wear an electroencephalograph to view content and operate the screen.

例えば図1は、後者の例による、本願発明者らが想定する脳波インタフェースシステム1の構成および利用環境を示す。この脳波インタフェースシステム1は後述する実施形態1のシステム構成に対応させて例示している。   For example, FIG. 1 shows a configuration and usage environment of an electroencephalogram interface system 1 assumed by the inventors of the present application according to the latter example. This electroencephalogram interface system 1 is illustrated corresponding to the system configuration of Embodiment 1 described later.

脳波インタフェースシステム1は、ユーザ10の脳波信号を利用してテレビ11を操作(制御)するインタフェースを提供するためのシステムである。ユーザ10の脳波信号はユーザが頭部に装着した脳波計(脳波計測部12)によって取得され、無線または有線で脳波インタフェース装置2に送信される。ユーザ10の眼球運動は、ユーザが頭部に装着した眼球運動の計測器(眼球運動計測部13)によって計測され、無線または有線で脳波インタフェース装置2に送信される。テレビ11に内蔵された脳波インタフェース装置2は、眼球運動からハイライトの対象となる選択肢や開始させるタイミングおよび時間間隔を決定し、脳波の一部を構成する事象関連電位のP300成分を利用してユーザの意図を認識し、チャンネルの切り替えなどの処理を行う。   The electroencephalogram interface system 1 is a system for providing an interface for operating (controlling) the television 11 using the electroencephalogram signal of the user 10. The electroencephalogram signal of the user 10 is acquired by an electroencephalograph (electroencephalogram measurement unit 12) worn by the user on the head, and transmitted to the electroencephalogram interface apparatus 2 wirelessly or by wire. The eye movement of the user 10 is measured by an eye movement measuring instrument (eye movement measuring unit 13) attached to the head of the user, and transmitted to the electroencephalogram interface apparatus 2 wirelessly or by wire. The electroencephalogram interface device 2 built in the television 11 determines an option to be highlighted, a timing to start, and a time interval from the eye movement, and uses the P300 component of the event-related potential constituting a part of the electroencephalogram. Recognizes the user's intention and performs processing such as channel switching.

(実施形態1)
図2は、本実施形態による脳波インタフェースシステム1の機能ブロック構成を示す。脳波インタフェースシステム1は、脳波インタフェース装置2と、出力部11と、脳波計測部12と、眼球運動計測部13とを有している。脳波インタフェース装置2は、脳波インタフェース部(脳波IF部)14と、ハイライト判定部15とで構成され、有線または無線で、出力部11、脳波計測部12、眼球運動計測部13の各々と接続され、信号の送信および受信を行う。ユーザ10のブロックは説明の便宜のために示されている。
(Embodiment 1)
FIG. 2 shows a functional block configuration of the electroencephalogram interface system 1 according to the present embodiment. The electroencephalogram interface system 1 includes an electroencephalogram interface device 2, an output unit 11, an electroencephalogram measurement unit 12, and an eye movement measurement unit 13. The electroencephalogram interface device 2 includes an electroencephalogram interface unit (electroencephalogram IF unit) 14 and a highlight determination unit 15, and is connected to each of the output unit 11, the electroencephalogram measurement unit 12, and the eye movement measurement unit 13 by wire or wirelessly. And transmit and receive signals. The user 10 block is shown for convenience of explanation.

出力部11は、ユーザ10にコンテンツや脳波インタフェースにおける選択されるべきメニューを出力する。図1に示すテレビ11は出力部の具体例であるため、以下では参照符号11を出力部に充てて説明する。出力部11は、出力される内容が動画や静止画の場合にはディスプレイ画面に対応し、出力される内容に音声が含まれている場合にはディスプレイ画面およびスピーカが出力部11として併用されることもある。   The output unit 11 outputs a menu to be selected in the content and the electroencephalogram interface to the user 10. Since the television 11 shown in FIG. 1 is a specific example of the output unit, the following description will be made by assigning the reference numeral 11 to the output unit. The output unit 11 corresponds to the display screen when the output content is a moving image or a still image, and the display screen and the speaker are used as the output unit 11 when the output content includes sound. Sometimes.

脳波計測部12は、ユーザ10の頭部に装着された電極における電位変化を計測することによって脳波信号を検出する脳波計である。脳波計は図1に示すようなヘッドマウント式脳波計であってもよい。ユーザ10は予め脳波計を装着しているものとする。   The electroencephalogram measurement unit 12 is an electroencephalograph that detects an electroencephalogram signal by measuring a potential change at an electrode attached to the head of the user 10. The electroencephalograph may be a head-mounted electroencephalograph as shown in FIG. It is assumed that the user 10 is wearing an electroencephalograph in advance.

ユーザ10の頭部に装着されたとき、その頭部の所定の位置に接触するよう、脳波計測部12には電極が配置されている。電極の配置は、例えばPz(正中頭頂)、A1(耳朶)およびユーザ10の鼻根部になる。但し、電極は最低2個あればよく、例えばPzとA1のみでも電位計測は可能である。この電極位置は、信号測定の信頼性および装着の容易さ等から決定される。   Electrodes are arranged in the electroencephalogram measurement unit 12 so as to come into contact with a predetermined position of the head when worn on the head of the user 10. The arrangement of the electrodes is, for example, Pz (midline parietal), A1 (earlobe), and the nasal root of the user 10. However, it is sufficient that there are at least two electrodes. For example, potential measurement is possible only with Pz and A1. This electrode position is determined from the reliability of signal measurement and the ease of mounting.

この結果、脳波計測部12はユーザ10の脳波を測定することができる。測定されたユーザ10の脳波は、コンピュータで処理できるようにサンプリングされ、脳波インタフェース装置2に送られる。なお、脳波に混入するノイズの影響を低減するため、脳波計測部12において計測される脳波は、予め例えば0.05から20Hzのバンドパスフィルタ処理がされ、インタフェース画面が提示される前の例えば200ミリ秒の平均電位でベースライン補正されているものとする。   As a result, the electroencephalogram measurement unit 12 can measure the electroencephalogram of the user 10. The measured electroencephalogram of the user 10 is sampled so as to be processed by a computer and sent to the electroencephalogram interface apparatus 2. In order to reduce the influence of noise mixed in the electroencephalogram, the electroencephalogram measured by the electroencephalogram measurement unit 12 is subjected to, for example, a band-pass filter process of 0.05 to 20 Hz in advance, for example 200 before the interface screen is presented. It is assumed that the baseline is corrected with an average potential of milliseconds.

次に、図3および図4を参照しながら、2種類の眼球運動計測部13の構成を説明する。いずれの構成を採用するとしても、眼球運動計測部13は、図1に示すようなヘッドマウント式計測器であってもよく、ユーザ10は脳波インタフェースシステム1の利用前に予め装着しているとする。   Next, the configuration of the two types of eye movement measurement units 13 will be described with reference to FIGS. 3 and 4. Regardless of which configuration is adopted, the eye movement measuring unit 13 may be a head-mounted measuring instrument as shown in FIG. 1, and the user 10 is previously worn before using the electroencephalogram interface system 1. To do.

図3はEOG法によって眼球運動を計測する眼球運動計測部13の構成を示す。一方図4は、角膜反射法によって眼球運動を計測する眼球運動計測部13の構成を示す。図3に示す眼球運動計測部13は、角膜網膜電位を測定することによって眼球運動を計測する。一方、図4に示す眼球運動計測部13は、近赤外線を眼球に照射して眼球を撮影して、その撮影画像上の瞳孔および角膜表面における光源の反射像(角膜反射像)の位置を測定することによって眼球運動を計測している。   FIG. 3 shows the configuration of the eye movement measurement unit 13 that measures eye movement by the EOG method. On the other hand, FIG. 4 shows a configuration of the eye movement measuring unit 13 that measures the eye movement by the corneal reflection method. The eye movement measuring unit 13 shown in FIG. 3 measures the eye movement by measuring the corneal retinal potential. On the other hand, the eye movement measurement unit 13 shown in FIG. 4 shoots the eyeball by irradiating the eyeball with near infrared rays, and measures the position of the reflected image (corneal reflection image) of the light source on the pupil and the corneal surface on the captured image. To measure eye movements.

後述のように、図3および図4に示す眼球運動計測部13はいずれも、眼球の回転角速度および注視位置を特定する。これは、眼球運動が、眼球が動いたときの回転角速度という物理的な変化量(単位時間における眼球運動の回転角度)や、視線の位置の変化量によって定義されることを意味している。   As will be described later, the eye movement measurement unit 13 shown in FIGS. 3 and 4 specifies the rotational angular velocity and the gaze position of the eyeball. This means that the eye movement is defined by a physical change amount (rotation angle of the eye movement per unit time) as a rotation angular velocity when the eye moves, and a change amount of the line of sight.

以下、図3および図4を参照しながら、EOG法および角膜反射法をそれぞれ利用して、どのように眼球運動を計測するかを説明する。ただし、これらの方法は例として挙げるに過ぎない。他の計測方法を利用することも可能である。   Hereinafter, how to measure the eye movement using the EOG method and the corneal reflection method will be described with reference to FIGS. 3 and 4. However, these methods are only given as examples. Other measurement methods can also be used.

図3に示す眼球運動計測部13は、複数の電極41と、電位検出部42と、変換部43と、キャリブレーション情報記憶部44とを備えている。   The eye movement measurement unit 13 illustrated in FIG. 3 includes a plurality of electrodes 41, a potential detection unit 42, a conversion unit 43, and a calibration information storage unit 44.

複数の電極41は目の周囲に貼り付けられる。電位検出部42は、複数の電極41を介して得られた角膜網膜電位を測定する。   The plurality of electrodes 41 are attached around the eyes. The potential detector 42 measures the corneal retinal potential obtained via the plurality of electrodes 41.

キャリブレーション情報記憶部44は、角膜網膜電位と眼球の回転角度との対応関係を示す情報(第1キャリブレーション情報)を記憶している。第1キャリブレーション情報は、眼球の角膜が網膜に対して正に帯電する性質を利用して得られたものであり、予めキャリブレーション情報記憶部44に格納されている。またキャリブレーション情報記憶部44は、眼球の回転角度とディスプレイ画面上でのユーザ10の注視位置との関係を示す情報(第2キャリブレーション情報)も記憶している。第2キャリブレーション情報についても、予めキャリブレーション情報記憶部44に格納されている。   The calibration information storage unit 44 stores information (first calibration information) indicating the correspondence between the corneal retinal potential and the rotation angle of the eyeball. The first calibration information is obtained by utilizing the property that the cornea of the eyeball is positively charged with respect to the retina, and is stored in advance in the calibration information storage unit 44. The calibration information storage unit 44 also stores information (second calibration information) indicating the relationship between the rotation angle of the eyeball and the gaze position of the user 10 on the display screen. The second calibration information is also stored in the calibration information storage unit 44 in advance.

変換部43は、測定された角膜網膜電位に基づいて第1キャリブレーション情報を参照し、眼球の回転角度および回転角速度を特定する。そして変換部43は、特定した回転角度に基づいてさらに第2キャリブレーション情報を参照し、ディスプレイ画面上でのユーザ10の注視位置を特定する。   The conversion unit 43 refers to the first calibration information based on the measured corneal retinal potential, and specifies the rotation angle and rotation angular velocity of the eyeball. Then, the conversion unit 43 further refers to the second calibration information based on the identified rotation angle, and identifies the gaze position of the user 10 on the display screen.

図5(a)は、一体化された第1および第2キャリブレーション情報のデータ構造の例を示す。例示されたキャリブレーション情報は、水平方向および垂直方向におけるそれぞれの角膜網膜電位、眼球の回転角度、および、ディスプレイ画面上における注視位置の座標が対応付けられて構成されている。なお、第1および第2キャリブレーション情報を一体化せずに独立して設けてもよい。   FIG. 5A shows an example of the data structure of the integrated first and second calibration information. The exemplified calibration information is configured such that the corneal retinal potential in the horizontal direction and the vertical direction, the rotation angle of the eyeball, and the coordinates of the gaze position on the display screen are associated with each other. The first and second calibration information may be provided independently without being integrated.

以下、キャリブレーション情報を利用した眼球の回転角度および注視位置の特定方法を説明する。   Hereinafter, a method for specifying the rotation angle of the eyeball and the gaze position using the calibration information will be described.

たとえば角膜網膜電位が1秒間で水平方向について+50μV変化したときは、変換部43は、キャリブレーション情報を参照して、水平方向の注視位置はX1であると特定する。垂直方向について+30μV変化をしたときは、変換部43は同様にキャリブレーション情報を参照して、垂直方向の注視位置はY1であると特定する。その結果、ディスプレイ画面上でのユーザ10の注視位置は座標(X1、Y1)と特定する。図5(b)は、ディスプレイ画面上での注視位置の座標の例を示す。   For example, when the corneal retinal potential changes by +50 μV in the horizontal direction in one second, the conversion unit 43 refers to the calibration information and specifies that the gaze position in the horizontal direction is X1. When +30 μV is changed in the vertical direction, the conversion unit 43 similarly refers to the calibration information and specifies that the gaze position in the vertical direction is Y1. As a result, the gaze position of the user 10 on the display screen is specified as coordinates (X1, Y1). FIG. 5B shows an example of the coordinates of the gaze position on the display screen.

さらに上述の例では、水平方向および垂直方向の角膜網膜電位の変化量は、1秒間でそれぞれ+50μVおよび+30μVである。よって図5(a)に示すキャリブレーション情報によれば、眼球は右方向に5度(degrees)移動し、上方向にも5度移動しているといえる。そこで変換部43は、眼球の回転角速度を(52+521/2≒7.07度(degrees)/秒と特定することができる。 Further, in the above example, the amount of change in the corneal retinal potential in the horizontal direction and the vertical direction is +50 μV and +30 μV, respectively, for 1 second. Therefore, according to the calibration information shown in FIG. 5A, it can be said that the eyeball has moved 5 degrees in the right direction (degrees) and has also moved 5 degrees in the upward direction. Therefore, the conversion unit 43 can specify the rotational angular velocity of the eyeball as (5 2 +5 2 ) 1/2 ≈7.07 degrees (degrees) / second.

なお、図5(a)に示すキャリブレーション情報における「眼球の回転角度」および「注視位置」は、ユーザ10からディスプレイ画面までの距離およびディスプレイ画面の大きさなどに依存する。したがって、これらの値は必ずしも固定値でなくてもよく、ユーザ10がその利用環境において変更可能にしてもよい。   Note that “eyeball rotation angle” and “gaze position” in the calibration information shown in FIG. 5A depend on the distance from the user 10 to the display screen, the size of the display screen, and the like. Therefore, these values are not necessarily fixed values, and may be changed by the user 10 in the usage environment.

次に、図4を参照する。図4に示す眼球運動計測部13は、近赤外線光源51と、CCDカメラ52と、反射像位置検出部53と、変換部54と、キャリブレーション情報記憶部55とを備えている。   Reference is now made to FIG. The eye movement measurement unit 13 shown in FIG. 4 includes a near-infrared light source 51, a CCD camera 52, a reflected image position detection unit 53, a conversion unit 54, and a calibration information storage unit 55.

近赤外線光源51は近赤外線の点光源であり、近赤外線を眼球に照射するために用いられる。CCDカメラ52は、近赤外線が照射された眼球を撮影する。反射像位置検出部53は、撮影した眼球の映像に基づいて瞳孔および角膜表面を認識し、さらに、瞳孔および角膜表面における光源の反射像(角膜反射像)の位置を検出する。   The near-infrared light source 51 is a near-infrared point light source, and is used to irradiate the eyeball with the near-infrared light. The CCD camera 52 images the eyeball irradiated with near infrared rays. The reflected image position detecting unit 53 recognizes the pupil and the corneal surface based on the captured image of the eyeball, and further detects the position of the reflected image (corneal reflected image) of the light source on the pupil and the corneal surface.

キャリブレーション情報記憶部55は、反射像の位置と眼球の回転角度との関係を示す情報(第3キャリブレーション情報)を予め記憶しているともに、眼球の回転角度とディスプレイ画面上でのユーザ10の注視位置との関係を示す情報(第4キャリブレーション情報)を予め記憶している。   The calibration information storage unit 55 stores in advance information (third calibration information) indicating the relationship between the position of the reflected image and the rotation angle of the eyeball, and also the rotation angle of the eyeball and the user 10 on the display screen. Information (fourth calibration information) indicating the relationship with the gaze position is stored in advance.

変換部54は、反射像の位置に基づいて第3キャリブレーション情報を参照し、眼球の回転角度および回転角速度を特定する。そして、得られた眼球の回転角度に基づいて、変換部54は第4キャリブレーション情報を参照し、ディスプレイ画面上でのユーザ10の注視位置を特定する。第3および第4キャリブレーション情報のデータ構造は、図5(a)に類似するためその具体的な例示は省略する。   The conversion unit 54 refers to the third calibration information based on the position of the reflected image, and specifies the rotation angle and rotation angular velocity of the eyeball. Then, based on the obtained rotation angle of the eyeball, the conversion unit 54 refers to the fourth calibration information and identifies the gaze position of the user 10 on the display screen. Since the data structures of the third and fourth calibration information are similar to those in FIG. 5A, specific examples thereof are omitted.

再び図2を参照する。ハイライト判定部15は、眼球運動計測部13が計測したユーザ10の注視座標位置から、インタフェース画面上でのユーザ10の注視領域を検出し、注視領域に基づいて選択肢の中からハイライトさせる対象を判定する。そしてハイライト判定部15は、眼球の回転角速度が予め保持した閾値以下になった時を起点として所定の時間(例えば、400ミリ秒)が経過したか否かを判定し、経過したタイミングで、ユーザ10の視線が存在する領域に存在する選択肢のハイライトを開始するよう、脳波IF部14に指示する。   Refer to FIG. 2 again. The highlight determination unit 15 detects the gaze area of the user 10 on the interface screen from the gaze coordinate position of the user 10 measured by the eye movement measurement unit 13, and highlights the options from the options based on the gaze area Determine. Then, the highlight determination unit 15 determines whether or not a predetermined time (for example, 400 milliseconds) has elapsed from the time when the rotational angular velocity of the eyeball becomes equal to or less than a previously held threshold value. The electroencephalogram IF unit 14 is instructed to start highlighting options existing in the region where the line of sight of the user 10 exists.

眼球の回転角速度に関する閾値の決定方法は以下のとおりである。従来文献(特開2006−204855公報)によれば、人間が静止画像の視認を行う際の眼球運動は、注視運動と跳躍性眼球運動に大別される。ここで「跳躍性眼球運動」とは、視線が高速で移動していて、外界からの情報受容がわずかしか行われない状態での眼球運動をいう。跳躍性眼球運動は、その持続時間が40〜50ミリ秒と短時間である一方、回転角速度は100度(degrees)/秒を超えるという報告がある。従って眼球運動の閾値(X1)は、例えば回転角速度が100度/秒となるよう、50ミリ秒あたり5度とすればよい。   The threshold value determination method for the rotational angular velocity of the eyeball is as follows. According to a conventional document (Japanese Patent Laid-Open No. 2006-204855), eye movement when a human visually recognizes a still image is roughly classified into gaze movement and jumping eye movement. Here, “jumping eye movement” refers to eye movement in a state where the line of sight moves at high speed and only a little information is received from the outside world. It is reported that the jumping eye movement has a short duration of 40 to 50 milliseconds, while the rotational angular velocity exceeds 100 degrees (seconds) / second. Therefore, the eye movement threshold (X1) may be set to 5 degrees per 50 milliseconds so that the rotational angular velocity is 100 degrees / second, for example.

以下、図6を参照しながらハイライト判定部15の機能を詳細に説明する。   Hereinafter, the function of the highlight determination unit 15 will be described in detail with reference to FIG.

まず、ユーザ10に提示される種々のインタフェース画面は、画面ごとに予め複数の領域に分割されているとする。たとえば図6は、図18に示す6×6個の選択肢のインタフェース画面を9つの領域に分割した際の分割例を示す。ただし、画面上にはユーザ10が視認できるような分割線が表示されている必要はない。   First, it is assumed that various interface screens presented to the user 10 are divided into a plurality of areas in advance for each screen. For example, FIG. 6 shows an example of division when the interface screen of 6 × 6 options shown in FIG. 18 is divided into nine areas. However, it is not necessary to display a dividing line that can be visually recognized by the user 10 on the screen.

ハイライト判定部15は、インタフェース画面においてどのように領域が分割されているかに関する情報を予め保持しているとする。   Assume that the highlight determination unit 15 holds in advance information regarding how an area is divided on the interface screen.

図7は、各インタフェース画面の分割情報のデータ構造の例を示す。インタフェース画面の分割情報は、対象となるインタフェース画面の番号、当該インタフェース画面を分割した際の各領域の番号、各領域のX軸方向の範囲、各領域のY軸方向の範囲、および、当該領域に含まれるインタフェース画面上での選択肢のリストで構成されている。   FIG. 7 shows an example of the data structure of the division information of each interface screen. The division information of the interface screen includes the number of the target interface screen, the number of each area when the interface screen is divided, the range in the X-axis direction of each area, the range in the Y-axis direction of each area, and the area It consists of a list of choices on the interface screen included.

各インタフェース画面を予めどのように(いくつに)分割するかは、選択肢の数および眼球運動計測の信頼性等により決定される。例えば図6のような9分割ではなく、より粗い4分割でもよいし、より細かい36分割でもよい。前者は眼球運動計測の精度が低い場合に有効であり、後者は精度が高い場合に有効である。   Or each interface screen in advance how (in number) split is determined by the reliability and the like of the number and eye movement measurement choices. For example, instead of 9 divisions as shown in FIG. 6, coarser 4 divisions or finer 36 divisions may be used. The former is effective when the accuracy of eye movement measurement is low, and the latter is effective when the accuracy is high.

また、インタフェース画面の分割は、出力部(テレビ)11とユーザ10との位置関係により決定することができる。具体的には、脳波計側部12がユーザ10の位置情報(例えば、二次元の位置)を計測し、位置情報をハイライト判定部15に送信する。ハイライト判定部15は、出力部11の位置情報を予め保持しており、ユーザ10の位置情報と出力部11の位置情報とに基づいて、ユーザ10と出力部11との距離を算出する。そして、その距離と閾値とを比較することにより、画面の分割単位を決定する。   Further, the division of the interface screen can be determined by the positional relationship between the output unit (television) 11 and the user 10. Specifically, the electroencephalograph side unit 12 measures the position information (for example, a two-dimensional position) of the user 10 and transmits the position information to the highlight determination unit 15. The highlight determination unit 15 holds the position information of the output unit 11 in advance, and calculates the distance between the user 10 and the output unit 11 based on the position information of the user 10 and the position information of the output unit 11. Then, the screen division unit is determined by comparing the distance and the threshold.

例えば、ユーザ10と出力部11との距離が大きい場合には、ハイライト判定部15は予め決められた分割単位よりも大きくなるよう分割単位を調整する。これは、ユーザ10が出力部11に表示された項目を詳細に見ることが難しいためである。いま、図6の分割単位が予め定められた分割単位であると仮定すると、ハイライト判定部15は、図17(a)に示すように、分割単位を大きくする。これにより、ユーザ10が出力部11から離れていても、出力部11に表示された項目を詳細に見ることが可能になる。   For example, when the distance between the user 10 and the output unit 11 is large, the highlight determination unit 15 adjusts the division unit so as to be larger than a predetermined division unit. This is because it is difficult for the user 10 to see the items displayed on the output unit 11 in detail. Now, assuming that the division unit of FIG. 6 is a predetermined division unit, the highlight determination unit 15 increases the division unit as shown in FIG. Thereby, even if the user 10 is away from the output unit 11, the items displayed on the output unit 11 can be viewed in detail.

また、ユーザ10と出力部11との距離が小さい場合には、ハイライト判定部15は、予め決められた分割単位よりも小さくなるよう分割単位を調整する。これは、ユーザ10と出力部11との距離が近く、ユーザ10が出力部11に表示された項目を詳細に見ることができるためである。図6の分割単位が予め定められた分割単位であると仮定すると、ハイライト判定部15は、図17(b)に示すように、分割単位を小さくする。これにより、ユーザ10は、出力部11に表示され、より多く分割された詳細な項目を見ることが可能になる。   When the distance between the user 10 and the output unit 11 is small, the highlight determination unit 15 adjusts the division unit so as to be smaller than a predetermined division unit. This is because the distance between the user 10 and the output unit 11 is short, and the user 10 can see the items displayed on the output unit 11 in detail. If it is assumed that the division unit in FIG. 6 is a predetermined division unit, the highlight determination unit 15 reduces the division unit as shown in FIG. As a result, the user 10 can view detailed items displayed on the output unit 11 and divided more.

以上のように、ユーザ10と出力部11との距離が比較的遠いことによって眼球運動計測の精度が低くなると考えられる場合には、分割を大きくして脳波信号による識別を重視する。一方、ユーザ10と出力部11との距離が比較的近いことによって眼球運動計測の精度が高くなると考えられる場合には、分割を小さくして眼球運動による識別を重視する。   As described above, when the distance between the user 10 and the output unit 11 is relatively far, it is considered that the accuracy of the eye movement measurement is lowered, and the division is increased and importance is attached to the identification by the electroencephalogram signal. On the other hand, when the distance between the user 10 and the output unit 11 is considered to be relatively high, the accuracy of eye movement measurement is considered to be high.

これにより、眼球運動による識別と脳波信号による識別のうち精度が高いと考えられる方を、より有効に用いることができる。   Accordingly, it is possible to more effectively use one that is considered to have high accuracy among discrimination by eye movement and discrimination by an electroencephalogram signal.

ハイライト判定部15は、ユーザ10の眼球の回転角速度の情報と、ディスプレイ画面上での注視座標位置の情報を眼球運動計測部13から受信する。例えば眼球の回転角速度が閾値以下になった場合、ハイライト判定部15はユーザ10の注視位置およびインタフェース画面分割情報に基づいて、インタフェース画面上でのユーザ10の注視領域を検出する。   The highlight determination unit 15 receives information on the rotational angular velocity of the eyeball of the user 10 and information on the gaze coordinate position on the display screen from the eye movement measurement unit 13. For example, when the rotational angular velocity of the eyeball becomes equal to or less than the threshold, the highlight determination unit 15 detects the gaze area of the user 10 on the interface screen based on the gaze position of the user 10 and the interface screen division information.

ハイライト判定部15は、所定時間以上、眼球の回転角速度が閾値以下の状態を維持しており、かつ、インタフェース画面上でのユーザ10の注視領域が同じであると判定した場合、そのタイミングでハイライトを開始するよう、脳波IF部14に指示する。同時にハイライト判定部15は、当該領域に含まれる0個、1個または複数個の選択肢をハイライト対象として決定し、脳波IF部14に対して当該ハイライト対象の選択肢の情報を送信する。なお、選択肢が0個ということは、当該領域に含まれる選択肢が存在しなかったことを意味しており、その場合にはハイライト判定部15は、ハイライト対象となる選択肢を決定しないことを意味する。   When the highlight determination unit 15 determines that the rotational angular velocity of the eyeball is not more than a threshold value for a predetermined time or more and the gaze area of the user 10 on the interface screen is the same, at that timing The brain wave IF unit 14 is instructed to start highlighting. At the same time, the highlight determination unit 15 determines zero, one, or a plurality of options included in the region as highlight targets, and transmits information on the highlight target options to the electroencephalogram IF unit 14. Note that 0 options means that there are no options included in the area, and in this case, the highlight determination unit 15 does not determine an option to be highlighted. means.

上述の特開2006−204855公報によれば、人間が視認を行う際の注視運動に要する時間はおよそ200ミリ秒から400ミリ秒程度という報告がある。従ってハイライトを開始させるまでの所定時間(T1)は、例えば400ミリ秒とする。ハイライト判定部15の処理の手順は図8のフローチャートを参照しながら後述する。   According to the above-mentioned Japanese Patent Application Laid-Open No. 2006-204855, there is a report that the time required for gaze movement when a human visually recognizes is approximately 200 milliseconds to 400 milliseconds. Therefore, the predetermined time (T1) until the highlighting is started is, for example, 400 milliseconds. The processing procedure of the highlight determination unit 15 will be described later with reference to the flowchart of FIG.

脳波IF部14は、機器操作に関するインタフェース画面を、出力部11を介してユーザ10に提示する。そして脳波IF部14は、ハイライト判定部15からのトリガーを受けて、ハイライト対象として決定された選択肢をハイライトさせ、脳波計測部12で計測された脳波の事象関連電位のP300成分を切り出して識別する。   The electroencephalogram IF unit 14 presents an interface screen related to device operation to the user 10 via the output unit 11. Then, the electroencephalogram IF section 14 receives the trigger from the highlight determination section 15, highlights the option determined as the highlight target, and extracts the P300 component of the event-related potential of the electroencephalogram measured by the electroencephalogram measurement section 12. Identify.

ハイライト対象として決定された選択肢が複数個の場合、識別に際して脳波IF部14は、ハイライトされた選択肢ごとの、ある区間の脳波信号の最大振幅が最大のものを選んでもよいし、ある区間の平均電位が最大のものを選んでもよい。または、テンプレートとの相関係数の値が最大のものを選んでもよい。   When there are a plurality of options determined as highlight targets, the electroencephalogram IF unit 14 may select the one with the maximum maximum amplitude of the electroencephalogram signal in a certain section for each selected option. The one with the maximum average potential may be selected. Alternatively, the one having the maximum correlation coefficient value with the template may be selected.

ハイライト対象として決定された選択肢が1個の場合は、脳波IF部14は、当該選択肢がハイライトされた際のある区間の脳波信号の最大振幅あるいは平均電位が所定の閾値以上であれば決定としてもよいし、またテンプレートとの相関係数の値が所定の閾値以上であれば決定としてもよい。   If there is one option determined as a highlight target, the electroencephalogram IF unit 14 determines that the maximum amplitude or average potential of the electroencephalogram signal in a certain section when the option is highlighted is greater than or equal to a predetermined threshold value. Alternatively, it may be determined if the value of the correlation coefficient with the template is equal to or greater than a predetermined threshold.

なお、事象関連電位の研究では一般的に、同じ選択肢をN回(例えば5回、10回、20回)ハイライトさせ、即ちハイライト対象として決定された選択肢が4個の場合は合計4×N回のハイライトを行い、同一選択肢毎の加算平均を求めてからP300成分の識別が行われる。但し、本実施形態における脳波IF部14の処理は、そのような加算回数に限定されるものではない。脳波IF部14の処理の手順は図9のフローチャートを参照しながら後述する。   In the event-related potential research, the same option is generally highlighted N times (for example, 5 times, 10 times, and 20 times), that is, when 4 options are selected as highlight targets, a total of 4 × The highlighting is performed N times, and the addition average for each of the same options is obtained, and then the P300 component is identified. However, the process of the electroencephalogram IF unit 14 in the present embodiment is not limited to such an addition count. The processing procedure of the electroencephalogram IF section 14 will be described later with reference to the flowchart of FIG.

次に、図8および図9のフローチャートとともに図10を参照しながら、図2に示したハイライト判定部15および脳波IF部14の処理の手順を説明する。この図10は、脳波インタフェースシステム1において、ユーザ10が16チャンネルの中から、視聴したいテレビのチャンネル「CH21」を選んだときの表示例を示している。   Next, processing procedures of the highlight determination unit 15 and the electroencephalogram IF unit 14 shown in FIG. 2 will be described with reference to FIG. 10 together with the flowcharts of FIGS. 8 and 9. FIG. 10 shows a display example when the user 10 selects the channel “CH21” of the television that he / she wants to watch from among the 16 channels in the electroencephalogram interface system 1.

図8は、ハイライト判定部15の処理の手順を示すフローチャートである。   FIG. 8 is a flowchart illustrating a processing procedure of the highlight determination unit 15.

はじめに出力部11には、図10(a)に示す画面が表示されているとする。後述する条件が満たされると、脳波IF部14は出力部11を介して図10(b)に示すインタフェース画面を表示する。これにより、脳波インタフェースシステム1において脳波インタフェースが起動される。   First, it is assumed that the screen shown in FIG. When conditions described later are satisfied, the electroencephalogram IF section 14 displays the interface screen shown in FIG. 10B via the output section 11. As a result, the electroencephalogram interface is activated in the electroencephalogram interface system 1.

図10(b)に示すインタフェース画面が提示された際に、ハイライト判定部15は、脳波IF部14から当該インタフェース画面に予め割り当てられている画面番号を受信することによって処理を開始する。この画面番号は、図7に示す分割情報において、左端の「画面No」に対応する。   When the interface screen shown in FIG. 10B is presented, the highlight determination unit 15 starts processing by receiving a screen number pre-assigned to the interface screen from the electroencephalogram IF unit 14. This screen number corresponds to “screen No” at the left end in the division information shown in FIG.

ステップS81では、ハイライト判定部15は、眼球運動計測部13から受信した眼球の回転角速度が閾値X1以下か否かを判定する。閾値X1以下になった場合のみ、以降の処理を実施する。   In step S81, the highlight determination unit 15 determines whether or not the rotational angular velocity of the eyeball received from the eyeball movement measurement unit 13 is equal to or less than the threshold value X1. Only when the threshold value is less than or equal to X1, the subsequent processing is performed.

ステップS82では、ハイライト判定部15は脳波IF部14から受信したインタフェース画面の画面番号に基づいて、予め保持しているインタフェース画面の分割情報(図7)を読み出す。その結果、脳波IF部14によって出力部11を介して図10(b)に示すインタフェース画面が提示される。図10(b)に示すインタフェース画面では、テレビのチャンネルCH00からCH33までの16個の選択肢が表示されており、インタフェース画面は領域Aから領域Dの4つの領域に分割されている。   In step S82, the highlight determination unit 15 reads the interface screen division information (FIG. 7) held in advance based on the screen number of the interface screen received from the electroencephalogram IF unit 14. As a result, the interface screen shown in FIG. 10B is presented by the electroencephalogram IF section 14 via the output section 11. In the interface screen shown in FIG. 10B, 16 options from the channels CH00 to CH33 of the television are displayed, and the interface screen is divided into four areas A to D.

ステップS83では、ハイライト判定部15は、インタフェース画面の分割情報と眼球運動計測部13から受信したユーザ10のディスプレイ画面上での注視位置とに基づいて、インタフェース画面上でのユーザ10の注視領域を検出する。図10(b)の例では、ユーザ10の注視位置は画面左下の領域Cにあると推定できるため、ユーザ10の注視領域を画面左下の領域Cとする。なお、ユーザ10の注視する位置は常に固定ではなく、僅かながらでも変動する。よって、図10(b)では、注視位置を点ではなく、点線によって示す範囲として示している。   In step S83, the highlight determination unit 15 determines the gaze area of the user 10 on the interface screen based on the division information of the interface screen and the gaze position on the display screen of the user 10 received from the eye movement measurement unit 13. Is detected. In the example of FIG. 10B, since the gaze position of the user 10 can be estimated to be in the area C at the lower left of the screen, the gaze area of the user 10 is set as a lower left area C of the screen. In addition, the position where the user 10 is gazing is not always fixed, but varies slightly. Therefore, in FIG.10 (b), the gaze position is shown as the range shown with a dotted line instead of a point.

ステップS84では、ハイライト判定部15は、所定の時間(T1)以上、ユーザ10の注視位置が同じ領域内にあるか否かを判別する。同じ領域にある場合はステップS85に進む。同じ領域に無い場合はステップS81に戻る。なお、注視位置が存在する「領域」とは、インタフェース画面内に設定された領域を意味している。ユーザ10がインタフェース画面外の一点を所定の時間(T1)以上注視したとしても、ステップS85には進まず、ステップS81に戻る。   In step S84, the highlight determination unit 15 determines whether or not the gaze position of the user 10 is within the same region for a predetermined time (T1) or longer. If they are in the same area, the process proceeds to step S85. If not in the same area, the process returns to step S81. Note that the “area” where the gaze position exists means an area set in the interface screen. Even if the user 10 gazes at one point outside the interface screen for a predetermined time (T1) or longer, the process does not proceed to step S85 but returns to step S81.

ステップS85では、ハイライト判定部15は、当該領域に含まれる選択肢をハイライト対象の選択肢として、当該選択肢のリストを脳波IF部14へ送信する。脳波IF部14はこれをトリガーとしてハイライトを開始する。これは、所定の時間(T1)が経過したタイミングでハイライトが開始されることを意味している。図10(b)の例では、画面左下の領域Cに含まれるCH20、21、30、31の4つがハイライト対象として決定されている。   In step S85, the highlight determination unit 15 transmits the list of options to the electroencephalogram IF unit 14 with the options included in the region as the options to be highlighted. The electroencephalogram IF section 14 starts highlighting with this as a trigger. This means that highlighting starts at a timing when a predetermined time (T1) has elapsed. In the example of FIG. 10B, four CH20, 21, 30, and 31 included in the area C at the lower left of the screen are determined as highlight targets.

次に、図9は、脳波IF部14の処理の手順を示すフローチャートである。ステップS91では、脳波IF部14は出力部11を介してインタフェース画面を提示する。例えば、ユーザ10がコンテンツを視聴している時には、テレビのディスプレイに図10(a)のような選択前の画面(この場合はニュース)が表示されている。このとき、画面の右下には「メニュー」と記述されたメニューアイコン100が表示されており、特定の周波数で点滅している。   Next, FIG. 9 is a flowchart showing a processing procedure of the electroencephalogram IF section 14. In step S <b> 91, the electroencephalogram IF unit 14 presents an interface screen via the output unit 11. For example, when the user 10 is viewing content, a screen before selection (in this case, news) as shown in FIG. 10A is displayed on the television display. At this time, a menu icon 100 described as “menu” is displayed at the lower right of the screen and blinks at a specific frequency.

ユーザ10がそのメニュー100を見ると、脳波にはアイコン100の点滅に対応した特定の周波数成分が重畳される。脳波IF部14は、脳波信号における点滅周期の周波数成分のパワースペクトルを識別することにより、ユーザ10がそのメニューアイコン100を見ているか否かを判別できる。ユーザ10がそのメニューアイコン100を見ていると判別すると、脳波IF部14は、脳波インタフェースを起動できる。「脳波インタフェースの起動」とは、脳波を用いて選択等を行うためのインタフェースの提供動作を開始することを意味する。脳波インタフェースが起動されることによって、図10(b)に示すインタフェース画面が表示される。   When the user 10 looks at the menu 100, a specific frequency component corresponding to the blinking of the icon 100 is superimposed on the electroencephalogram. The electroencephalogram IF unit 14 can determine whether or not the user 10 is looking at the menu icon 100 by identifying the power spectrum of the frequency component of the blinking period in the electroencephalogram signal. If it is determined that the user 10 is viewing the menu icon 100, the electroencephalogram IF unit 14 can activate the electroencephalogram interface. “Activation of an electroencephalogram interface” means that an operation of providing an interface for performing selection or the like using an electroencephalogram is started. When the electroencephalogram interface is activated, an interface screen shown in FIG. 10B is displayed.

ステップS92では、脳波IF部14は、当該インタフェース画面の番号をハイライト判定部15に送信することにより、前述のハイライト判定部15の処理を開始させる。   In step S <b> 92, the electroencephalogram IF section 14 transmits the number of the interface screen to the highlight determination section 15 to start the process of the highlight determination section 15 described above.

ステップS93では、脳波IF部14は、ハイライト判定部15から、ハイライトの開始トリガーとともにハイライトの対象となる選択肢のリストを受信する。図10(b)の例では、ハイライトの対象となる選択肢のリストには、領域C内の選択肢である、CH20、21、30、31が記述されている。   In step S <b> 93, the electroencephalogram IF unit 14 receives a list of options to be highlighted together with a highlight start trigger from the highlight determination unit 15. In the example of FIG. 10B, CH20, 21, 30, and 31, which are options in the area C, are described in the list of options to be highlighted.

ステップS94では、脳波IF部14は、ハイライトの対象となる全ての選択肢のハイライトを終了したか否かを判別する。終了していない場合はステップS95に進み、終了している場合はステップS97に進む。   In step S94, the electroencephalogram IF unit 14 determines whether or not highlighting of all options to be highlighted has been completed. If not completed, the process proceeds to step S95. If completed, the process proceeds to step S97.

ステップS95では、対象となる各々の選択肢を順次またはランダムにハイライトする。   In step S95, each target option is highlighted sequentially or randomly.

図10(c)は、脳波IF部14が出力部11を介して、対象となる各々の選択肢をランダムにハイライトしている様子を示している。このときのハイライトの切り替わり時間の間隔は、例えば350ミリ秒とする。図10の画面(c)−1〜(c)−4の例に示すように、選択肢のリストに記述された、領域Cに属する4つの選択肢がハイライトの対象となっている。よって、4つの選択肢のハイライトが全て終了した時点で処理はステップS97に進む。   FIG. 10C shows a state in which the electroencephalogram IF unit 14 randomly highlights each target option via the output unit 11. The interval of highlight switching time at this time is, for example, 350 milliseconds. As shown in the examples of screens (c) -1 to (c) -4 in FIG. 10, the four options belonging to the area C described in the option list are highlighted. Therefore, the process proceeds to step S97 when all the highlights of the four options have been completed.

図10(c)の例では、CH20、21、30、31はこの順序でハイライトされている。なお、ハイライトはインタフェース画面上での選択肢の輝度、色相および大きさの変化の少なくとも一つであればよく、また、ハイライトの代わりに、またはハイライトとともに補助的矢印を用いたポインタで選択肢を提示してもよい。また、選択肢のハイライト順序はランダムでなくてもよく、たとえばチャンネル番号順などの所定の順序にしたがってもよい。   In the example of FIG. 10C, CH20, 21, 30, and 31 are highlighted in this order. Note that the highlight may be at least one of changes in brightness, hue, and size of options on the interface screen, and can be selected with a pointer using an auxiliary arrow instead of the highlight or together with the highlight. May be presented. In addition, the highlight order of options may not be random, and may follow a predetermined order such as a channel number order.

ステップS96では、脳波IF部14は、脳波計測部12で計測された脳波信号のうち、各選択肢がハイライトされた時点を起点とした事象関連電位のP300成分を取得する。   In step S <b> 96, the electroencephalogram IF section 14 acquires the P300 component of the event-related potential starting from the time point when each option is highlighted, among the electroencephalogram signals measured by the electroencephalogram measurement section 12.

ステップS97では、脳波IF部14は、ステップS96で取得した各選択肢に対する事象関連電位のP300成分を識別し、ユーザ10が選択しようとしている選択肢を決定する。図10(d)は各選択肢がハイライトされた時点を起点とした事象関連電位を模式的に示している。   In step S97, the electroencephalogram IF unit 14 identifies the P300 component of the event-related potential for each option acquired in step S96, and determines the option that the user 10 intends to select. FIG. 10D schematically shows event-related potentials starting from the time point when each option is highlighted.

今、ユーザ10はCH21を見たいと考えていたとする。画面(c)−1から画面(c)−4の各々に示すように、各選択肢がハイライトされた時点を起点として脳波信号1〜4が取得される。CH21がハイライトされた画面(c)−2をユーザ10が見ると、その脳波信号には、CH21がハイライトされた時点を起点に約300ミリ秒付近に特徴的な陽性の成分が出現する。脳波IF部14がこのP300成分の出現を識別すると、ユーザ10が選択したいと考えていたチャンネルの選択が可能となる。   Now, assume that the user 10 wishes to view CH21. As shown in each of the screen (c) -1 to the screen (c) -4, the electroencephalogram signals 1 to 4 are acquired starting from the time when each option is highlighted. When the user 10 looks at the screen (c) -2 on which CH21 is highlighted, a characteristic positive component appears in the electroencephalogram signal in the vicinity of about 300 milliseconds from the time when CH21 is highlighted. . When the electroencephalogram IF unit 14 identifies the appearance of the P300 component, the channel that the user 10 wanted to select can be selected.

ステップS98では、ハイライト対象として決定された選択肢が0個であった場合、または事象関連電位のP300成分に特徴的な陽性の成分が出現しなかった場合には、ステップS92の処理が再度実行される。それ以外の場合はステップS99へ進む。   In step S98, if the number of options determined as highlight targets is zero, or if a characteristic positive component does not appear in the P300 component of the event-related potential, the process of step S92 is executed again. Is done. Otherwise, the process proceeds to step S99.

ステップS99では、脳波IF部14は選択された機器動作の処理を実行する。図10(e)の例では、脳波IF部14がチャンネルをCH21(天気予報)に切り替えることにより、出力部11にCH21に対応する天気予報番組が表示されている。   In step S99, the electroencephalogram IF unit 14 executes processing for the selected device operation. In the example of FIG. 10E, the brain wave IF unit 14 switches the channel to CH21 (weather forecast), so that the weather forecast program corresponding to CH21 is displayed on the output unit 11.

本実施形態にかかる構成および処理の手順によれば、ハイライト判定部15は、眼球運動からユーザ10のインタフェース画面上での注視領域を検出し、注視領域に基づいて選択肢の中からハイライトさせる対象を判定する。そして、眼球の回転角速度が予め保持した閾値以下になった時点から所定時間が経過したか否かを判定して、所定時間が経過したときにハイライトを開始させる。これにより、脳波を利用したインタフェースを備えたシステムにおいて、インタフェース画面上に十数個あるいは数十個と多くの選択肢が存在した場合でも、その中からユーザ10が所望する選択肢を効率良く選択させることができる。   According to the configuration and the processing procedure according to the present embodiment, the highlight determination unit 15 detects the gaze area on the interface screen of the user 10 from the eye movement, and highlights from the options based on the gaze area. Determine the target. Then, it is determined whether or not a predetermined time has elapsed from the time when the rotational angular velocity of the eyeball becomes equal to or less than a previously held threshold, and highlighting is started when the predetermined time has elapsed. As a result, in a system having an interface using an electroencephalogram, even if there are a dozen or dozens of options on the interface screen, the user 10 can efficiently select the option desired by the user 10 Can do.

例えば、図6に示す6×6個の選択肢が存在するとき、注視領域を9分割することにより、ハイライトの回数は4回にまで低減することができる。よって、より素早く選択肢を選択することが可能となる。   For example, when 6 × 6 options shown in FIG. 6 exist, the number of highlights can be reduced to four by dividing the gaze area into nine. Therefore, it becomes possible to select an option more quickly.

ハイライト判定部15がハイライト対象となる選択肢を決定し、脳波IF部14が、ハイライト対象として決定された選択肢の中から、ユーザ10が選択したい選択肢を特定するため、不要なハイライトを低減することができる。   The highlight determination unit 15 determines an option to be highlighted, and the electroencephalogram IF unit 14 specifies an option that the user 10 wants to select from the options determined as the highlight target. Can be reduced.

以下で、具体的に説明する。   This will be specifically described below.

本実施形態によるハイライト判定部15が存在せず、脳波IF部14のみで選択肢をハイライトさせると、ユーザ10が選択肢を見ていない場合や、ユーザ10が選択肢に選択意思がない場合にも、対象をハイライトしてしまう可能性がある。   When the highlight determination unit 15 according to the present embodiment does not exist and the option is highlighted only by the electroencephalogram IF unit 14, even when the user 10 does not see the option or when the user 10 does not intend to select the option. , May highlight the subject.

一方、本実施形態では、ハイライト判定部15がハイライト対象の選択肢を決定し、脳波IF部14が当該選択肢をハイライトさせて、事象関連電位を取得する。ハイライト対象は、眼球の運動に基づいて決定されている。ユーザ10が選択肢を見ていないときにはハイライト対象は決定されないので、選択肢がハイライトされるときにはユーザ10は必ず選択肢を見ている。換言すれば、選択肢がハイライトされるのであれば、ユーザ10が選択肢を見ていない、ということは起こらない。   On the other hand, in this embodiment, the highlight determination unit 15 determines an option to be highlighted, and the electroencephalogram IF unit 14 highlights the option to acquire the event-related potential. The highlight target is determined based on the movement of the eyeball. Since the highlight target is not determined when the user 10 does not see the option, the user 10 always sees the option when the option is highlighted. In other words, if an option is highlighted, it does not happen that the user 10 does not see the option.

また、ユーザ10が選択意思を持って選択肢を見ていなければ、1つの選択肢を所定の時間(T1)以上見続けることがないと考えられるため、そのような選択肢がハイライト対象として決定されることがない。よってユーザ10に選択意志がない場合に、ハイライトしてしまうことも起こらない。したがって、不要なハイライトを低減することができる。   Further, if the user 10 does not look at the option with a will of choice, it is considered that the user will not continue to see one option for a predetermined time (T1) or more, so such an option is determined as a highlight target. There is nothing. Therefore, when the user 10 is not willing to select, highlighting does not occur. Therefore, unnecessary highlights can be reduced.

次に、図11を参照しながら、本実施形態の変形例を説明する。図11は、コンテンツ表示領域111とメニュー表示領域110とが含まれたインタフェース画面の例を示している。ユーザ10が選択すべき選択肢はメニュー表示領域110にのみ存在している。   Next, a modification of the present embodiment will be described with reference to FIG. FIG. 11 shows an example of an interface screen including a content display area 111 and a menu display area 110. Options to be selected by the user 10 exist only in the menu display area 110.

このようなインタフェース画面では、ユーザ10の注視領域がメニュー表示領域110にあり、眼球の回転角速度が閾値以下になった時点から所定の時間(T1)以上、ユーザ10の注視領域が同じメニュー表示領域110に存在していた場合のみ、ハイライトを開始させればよい。これにより、ユーザ10がコンテンツ視聴中の場合は不必要なハイライトを抑制することができ、ユーザ10がメニュー変更等の機器動作を所望する場合のみハイライトを開始することができる。   In such an interface screen, the gaze area of the user 10 is in the menu display area 110, and the gaze area of the user 10 is the same as the gaze area of the user 10 for a predetermined time (T1) or more from the time when the rotational angular velocity of the eyeball becomes the threshold value or less. Highlighting only needs to be started if it is at 110. Accordingly, unnecessary highlighting can be suppressed when the user 10 is viewing content, and highlighting can be started only when the user 10 desires a device operation such as a menu change.

(実施形態2)
実施形態1による脳波インタフェースシステム1では、ユーザ10の眼球運動に基づいて、脳波インタフェースに必要とされるハイライトに関して、その対象となる選択肢や開始させるタイミングを判定していた。実施形態1では、ユーザ10の眼球の回転角速度が、閾値以下になった時点からハイライトを開始させるまでの所定時間やハイライトの時間間隔は一定の値であった。
(Embodiment 2)
In the electroencephalogram interface system 1 according to the first embodiment, based on the eye movements of the user 10, with respect to the highlights required for the electroencephalogram interface, the target option and the timing to start are determined. In the first embodiment, the predetermined time and the time interval between highlights from when the rotational angular velocity of the eyeball of the user 10 becomes equal to or less than the threshold value until the highlight is started are constant values.

しかしながら、ユーザの状態に応じて柔軟に、より効率的な選択を行わせることができれば、なお好ましい。具体的には、ユーザ10が脳波インタフェースシステム1を何度も使用することなどにより、脳波インタフェース画面上に表示される選択肢の位置をユーザ10が予め知っている場合において、ユーザ10がそのような選択肢を更に素早く選択すること、逆に選択対象を迷っているユーザ10に対してスムーズに意志を決定させるために、不要なハイライトを抑制すること、ができれば、なお好ましいといえる。   However, it is still preferable if flexible and more efficient selection can be performed according to the user's state. Specifically, when the user 10 knows in advance the position of the option displayed on the electroencephalogram interface screen by the user 10 using the electroencephalogram interface system 1 many times, the user 10 It can be said that it is still preferable if unnecessary highlights can be suppressed in order to select an option more quickly, and conversely to allow the user 10 who is wondering about the selection target to make a decision smoothly.

ここで図12を参照しながら、上述のユーザ10の状態に対するユーザ10の眼球運動を説明する。   Here, the eye movement of the user 10 with respect to the above-described state of the user 10 will be described with reference to FIG.

図12の(a)−1および(b)−1は、選択肢の位置をユーザ10が予め知っているときにおける、ユーザ10の注視位置の変化およびその時間変化を示す。   (A) -1 and (b) -1 in FIG. 12 show changes in the gaze position of the user 10 and changes in the time when the user 10 knows the position of the option in advance.

図12(a)−1は、番組表の項目(番組AからD)および機器操作メニューの項目から構成されているインタフェース画面である。機器操作メニューの項目は、番組表を動かす上下右左の移動方向アイコン、番組表等の存在する番組を検索する「検索」項目アイコン、ユーザ10の視聴履歴に基づいて番組表等に存在する番組のおすすめ番組を表示させるため「おすすめ」項目アイコンが表示されている。矢印は、点Aから点Bへのユーザ10の注視位置の移動を示している。   FIG. 12A-1 is an interface screen including program guide items (programs A to D) and device operation menu items. The items in the device operation menu include up / down / left / right moving direction icons for moving the program guide, “search” item icons for searching for programs such as the program guide, and programs existing in the program guide based on the viewing history of the user 10. A “recommended” item icon is displayed to display a recommended program. The arrow indicates the movement of the gaze position of the user 10 from the point A to the point B.

インタフェース画面は、番組表のような、逐次更新される項目の部分と、機器操作メニューのような、常に同じ項目が同じ場所に提示される部分とに分けられる。ただし、機器操作メニューについては、常に同じ項目が同じ場所に提示されるものに限らず、番組表のような逐次(例えば、1時間ごと、又は1日ごとに)更新される項目よりも更新の頻度が低い項目としても良い。   The interface screen is divided into a part of items that are sequentially updated, such as a program guide, and a part where the same items are always presented at the same place, such as a device operation menu. However, the device operation menu is not limited to items that are always presented at the same place, but is updated more than items that are updated sequentially (eg, every hour or every day) such as a program guide. It is good also as an item with low frequency.

本実施形態では、1つの分割領域内に、常に同じ項目が同じ場所に提示される項目(機器操作メニューの項目)が1つになるように、脳波インタフェース画面を構成する。これにより、機器操作メニューの選択については、脳波IF部14では、その選択肢の選択意思があったかどうかの確認のみを事象関連電位を用いて行なうことにより、ハイライト対象が複数ある場合よりも素早く選択肢を決定することができる。   In the present embodiment, the electroencephalogram interface screen is configured so that one item (device operation menu item) in which the same item is always presented at the same place in one divided region is one. As a result, regarding the selection of the device operation menu, the electroencephalogram IF unit 14 uses only the event-related potential to confirm whether or not there is an intention to select the option, so that the option can be selected more quickly than when there are a plurality of highlight targets. Can be determined.

図12(b)−1は、図12(a)−1における点、つまり、ユーザ10の注視位置の時間変化を模式的に示す。図12(b)−1における時刻tαはインタフェース画面を表示するための処理を開始した時刻、tβはインタフェース画面が提示された時刻とする。具体的には、時刻tαから時刻tβの期間は、図10(a)のような選択前の画面から、図10(b)のような画面(機器の動作に関連する項目が表示された画面)に表示が切り替えられるまでの期間を示している。つまり、時刻tαから時刻tβの間は、図12(a)のインタフェース画面がまだ表示されていない。そのため、ユーザ10は、目視でインタフェース画面にどのような項目が表示されるかわからない状態である。   FIG. 12 (b) -1 schematically shows a time change of the point in FIG. 12 (a) -1, that is, the gaze position of the user 10. In FIG. 12B-1, time tα is time when processing for displaying the interface screen is started, and tβ is time when the interface screen is presented. Specifically, during the period from time tα to time tβ, from the screen before selection as shown in FIG. 10A to the screen as shown in FIG. 10B (screen on which items related to the operation of the device are displayed). ) Shows the period until the display is switched. That is, the interface screen of FIG. 12A is not yet displayed between time tα and time tβ. Therefore, the user 10 is in a state where he / she does not know what items are displayed on the interface screen.

ここで、時刻tαは、インタフェース画面を表示するための処理を開始した時刻より所定時間前としても良い。   Here, the time tα may be a predetermined time before the time when the process for displaying the interface screen is started.

ユーザ10が何度も脳波インタフェースを利用し、慣れてくると、図12(a)−1のようなインタフェース画面が表示される前であっても、ユーザ10は、その後に提示されるインタフェース画面上の項目の位置を記憶していくと考えられる。このような項目を記憶している脳波インタフェースの利用に慣れたユーザ10に対しては、素早く選択できるようにすることが望まれる。   When the user 10 uses the electroencephalogram interface many times and gets used to it, even before the interface screen as shown in FIG. It is thought that the position of the upper item is memorized. It is desired that the user 10 accustomed to using the electroencephalogram interface storing such items can be selected quickly.

本実施形態においては、インタフェース画面が提示される前の時刻(時刻tαから時刻tβ)の眼球の回転角速度を観測することによって、ユーザ10が次に所望する選択肢を素早く選択できるようにする。以下、その詳細を説明する。   In the present embodiment, the user 10 can quickly select the next desired option by observing the rotational angular velocity of the eyeball at the time (time tα to time tβ) before the interface screen is presented. Details will be described below.

ユーザ10がインタフェース画面に表示される項目とその項目の座標を記憶しており、かつ、目的とする選択肢の脳波インタフェース上での座標位置を明確に知っているとする。このとき、ユーザ10の眼球の回転角速度は、インタフェース画面が提示される前に(即ち時刻tαから時刻tβの間に)跳躍性眼球運動を行い、インタフェース画面提示後は目的とする選択肢で注視状態になる。なぜなら、目的とする選択肢のインタフェース画面上での座標位置を記憶していれば、ユーザ10の注視位置はインタフェース画面提示前に目的の選択肢がある領域へ移動できるからである。   It is assumed that the user 10 stores the item displayed on the interface screen and the coordinates of the item, and clearly knows the coordinate position of the target option on the electroencephalogram interface. At this time, the rotational angular velocity of the eyeball of the user 10 is determined by performing a jumping eye movement before the interface screen is presented (that is, between the time tα and the time tβ). become. This is because if the coordinate position of the target option on the interface screen is stored, the gaze position of the user 10 can be moved to a region where the target option is present before the interface screen is presented.

例えば、図12(b)−1から理解されるように、インタフェース画面が提示される時刻tβ前にユーザ10の眼球は跳躍性眼球運動を行い、注視位置が「番組C」の領域から「検索」の領域に移動している。そしてインタフェース画面提示された時刻tβの後は「検索」の領域に留まっている。これは、インタフェース画面上での「検索」の座標位置を記憶していたユーザ10が、インタフェース画面の提示前から「検索」を選択することを意図していたと判断できる。   For example, as understood from FIG. 12B-1, the eyeball of the user 10 performs a jumping eye movement before the time tβ when the interface screen is presented, and “search” is performed from the region where the gaze position is “program C”. To the area. Then, after the time tβ presented on the interface screen, it remains in the “search” area. It can be determined that the user 10 who has stored the coordinate position of “search” on the interface screen intends to select “search” before the interface screen is presented.

ここで、「跳躍性眼球運動」とは、提示された項目を移動した場合の眼球運動を示している。跳躍性眼球運動および、インタフェース画面上に提示された表示を読んでいるときの眼球運動は、眼球運動の角速度の違いによって判別できる。すなわち、それらを判別できる眼球運動の角速度を設定することができる。   Here, the “jumping eye movement” indicates an eye movement when the presented item is moved. The jumping eye movement and the eye movement when reading the display presented on the interface screen can be discriminated by the difference in the angular velocity of the eye movement. That is, it is possible to set an angular velocity of eye movement that can distinguish them.

続いて、選択対象を迷っているユーザ10の眼球運動を検討する。   Subsequently, the eye movement of the user 10 who is wondering about the selection target is examined.

選択対象を迷っているユーザ10の眼球運動は、インタフェース画面提示後の各注視位置での注視時間が長くなると考えられる。例えば、選択したい番組名が明確な場合は、番組表中の番組名を注視してからすぐに該当するか否かの判定が可能である。しかし、選択したい番組が決まっておらず、迷っている場合は、各注視位置で選択するか否かを思考する分、注視時間が長くなる。   It is considered that the eye movement of the user 10 who is wondering about the selection target will increase the gaze time at each gaze position after the interface screen is presented. For example, when the name of a program to be selected is clear, it is possible to determine whether or not the program name is immediately after observing the program name in the program table. However, if the program to be selected is not decided and the user is at a loss, the gaze time becomes longer by considering whether or not to select at each gaze position.

図12(a)−2および(b)−2は、ユーザ10が選択対象を迷っているときにおける、ユーザ10の注視位置の変化およびその時間変化を示す。   FIGS. 12 (a) -2 and (b) -2 show changes in the gaze position of the user 10 and changes over time when the user 10 is confused about the selection target.

この例では、目的とする選択肢が決まっておらず、そのため目的とする選択肢の脳波インタフェース上での座標位置も決まっていない。よって、インタフェース画面が提示される前の時刻(時刻tαから時刻tβ)では、跳躍性眼球運動は見られず、インタフェース画面提示後(時刻tβ以降)にユーザ10の注視位置は「番組A」、「番組C」、「番組B」、「おすすめ」、「番組D」と移動し、各々の注視時間は長くなっている。   In this example, the target option is not determined, and therefore the coordinate position of the target option on the electroencephalogram interface is not determined. Therefore, at the time before the interface screen is presented (from time tα to time tβ), no jumping eye movement is seen, and after the interface screen is presented (after time tβ), the gaze position of the user 10 is “program A”, “Program C”, “Program B”, “Recommendation”, and “Program D” move to each other, and the gaze time of each is longer.

本実施形態による脳波インタフェースシステムでは、ユーザ10の眼球運動が閾値以下になった時点からハイライトを開始させるまでの所定時間やハイライトの時間間隔を、ユーザ10の眼球運動に基づいて調整する。   In the electroencephalogram interface system according to the present embodiment, a predetermined time from when the eye movement of the user 10 becomes equal to or less than a threshold value to start highlighting or a time interval of highlighting is adjusted based on the eye movement of the user 10.

より具体的には、インタフェース画面が起動してから提示されるまでの間に、眼球の回転角速度が予め保持した閾値(X1)以上になり、かつ、インタフェース画面提示後の初期値の所定時間(T1)より短い時間(T2)だけ、眼球運動の回転角速度が閾値(X1)以下の状態になった場合を想定する。   More specifically, during the period from when the interface screen is activated to when it is presented, the rotational angular velocity of the eyeball is equal to or greater than a previously held threshold (X1), and the initial time after the interface screen is presented (predetermined time) Assume that the rotational angular velocity of the eye movement is equal to or less than the threshold (X1) for a shorter time (T2) than T1).

このとき、当該ユーザ10は選択対象が明確であり、かつ、脳波インタフェース上での座標位置を記憶していると判断される。そして当該時点を起点としてハイライトを開始する。よって、インタフェース画面が提示される前の眼球の回転角速度を観測することによって、脳波インタフェース上での座標位置を記憶しているユーザ10は、より素早く選択することが可能になる。ハイライトの時間間隔も初期設定値(Ta)より短く調整すればよい(Tb)。   At this time, it is determined that the user 10 has a clear selection target and stores the coordinate position on the electroencephalogram interface. Then, highlighting starts from the time point. Therefore, by observing the rotational angular velocity of the eyeball before the interface screen is presented, the user 10 storing the coordinate position on the electroencephalogram interface can select more quickly. The highlight time interval may be adjusted to be shorter than the initial setting value (Ta) (Tb).

このようにハイライトを開始させるまでの時間やハイライトの時間間隔を通常より短くすることによって、前述のユーザ10に対して更に素早く目的の選択肢を選択させることが可能となる。   In this way, by shortening the time until the highlight is started and the time interval between highlights, the user 10 can be made to select the desired option more quickly.

一方、インタフェース画面提示後の各注視位置での注視時間の平均値が所定時間(T1)以上になったときは、そのユーザ10は選択対象を迷っていると判断される。そして、眼球の回転角速度が所定時間(T1)より長い時間(T3)、予め保持した閾値(X1)以下の状態になった時点をハイライトの開始タイミングと判定し、ハイライトの時間間隔も初期設定値(Ta)より長く調整する(Tc)。このようにハイライトを開始させるまでの時間やハイライトの時間間隔を通常より長くすることによって、前述のユーザ10に対して不要なハイライトを抑制することが可能となる。   On the other hand, when the average value of the gaze time at each gaze position after the interface screen is presented is equal to or longer than the predetermined time (T1), it is determined that the user 10 is confused about the selection target. Then, the time point when the rotational angular velocity of the eyeball is longer than the predetermined time (T1) (T3) and below the threshold value (X1) held in advance is determined as the highlight start timing, and the highlight time interval is also initialized. Adjust longer than the set value (Ta) (Tc). Thus, by making the time until highlight start and the time interval of highlight longer than usual, it becomes possible to suppress unnecessary highlights for the user 10 described above.

従来文献であるEric W. Sellers、“A P300 event−related potential brain−computer interface(BCI):The effects of matrix size and inter stimulus interval on performance”、BIOLOGICAL PSYCHOLOGY、73(2006)、242−252、および特開2005−21569公報によれば、ハイライトの時間間隔を175ミリ秒、350ミリ秒、および1.5秒とした際の、脳波インタフェースの例が報告されている。   Eric W., a conventional document. Sellers, “A P300 event-related potential brain-computer interface (BCI): The effects of matrix size and Y2O6, PS2 According to the report, an example of an electroencephalogram interface when the time intervals of highlights are 175 milliseconds, 350 milliseconds, and 1.5 seconds has been reported.

そこで本実施形態においては、たとえばハイライトの時間間隔の初期設定値(Ta)は350ミリ秒、短く調整する場合(Tb)は175ミリ秒、長く調整する場合(Tc)は1.5秒とした。   Therefore, in the present embodiment, for example, the initial setting value (Ta) of the highlight time interval is 350 milliseconds, when adjusting short (Tb) is 175 milliseconds, and when adjusting long (Tc) is 1.5 seconds. did.

また、従来文献である特開2006−204855公報には、人間が視認を行う際の注視運動に要する時間はおよそ200ミリ秒から400ミリ秒程度と記載されている。そこで本実施形態においては、ハイライトを開始させるまでの所定時間の初期設定値(T1)は400ミリ秒、短く調整する場合(T2)は200ミリ秒、長く調整する場合(T3)は余裕を持って800ミリ秒とする。   In addition, Japanese Patent Application Laid-Open No. 2006-204855, which is a conventional document, describes that the time required for gaze movement when a human performs visual recognition is approximately 200 milliseconds to 400 milliseconds. Therefore, in the present embodiment, the initial setting value (T1) for a predetermined time until the highlight is started is 400 milliseconds, when adjusting short (T2) is 200 milliseconds, and when adjusting long (T3), there is a margin. Take it for 800 milliseconds.

図13は、本実施形態による脳波インタフェースシステム1の構成を示す。本実施形態による脳波インタフェースシステム1は、実施形態1の脳波インタフェース装置2とは異なる脳波インタフェース装置20を備えている。   FIG. 13 shows a configuration of the electroencephalogram interface system 1 according to the present embodiment. The electroencephalogram interface system 1 according to the present embodiment includes an electroencephalogram interface apparatus 20 different from the electroencephalogram interface apparatus 2 according to the first embodiment.

脳波インタフェース装置20は、実施形態1の脳波インタフェース装置2に対して、ハイライトタイミング調整部16およびハイライト間隔調整部17を追加して構成されている。なお、ハイライトタイミング調整部16およびハイライト間隔調整部17を簡略化して、それぞれ「タイミング調整部」および「間隔調整部」と記載することがある。   The electroencephalogram interface apparatus 20 is configured by adding a highlight timing adjustment unit 16 and a highlight interval adjustment unit 17 to the electroencephalogram interface apparatus 2 of the first embodiment. The highlight timing adjustment unit 16 and the highlight interval adjustment unit 17 may be simplified and referred to as “timing adjustment unit” and “interval adjustment unit”, respectively.

ハイライトタイミング調整部16は、前述の通り、眼球の回転角速度が予め保持した閾値(X1)以下の状態になってからハイライトを開始させるまでの所定時間を調整する。ハイライト間隔調整部17は、ハイライトの時間間隔を調整する。   As described above, the highlight timing adjustment unit 16 adjusts a predetermined time from when the rotational angular velocity of the eyeball is equal to or less than the threshold value (X1) held in advance until the highlight is started. The highlight interval adjustment unit 17 adjusts the highlight time interval.

図14は、ハイライト判定部15の処理の手順を示している。実施形態1におけるハイライト判定部15のフローチャート(図8)との相違点は、ステップS134のハイライトタイミング調整処理およびステップS135のハイライト間隔調整部が追加されたこと、および、ステップS137の脳波IF部14へ送信する情報にハイライト間隔が追加されたことである。以下、これらの処理を説明する。   FIG. 14 shows a processing procedure of the highlight determination unit 15. The difference from the flowchart (FIG. 8) of the highlight determination unit 15 in the first embodiment is that a highlight timing adjustment process in step S134 and a highlight interval adjustment unit in step S135 are added, and an electroencephalogram in step S137. This is that a highlight interval is added to the information to be transmitted to the IF unit 14. Hereinafter, these processes will be described.

ステップS131では、眼球運動計測部13から受信した眼球の回転角速度が閾値X1以下か否かを判別する。閾値X1以下になった場合のみ、以降の処理を実施する。   In step S131, it is determined whether or not the rotational angular velocity of the eyeball received from the eyeball movement measurement unit 13 is equal to or less than the threshold value X1. Only when the threshold value is less than or equal to X1, the subsequent processing is performed.

ステップS132では、ハイライト判定部15は脳波IF部14から受信したインタフェース画面の画面番号に基づいて、予め保持しているインタフェース画面の分割情報(図7)を読み出す。   In step S132, the highlight determination unit 15 reads the interface screen division information (FIG. 7) held in advance based on the screen number of the interface screen received from the electroencephalogram IF unit 14.

ステップS133では、ハイライト判定部15は、インタフェース画面の分割情報と眼球運動計測部13から受信したユーザ10のディスプレイ画面上での注視位置とに基づいて、インタフェース画面上でのユーザ10の注視領域を検出する。   In step S133, the highlight determination unit 15 determines the gaze area of the user 10 on the interface screen based on the division information of the interface screen and the gaze position on the display screen of the user 10 received from the eye movement measurement unit 13. Is detected.

ステップS134では、ハイライトタイミング調整部16がハイライトを開始させるタイミングの調整処理を行う。この処理の詳細は図15を参照しながら後述する。   In step S134, the highlight timing adjustment unit 16 performs a timing adjustment process for starting highlighting. Details of this processing will be described later with reference to FIG.

ステップS135では、ハイライト間隔調整部17は、ハイライトの時間間隔の調整処理を行う。この処理の詳細は図16を参照しながら後述する。   In step S135, the highlight interval adjustment unit 17 performs a highlight time interval adjustment process. Details of this processing will be described later with reference to FIG.

ステップS136では、ハイライト判定部15は、所定の時間(T1)以上、ユーザ10の注視位置が同じ領域内にあるか否かを判別する。同じ領域にある場合はステップS137に進み、同じ領域に無い場合はステップS131に戻る。なお、ハイライトを開始させるまでの所定時間Tは、ステップS134において調整されている。   In step S136, the highlight determination unit 15 determines whether or not the gaze position of the user 10 is within the same region for a predetermined time (T1) or longer. If it is in the same area, the process proceeds to step S137, and if it is not in the same area, the process returns to step S131. Note that the predetermined time T until the highlighting is started is adjusted in step S134.

ステップS137では、ハイライト判定部15は、その時点がハイライトを開始させるタイミングであるとして、当該領域に含まれる選択肢をハイライト対象の選択肢として、当該選択肢のリストおよびステップS135で調整されたハイライト間隔を、脳波IF部14へ送信する。脳波IF部14はこれをトリガーとしてハイライトを開始する。   In step S137, the highlight determination unit 15 assumes that the timing is the timing to start highlighting, and uses the options included in the area as the highlight target options, and the highlight adjusted in step S135. The write interval is transmitted to the electroencephalogram IF unit 14. The electroencephalogram IF section 14 starts highlighting with this as a trigger.

図15は、ハイライトタイミング調整部16の処理の手順を示している。図15に示す処理により、ハイライトを開始させるまでの所定時間がT1、T2、T3のいずれかに設定される。   FIG. 15 shows a processing procedure of the highlight timing adjustment unit 16. With the processing shown in FIG. 15, a predetermined time until highlighting is started is set to any one of T1, T2, and T3.

以下に示すハイライトを開始させるまでの所定時間T1、T2、T3はそれぞれ400ミリ秒、200ミリ秒、800ミリ秒であるとする。すなわち、T2<T1<T3の関係を持つとする。   It is assumed that predetermined times T1, T2, and T3 until the highlight shown below are started are 400 milliseconds, 200 milliseconds, and 800 milliseconds, respectively. That is, it is assumed that T2 <T1 <T3.

ステップS141では、ハイライトタイミング調整部16は、図12(b)−1におけるtαとtβの間、即ちインタフェース画面が起動してから提示されるまで時間に、眼球の回転角速度が予め保持した閾値(X1)以上になっている否かを判別する。閾値X1以上になった場合はステップS144へ進み、それ以外の場合はステップS142へ進む。   In step S141, the highlight timing adjustment unit 16 sets the threshold value that the rotational angular velocity of the eyeball holds in advance between tα and tβ in FIG. 12B-1, that is, from when the interface screen is activated until it is presented. (X1) It is discriminated whether or not it is equal to or higher. When it becomes more than threshold value X1, it progresses to Step S144, and when that is not right, it progresses to Step S142.

ステップS142では、ハイライトタイミング調整部16は、インタフェース画面提示後の各注視位置での注視時間の平均値を算出する。   In step S142, the highlight timing adjustment unit 16 calculates the average value of the gaze time at each gaze position after the interface screen is presented.

ステップS143では、ハイライトタイミング調整部16は、ステップS142で算出した平均値が所定時間(T1)以上になっているか否かを判別する。所定時間(T1)以上になった場合はステップS145へ進み、それ以外の場合はステップS146へ進む。   In step S143, the highlight timing adjustment unit 16 determines whether or not the average value calculated in step S142 is equal to or longer than a predetermined time (T1). If it is equal to or longer than the predetermined time (T1), the process proceeds to step S145; otherwise, the process proceeds to step S146.

ステップS144では、ハイライトタイミング調整部16は、ハイライトを開始させるまでの所定時間をT2に調整する。即ち初期設定値より短めに調整する。   In step S144, the highlight timing adjustment unit 16 adjusts a predetermined time until the highlight is started to T2. That is, the adjustment is made shorter than the initial set value.

ステップS145では、ハイライトタイミング調整部16はハイライトを開始させるまでの所定時間をT3に調整する。即ち初期設定値より長めに調整する。   In step S145, the highlight timing adjustment unit 16 adjusts the predetermined time until the highlighting is started to T3. That is, the adjustment is made longer than the initial set value.

ステップS146では、ハイライトタイミング調整部16は、ハイライトを開始させるまでの所定時間をT1に調整する。即ち初期設定値と同じ値に調整する。   In step S146, the highlight timing adjustment unit 16 adjusts the predetermined time until the highlight is started to T1. That is, it is adjusted to the same value as the initial setting value.

図16は、ハイライト間隔調整部17の処理の手順を示している。図16に示す処理により、ハイライトの時間間隔がTa、Tb、Tcのいずれかに設定される。   FIG. 16 shows a processing procedure of the highlight interval adjustment unit 17. With the processing shown in FIG. 16, the highlight time interval is set to one of Ta, Tb, and Tc.

なお、以下に示すハイライトの時間間隔Ta、Tb、Tcはそれぞれ350ミリ秒、175ミリ秒、1.5秒であるとする。すなわち、Tb<Ta<Tcの関係を持つとする。   Note that the time intervals Ta, Tb, and Tc of highlights shown below are 350 milliseconds, 175 milliseconds, and 1.5 seconds, respectively. That is, it is assumed that Tb <Ta <Tc.

ステップS171からステップS173までは、ハイライト間隔調整部17は、上述の図15に示すステップS141からS143までと同様の処理を実行する。   From step S171 to step S173, the highlight interval adjusting unit 17 executes the same processing as that of steps S141 to S143 shown in FIG.

ステップS174では、ハイライト間隔調整部17は、ハイライトの時間間隔をTbに調整する。即ち初期設定値より短めに調整する。   In step S174, the highlight interval adjustment unit 17 adjusts the highlight time interval to Tb. That is, the adjustment is made shorter than the initial set value.

ステップS175では、ハイライト間隔調整部17は、ハイライトの時間間隔をTcに調整する。即ち初期設定値より長めに調整する。   In step S175, the highlight interval adjustment unit 17 adjusts the highlight time interval to Tc. That is, the adjustment is made longer than the initial set value.

ステップS176では、ハイライト間隔調整部17は、ハイライトの時間間隔をTaに調整する。即ち初期設定値と同じ値に調整する。   In step S176, the highlight interval adjusting unit 17 adjusts the highlight time interval to Ta. That is, it is adjusted to the same value as the initial setting value.

本実施形態にかかる構成および処理の手順によれば、脳波を利用したインタフェースを備えたシステムにおいて、ハイライトを開始させるまでの所定時間やハイライトの時間間隔をユーザ10の眼球運動に基づいて調整する。よって、ユーザ10が、選択したい選択肢の脳波インタフェース上での座標位置を明確に知っているときには、ユーザ10に更に素早く選択肢を選択させることができる。逆に選択対象を迷っているユーザ10に対してはスムーズな意志決定行為を行わせるために不要なハイライトを抑制することができる。   According to the configuration and processing procedure according to the present embodiment, in a system including an interface using an electroencephalogram, a predetermined time until highlighting is started and a time interval between highlights are adjusted based on the eye movement of the user 10. To do. Therefore, when the user 10 clearly knows the coordinate position on the electroencephalogram interface of the option to be selected, the user 10 can be made to select the option more quickly. Conversely, unnecessary highlights can be suppressed in order to cause the user 10 who is confused about the selection target to perform a smooth decision-making action.

なお、本実施形態においては、図12の(a)−1および(a)−2に示す画面例を参照しながら脳波インタフェース装置20の動作を説明した。ただしこれは、実施形態1の説明において参照した図10(b)の画面例に適用できないことを意味するものではない。図12の(a)−1に示す点Aから点Bへの矢印は図10(b)の画面例にも同様に適用できる。ただし、このとき点Aは、ユーザ10が図10(a)のメニューアイコン100を注視したことによってインタフェース画面を表示するための処理を開始した時刻における注視位置であり、点Bは、図10(b)のインタフェース画面が提示される前の時刻における注視位置である。   In the present embodiment, the operation of the electroencephalogram interface apparatus 20 has been described with reference to the screen examples shown in (a) -1 and (a) -2 of FIG. However, this does not mean that it is not applicable to the screen example of FIG. 10B referred to in the description of the first embodiment. The arrow from point A to point B shown in (a) -1 of FIG. 12 can be similarly applied to the screen example of FIG. However, at this time, the point A is a gaze position at the time when the process for displaying the interface screen is started when the user 10 gazes at the menu icon 100 in FIG. It is a gaze position at the time before the interface screen of b) is presented.

上述の実施形態のいずれについても、フローチャートを用いて説明した処理はコンピュータに実行されるプログラムとして実現され得る。そのようなコンピュータプログラムは、CD−ROM等の記録媒体に記録されて製品として市場に流通され、または、インターネット等の電気通信回線を通じて伝送される。   In any of the above-described embodiments, the processing described using the flowchart can be realized as a program executed by a computer. Such a computer program is recorded on a recording medium such as a CD-ROM and distributed as a product to the market or transmitted through an electric communication line such as the Internet.

たとえば図2に示す脳波インタフェース装置2は、コンピュータプログラムを実行する汎用のプロセッサ(半導体回路)として実現される。または、そのようなコンピュータプログラムとプロセッサとが一体化された専用プロセッサとして実現される。   For example, the electroencephalogram interface apparatus 2 shown in FIG. 2 is realized as a general-purpose processor (semiconductor circuit) that executes a computer program. Alternatively, it is realized as a dedicated processor in which such a computer program and a processor are integrated.

眼球運動計測部13や脳波計測部12もまた、コンピュータプログラムを実行する汎用のプロセッサ(半導体回路)または専用のプロセッサ(半導体回路)として実現され得る。たとえば、取得した角膜網膜電位に基づいて眼球運動計測部13が眼球の回転角度と回転角速度を算出する処理は、プログラムとして実現され得る。また、脳波計測部12がバンドパスフィルタ処理やベースライン補正処理は、プログラムとして実現され得る。   The eye movement measurement unit 13 and the electroencephalogram measurement unit 12 can also be realized as a general-purpose processor (semiconductor circuit) or a dedicated processor (semiconductor circuit) that executes a computer program. For example, the process in which the eye movement measurement unit 13 calculates the rotation angle and the rotation angular velocity of the eyeball based on the acquired corneal retinal potential can be realized as a program. In addition, the electroencephalogram measurement unit 12 can implement the band pass filter process and the baseline correction process as a program.

本発明にかかる脳波インタフェース装置およびその装置が組み込まれた脳波インタフェースシステムによれば、脳波インタフェースに必要とされるハイライトに関して、その対象となる選択肢や開始させるタイミング、および時間間隔をユーザの眼球運動に基づいて判定する。これにより、脳波を用いた機器操作インタフェースが搭載されている情報機器や映像音響機器などの操作性改善に有用である。   According to the electroencephalogram interface apparatus and the electroencephalogram interface system in which the apparatus is incorporated according to the present invention, with respect to the highlights required for the electroencephalogram interface, the target options, the timing to start, and the time interval are determined by the user's eye movement Determine based on. This is useful for improving the operability of information equipment and audio-visual equipment equipped with equipment operation interfaces using brain waves.

1 脳波インタフェースシステム
2、20 脳波インタフェース装置
11 出力部
12 脳波計測部
13 眼球運動計測部
14 脳波IF部
15 ハイライト判定部
16 ハイライトタイミング調整部
17 ハイライト間隔調整部
DESCRIPTION OF SYMBOLS 1 EEG interface system 2, 20 EEG interface apparatus 11 Output part 12 EEG measurement part 13 Eye movement measurement part 14 EEG IF part 15 Highlight determination part 16 Highlight timing adjustment part 17 Highlight interval adjustment part

Claims (15)

ユーザの脳波信号を利用して機器の動作を制御する脳波インタフェースシステムであって、
前記ユーザの脳波信号を計測する脳波計測部と、
前記ユーザの眼球運動を計測する眼球運動計測部と、
機器の動作に関連する選択肢を画面上に提示する出力部と、
前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定し、所定の時間が経過したときには、前記ユーザが注視している前記画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するハイライト判定部と、
前記ハイライト判定部によって決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として前記脳波信号に含まれる事象関連電位の成分を識別し、識別した前記成分に基づいて前記機器の動作を決定するインタフェース部と、
前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの開始タイミングを調整するタイミング調整部と
を備えた脳波インタフェースシステム。
An electroencephalogram interface system that controls the operation of a device using a user's electroencephalogram signal,
An electroencephalogram measurement unit for measuring the electroencephalogram signal of the user;
An eye movement measuring unit that measures the eye movement of the user;
An output unit that presents on the screen options related to the operation of the device;
It is determined whether or not a predetermined time has elapsed from the time when the rotational angular velocity of the eyeball movement is equal to or less than a predetermined threshold, and when the predetermined time has elapsed, the user is gazing A region in the screen is identified based on the eye movement, and a highlight determination unit that determines an option to highlight,
Highlighting the option determined by the highlight determination unit, identifying an event-related potential component included in the electroencephalogram signal from the timing when the option is highlighted, and based on the identified component An interface unit that determines the operation of the device;
An electroencephalogram interface system comprising: a timing adjustment unit that adjusts a highlight start timing based on the eye movement from when the processing for displaying the screen is started until the screen is displayed.
前記タイミング調整部は、前記眼球運動の変化量が予め保持した閾値以上になり、かつ、前記画面表示後に、前記所定時間より短い時間、前記眼球運動の変化量が予め保持した閾値以下の状態になった時点から、前記選択肢のハイライトを開始させる、請求項1に記載の脳波インタフェースシステム。  The timing adjustment unit has a state in which the amount of change in the eye movement is equal to or greater than a predetermined threshold, and after the screen display, the amount of change in the eye movement is equal to or less than a predetermined threshold for a time shorter than the predetermined time. The electroencephalogram interface system according to claim 1, wherein highlighting of the option is started from a point in time. 前記タイミング調整部は、前記画面が表示された後、前記ユーザが前記画面中の領域を注視している場合に各注視領域での注視時間を測定し、測定時間の平均値が前記所定時間以上になった場合であって、かつ、前記眼球運動の変化量が前記所定時間より長い時間、予め保持した閾値以下の状態になった時点から、前記選択肢のハイライトを開始させる、請求項1に記載の脳波インタフェースシステム。  The timing adjustment unit measures a gaze time in each gaze area when the user gazes an area in the screen after the screen is displayed, and an average value of the measurement time is equal to or greater than the predetermined time The highlighting of the option is started when the amount of change of the eye movement is equal to or less than a predetermined threshold value for a time longer than the predetermined time. The described electroencephalogram interface system. 前記ハイライト判定部は、前記画面中の領域に含まれる選択肢を前記ハイライトさせる選択肢として決定する、請求項1に記載の脳波インタフェースシステム。  The electroencephalogram interface system according to claim 1, wherein the highlight determination unit determines an option included in an area in the screen as an option to be highlighted. 前記インタフェース部は、前記画面上において、前記ハイライト判定部によって決定された前記選択肢の輝度、色相および大きさの少なくとも一つを変化させることにより、決定された前記選択肢をハイライトさせる、請求項1に記載の脳波インタフェースシステム。  The interface unit highlights the determined option by changing at least one of luminance, hue, and size of the option determined by the highlight determination unit on the screen. 2. The electroencephalogram interface system according to 1. 前記インタフェース部は、前記ハイライト判定部によって決定された前記選択肢の数に応じて、ハイライトさせる方法を変化させる、請求項1に記載の脳波インタフェースシステム。  The electroencephalogram interface system according to claim 1, wherein the interface unit changes a method of highlighting according to the number of the options determined by the highlight determination unit. 前記ハイライト判定部によって決定された前記選択肢が複数存在する場合は、複数の選択肢をランダムにまたは順番に所定のハイライト間隔でハイライトさせる、請求項6に記載の脳波インタフェースシステム。  7. The electroencephalogram interface system according to claim 6, wherein when there are a plurality of the options determined by the highlight determination unit, the plurality of options are highlighted randomly or sequentially in a predetermined highlight interval. 前記ハイライト判定部は、前記画面中の領域に選択肢が存在しない場合には、前記ハイライトさせる選択肢を決定しない、請求項1に記載の脳波インタフェースシステム。  2. The electroencephalogram interface system according to claim 1, wherein the highlight determination unit does not determine an option to be highlighted when there is no option in an area in the screen. 前記眼球運動に基づいて、ハイライトの時間間隔を調整する間隔調整部をさらに備えた、請求項1に記載の脳波インタフェースシステム。  The electroencephalogram interface system according to claim 1, further comprising an interval adjustment unit that adjusts a time interval of highlights based on the eye movement. 前記間隔調整部は、前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの時間間隔を調整する、請求項に記載の脳波インタフェースシステム。The gap adjusting part, based on the eye movement until the screen is displayed after the process is started to display the screen, to adjust the time interval of highlighting, claim 9 EEG interface system. 前記間隔調整部は、前記眼球運動の変化量が予め保持した閾値以上になり、かつ、前記画面表示後に、前記所定時間より短い時間、前記眼球運動の変化量が予め保持した閾値以下の状態になったときにおいて、前記ハイライトの時間間隔を設定値より短く調整する、請求項10に記載の脳波インタフェースシステム。  The interval adjusting unit has a state in which the amount of change in the eye movement is equal to or greater than a predetermined threshold, and after the screen display, the amount of change in the eye movement is equal to or less than a predetermined threshold for a time shorter than the predetermined time. The electroencephalogram interface system according to claim 10, wherein the highlight time interval is adjusted to be shorter than a set value. 前記間隔調整部は、前記画面が表示された後、前記ユーザが前記画面中の領域を注視している場合に各注視領域での注視時間を測定し、測定時間の平均値が前記所定時間以上になった場合には、前記ハイライトの時間間隔を設定値より長く調整する、請求項に記載の脳波インタフェースシステム。The interval adjustment unit measures the gaze time in each gaze area when the user is gazes at the area in the screen after the screen is displayed, and the average value of the measurement time is equal to or greater than the predetermined time The electroencephalogram interface system according to claim 9 , wherein the time interval of the highlight is adjusted to be longer than a set value in the case of becoming. 機器の動作に関連する選択肢を画面上に提示し、ユーザの眼球運動および脳波信号を利用して、前記機器の動作を制御する脳波インタフェースシステムにおいて用いられる脳波インタフェース装置であって、
前記脳波インタフェースシステムは、前記ユーザの脳波信号を計測する脳波計測部と、前記ユーザの眼球運動を計測する眼球運動計測部とを有しており、
前記眼球運動計測部から受け取った前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定し、所定の時間が経過したときには、前記ユーザが注視している画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するハイライト判定部と、
前記ハイライト判定部によって決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として、前記脳波計測部から受け取った前記脳波信号に含まれる事象関連電位の成分を識別し、識別した前記成分に基づいて前記機器の動作を決定するインタフェース部と、
前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの開始タイミングを調整するタイミング調整部と
を備えた脳波インタフェース装置。
An electroencephalogram interface apparatus used in an electroencephalogram interface system that presents options related to the operation of the device on a screen and controls the operation of the device using a user's eye movement and electroencephalogram signal,
The electroencephalogram interface system has an electroencephalogram measurement unit that measures the electroencephalogram signal of the user, and an eye movement measurement unit that measures the eye movement of the user,
It is determined whether or not a predetermined time has elapsed from a time point when the rotational angular velocity of the eye movement received from the eye movement measurement unit is equal to or lower than a previously held threshold, and when the predetermined time has elapsed, A region in the screen that the user is gazing at is specified based on the eye movement, and a highlight determination unit that determines an option to be highlighted,
Highlighting the option determined by the highlight determination unit, identifying the event-related potential component included in the electroencephalogram signal received from the electroencephalogram signal from the timing when the option is highlighted, An interface unit for determining the operation of the device based on the identified component;
An electroencephalogram interface device comprising: a timing adjustment unit that adjusts a highlight start timing based on the eye movement from when processing for displaying the screen is started to when the screen is displayed.
ユーザの脳波信号を利用して機器の動作を制御する脳波インタフェースシステムにおいて用いられる方法であって、
前記ユーザの脳波信号を計測するステップと、
前記ユーザの眼球運動を計測するステップと、
機器の動作に関連する選択肢を画面上に提示するステップと、
前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定するステップと、
所定の時間が経過したときには、前記ユーザが注視している前記画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するステップと、
決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として前記脳波信号に含まれる事象関連電位の成分を識別するステップと、
識別した前記成分に基づいて前記機器の動作を決定するステップと、
前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの開始タイミングを調整するステップと
を包含する、方法。
A method used in an electroencephalogram interface system that controls the operation of a device using a user's electroencephalogram signal,
Measuring the user's electroencephalogram signal;
Measuring the eye movement of the user;
Presenting on-screen options related to the operation of the device;
Determining whether a predetermined time has elapsed from the time when the rotational angular velocity of the eye movement is in a state equal to or lower than a previously held threshold;
When a predetermined time has elapsed, identifying an area in the screen that the user is gazing based on the eye movement, and determining an option to highlight;
Highlighting the determined option determined, and identifying an event-related potential component included in the electroencephalogram signal starting from the timing when the option is highlighted;
Determining the operation of the device based on the identified component;
Adjusting the highlight start timing based on the eye movements from when the process for displaying the screen is started until the screen is displayed.
脳波インタフェース装置において実行されるコンピュータプログラムであって、
前記脳波インタフェース装置は、ユーザの脳波信号を利用して機器の動作を制御する脳波インタフェースシステムに組み込まれており、
前記脳波インタフェースシステムは、
前記ユーザの脳波信号を計測する脳波計測部と、
前記ユーザの眼球運動を計測する眼球運動計測部と、
機器の動作に関連する選択肢を画面上に提示する出力部と
を有しており、
前記コンピュータプログラムは、前記脳波インタフェース装置のコンピュータに対し、
前記眼球運動計測部によって計測された、前記眼球運動の回転角速度が予め保持した閾値以下の状態になった時点を起点として所定の時間が経過したか否かを判定するステップと、
所定の時間が経過したときには、前記ユーザが注視している前記画面中の領域を前記眼球運動に基づいて特定し、ハイライトさせる選択肢を決定するステップと、
決定された前記選択肢をハイライトさせ、前記選択肢がハイライトされたタイミングを起点として前記脳波信号に含まれる事象関連電位の成分を識別するステップと、
識別した前記成分に基づいて前記機器の動作を決定するステップと、
前記画面を表示するための処理が開始されてから前記画面が表示されるまでの間の前記眼球運動に基づいて、ハイライトの開始タイミングを調整するステップと
を実行させる、コンピュータプログラム。
A computer program executed in an electroencephalogram interface apparatus,
The electroencephalogram interface device is incorporated in an electroencephalogram interface system that controls the operation of the device using a user's electroencephalogram signal,
The electroencephalogram interface system comprises:
An electroencephalogram measurement unit for measuring the electroencephalogram signal of the user;
An eye movement measuring unit that measures the eye movement of the user;
An output unit that presents on the screen options related to the operation of the device,
The computer program is for the computer of the electroencephalogram interface device.
A step of determining whether or not a predetermined time has elapsed from the time when the rotational angular velocity of the eye movement measured by the eye movement measurement unit is equal to or less than a threshold value held in advance;
When a predetermined time has elapsed, identifying an area in the screen that the user is gazing based on the eye movement, and determining an option to highlight;
Highlighting the determined option determined, and identifying an event-related potential component included in the electroencephalogram signal starting from the timing when the option is highlighted;
Determining the operation of the device based on the identified component;
And a step of adjusting a highlight start timing based on the eye movement from when the process for displaying the screen is started until the screen is displayed.
JP2009516809A 2008-01-25 2009-01-20 EEG interface system, EEG interface apparatus, method, and computer program Active JP4399513B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008014901 2008-01-25
JP2008014901 2008-01-25
PCT/JP2009/000172 WO2009093435A1 (en) 2008-01-25 2009-01-20 Brain wave interface system, brain wave interface device, method and computer program

Publications (2)

Publication Number Publication Date
JP4399513B2 true JP4399513B2 (en) 2010-01-20
JPWO2009093435A1 JPWO2009093435A1 (en) 2011-05-26

Family

ID=40900947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009516809A Active JP4399513B2 (en) 2008-01-25 2009-01-20 EEG interface system, EEG interface apparatus, method, and computer program

Country Status (4)

Country Link
US (1) US8466875B2 (en)
JP (1) JP4399513B2 (en)
CN (1) CN101681201B (en)
WO (1) WO2009093435A1 (en)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9250703B2 (en) * 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
JP5361174B2 (en) * 2007-11-30 2013-12-04 キヤノン株式会社 Display control apparatus, display control method, and program
WO2011039643A1 (en) * 2009-09-30 2011-04-07 France Telecom Control device
JP5652652B2 (en) * 2010-12-27 2015-01-14 ソニー株式会社 Display control apparatus and method
KR20140041570A (en) * 2011-06-24 2014-04-04 톰슨 라이센싱 Computer device operable with user's eye movement and method for operating the computer device
US20130194177A1 (en) * 2011-07-29 2013-08-01 Kotaro Sakata Presentation control device and presentation control method
US9256285B2 (en) 2011-08-19 2016-02-09 Thompson Licensing Sa Method for gaze-controlled text size control, and methods for gaze-based measuring of a text reading speed and of a number of visual saccades per text line
CN103150007B (en) * 2011-12-06 2016-03-30 联想(北京)有限公司 A kind of input method and device
KR101530314B1 (en) * 2011-12-16 2015-06-23 주식회사 케이티 Demand response system and method thereof
US9691381B2 (en) 2012-02-21 2017-06-27 Mediatek Inc. Voice command recognition method and related electronic device and computer-readable medium
KR101919010B1 (en) * 2012-03-08 2018-11-16 삼성전자주식회사 Method for controlling device based on eye movement and device thereof
KR101850035B1 (en) * 2012-05-02 2018-04-20 엘지전자 주식회사 Mobile terminal and control method thereof
KR20140011204A (en) * 2012-07-18 2014-01-28 삼성전자주식회사 Method for providing contents and display apparatus thereof
JP6387352B2 (en) 2012-10-24 2018-09-05 ドリームスケープ メディカル エルエルシー System for detecting brain biosignals
KR101354321B1 (en) * 2012-11-27 2014-02-05 현대자동차주식회사 Apparatus for inputting command using movement of pupil and method thereof
EP2972678A4 (en) * 2013-03-15 2016-11-02 Interaxon Inc Wearable computing apparatus and method
JP6127839B2 (en) * 2013-09-02 2017-05-17 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2015125616A (en) * 2013-12-26 2015-07-06 ソニー株式会社 Display controller, display control method and program
JP6123694B2 (en) * 2014-02-10 2017-05-10 ソニー株式会社 Information processing apparatus, information processing method, and program
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
CN107087431B (en) 2014-05-09 2021-02-05 谷歌有限责任公司 System and method for discriminating eye signals and continuous biometric identification
JP6445784B2 (en) * 2014-05-16 2018-12-26 キヤノン株式会社 Image diagnosis support apparatus, processing method thereof, and program
TWI511095B (en) * 2014-07-17 2015-12-01 Nat Univ Chin Yi Technology A fatigue detecting method with a characteristic of combining an eyeball image and brain waves
JP6213435B2 (en) * 2014-09-18 2017-10-18 株式会社デンソーアイティーラボラトリ Over-attention state determination device and over-attention state determination program
JP6421543B2 (en) * 2014-10-17 2018-11-14 セイコーエプソン株式会社 Head-mounted display device, method for controlling head-mounted display device, computer program
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
TWI563970B (en) * 2015-09-16 2017-01-01 國立交通大學 Visual line detection device and method for the same
WO2017104869A1 (en) * 2015-12-17 2017-06-22 주식회사 룩시드랩스 Eye-brain interface (ebi) system and method for controlling same
JP2017138350A (en) * 2016-02-01 2017-08-10 アルプス電気株式会社 Image display device
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10372205B2 (en) * 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
WO2019040665A1 (en) * 2017-08-23 2019-02-28 Neurable Inc. Brain-computer interface with high-speed eye tracking features
JP6935921B2 (en) * 2017-10-06 2021-09-15 株式会社コナミデジタルエンタテインメント Terminal devices and programs
WO2019094953A1 (en) * 2017-11-13 2019-05-16 Neurable Inc. Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
RU2674191C1 (en) * 2017-11-20 2018-12-05 Юрий Вячеславович Быков Method of controlling attention in gaming
US10091554B1 (en) * 2017-12-06 2018-10-02 Echostar Technologies L.L.C. Apparatus, systems and methods for generating an emotional-based content recommendation list
EP3721320B1 (en) 2017-12-07 2022-02-23 Eyefree Assisting Communication Ltd. Communication methods and systems
CN111712192A (en) * 2018-01-18 2020-09-25 神经股份有限公司 Brain-computer interface with adaptation for high speed, accurate and intuitive user interaction
JP2019139769A (en) * 2018-02-05 2019-08-22 株式会社テラプローブ Input system and program using brain waves
JP6911809B2 (en) * 2018-05-09 2021-07-28 日本電信電話株式会社 Estimating method, estimation program and estimation device
US10942564B2 (en) 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
US11262839B2 (en) 2018-05-17 2022-03-01 Sony Interactive Entertainment Inc. Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment
CN108919947B (en) * 2018-06-20 2021-01-29 北京航空航天大学 Brain-computer interface system and method realized through visual evoked potential
US10664050B2 (en) * 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions
JP7165604B2 (en) * 2019-03-06 2022-11-04 日産自動車株式会社 Virtual object output device and virtual object output method
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
EP4062266A1 (en) * 2019-11-21 2022-09-28 Nextmind Sas Human-machine interface device
JP2021079041A (en) * 2019-11-22 2021-05-27 パナソニックIpマネジメント株式会社 Empathy degree evaluation system, empathy degree evaluation method and program
US11643048B2 (en) 2020-01-27 2023-05-09 Apple Inc. Mobile key enrollment and use
US11281289B2 (en) * 2020-02-21 2022-03-22 Honda Motor Co., Ltd. Content adjustment based on vehicle motion and eye gaze
US11206544B2 (en) 2020-04-13 2021-12-21 Apple Inc. Checkpoint identity verification on validation using mobile identification credential
US11775151B2 (en) 2020-05-29 2023-10-03 Apple Inc. Sharing and using passes or accounts
US11981181B2 (en) 2021-04-19 2024-05-14 Apple Inc. User interfaces for an electronic key
US11526591B1 (en) 2021-06-06 2022-12-13 Apple Inc. Digital identification credential user interfaces
CN113655882B (en) * 2021-08-17 2022-05-03 中国人民解放军军事科学院战争研究院 Human-computer interface information screening method based on eye movement data measurement

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6446122A (en) * 1987-08-14 1989-02-20 Nippon Telegraph & Telephone Gaze instruction input device
US6903723B1 (en) * 1995-03-27 2005-06-07 Donald K. Forest Data entry method and apparatus
JPH08272517A (en) 1995-03-28 1996-10-18 Sanyo Electric Co Ltd Device and method for selecting sight line correspondence and information processor
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
JPH10187334A (en) 1996-12-26 1998-07-14 Canon Inc Information inputting method, information inputting device and information inputting recording medium
US7091928B2 (en) * 2001-03-02 2006-08-15 Rajasingham Arjuna Indraeswara Intelligent eye
US7546158B2 (en) * 2003-06-05 2009-06-09 The Regents Of The University Of California Communication methods based on brain computer interfaces
JP4369290B2 (en) 2003-07-02 2009-11-18 尚之 加納 Device for judging human psychological state using event-related potentials
JP4269827B2 (en) 2003-07-02 2009-05-27 財団法人くまもとテクノ産業財団 Image stimulation-EEG communication method
US8721341B2 (en) * 2004-03-02 2014-05-13 Optimetrics, Inc. Simulated training environments based upon foveated object events
EP2202609B8 (en) * 2004-06-18 2016-03-09 Tobii AB Eye control of computer apparatus
JP2006204855A (en) 2005-01-28 2006-08-10 Tokyo Institute Of Technology Device for detecting gaze motion
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
US8374687B2 (en) * 2006-01-21 2013-02-12 Honeywell International Inc. Rapid serial visual presentation triage prioritization based on user state assessment
GB0618978D0 (en) * 2006-09-27 2006-11-08 Malvern Scient Solutions Ltd Method of employing gaze direction tracking for cursor control in a computer

Also Published As

Publication number Publication date
CN101681201B (en) 2012-10-17
WO2009093435A1 (en) 2009-07-30
US20090289895A1 (en) 2009-11-26
JPWO2009093435A1 (en) 2011-05-26
US8466875B2 (en) 2013-06-18
CN101681201A (en) 2010-03-24

Similar Documents

Publication Publication Date Title
JP4399513B2 (en) EEG interface system, EEG interface apparatus, method, and computer program
JP4856791B2 (en) EEG interface system, EEG interface providing apparatus, EEG interface execution method, and program
US10877567B2 (en) Eyeglasses-type wearable device and method using the same
EP2081100B1 (en) Adjusting device for brain wave identification method, adjusting method and computer program
JP4465414B2 (en) Device control method and electroencephalogram interface system using electroencephalogram
JP5888205B2 (en) Image display device and information input device
JP4287903B2 (en) EEG interface system and activation device
US7716697B2 (en) Information processing system, information processing apparatus, and method
JP4399515B1 (en) Apparatus, method, and program for adjusting method of identifying electroencephalogram signal
JP4659905B2 (en) Apparatus and method for determining necessity of electroencephalogram identification
US20210349536A1 (en) Biofeedback method of modulating digital content to invoke greater pupil radius response
JP3786952B2 (en) Service providing apparatus, disappointment determination apparatus, and disappointment determination method
KR101571848B1 (en) Hybrid type interface apparatus based on ElectronEncephaloGraph and Eye tracking and Control method thereof
US20100160808A1 (en) Interface system utilizing musticatory electromyogram
JP4460644B2 (en) Apparatus and method for adjusting electroencephalogram identification method, and computer program
JP2009199535A (en) Adjustment device and method for brain wave identification method
JP7181293B2 (en) Information processing device, information processing method, and program
Wang et al. Research on a spatial–temporal characterisation of blink-triggered eye control interactions
US20230026513A1 (en) Human interface device
Arai et al. Eye based HCI with moving keyboard for reducing fatigue effects

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091026

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4399513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4