JP2012085746A - Attentional state determination system, method, computer program, and attentional state determination device - Google Patents

Attentional state determination system, method, computer program, and attentional state determination device Download PDF

Info

Publication number
JP2012085746A
JP2012085746A JP2010233851A JP2010233851A JP2012085746A JP 2012085746 A JP2012085746 A JP 2012085746A JP 2010233851 A JP2010233851 A JP 2010233851A JP 2010233851 A JP2010233851 A JP 2010233851A JP 2012085746 A JP2012085746 A JP 2012085746A
Authority
JP
Japan
Prior art keywords
saccade
attention
eyeball
movement
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010233851A
Other languages
Japanese (ja)
Inventor
Yoshihisa Terada
佳久 寺田
Koji Morikawa
幸治 森川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010233851A priority Critical patent/JP2012085746A/en
Publication of JP2012085746A publication Critical patent/JP2012085746A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Eye Examination Apparatus (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To determinate the attentional state of a user with enough accuracy even when there are a lot of situation changes by shortening an analysis time interval of eye fixation-related potential (EFRP).SOLUTION: An attentional state determination system 1 includes: a brain wave measurement section 20 for measuring a brain wave signal; an eye movement measuring section 30 for measuring the movement of an eye ball; a saccade detector 40 for detecting a plurality of eye ball stopping start times that are when the saccade of the eye ball ends and a plurality of movement amounts of the saccade by using the movement of the eye ball; a classification section 60 for specifying a direction of each saccade based on the movement amount of each saccade, and classifying that the direction of the each specified saccade, that adds and averages the eye ball stopping potential obtained from the brain wave signal for each classified direction, assuming the eye ball stopping start time corresponding to each saccade as the origin; an attention amount determining section 70 for determining an attentional state of each classified direction based on the eye fixation-related potential which has been added and averaged; and an integrally determination section 80 for determining the attentional state by using the determination results in the attentional state of each direction.

Description

本発明は、自動車の運転などの操作を行う操作者の注意状態を、脳波に基づいて判定する装置に関する。具体的には、本発明は、時々刻々環境が変化する自動車の運転操作において、状況ごとに注意状態を判別する装置、方法およびそのような装置において実行されるコンピュータプログラムに関する。   The present invention relates to an apparatus for determining an attention state of an operator who performs an operation such as driving a car based on an electroencephalogram. Specifically, the present invention relates to an apparatus and a method for determining a state of caution for each situation in a driving operation of an automobile whose environment changes from moment to moment, and a computer program executed in such an apparatus.

近年、運転者の身体状態や心理状態をリアルタイムに把握した上で、運転者の状態に即した支援が行える安全運転を支援する技術の必要性が高まっている。運転者の状態を客観的かつ定量的に評価する手法として、脳波や瞬目などの生理指標を用いた覚醒度の定量化が試みられている。   In recent years, there is an increasing need for a technology that supports safe driving that can provide assistance in accordance with a driver's state after grasping the physical state and psychological state of the driver in real time. As a method for objectively and quantitatively evaluating the state of the driver, attempts have been made to quantify the degree of arousal using physiological indices such as brain waves and blinks.

例えば、特許文献1では、脳波の入眠波形パターンやα波成分から覚醒度を推定する技術が開示されている。また特許文献2では、運転者の顔を撮像し、得られた画像から瞬きを検出し、瞬きの閉眼時間から覚醒度低下を推定する技術が開示されている。   For example, Patent Document 1 discloses a technique for estimating the arousal level from a sleep waveform pattern of an electroencephalogram or an α wave component. Patent Document 2 discloses a technique for capturing a driver's face, detecting blinking from the obtained image, and estimating a decrease in arousal level from the eye-closing time of blinking.

これらに対して本願発明者らは、運転中の運転者の状態を単に覚醒度として捉えるのではなく、覚醒しているにも関わらず運転に対して注意が向いていない、いわゆる注意散漫状態をも含めた運転注意状態として扱う必要があると考えている。そのためには、従来の覚醒度による居眠り検出ではなく、運転に対する注意状態そのものを計測・評価する手法が必要である。   In contrast to these, the inventors of the present application do not simply capture the state of the driver while driving, but a so-called distracted state in which attention is not directed to driving despite being awake. It is necessary to treat it as a driving caution state that includes For this purpose, a technique for measuring / evaluating the attention state for driving itself is required instead of the conventional detection of drowsiness based on the arousal level.

また、運転者に向けられたカメラによって、運転者の視線や顔の動きを検出し、運転者の注意状態を判定する方法がある。例えば、特許文献3では、運転者の乗車している自車両の周辺状況から運転者が注意すべき最適な注視位置を判定し、運転者の視線や顔の動きから検出した注視点と判定した注意すべき最適な注視位置とを比較することにより、運転に対する注意配分状態を判定する技術が開示されている。   In addition, there is a method of determining the driver's attention state by detecting the driver's line of sight and the movement of the face with a camera directed to the driver. For example, in Patent Document 3, the optimal gaze position that the driver should be aware of is determined from the surrounding situation of the driver's own vehicle, and is determined as the gaze point detected from the driver's line of sight and facial movement. A technique for determining a state of attention distribution with respect to driving by comparing with an optimal gaze position to be noted is disclosed.

このような、運転者の注視位置等に着目した指標を利用すれば、運転者が注意すべき位置を見ていないことによる注意散漫の評価は可能である。しかしながら、視線のみでは、運転者が前方に視線を向けているにも関わらず、注意が運転に向いていない、いわゆる意識の脇見状態を捉えることができない。ここで、意識の脇見状態とは、例えば他の事を考えていて、あるいは音楽や会話に気をとられていて意識が運転に集中していない状態などを示す。   If such an index focusing on the driver's gaze position or the like is used, it is possible to evaluate distraction due to not looking at the position where the driver should be careful. However, it is not possible to capture a so-called state of consciousness aside that attention is not directed to driving even though the driver is looking forward. Here, the state of consciousness aside indicates, for example, a state in which other things are being considered, or attention is focused on music or conversation and consciousness is not concentrated on driving.

一方、意識の脇見状態を含めた運転に対する注意状態として、人が見ている対象にどのくらい注意を向けているかを調べる研究が行われている。具体的には、脳波の眼球停留関連電位(Eye Fixation Related Potential:EFRP)を用いた研究が行われている。「眼球停留関連電位」とは、人が作業しているときや自由にものを見ているときにおける、急速眼球運動(サッケード)の終了時刻、すなわち眼球停留の開始時刻に関連して生じる脳の一過性の電位変動をいう。眼球停留関連電位のうち、眼球の停留時刻より約100ミリ秒付近に後頭部で優位に出現する正の電位成分を「ラムダ反応」といい、人が見ている対象に対する注意集中度によって変動することが知られている。   On the other hand, as a state of caution for driving including a state of consciousness aside, research is being conducted to examine how much attention is being paid to a subject being watched. Specifically, research using an electroencephalogram related potential (EFRP) of an electroencephalogram has been performed. “Eye-holding related potential” means the end time of rapid eye movement (saccade) when a person is working or is looking at things freely, that is, the brain's occurrence related to the start time of eye-holding. A transient potential change. The positive potential component that appears predominantly in the back of the head about 100 milliseconds from the eye stop time is called the “lambda reaction”, and changes depending on the degree of attention concentration on the subject that the person is watching. It has been known.

例えば、特許文献4には、眼球運動信号に基づいてサッケードの終了時刻を検出し、サッケードが終了するごとに、その時刻から一定期間内の脳波を加算平均してEFRPを算出し、注意量を判別する技術が開示されている。   For example, in Patent Document 4, the end time of a saccade is detected based on an eye movement signal, and each time the saccade ends, an EFRP is calculated by averaging the brain waves within a certain period from that time, and the amount of attention is calculated. A technique for discriminating is disclosed.

特開平7−108848公報JP-A-7-108848 特許第3127760号明細書Japanese Patent No. 3127760 特開2004−178367公報JP 2004-178367 A 特開2002−272693公報JP 2002-272893 A

しかしながら、特許文献4に記載の従来技術では、ノイズを除去するために、十分な数の眼球停留関連電位(EFRP)波形を加算する必要がある。長時間にわたる脳波データから、多くのEFRP波形を取得する必要がある。これでは、時々刻々環境が変化する市街地などでは、状況に合わせた注意量判別が行えない。以下に、上述の課題を詳細に説明する。   However, in the conventional technique described in Patent Document 4, it is necessary to add a sufficient number of eyeball retention-related potential (EFRP) waveforms in order to remove noise. Many EFRP waveforms need to be acquired from long-term electroencephalogram data. In this case, in an urban area where the environment changes from moment to moment, attention amount matching according to the situation cannot be performed. Hereinafter, the above-described problem will be described in detail.

本願発明者らは、EFRPのラムダ反応を利用した従来の手法において必要な解析区間の長さを評価するために、学生実験参加者17名を対象にした注意量判別実験を実施した(実験の詳細や判別率の算出方法の説明は後述する)。注意状態の判別は、EFRPの特徴量であるラムダ反応(50ミリ秒以上150ミリ秒以下に含まれる極大値)の振幅と閾値との比較により、「集中状態」と「散漫状態」のいずれの状態であるかを判別することによって行った。   In order to evaluate the length of the analysis section required in the conventional method using the lambda reaction of EFRP, the present inventors conducted an attention amount discrimination experiment for 17 student experiment participants (experimental experiment). Details and a method for calculating the discrimination rate will be described later). The attention state is determined by comparing the amplitude of the lambda response (maximum value included in the range from 50 milliseconds to 150 milliseconds) with a threshold value, which is a feature quantity of EFRP, either “concentration state” or “diffuse state”. This was done by determining whether it was in a state.

判別のためのEFRPは、特許文献4で利用されている手法により算出した。具体的には、一定期間内(解析区間)に含まれるEFRPを抽出し、それらの波形を加算平均して1つのEFRP波形を算出した。   The EFRP for discrimination was calculated by the method used in Patent Document 4. Specifically, EFRP included in a certain period (analysis section) was extracted, and those waveforms were averaged to calculate one EFRP waveform.

上記判別手法を用いて判別率を算出した結果、解析区間を60秒とした場合は、判別率は72.3%で、解析区間を120秒とした場合には、判別率は79.6%であった。   As a result of calculating the discrimination rate using the discrimination method, the discrimination rate is 72.3% when the analysis interval is 60 seconds, and the discrimination rate is 79.6% when the analysis interval is 120 seconds. Met.

このように解析区間を長くすれば、判別精度が向上させられる。これは解析区間を長くすると、解析区間に含まれるEFRPの個数が増え、加算回数が増えるためである。加算回数が増えると、背景脳波やランダムなノイズ成分が相殺され、EFRPのラムダ反応のみが際立って抽出され、判別精度が向上する。   If the analysis interval is lengthened in this way, the discrimination accuracy can be improved. This is because if the analysis interval is lengthened, the number of EFRPs included in the analysis interval increases and the number of additions increases. As the number of additions increases, the background electroencephalogram and random noise components are canceled out, and only the lambda response of EFRP is conspicuously extracted, thereby improving the discrimination accuracy.

よって、従来の手法において、注意状態判別の精度を80%以上とするためには、EFRPを加算平均する個数をさらに増やすために、解析区間を120秒間以上とする必要があった。   Therefore, in the conventional method, in order to increase the accuracy of attention state determination to 80% or more, it is necessary to set the analysis interval to 120 seconds or more in order to further increase the number of EFRPs to be averaged.

市街地を車で120秒間走行すると、複数の交差点を経由することが多いと考えられる。交差点では右左折、停止などの行為が行われ、運転者の前方風景も交差点ごとに大きく変化する。それら状況に応じて、運転者の注意状態も時々刻々変化すると考えられる。120秒ごとの解析区間では、複数の交差点間における注意状態をひとまとめにして判別が行われてしまうため、状況に合わせた注意状態が判別できない。   If you drive in the city for 120 seconds by car, it is likely to go through multiple intersections. At intersections, actions such as turning left and right, stopping, etc. are performed, and the driver's forward scenery changes greatly at each intersection. It is considered that the driver's attention state changes from moment to moment according to the situation. In the analysis interval every 120 seconds, the attention state between a plurality of intersections is collectively determined, so the attention state according to the situation cannot be determined.

本発明は上記課題に鑑みてなされたものであり、その目的は、分単位の時間が必要な眼球停留関連電位(EFRP)の解析区間を短縮し、市街地等の状況変化が多い場合でも十分な精度で運転注意状態を判別することにある。   The present invention has been made in view of the above problems, and its purpose is to shorten the analysis period of the eyeball-related potential (EFRP), which requires minutes, and is sufficient even when there are many changes in conditions such as urban areas. It is to discriminate the driving attention state with accuracy.

本発明による注意状態判別システムは、ユーザの脳波信号を計測する脳波計測部と、前記ユーザの眼球の運動を計測する眼球運動計測部と、前記ユーザの眼球の運動を用いて、前記眼球のサッケードが終了した時刻である眼球停留開始時刻および前記サッケードの移動量を複数検出するサッケード検出部と、各サッケードの移動量に基づいて各サッケードの方向を特定し、特定された各サッケードの方向を分類する分類部であって、分類された方向ごとに、各サッケードに対応する前記眼球停留開始時刻を起点として前記ユーザの脳波信号から切り出した眼球停留電位を加算平均する分類部と、加算平均された前記眼球停留関連電位に基づいて、分類された方向ごとの注意状態を判別する注意量判別部と、前記方向ごとの注意状態の判別結果を用いて、前記ユーザの注意状態を判別する統合判定部とを備えている。   An attention state determination system according to the present invention includes an electroencephalogram measurement unit that measures a user's electroencephalogram signal, an eye movement measurement unit that measures the movement of the user's eyeball, and the eyeball saccade using the movement of the user's eyeball. A saccade detection unit that detects a plurality of movements of the saccade and a saccade detection unit that detects a plurality of movements of the saccade, and identifies the direction of each saccade based on the movement of each saccade, and classifies the direction of each identified saccade A classification unit that adds and averages, for each of the classified directions, an eyeball stationary potential extracted from the user's brain wave signal starting from the eyeball retention start time corresponding to each saccade. An attention amount determination unit that determines an attention state for each classified direction based on the eyeball stop-related potential, and a determination result of the attention state for each direction Used, and a integration identifying unit for discriminating the attentional state of the user.

前記注意量判別部は、前記方向ごとに、集中状態または注意散漫状態のいずれに該当するかを判別し、前記統合判定部は、前記注意量判別部によって判別された集中状態および注意散漫状態のうちいずれか多く判別された状態を前記ユーザの注意状態と判別してもよい。   The attention amount determination unit determines, for each of the directions, whether it is a concentrated state or a distraction state, and the integrated determination unit determines whether the attention state and the distraction state are determined by the attention amount determination unit. Any of the determined states may be determined as the user's attention state.

前記統合判別部は、前記注意量判別部による方向ごとの判別結果を多数決することにより、前記ユーザの注意状態を判別してもよい。   The integrated determination unit may determine the user's attention state by determining a large number of determination results for each direction by the attention amount determination unit.

前記サッケード検出部は、前記ユーザの眼球の運動量が予め定めた閾値よりも小さくなった時点を、前記眼球停留開始時刻として検出してもよい。   The saccade detection unit may detect a time point when the amount of movement of the user's eyeball becomes smaller than a predetermined threshold as the eyeball retention start time.

前記注意量判別部は、前記方向ごとに、加算平均された前記眼球停留関連電位のラムダ反応の振幅値と、予め定められた閾値とを比較することにより、分類された方向ごとの注意状態を判別してもよい。   The attention amount discriminating unit compares the amplitude value of the lambda response of the eyeball retention-related potential averaged for each direction with a predetermined threshold value to determine the attention state for each classified direction. It may be determined.

前記注意量判別部は、前記眼球停留開始時刻を起点として、加算平均された前記眼球停留関連電位の100±100ミリ秒に含まれる極大値を、ラムダ反応の振幅値として利用してもよい。   The attention amount determination unit may use, as an amplitude value of a lambda reaction, a local maximum value included in 100 ± 100 milliseconds of the eyeball retention-related potential that has been averaged starting from the eyeball retention start time.

前記統合判定部は、一定時間ごとに前記ユーザの注意状態を判別してもよい。   The integrated determination unit may determine the user's attention state at regular intervals.

前記注意状態判別システムは、外部環境が変化したタイミングを検出する状況検出部をさらに備え、前記統合判定部は、前記状況検出部によって検出された前記外部環境が変化したタイミングにおいて、前記ユーザの注意状態を判別してもよい。   The attention state determination system further includes a situation detection unit that detects a timing at which the external environment has changed, and the integrated determination unit has received the user's attention at a timing at which the external environment detected by the situation detection unit has changed. The state may be determined.

前記状況検出部は、現在地の情報および地図情報を取得し、前記現在地の情報と地図上の交差点の位置情報とを比較することにより、交差点に差し掛かるタイミングを検出してもよい。   The situation detection unit may detect the timing of approaching an intersection by acquiring current location information and map information, and comparing the current location information with location information of an intersection on the map.

前記統合判別部は、方向ごとの判別結果を多数決することで前記ユーザの注意状態を判別してもよい。   The integrated determination unit may determine the user's attention state by determining a majority of determination results for each direction.

本発明による注意状態判別装置は、眼球の運動を計測する眼球運動計測部によって計測された、ユーザの眼球の運動を用いて、前記眼球のサッケードが終了した時刻である眼球停留開始時刻および前記サッケードの移動量を複数検出するサッケード検出部と、各サッケードの移動量に基づいて各サッケードの方向を特定し、特定された各サッケードの方向を分類する分類部であって、分類された方向ごとに、各サッケードに対応する前記眼球停留開始時刻を起点として、脳波信号を計測する脳波計測部を用いて計測された前記ユーザの脳波信号から切り出した眼球停留電位を加算平均する分類部と、加算平均された前記眼球停留関連電位に基づいて、分類された方向ごとの注意状態を判別する注意量判別部と、前記方向ごとの注意状態の判別結果を用いて、前記ユーザの注意状態を判別する統合判定部とを備えている。   The attention state determination apparatus according to the present invention uses an eye movement measurement of a user measured by an eye movement measurement unit that measures the movement of an eye, and uses an eye movement start time that is a time when the eye saccade is ended and the saccade. A saccade detection unit that detects a plurality of movement amounts of the saccade, a classification unit that identifies the direction of each saccade based on the movement amount of each saccade, and classifies the direction of each identified saccade, for each classified direction A classification unit that adds and averages eye-holding potentials cut out from the user's electroencephalogram signal measured by using an electroencephalogram measurement unit that measures an electroencephalogram signal starting from the eye-ball retention start time corresponding to each saccade; A attention amount determination unit that determines a caution state for each classified direction based on the eye-holding-related potential, and determination of the caution state for each direction With fruit, and a integration identifying unit for discriminating the attentional state of the user.

本発明による注意状態判別方法は、ユーザの脳波信号を計測するステップと、前記ユーザの眼球の運動を計測するステップと、前記ユーザの眼球の運動を用いて、前記眼球のサッケードが終了した時刻である眼球停留開始時刻および前記サッケードの移動量を複数検出するステップと、各サッケードの移動量に基づいて各サッケードの方向を特定し、特定された各サッケードの方向を分類するステップであって、分類された方向ごとに、各サッケードに対応する前記眼球停留開始時刻を起点として前記ユーザの脳波信号から切り出した眼球停留電位を加算平均するステップと、加算平均された前記眼球停留関連電位に基づいて、分類された方向ごとの注意状態を判別するステップと、前記方向ごとの注意状態の判別結果を用いて、前記ユーザの注意状態を判別するステップとを包含する。   The attention state determination method according to the present invention includes a step of measuring a user's brain wave signal, a step of measuring a movement of the user's eyeball, and a time at which the saccade of the eyeball is completed using the movement of the eyeball of the user. A step of detecting a plurality of eyeball stop start times and a movement amount of the saccade, a direction of each saccade based on the movement amount of each saccade, and a step of classifying the direction of each identified saccade, For each direction, the step of adding and averaging the eyeball retention potentials cut out from the user's brain wave signal starting from the eyeball retention start time corresponding to each saccade, and the addition averaged based on the eyeball retention related potential, Using the step of determining the attention state for each classified direction and the determination result of the attention state for each direction, the user Comprising the steps of determining the attention state.

本発明によるコンピュータプログラムは、注意状態判別装置に実装されたコンピュータによって実行されるコンピュータプログラムであって、前記コンピュータプログラムは、前記コンピュータに対し、ユーザの脳波信号を受け取るステップと、前記ユーザの眼球の運動を受け取るステップと、前記ユーザの眼球の運動を用いて、前記眼球のサッケードが終了した時刻である眼球停留開始時刻および前記サッケードの移動量を複数検出するステップと、各サッケードの移動量に基づいて各サッケードの方向を特定し、特定された各サッケードの方向を分類するステップであって、分類された方向ごとに、各サッケードに対応する前記眼球停留開始時刻を起点として前記ユーザの脳波信号から切り出した眼球停留電位を加算平均するステップと、加算平均された前記眼球停留関連電位に基づいて、分類された方向ごとの注意状態を判別するステップと、前記方向ごとの注意状態の判別結果を用いて、前記ユーザの注意状態を判別するステップとを実行させる。   A computer program according to the present invention is a computer program executed by a computer installed in an attention state determination device, wherein the computer program receives a user's brain wave signal from the computer; Based on the step of receiving the movement, the step of detecting a plurality of eyeball stop start times, which are times when the saccade of the eyeball has ended, and the amount of movement of the saccade, using the movement of the eyeball of the user, and the amount of movement of each saccade Identifying the direction of each saccade, and classifying the direction of each identified saccade, wherein for each classified direction, the eyeball stop start time corresponding to each saccade is used as a starting point from the user's brain wave signal Adding and averaging the cut-out eyeball stationary potentials; Determining the attention state for each classified direction on the basis of the addition-averaged eye-holding related potential, and determining the user's attention state using the determination result of the attention state for each direction; Is executed.

本発明によれば、サッケードの方向ごとに加算平均した眼球停留電位(EFRP)を、それぞれ注意状態判別し、方向ごとの注意量判別結果を用いて最終的な注意状態を判別する。これにより、短い解析区間で注意状態を判別できる。解析区間が短くなることにより、時々刻々環境が変化する市街地でも、交差点間の注意状態などでも、より詳細な注意状態判別が可能になる。   According to the present invention, the eye-holding potential (EFRP) obtained by averaging for each direction of the saccade is discriminated from the attention state, and the final attention state is discriminated using the attention amount discrimination result for each direction. Thereby, the attention state can be determined in a short analysis interval. By shortening the analysis section, it becomes possible to determine the state of caution in more detail, even in urban areas where the environment changes from moment to moment, or in caution states between intersections.

実験条件と課題の内容を示す図である。It is a figure which shows the experimental condition and the content of the subject. 国際10−20法の電極位置を示す図である。It is a figure which shows the electrode position of the international 10-20 method. (a)〜(c)は、従来の注意状態の判別手順の流れ図であり、(d)は判別結果を示す判別率である。(A)-(c) is a flowchart of the discrimination | determination procedure of the conventional attention state, (d) is the discrimination | determination rate which shows a discrimination | determination result. 眼電計測のための電極位置を示す図である。It is a figure which shows the electrode position for electrooculogram measurement. サッケード方向判定の例を示す図である。It is a figure which shows the example of a saccade direction determination. (a)および(b)はサッケード方向別の判別率の分布を示す図である。(A) And (b) is a figure which shows distribution of the discrimination rate according to a saccade direction. 本発明の実施形態による注意状態判別システム1の構成を示す図である。It is a figure which shows the structure of the caution state discrimination | determination system 1 by embodiment of this invention. 注意状態判別装置の具体的構成の一例を示す図The figure which shows an example of the specific structure of an attention state discrimination device ヘッドマウントディスプレイ(HMD)を示す図である。It is a figure which shows a head mounted display (HMD). 注意状態判別システム1の処理の手順を示すフローチャートである。3 is a flowchart showing a processing procedure of the attention state determination system 1; 眼球運動データ、脳波データおよび判別タイミングの関係の一例を示す図である。It is a figure which shows an example of the relationship between eye movement data, brain wave data, and discrimination | determination timing. EOGの電位と眼球の移動角度の対応関係の例を示す図である。It is a figure which shows the example of the correspondence of the electric potential of EOG and the movement angle of an eyeball. (a)は計測された眼球運動データ、脳波データ、眼球停留開始時刻の例を示す図であり、(b)は切り出されたEFRPの例を示す図であり、(c)は方向ごとに加算されたEFRPの例を示す図であり、(d)は、右方向のサッケードの終了時刻を起点にしたEFRPが加算平均された波形を示す図である。(A) is a figure which shows the example of the measured eye movement data, electroencephalogram data, and eyeball stop start time, (b) is a figure which shows the example of cut out EFRP, (c) is added for every direction It is a figure which shows the example of EFRP performed, (d) is a figure which shows the waveform by which the EFRP which started from the end time of the saccade of the right direction was added and averaged. EFRP分類部60の処理の詳細な手順を示すフローチャートである。5 is a flowchart showing a detailed procedure of processing of an EFRP classification unit 60. 処理中のEFRPおよびそのサッケード情報の例を示す図である。It is a figure which shows the example of EFRP in process and its saccade information. 非均等な角度の方向分類の一例を示す図である。It is a figure which shows an example of the direction classification of a non-uniform angle. 注意量判別部70から出力された注意状態判別結果の一例を示す図である。It is a figure which shows an example of the attention state discrimination | determination result output from the attention amount discrimination | determination part. 統合判別部80の処理の詳細な手順を示すフローチャートである。5 is a flowchart illustrating a detailed procedure of processing of an integrated determination unit 80. (a)は、車にカーナビゲーションシステムが設置されているときの重み付けの例を示す図であり、(b)は注意量判別部70により判別された方向ごとの注意状態判別結果の一例を示す図である。(A) is a figure which shows the example of weighting when the car navigation system is installed in the car, (b) shows an example of the attention state discrimination | determination result for every direction discriminate | determined by the attention amount discrimination | determination part 70. FIG. (a)は、解析区間を従来と同様に120秒に揃えた場合の比較結果を示す図であり、(b)は、同様の実験のデータを用いて、一定の判別精度を維持したまま、どこまで解析区間が短くできるかを評価した結果を示す図である。(A) is a figure which shows the comparison result at the time of aligning an analysis area to 120 second like the past, (b) is using the data of the same experiment, maintaining a fixed discrimination | determination precision, It is a figure which shows the result of having evaluated how much an analysis area can be shortened. 本実施形態の変形例にかかる注意状態判別システム2のブロック構成を示す図である。It is a figure which shows the block configuration of the caution state discrimination | determination system 2 concerning the modification of this embodiment. 本発明の実施形態の変形例に係る注意状態判別システム2の全体処理のフローチャートである。It is a flowchart of the whole process of the caution state discrimination | determination system 2 which concerns on the modification of embodiment of this invention.

以下、添付の図面を参照しながら、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

本願発明者らは、従来手法の注意状態判別手法と比較して、サッケード方向ごとにEFRPを分類して加算平均したときに、各方向の注意状態判別精度がどのような傾向を示すのかを分析した。その結果、本願発明者らは、サッケード方向ごとに注意状態判別の精度に偏りが存在し、判別精度の低い方向は人や状況ごとに異なること、および、その方向を事前に予測することは不可能である、という特性を見出した。   Compared with the conventional attention state determination method, the inventors of the present application analyze the tendency of the attention state determination accuracy in each direction when EFRP is classified and averaged for each saccade direction. did. As a result, the inventors of the present application have a bias in the accuracy of attention state discrimination for each saccade direction, the direction with low discrimination accuracy differs for each person and situation, and it is not possible to predict the direction in advance. We found the characteristic that it is possible.

まず、この分析のために本願発明者らが実施したEFRP計測実験内容及び実験結果から得られた知見について説明する。   First, the contents obtained from the EFRP measurement experiment contents and the experiment results conducted by the present inventors for this analysis will be described.

実験参加者は男性17名で平均年齢は22.1±1.8歳である。本願発明者らは、実験参加者に2つの課題を並行して実施してもらう二重課題法による実験を行った。   The experiment participants were 17 males with an average age of 22.1 ± 1.8 years. The inventors of the present application conducted an experiment by a double task method in which the experiment participants had two tasks performed in parallel.

第1の課題は、運転課題である。ドライビングシミュレータ(三菱プレシジョン製。以降「DS」と省略する。)で約4分の市街地コースを運転する課題を行った。市街地コースの道路状況は、制限速度内で自由に走行できる程度の混雑状況に設定した。コースには同じレーンの自車の前方および後方にそれぞれ車両を配置するとともに、対向車線にも車両を配置し、さらに歩行者を配置した。実験参加者はカーナビゲーションシステム画面に表示される指示に従い、所定の道順を走行した。但し、道順の確認は実験参加者自身による画面の目視のみで行い、音声案内は行わなかった。   The first problem is a driving problem. A driving simulator (Mitsubishi Precision Co., Ltd., hereinafter abbreviated as “DS”) was used to drive an urban course of about 4 minutes. The road conditions of the city course were set to be congested so that they could run freely within the speed limit. On the course, vehicles were placed in front of and behind the vehicle on the same lane, vehicles were also placed in the opposite lane, and pedestrians were placed. Participants in the experiment ran along a predetermined route according to the instructions displayed on the car navigation system screen. However, the directions were confirmed only by visual observation of the screen by the participants themselves, and no voice guidance was provided.

第2の課題は、認知負荷課題である。実験参加者の注意資源を実験的に運転から逸らすことを目的に、音声質問に対して口答で回答する課題を行った。軽度な認知負荷条件(簡単質問負荷)では、考えずに回答可能な、実験参加者個人のプロフィールに関する質問を行った(例えば、「名前は?」、「年齢は?」など)。重度な認知負荷条件(困難質問負荷)では、運転への注意を阻害し、地図を思い浮かべる等、視覚的な思考を要求する質問を行った(例えば、「地中海に面している国をお答えください」、など)。この認知負荷は、運転中の考え事や思い出に関連する会話などを実験的に模擬している。   The second problem is a cognitive load problem. In order to experimentally divert the attention resources of the participants from driving, we conducted a task of answering spoken questions with oral answers. Under mild cognitive load conditions (simple question load), questions were asked about the profiles of individual participants in the experiment that could be answered without thinking (for example, “What is your name?”, “What is your age?”, Etc.). In severe cognitive load conditions (difficult question load), questions that require visual thinking, such as hindering attention to driving and thinking of a map, were asked (for example, “A country facing the Mediterranean Please "). This cognitive load experimentally simulates conversations related to thoughts and memories while driving.

続いて実験条件について説明する。本実験では図1に示す2つの条件で運転中の脳波を計測した。第1の条件は運転集中条件である。運転集中条件では、実験参加者はDS操作(運転負荷)と簡単質問負荷とを並行して実施する。簡単質問負荷はそれほど認知負荷が大きくないため実験参加者は運転に集中できる状態と考えられる。第2の条件は注意散漫条件である。注意散漫条件では、実験参加者は、DS操作(運転負荷)と困難質問負荷を並行して実施する。困難質問負荷は認知負荷が大きいため、実験参加者は多くの注意資源をこの課題の遂行に割かなければならなくなり、その結果運転に対して注意散漫な状態になると考えられる。   Next, experimental conditions will be described. In this experiment, the electroencephalogram during driving was measured under the two conditions shown in FIG. The first condition is a driving concentration condition. Under the driving concentration condition, the experiment participant performs the DS operation (driving load) and the simple question load in parallel. Since the simple question load is not so much cognitive load, it is considered that the experiment participants can concentrate on driving. The second condition is a distraction condition. Under the distraction condition, the experiment participant performs the DS operation (driving load) and the difficult question load in parallel. Since the difficulty question load has a large cognitive load, the experiment participants have to devote a lot of attention resources to accomplishing this task, and as a result, it is thought that they are distracted from driving.

実験参加者は脳波計(ティアック製、ポリメイトAP−1124)を装着し、電極は国際10−20電極法に従って配置した。図2は、国際10−20法の電極位置を示す。図2に示す記号を用いて説明する。導出電極は後頭部Oz(O1とO2の中間)に配置され、基準電極は左右の耳付近の各マストイドA1およびA2に配置され、接地電極は前額部に配置されるとした。脳波の計測は、左右の各マストイドA1およびA2の電位の平均を基準として後頭部Ozの電位を計測した。本願発明者らは、サンプリング周波数500Hz、時定数3秒で計測した脳波データに対して1Hz以上15Hz以下のバンドパスフィルタ処理をかけた。そして、サッケード終了時刻すなわち眼球停留開始時刻を起点に−300ミリ秒から600ミリ秒の脳波データを切り出し、0ミリ秒の電位値でベースライン補正を行った。   Participants in the experiment were equipped with electroencephalographs (Teac, polymate AP-1124), and the electrodes were placed according to the international 10-20 electrode method. FIG. 2 shows the electrode positions for the international 10-20 method. This will be described using the symbols shown in FIG. The lead-out electrode is arranged at the back of the head Oz (between O1 and O2), the reference electrode is arranged at each of the mastoids A1 and A2 near the left and right ears, and the ground electrode is arranged at the forehead. The electroencephalogram was measured by measuring the potential of the occipital region Oz based on the average of the potentials of the left and right mastoids A1 and A2. The inventors of the present application applied a bandpass filter processing of 1 Hz to 15 Hz on the electroencephalogram data measured at a sampling frequency of 500 Hz and a time constant of 3 seconds. Then, electroencephalogram data from -300 milliseconds to 600 milliseconds was extracted from the saccade end time, that is, the eyeball retention start time, and baseline correction was performed with a potential value of 0 milliseconds.

判別率は前記の実験におけるEFRPを分析して試算した。ここで判別率とは運転集中状態か注意散漫状態かの2状態の判別がどれぐらいの割合でできたかを示す指標である。解析区間の時間幅TW=120秒、次の解析区間の時間シフト量TS=10秒とした場合に、運転集中条件(運転+簡単質問負荷時)のラムダ反応振幅値から正しく運転集中と判別できた割合、および注意散漫条件(運転+困難質問負荷時)のラムダ反応振幅値から正しく注意散漫と判別できた割合の平均値を上記判別率としている。   The discrimination rate was estimated by analyzing EFRP in the above experiment. Here, the discrimination rate is an index indicating how much discrimination between the two states of the driving concentration state and the distraction state can be performed. When the time width TW of the analysis section is TW = 120 seconds and the time shift amount TS of the next analysis section is 10 seconds, it can be correctly determined as the driving concentration from the lambda reaction amplitude value of the driving concentration condition (when driving + simple question loading). And the average value of the ratio that can be correctly determined as distraction from the lambda response amplitude value under the distraction condition (during driving + difficult question loading).

上記の判別率算出方法に基づき、従来手法を利用した場合の判別率と、サッケードの方向ごとにEFRPを分類した場合の判別率とをそれぞれ算出した。   Based on the above discrimination rate calculation method, the discrimination rate when using the conventional method and the discrimination rate when EFRP is classified for each saccade direction were calculated.

以下、従来手法を用いた判別について図3を用いて説明する。   Hereinafter, discrimination using the conventional method will be described with reference to FIG.

図3(a)〜(c)は、従来の注意状態の判別手順の流れ図である。まず解析区間120秒に含まれる全ての眼球停留開始時刻を検出し、各眼球停留開始時刻を起点にした脳波(EFRP:眼球停留関連電位)波形を抽出する(図3(a))。120秒に含まれる全てのEFRP波形を加算平均して、EFRP加算平均波形を算出する(図3(b))。そしてEFRP加算平均波形のラムダ反応(0より大きく200ミリ秒以下に含まれる極大値)と閾値との比較により、特徴量が閾値以上の場合を集中状態と判別し、閾値以下の場合を散漫状態と判別する。一般に、EFRP波形のグラフの縦軸は、下向きが正、上向きが負として記述される。図3(b)の波形例では、EFRP加算平均波形の極大値は閾値よりも大きいので、判別結果は「集中」と判別される(図3(c))。上記判別方法を時間シフト量(10秒)ずつずらしながら繰り返し判定を行うと、その判別率は79.6%であった。また、図3(d)に示すように解析区間を60秒に短縮した場合には、72.3%となった。   FIGS. 3A to 3C are flowcharts of a conventional attention state determination procedure. First, all eyeball stop start times included in the analysis section 120 seconds are detected, and an electroencephalogram (EFRP: eyeball stop related potential) waveform starting from each eyeball stop start time is extracted (FIG. 3A). All the EFRP waveforms included in 120 seconds are averaged to calculate an EFRP averaged waveform (FIG. 3B). Then, by comparing the lambda response (maximum value included in greater than 0 and less than 200 milliseconds) of the EFRP average waveform with the threshold, it is determined that the feature amount is greater than or equal to the threshold value, and the case where the feature value is less than or equal to the threshold value is diffused. Is determined. Generally, the vertical axis of the graph of the EFRP waveform is described with the downward direction being positive and the upward direction being negative. In the waveform example of FIG. 3B, since the maximum value of the EFRP average waveform is larger than the threshold value, the determination result is determined as “concentration” (FIG. 3C). When the above determination method was repeatedly determined while shifting by the time shift amount (10 seconds), the determination rate was 79.6%. Further, as shown in FIG. 3D, when the analysis interval was shortened to 60 seconds, it was 72.3%.

図3(d)によれば、従来の方法で80%程度の精度を得るためには、加算回数を十分に確保するために解析区間を120秒とする必要があることがわかる。   As can be seen from FIG. 3D, in order to obtain an accuracy of about 80% by the conventional method, the analysis interval needs to be 120 seconds in order to ensure a sufficient number of additions.

次に、サッケードの方向ごとのEFRPの分類を説明する。サッケードの方向ごとにEFRPを分類した判別では、解析区間120秒に含まれる眼球停留開始時刻を検出し、サッケードの方向ごとにEFRPを抽出した。   Next, EFRP classification for each saccade direction will be described. In the discrimination in which the EFRP is classified for each saccade direction, the eyeball stop start time included in the analysis interval 120 seconds is detected, and the EFRP is extracted for each saccade direction.

ここで、サッケードの検出とサッケード方向の分類方法を説明する。サッケードの検出は、EOG(Electro-oculogram)法を利用して、水平方向の眼球移動量、垂直方向の眼球移動量を計測して行った。「EOG法」とは、眼球の角膜が網膜に対して正に帯電する性質を利用し、眼球の左右および上下に配置した電極の電位変化から眼球運動を計測する方法である。図4は、EOG法によって眼球運動を計測するための電極位置の例を示す。図4に示すように、実験参加者の目の上下(V1、V2)、左右(H1、H2)の位置に電極を配置した。H1とH2、V1とV2の電位差をそれぞれ計測し、電位の大きさに基づいて、水平方向、及び、垂直方向の移動量を計測した。   Here, the saccade detection and the saccade direction classification method will be described. The saccade was detected by measuring the horizontal eyeball movement amount and the vertical eyeball movement amount using an EOG (Electro-oculogram) method. The “EOG method” is a method of measuring eye movement from changes in potential of electrodes arranged on the left and right and top and bottom of the eyeball, utilizing the property that the cornea of the eyeball is positively charged with respect to the retina. FIG. 4 shows an example of electrode positions for measuring eye movement by the EOG method. As shown in FIG. 4, electrodes were placed at the top and bottom (V1, V2) and left and right (H1, H2) positions of the experiment participant's eyes. The potential difference between H1 and H2 and V1 and V2 was measured, and the amount of movement in the horizontal direction and the vertical direction was measured based on the magnitude of the potential.

次にサッケード検出方法を説明する。従来文献(宮田洋ら、新生理心理学1、1998、p256、北大路書房)によれば、サッケードに要する時間は通常20ミリ秒以上70ミリ秒以下で、サッケードの速度は視角で表すと300度/秒以上500度/秒以下であるとされている。したがって、眼球の運動方向が所定時間(例えば、20ミリ秒以上70ミリ秒以下)連続して同じであり、かつ当該所定時間の平均角速度が300度/秒以上である眼球運動をサッケードとし、その終了時刻を検出することにより、眼球停留開始時刻を検出できる。   Next, a saccade detection method will be described. According to the conventional literature (Hiroshi Miyata et al., New Physiological Psychology 1, 1998, p256, Kitaoji Shobo), the time required for saccade is usually 20 milliseconds or more and 70 milliseconds or less, and the speed of saccade is 300 degrees in terms of viewing angle. Per second or more and 500 degrees per second or less. Therefore, an eye movement in which the eye movement direction is the same continuously for a predetermined time (for example, 20 milliseconds or more and 70 milliseconds or less) and the average angular velocity of the predetermined time is 300 degrees / second or more is defined as a saccade. By detecting the end time, the eyeball stop start time can be detected.

次に、サッケード方向の分類方法を説明する。サッケード方向は、サッケード検出の閾値(300度/秒)、水平方向の移動量および垂直方向の移動量を利用して8方向に分類される。図5は、方向分類のパターンを示す。図5の「○」は移動量が閾値を越えたことを示し、「×」は移動量が閾値以下であることの移動量の場合を示す。水平方向(例えば右方向)のみが閾値を超えている場合は、方向は「右」と分類され、垂直方向(例えば上方向)のみが閾値を超えている場合は、方向は「上」と分類される。水平方向(例えば右方向)と垂直方向(例えば上方向)の両方が閾値を超えている場合は、方向は「右上」と分類される。この判定を上下左右4つの組み合わせにおいて行い、方向を分類する。   Next, the saccade direction classification method will be described. The saccade direction is classified into 8 directions using a saccade detection threshold (300 degrees / second), a horizontal movement amount, and a vertical movement amount. FIG. 5 shows a direction classification pattern. “◯” in FIG. 5 indicates that the movement amount exceeds the threshold value, and “X” indicates the movement amount that the movement amount is equal to or less than the threshold value. If only the horizontal direction (eg right direction) exceeds the threshold, the direction is classified as “right”, and if only the vertical direction (eg upward direction) exceeds the threshold, the direction is classified as “up”. Is done. When both the horizontal direction (for example, right direction) and the vertical direction (for example, upward direction) exceed the threshold, the direction is classified as “upper right”. This determination is performed in four combinations of top, bottom, left, and right, and the directions are classified.

例えば、水平方向の眼球移動量が右方向400度/秒、垂直方向の眼球移動量が上方向50度/秒のサッケードを考える。このサッケードは、右方向の眼球移動量のみが閾値を越えている。よって、方向は「右」と判定される。   For example, consider a saccade with a horizontal eyeball movement of 400 degrees / second in the right direction and a vertical movement of 50 degrees / second in the vertical direction. In this saccade, only the eyeball movement amount in the right direction exceeds the threshold value. Therefore, the direction is determined to be “right”.

サッケード方向ごとにEFRP加算平均波形を算出し、ラムダ反応と閾値とを比較することにより、方向ごとの判別率が算出される。例えば、右方向の判別率を求める場合には、解析区間120秒に含まれる右向きにサッケードした際の眼球停留開始時刻を検出し、EFRP波形を抽出する。抽出したEFRP波形を加算平均して、右方向のEFRP加算平均波形を算出し、ラムダ反応の抽出を行う。そして右方向EFRP加算平均波形のラムダ反応と閾値とを比較することにより、右方向の判別率が算出される。   The EFRP addition average waveform is calculated for each saccade direction, and the discrimination rate for each direction is calculated by comparing the lambda response with a threshold value. For example, when determining the discrimination rate in the right direction, the eye stop time at the time of saccade in the right direction included in the analysis interval 120 seconds is detected, and the EFRP waveform is extracted. The extracted EFRP waveforms are averaged, a rightward EFRP average waveform is calculated, and the lambda reaction is extracted. Then, the discrimination rate in the right direction is calculated by comparing the lambda response of the right direction EFRP addition average waveform with the threshold value.

図6は、本願発明者らが行った方法により、方向ごとに算出した判別率の結果を示す。図6(a)は、17名中の2人の実験参加者(実験参加者A、実験参加者B)の方向別の判別率を示している。図のレーダーチャートは、8方向の判別率を示す。チャートの半径が判別率を示しており、中心が0%で、外側が100%で、20%刻みで点線が記されている。   FIG. 6 shows the result of the discrimination rate calculated for each direction by the method performed by the inventors. FIG. 6A shows the discrimination rate by direction of two experiment participants (experiment participant A and experiment participant B) out of the 17 persons. The radar chart in the figure shows the discrimination rate in 8 directions. The radius of the chart indicates the discrimination rate, the center is 0%, the outside is 100%, and dotted lines are written in 20% increments.

方向を区別しない従来手法での実験参加者Aの判別率は57.4%であった。実験参加者Aの方向別の判別率を見ると、右上、上、左、右下方向の判別率が80%を上回っている。一方、右、左上、左下方向の判別率は約50%と低いことがわかる。同様に、実験参加者Bは、従来手法の判別率は50.0%であるのに対し、上、左下方向の判別率は高く、下、右下方向の判別率は低いことがわかる。   The discrimination rate of the experiment participant A in the conventional method that does not distinguish the direction was 57.4%. Looking at the discrimination rate for each direction of the experiment participant A, the discrimination rates in the upper right, upper, left, and lower right directions exceed 80%. On the other hand, it can be seen that the discrimination rate in the right, upper left, and lower left directions is as low as about 50%. Similarly, experiment participant B finds that the discrimination rate of the conventional method is 50.0%, while the discrimination rate in the upper and lower left directions is high and the discrimination rate in the lower and lower right directions is low.

よって、従来手法では判別精度は低いものの、サッケード方向ごとに精度を見ると判別精度の分布にバラツキがあること、および、判別精度の低い方向は、人ごとに異なっていることがわかる。   Therefore, although the discrimination accuracy is low in the conventional method, it can be seen that when the accuracy is viewed for each saccade direction, the discrimination accuracy distribution varies, and the direction in which the discrimination accuracy is low varies from person to person.

また、同一の実験参加者Aについて、第1の課題であるDS運転課題の道路状況を変化させた条件で、判別率を算出した。各道路状況では、例えば、走行コースや自車の周辺にいる車の位置、台数等が異なっている。図6(b)は、3つの異なる道路状況下で得られた、実験参加者Aの判別結果を示す。図のレーダーチャートは、図6(a)の書式と同様である。図6(b)によれば、判別率は、同一の実験参加者においても異なることが理解される。すなわち、道路状況1では、右、左上、左下方向が低く、道路状況2では、上、左下方向が低く、道路状況3では、右、左下、右下方向が低い。   For the same experiment participant A, the discrimination rate was calculated under the condition that the road condition of the DS driving task as the first task was changed. In each road situation, for example, the position and number of vehicles in the vicinity of the traveling course and the own vehicle are different. FIG. 6B shows the discrimination result of the experiment participant A obtained under three different road conditions. The radar chart in the figure is the same as the format in FIG. According to FIG. 6B, it is understood that the discrimination rate is different even in the same experiment participant. That is, in road condition 1, the right, upper left, and lower left directions are low, in road condition 2, the upper and lower left directions are low, and in road condition 3, the right, lower left, and lower right directions are low.

図6(b)に示されるとおり、判別率が低い方向は、同一の人でも状況に応じて異なっていることがわかる。また、事前に判別率が低い方向を予測することが難しいこともわかる。   As shown in FIG. 6B, it can be seen that the direction in which the discrimination rate is low differs depending on the situation even for the same person. It can also be seen that it is difficult to predict a direction with a low discrimination rate in advance.

上記の結果より、サッケード方向ごと精度を見ると、判別精度の低い方向が存在し、その方向は人や状況ごとに異なり、事前に予測不可能であるという知見が得られた。   From the above results, it was found that when the accuracy for each saccade direction is viewed, there is a direction with low discrimination accuracy, the direction varies depending on the person and the situation, and cannot be predicted in advance.

上記知見の理由を考察すると、運転中は個人や状況によって、他車や歩行者など運転者の注意をはらう部分に偏りができ、特定の方向に注意が偏ったり、特定の方向を見たときのノイズ混入率が高まるといえる。それにより、サッケードの方向ごとに精度のばらつきが出ていると考えられる。   Considering the reasons for the above knowledge, when driving, depending on the individual and circumstances, it can be biased to the part that attracts the driver's attention such as other cars and pedestrians, when attention is biased in a specific direction or when a specific direction is seen It can be said that the noise contamination rate increases. Thereby, it is considered that the accuracy varies for each direction of the saccade.

ここまでに記載した実験結果、および実験結果より得られた知見に鑑みると、サッケードの方向別にEFRPを分類し、方向ごとに判定した結果を統合して最終的な判別結果を導出することで、同じ解析区間であれば判別精度が向上し、同じ判別精度を維持するなら解析区間の短縮を図ることができるとの着想に至った。   In view of the experimental results described so far and the knowledge obtained from the experimental results, EFRPs are classified by saccade direction, and the final determination result is derived by integrating the determination results for each direction. The idea is that the discrimination accuracy is improved if the analysis interval is the same, and that the analysis interval can be shortened if the same discrimination accuracy is maintained.

以下、この着想に基づき構成した本発明の実施形態の詳細と、本発明の実施形態に基づき上記データを分析した場合の効果について、自動車の運転時における注意状態判別を例にとり、図面を参照しながら説明する。また、運転時の例に伴い、以下では注意状態判別装置およびシステムのユーザを運転者と表現して説明する。   Hereinafter, the details of the embodiment of the present invention configured based on this idea and the effect of analyzing the above data based on the embodiment of the present invention will be described with reference to the drawings, taking as an example the attention state determination during driving of the automobile. While explaining. In addition, along with an example of driving, the user of the attention state determination device and the system will be described below as a driver.

(実施形態1)
図7は、本実施形態による注意状態判別システム1の構成を示す。
(Embodiment 1)
FIG. 7 shows a configuration of the attention state determination system 1 according to the present embodiment.

注意状態判別システム1は、運転者10の脳波信号、より具体的には脳波信号の一成分である眼球停留関連電位を利用して、サッケードが生じた方向ごとに注意量を判別する。そしてそれらの結果を総合して、最終的に運転者10の運転に対する注意状態を判別する。本実施形態における「運転に対する注意状態」とは、運転に対して注意を集中していたか、または、注意が散漫であったかのいずれかの状態を意味する。注意状態判別システム1は、運転者10の運転に対する注意状態に応じて、注意喚起を促すよう表示画面(図示せず)に警告等を表示し、または注意状態の判別結果を記憶装置に蓄積する。   The attention state determination system 1 determines an attention amount for each direction in which a saccade has occurred, using a brain wave signal of the driver 10, more specifically, an eyeball retention related potential which is one component of the brain wave signal. Then, by combining these results, the driver's 10 attention state for driving is finally determined. The “attention state for driving” in the present embodiment means a state where attention is focused on driving or attention is distracted. The attention state determination system 1 displays a warning or the like on a display screen (not shown) so as to call attention according to the attention state of the driver 10 for driving, or accumulates the determination result of the attention state in the storage device. .

注意状態判別システム1は、運転者10の脳波を計測する脳波計測部20と、運転者10の眼球の動きを計測する眼球運動計測部30と、注意状態判別装置100とを含んでいる。なお、運転者10のブロックは説明の便宜のために示されている。   The attention state determination system 1 includes an electroencephalogram measurement unit 20 that measures the brain wave of the driver 10, an eye movement measurement unit 30 that measures the movement of the eyeball of the driver 10, and an attention state determination device 100. Note that the block of the driver 10 is shown for convenience of explanation.

注意状態判別装置100は、サッケード検出部40と、分類部45と、注意量判別部70と、統合判定部80とを含んでいる。   The attention state determination apparatus 100 includes a saccade detection unit 40, a classification unit 45, an attention amount determination unit 70, and an integrated determination unit 80.

以下、各構成要素を概略的に説明し、その後各々を詳細に説明する。   Hereinafter, each component will be schematically described, and then each will be described in detail.

サッケード検出部40は、眼球運動計測部30による眼球の動き(眼球運動)からサッケードの終了時刻(眼球停留開始時刻)およびサッケード移動量等のサッケード情報を検出する。なお、後述のように、サッケード移動量に基づけばサッケード方向を特定することは可能である。よって、サッケード検出部40がサッケード方向を求め、サッケード情報に含めて出力してもよい。   The saccade detection unit 40 detects saccade information such as the saccade end time (eyeball stop start time) and the saccade movement amount from the eyeball movement (eyeball movement) by the eyeball movement measurement unit 30. As described later, the saccade direction can be specified based on the saccade movement amount. Therefore, the saccade detection unit 40 may obtain the saccade direction and output it by including it in the saccade information.

分類部45は、脳波計測部20が計測したユーザ10の脳波信号を取得し、また、サッケード検出部40からサッケード情報を取得する。分類部45は、ユーザ10の脳波信号およびサッケード情報から、眼球停留開始時刻を起点とした眼球停留関連電位を切り出す。続いて分類部45は、サッケード情報を利用して切り出した眼球停留関連電位EFRPに対応するサッケード方向を求めて分類し、分類された方向ごとに眼球停留関連電位EFRPを加算平均して出力する。   The classification unit 45 acquires the brain wave signal of the user 10 measured by the brain wave measurement unit 20 and acquires saccade information from the saccade detection unit 40. The classification unit 45 cuts out an eyeball retention-related potential starting from the eyeball retention start time from the brain wave signal and saccade information of the user 10. Subsequently, the classification unit 45 obtains and classifies the saccade direction corresponding to the eyeball retention-related potential EFRP cut out using the saccade information, and adds and averages the eyeball retention-related potential EFRP for each classified direction.

注意量判別部70は、方向ごとのEFRPをそれぞれ注意状態判別し、方向ごとの注意状態を判別する。   The attention amount determination unit 70 determines a caution state for each direction, and determines a caution state for each direction.

統合判定部80は、方向ごとの判別処理結果を用いて注意状態を判別し、結果を蓄積し、または、出力する。   The integrated determination unit 80 determines the attention state using the determination processing result for each direction, and accumulates or outputs the result.

以下、各構成要素を詳細に説明する。   Hereinafter, each component will be described in detail.

脳波計測部20は、運転者10の頭部に装着された電極における電位変化である脳波信号を計測する脳波計である。本願発明者らは、将来的には装着型の脳波計を想定している。そのため、脳波計はヘッドマウント式脳波計であってもよい。運転状態判別システム1の使用時において、運転者10は予め脳波計を装着しているものとする。   The electroencephalogram measurement unit 20 is an electroencephalograph that measures an electroencephalogram signal that is a potential change at an electrode attached to the driver's 10 head. The inventors of the present application envision a wearable electroencephalograph in the future. Therefore, the electroencephalograph may be a head-mounted electroencephalograph. When using the driving state determination system 1, it is assumed that the driver 10 is wearing an electroencephalograph in advance.

運転者10の頭部に装着されたとき、その頭部の所定の位置に接触するよう、脳波計測部20には電極が配置されている。例えば図2に示す国際10−20法の電極位置において、後頭部(O1またはO2またはその中間のOz)、左耳朶(A1)、右耳朶(A2)および前額部に電極を配置する。   Electrodes are arranged in the electroencephalogram measurement unit 20 so as to come into contact with a predetermined position of the head when worn on the head of the driver 10. For example, at the electrode position of the international 10-20 method shown in FIG. 2, electrodes are arranged on the back of the head (O1 or O2 or Oz in the middle), the left earlobe (A1), the right earlobe (A2), and the forehead.

従来文献(宮田洋ら、新生理心理学1、1998、p262、北大路書房)によれば、認知や注意を反映し、眼球停留開始時刻を起点として約100ミリ秒付近に現れるラムダ成分は、後頭部で優位に出現するとされている。但し、後頭部周辺のPz(頭頂中央)でも計測は可能であり、当該位置に電極を配置しても良い。この電極位置は、信号計測の信頼性および装着の容易さ等から決定される。また、電極の個数を減らすことも可能である。例えば電極数を、電極Oz、A1および接地電極の3個にした場合でもでも脳波を計測することは可能である。   According to conventional literature (Hiroshi Miyata et al., New Physiological Psychology 1, 1998, p262, Kitaoji Shobo), the lambda component that appears around 100 milliseconds starting from the eyeball stop start time reflects the cognition and attention. It is said that it will appear dominant. However, measurement is also possible at Pz (the center of the top of the head) around the back of the head, and electrodes may be arranged at this position. This electrode position is determined from the reliability of signal measurement, the ease of mounting, and the like. It is also possible to reduce the number of electrodes. For example, it is possible to measure an electroencephalogram even when the number of electrodes is three, that is, the electrodes Oz, A1, and the ground electrode.

この結果、脳波計測部20は運転者10の脳波を計測できる。計測された脳波信号は、コンピュータで処理できるようにサンプリングされ、予め決められた一定時間分のデータは脳波計測部20の記憶部に一次的に記憶され、かつ随時更新することができる。なお、脳波計測部20において計測される脳波信号を予め例えば30Hzのローパスフィルタ処理することにより、脳波信号に混入するノイズの影響を低減することができる。   As a result, the electroencephalogram measurement unit 20 can measure the electroencephalogram of the driver 10. The measured electroencephalogram signal is sampled so that it can be processed by a computer, and data for a predetermined period of time is temporarily stored in the storage unit of the electroencephalogram measurement unit 20 and can be updated as needed. In addition, the influence of the noise mixed in an electroencephalogram signal can be reduced by carrying out the low-pass filter process of the electroencephalogram signal measured in the electroencephalogram measurement part 20 previously, for example by 30 Hz.

眼球運動計測部30は、眼球運動の動きを計測する。眼球運動の計測は、例えばEOG(electro−oculogram)法に基づいて計測する。   The eye movement measuring unit 30 measures the movement of the eye movement. The eye movement is measured based on, for example, an EOG (electro-oculogram) method.

上述の通り、図4は、EOG法によって眼球運動を計測する眼球運動計測部30の電極位置の例を示している。電極H1およびH2は左右こめかみの位置に装着され、2つの電極の電位差から水平方向の電位が計測される。また、電極V1およびV2は左または右の眼球の上下位置に装着され、2つの電極の電位差から垂直方向の電位が計測される。   As described above, FIG. 4 shows an example of the electrode position of the eye movement measuring unit 30 that measures the eye movement by the EOG method. The electrodes H1 and H2 are mounted at the left and right temple positions, and the horizontal potential is measured from the potential difference between the two electrodes. The electrodes V1 and V2 are attached to the upper and lower positions of the left or right eyeball, and the vertical potential is measured from the potential difference between the two electrodes.

EOG法で計測する場合は、眼球運動計測部30は、後述の図12に示す電位変化量と眼球の移動角度の対応表より、水平方向および垂直方向の電位変化量から眼球の水平方向、垂直方向の移動量を推測する。水平方向の電位変化量及び垂直方向の電位変化量により、視線の移動量を推測できる。後述のサッケード検出部40は、視線の移動量と閾値とを比較し、閾値を超えた視線移動を検出した場合には、当該視線移動をサッケードとして検出し、視線移動の終了時刻を眼球停留開始時刻と判定する。   In the case of measuring by the EOG method, the eye movement measuring unit 30 determines the horizontal and vertical directions of the eyeball from the potential change amount in the horizontal direction and the vertical direction from the potential change amount and eyeball movement angle correspondence table shown in FIG. Guess the amount of movement in the direction. The amount of movement of the line of sight can be estimated from the amount of potential change in the horizontal direction and the amount of potential change in the vertical direction. The saccade detection unit 40, which will be described later, compares the amount of movement of the line of sight with a threshold value, and when the movement of the line of sight exceeding the threshold is detected, detects the movement of the line of sight as a saccade and starts the end of eye movement Judge as time.

なお、上記の例では、EOG法を用いて眼球の動きを計測したが、眼球運動の計測方法はこれに限定されるものではない。例えば、近赤外線を眼球に照射し、その反射像(角膜反射像)を利用して眼球の動きを計測してもよい(角膜反射法)。この場合は、反射像の動きから計測された水平方向および垂直方向の眼球移動量によって視線移動量を算出し、閾値との比較を行う。または、眼球を撮影するカメラを車内に設置し、画像処理により角膜の位置を検出し、水平方向および垂直方向の眼球の移動量を計測してもよい。また、画像処理を利用する場合は、撮影された画像中の角膜の位置(たとえば画像中のピクセル座標)を検出し、角膜座標の移動量と眼球の移動角度の対応表を利用することにより、水平方向および垂直方向の眼球の移動量を計測する。   In the above example, the movement of the eyeball is measured using the EOG method, but the method for measuring the eyeball movement is not limited to this. For example, the eyeball may be irradiated with near infrared rays, and the movement of the eyeball may be measured using the reflected image (corneal reflection image) (corneal reflection method). In this case, the line-of-sight movement amount is calculated based on the horizontal and vertical eyeball movement amounts measured from the movement of the reflected image, and is compared with a threshold value. Alternatively, a camera for photographing the eyeball may be installed in the vehicle, the position of the cornea may be detected by image processing, and the amount of movement of the eyeball in the horizontal direction and the vertical direction may be measured. In addition, when using image processing, by detecting the position of the cornea (for example, pixel coordinates in the image) in the captured image, and using a correspondence table between the movement amount of the cornea coordinates and the movement angle of the eyeball, Measure the amount of eyeball movement in the horizontal and vertical directions.

再び図7を参照する。   Refer to FIG. 7 again.

分類部45は、EFRP切出部50およびEFRP分類部60を有している。   The classification unit 45 includes an EFRP cutout unit 50 and an EFRP classification unit 60.

EFRP切出部50は、サッケード検出部40からサッケード情報を受け取り、サッケード情報に基づいて眼球停留開始時刻を特定する。そしてEFRP切出部50は、サッケードの終了時刻を起点に脳波信号を切り出し、眼球停留電位の波形(EFRP波形)を抽出する。   The EFRP cutout unit 50 receives the saccade information from the saccade detection unit 40, and specifies the eyeball stop start time based on the saccade information. Then, the EFRP cutout unit 50 cuts out an electroencephalogram signal starting from the saccade end time, and extracts a waveform (EFRP waveform) of the eyeball stationary potential.

EFRP分類部60は、サッケード検出部40からサッケード情報を受け取り、そのサッケード情報から各サッケードの方向(サッケード方向)を分類する。そしてEFRP分類部60は、切り出したEFRP波形を、分類したサッケード方向ごとに加算平均する。   The EFRP classification unit 60 receives the saccade information from the saccade detection unit 40, and classifies each saccade direction (saccade direction) from the saccade information. Then, the EFRP classification unit 60 adds and averages the cut out EFRP waveforms for each classified saccade direction.

注意量判別部70は、EFRP分類部60が加算平均したサッケード方向ごとのEFRPに基づき、その方向ごとに注意状態を判別する。本実施形態による注意量判別部70は、EFRPのラムダ反応の振幅値と予め保持する閾値とを比較することにより、集中または散漫の2つの注意状態のいずれに該当するかを判別する。   The attention amount determination unit 70 determines the attention state for each direction based on the EFRP for each saccade direction that is averaged by the EFRP classification unit 60. The attention amount determination unit 70 according to the present embodiment determines which of the two attention states, concentrated or diffused, by comparing the amplitude value of the lambda response of the EFRP with a threshold value that is held in advance.

統合判別部80は、注意量判別部70でのサッケード方向ごとの判別結果に基づいて、運転者10の注意状態を判別する。本実施形態による統合判別部80についても、最終的には集中または散漫の2つの注意状態のいずれに該当するかを判別する。注意状態の判別結果は、統合判別部80が保持する出力装置(図示せず)を利用して、運転者10にフィードバックされる。出力装置の一例は、音声、動作音または警告音等によって運転者への呼びかけるためのスピーカである。出力装置の他の例は、テキストや画像を提示できるカーナビゲーションシステムのモニタ、ヘッドマウントディスプレイ、または、ヘッドアップディスプレイ(HUD)である。また、統合判別部80は記録装置(HDD等)を保持していてもよく、判別結果の記録、蓄積を記録装置に行ってもよい。   The integrated determination unit 80 determines the attention state of the driver 10 based on the determination result for each saccade direction in the attention amount determination unit 70. The integrated determination unit 80 according to the present embodiment also finally determines which of the two attention states of concentration or distraction is applicable. The attention state determination result is fed back to the driver 10 using an output device (not shown) held by the integrated determination unit 80. An example of the output device is a speaker for calling the driver by voice, operation sound, warning sound, or the like. Other examples of output devices are car navigation system monitors, head-mounted displays, or head-up displays (HUD) that can present text and images. In addition, the integrated determination unit 80 may hold a recording device (HDD or the like), and may record and store the determination results in the recording device.

次に、注意状態判別システム1の具体的な構成を説明する。   Next, a specific configuration of the attention state determination system 1 will be described.

以下では、注意状態判別システム1をヘッドマウントディスプレイ(Head Mounted Display:以下「HMD」とも記述する。)に組み込んだ例を説明する。   Hereinafter, an example in which the attention state determination system 1 is incorporated in a head mounted display (hereinafter also referred to as “HMD”) will be described.

図8は、ヘッドマウントディスプレイ上に注意状態判別システム1を構成した例を示す。図8では、図7に示す各構成要素に付された参照符号と同じ機能を有する構成要素には、同じ参照符号が付されている。   FIG. 8 shows an example in which the attention state determination system 1 is configured on a head mounted display. In FIG. 8, the same reference numerals are assigned to components having the same functions as the reference numerals assigned to the respective components shown in FIG.

HMDは眼鏡型であり、HMDを運転者10の頭部に固定するために、後頭部側にバンドを有している。後頭部側にバンドには、脳波計測部20の一部の電極が設けられている。   The HMD is an eyeglass type and has a band on the back of the head in order to fix the HMD to the head of the driver 10. A part of the electrodes of the electroencephalogram measurement unit 20 is provided on the band on the back of the head.

図9は、HMDの各部位の名称を示す。図9の例では、各部位の名称は眼鏡における各部位の一般的な名称と同一とする。以下、眼鏡の主な部位の名称を説明する。
ユーザ10の耳に引っ掛かりHMD本体を固定する部分を「先セル部101」と呼ぶ。ユーザ10の鼻根に接する部分を「ノーズパッド部104」と呼ぶ。眼鏡のレンズの枠の部分を「リム部102」と呼ぶ。また、先セル部101とリム部102とをつなぎ支える部分を「テンプル部103」と呼ぶ。先セル部101、リム部102、テンプル部103、ノーズパッド部104は、HMDの左右にそれぞれ対称的に設けられる。
FIG. 9 shows names of each part of the HMD. In the example of FIG. 9, the name of each part is the same as the general name of each part in the glasses. Hereinafter, names of main parts of the glasses will be described.
A portion that is caught in the ear of the user 10 and fixes the HMD main body is referred to as a “first cell portion 101”. A portion in contact with the nose root of the user 10 is referred to as a “nose pad portion 104”. The frame portion of the spectacle lens is referred to as a “rim portion 102”. Further, a portion connecting and supporting the front cell portion 101 and the rim portion 102 is referred to as a “temple portion 103”. The tip cell portion 101, the rim portion 102, the temple portion 103, and the nose pad portion 104 are provided symmetrically on the left and right sides of the HMD.

図8および図9から理解されるように、対となる2つの先セル部101と、後頭部側のバンドの中央に、脳波計測部20が脳波を計測するために利用する電極群が配置されている。また、テンプル部103、リム部102の上下の位置には眼球運動計測部30が眼球運動を計測するために利用する電極群が配置されている。   As can be understood from FIGS. 8 and 9, an electrode group used by the electroencephalogram measurement unit 20 to measure an electroencephalogram is arranged in the center of the two front cell units 101 and the occipital band. Yes. In addition, an electrode group used by the eye movement measurement unit 30 to measure the eye movement is arranged above and below the temple part 103 and the rim part 102.

運転者10がHMDを装着した時において、脳波計測部20の電極は両耳耳朶(マストイド)の位置と後頭部に自然に接するように配置されている。また、眼球運動計測部30の電極は、運転者10のコメカミと左目上下の位置に電極が自然に接するように配置されている。なお、脳波計測部20及び眼球運動計測部30の本体は、それぞれある1つの電極と一体的に構成されていてもよいし、リム部102の位置などに独立した回路として設けられていてもよい。   When the driver 10 wears the HMD, the electrodes of the electroencephalogram measurement unit 20 are arranged so as to naturally touch the position of the binaural earlobe (mastoid) and the back of the head. Further, the electrodes of the eye movement measuring unit 30 are arranged so that the electrodes naturally come into contact with the driver's 10 mechanism and the upper and lower positions of the left eye. The main bodies of the electroencephalogram measurement unit 20 and the eye movement measurement unit 30 may be integrally formed with one electrode, or may be provided as an independent circuit at the position of the rim unit 102 or the like. .

なお、脳波計測部20、眼球運動計測部30の電極は、それぞれ銀塩化銀電極により接触抵抗が抑えられている。後頭部に接する電極については、電極表面に突起を設けて髪の毛をよけて直接電極が頭皮に接する機構を設けてもよく、必ずしも電極にペーストをつけておく必要は無い。   In addition, the contact resistance of the electrodes of the electroencephalogram measurement unit 20 and the eye movement measurement unit 30 is suppressed by a silver-silver chloride electrode. For the electrode in contact with the back of the head, a mechanism may be provided in which protrusions are provided on the electrode surface to prevent hair and the electrode directly contacts the scalp, and it is not always necessary to apply a paste to the electrode.

なお、眼球運動計測部30は、図4の例では、左目の上下左右に装着されるようになっているが、EOG計測のための電極位置は、これに限定されない。例えば、左右いずれかのテンプル部103の電極をノーズパッド部104に配置して、水平方向のEOGを計測してもよい。また、リム部102の電極を、テンプル部103に垂直方向に配置して垂直方向のEOGを計測してもよい。   In the example of FIG. 4, the eye movement measurement unit 30 is attached to the upper, lower, left, and right eyes of the left eye, but the electrode position for EOG measurement is not limited to this. For example, the electrode of either the left or right temple part 103 may be arranged on the nose pad part 104 to measure the EOG in the horizontal direction. Alternatively, the electrode of the rim portion 102 may be arranged in the vertical direction on the temple portion 103 to measure the EOG in the vertical direction.

サッケード検出部40、EFRP切出部50、EFRP分類部60、注意量判別部70、統合判別部80は、左右のテンプル部103に配置され、図7に示される接続関係を有するよう、それぞれが内部配線(ケーブル)で接続される。   The saccade detection unit 40, the EFRP cutout unit 50, the EFRP classification unit 60, the attention amount determination unit 70, and the integration determination unit 80 are arranged in the left and right temple units 103 so that each has the connection relationship shown in FIG. Connected by internal wiring (cable).

なお、上記構成では、HMD上に注意状態判別システム1の全ての構成を独立の部品として配置する例を説明したが、構成はこの限りではない。たとえば、HMD上には脳波計測部20、眼球運動計測部30のみを配置し、サッケード検出部40、EFRP切出部50、EFRP分類部60、注意量判別部70、統合判別部80を別端末に構成し、HMDと別端末間をケーブルや無線で通信することにより、注意状態判別システム1を構成してもよい。また、サッケード検出部40、EFRP切出部50、EFRP分類部60、注意量判別部70、統合判別部80は、同一のCPUやDSP内部で処理されてもよい。   In the above configuration, an example in which all configurations of the attention state determination system 1 are arranged as independent parts on the HMD has been described, but the configuration is not limited to this. For example, only the electroencephalogram measurement unit 20 and the eye movement measurement unit 30 are arranged on the HMD, and the saccade detection unit 40, the EFRP cutout unit 50, the EFRP classification unit 60, the attention amount determination unit 70, and the integrated determination unit 80 are separated from each other. The attention state determination system 1 may be configured by communicating between the HMD and another terminal via a cable or wirelessly. Further, the saccade detection unit 40, the EFRP extraction unit 50, the EFRP classification unit 60, the attention amount determination unit 70, and the integration determination unit 80 may be processed in the same CPU or DSP.

また、眼球運動計測部30がEOG法ではなく、カメラ等を用いて眼球運動を計測する場合には、眼球または近赤外線照射による角膜反射像を撮影するためのカメラを、HMDリム部102やテンプル部103、または車内に配置すればよい。   In addition, when the eye movement measurement unit 30 measures the eye movement using a camera or the like instead of the EOG method, a camera for taking a cornea reflection image by the eyeball or near infrared irradiation is used as the HMD rim unit 102 or the temple. What is necessary is just to arrange | position in the part 103 or a vehicle interior.

次に、注意状態判別システム1の動作を説明する。   Next, the operation of the attention state determination system 1 will be described.

図10は注意状態判別システム1の処理の手順を示すフローチャートである。以下、図10のフローチャートに沿って、注意状態判別システム1の動作を説明する。   FIG. 10 is a flowchart showing a processing procedure of the attention state determination system 1. Hereinafter, the operation of the attention state determination system 1 will be described with reference to the flowchart of FIG.

ステップS10において、運転が運転者10により開始される。運転が開始されると、運転注意状態判別システム1による注意状態判別の処理も開始される。運転の開始は、例えば、エンジンスタート、サイドブレーキの解除、アクセルの踏み込みによって特定される。   In step S <b> 10, driving is started by the driver 10. When driving is started, attention state determination processing by the driving attention state determination system 1 is also started. The start of driving is specified, for example, by starting the engine, releasing the side brake, or stepping on the accelerator.

ステップS20において、脳波計測部20は、運転者10の脳波を計測する。計測された脳波は、コンピュータで処理できるようにサンプリングされ、EFRP切出部50に送られる。なお、脳波に混入するノイズの影響を低減するため、本実施形態においては、脳波計測部20は、計測された脳波に例えば1Hz以上15以下Hzのバンドパスフィルタ処理を行う。   In step S <b> 20, the electroencephalogram measurement unit 20 measures the electroencephalogram of the driver 10. The measured electroencephalogram is sampled so as to be processed by a computer, and sent to the EFRP cutout unit 50. In order to reduce the influence of noise mixed in the electroencephalogram, in the present embodiment, the electroencephalogram measurement unit 20 performs a bandpass filter process of, for example, 1 Hz to 15 Hz on the measured electroencephalogram.

ステップS30において、眼球運動計測部20は、運転者10の眼球運動を計測する。眼球運動計測部30は、図4に示すように運転者10の顔面部に4つの電極を装着し、EOG法により、水平方向、垂直方向の眼電位の大きさを計測する。計測の方法は上述の実験の方法と同一である。計測された眼電位は、コンピュータで処理できるようにサンプリングされ、サッケード検出部40に送られる。なおステップS20およびS30は並行して行われ得る。   In step S <b> 30, the eye movement measurement unit 20 measures the eye movement of the driver 10. As shown in FIG. 4, the eye movement measuring unit 30 attaches four electrodes to the face of the driver 10 and measures the electrooculogram in the horizontal and vertical directions by the EOG method. The measurement method is the same as the above-described experimental method. The measured electrooculogram is sampled so as to be processed by a computer and sent to the saccade detection unit 40. Steps S20 and S30 can be performed in parallel.

ステップS81において、統合判別部80は、注意状態を判別するタイミングかどうかを判断する。本実施形態では、注意状態判別のタイミングは10秒間隔とする。統合判別部80は、10秒ごとに注意状態判別が行われるよう、判別のタイミングを制御する。判別タイミングではない場合は、ステップS20の脳波計測、および、ステップS30の眼球運動計測が継続される。統合判別部80によって判別タイミングであると判断されると、ステップS40以降の注意状態を判別する処理が開始される。   In step S81, the integrated determination unit 80 determines whether it is time to determine the attention state. In the present embodiment, the attention state determination timing is set at an interval of 10 seconds. The integrated determination unit 80 controls the determination timing so that the attention state determination is performed every 10 seconds. If it is not the discrimination timing, the electroencephalogram measurement in step S20 and the eye movement measurement in step S30 are continued. When it is determined by the integrated determination unit 80 that the determination timing is reached, processing for determining the attention state after step S40 is started.

図11は、眼球運動データ、脳波データおよび判別タイミングの関係の一例を示す。図の横軸は時間で、判別タイミングは白矢印で示されている。本実施形態では、判別タイミングは、脳波データや眼球運動データとは関係なく、10秒ごとの時間シフト量で実行される。   FIG. 11 shows an example of the relationship between eye movement data, brain wave data, and discrimination timing. The horizontal axis in the figure is time, and the discrimination timing is indicated by white arrows. In this embodiment, the discrimination timing is executed with a time shift amount of every 10 seconds irrespective of the electroencephalogram data and the eye movement data.

再び図10を参照する。ステップS40において、サッケード検出部40は、解析対象となる時区間(以後、「解析区間」と呼ぶ)の眼球運動データを解析し、解析区間に含まれるサッケード終了タイミング(すなわち、眼球停留開始時刻)を検出する。本実施形態では、解析区間は40秒間とする。図11は、解析区間の例を示す。判別タイミング(a)のときの解析区間は、判別タイミング(a)の直前40秒間となり、解析区間(a)の矢印の示す範囲となる。なお、解析区間の長さを40秒間とした理由は、本願発明者らは平均的な交差点間隔を40秒と考えたためである。自動車が市街地を時速40km/時で移動している場合には40秒間に走行する距離は約440mであり、交差点または信号機間の間隔よりも短いと考えられる。   Refer to FIG. 10 again. In step S40, the saccade detection unit 40 analyzes the eye movement data of the time interval to be analyzed (hereinafter referred to as “analysis interval”), and the saccade end timing (that is, the eyeball stop start time) included in the analysis interval. Is detected. In the present embodiment, the analysis interval is 40 seconds. FIG. 11 shows an example of an analysis interval. The analysis interval at the discrimination timing (a) is 40 seconds immediately before the discrimination timing (a), and is a range indicated by the arrow in the analysis interval (a). The reason for setting the length of the analysis section to 40 seconds is that the present inventors considered the average intersection interval to be 40 seconds. When an automobile is moving in a city area at a speed of 40 km / h, the distance traveled in 40 seconds is about 440 m, which is considered to be shorter than the distance between intersections or traffic lights.

サッケード検出部40は、例えば、上記実験のサッケード検出条件(移動時間20ミリ秒以上70ミリ秒以下で、平均角速度が300度/秒以上の眼球運動)に基づきサッケードを検出する。サッケード終了時刻を眼球停留開始時刻として検出し、眼球停留開始時刻ごとに、水平方向の移動量、垂直方向の移動量をサッケード情報として蓄積する。眼球運動計測部30がEOG法で計測されていた場合、眼球の速度は、電位の変化量で計測することができる。図12は、EOGの電位と眼球の移動角度の対応関係の例を示す。図12の対応関係から、眼球電位の振幅値と眼球の移動量との対応付けが可能になる。これらの関係から、眼球運動の電位量から上記のサッケードの発生条件を満たすか否かを判定し、眼球停留開始時刻を検出する。   The saccade detection unit 40 detects a saccade based on, for example, the saccade detection condition of the above experiment (eye movement with a movement time of 20 milliseconds to 70 milliseconds and an average angular velocity of 300 degrees / second or more). The saccade end time is detected as the eyeball stop start time, and the horizontal movement amount and the vertical movement amount are accumulated as saccade information for each eyeball stop start time. When the eye movement measuring unit 30 is measured by the EOG method, the velocity of the eyeball can be measured by the amount of change in potential. FIG. 12 shows an example of the correspondence between the EOG potential and the eyeball movement angle. From the correspondence relationship of FIG. 12, it is possible to associate the amplitude value of the eyeball potential with the amount of movement of the eyeball. From these relationships, it is determined whether or not the saccade generation condition is satisfied from the potential amount of eye movement, and the eyeball stop start time is detected.

また、サッケードは斜め方向に発生することも考えられる。斜め方向のサッケードの検出では、水平方向の移動量と垂直方向の移動量を利用する。斜め方向の眼球運動の移動量は、((水平方向の移動量)2+(垂直方向の移動量)21/2で算出できる。サッケード検出は、斜め方向の眼球運動の移動量とサッケード検出条件(平均角速度が300度/秒以上)を比較により行う。検出されたサッケードの終了時刻により、眼球停留開始時刻を検出する。 It is also conceivable that saccades are generated in an oblique direction. In the detection of the saccade in the oblique direction, the movement amount in the horizontal direction and the movement amount in the vertical direction are used. The moving amount of the eye movement in the oblique direction can be calculated by (((moving amount in the horizontal direction) 2 + (moving amount in the vertical direction) 2 ) 1/2 . The saccade detection is performed by comparing the movement amount of the eye movement in the oblique direction and the saccade detection condition (average angular velocity is 300 degrees / second or more). The eyeball stop start time is detected based on the detected saccade end time.

図13(a)は計測された眼球運動データ、脳波データ、眼球停留開始時刻の例を示す。図13(a)に示すように、眼球停留開始時刻は1解析区間の中に複数含まれることがある。サッケード検出部40は、これら全ての眼球停留開始時刻t1、t2、・・・、t8を検出する。   FIG. 13A shows an example of measured eye movement data, electroencephalogram data, and eyeball stop start time. As shown in FIG. 13A, a plurality of eyeball retention start times may be included in one analysis section. The saccade detection unit 40 detects all these eyeball stop start times t1, t2,..., T8.

なお、サッケードの検出方法として、最初に水平および垂直方向のそれぞれのサッケードを独立して検出し、その後、時区間が重複している水平および垂直方向のサッケードの組を1つに統合してもよい。または、まず水平眼球運動データおよび垂直眼球運動データを合成してベクトルデータを得て、その後、当該ベクトルデータの向きおよび大きさのデータに基づいてサッケードの検出を行う方法を用いても良い。   As a saccade detection method, first, each horizontal and vertical saccade is detected independently, and then a set of horizontal and vertical saccades with overlapping time intervals is integrated into one. Good. Alternatively, a method may be used in which horizontal eye movement data and vertical eye movement data are first combined to obtain vector data, and then saccade detection is performed based on the direction and size data of the vector data.

また、眼球停留開始時刻の検出と同時に、サッケード移動方向や、必要に応じてサッケード移動量も抽出される。サッケード移動方向は、上述のベクトルデータを利用すれば、そのベクトルの向き(角度)として得ることができる。一方サッケードの移動量は、サッケード開始からサッケード終了までの移動量(EOG法では電位(μV)や、角膜反射法では角度(度))の情報で、検出された全ての眼球停留開始時刻に対応して抽出される。   Simultaneously with the detection of the eyeball stop start time, the saccade movement direction and, if necessary, the saccade movement amount are also extracted. The saccade movement direction can be obtained as the direction (angle) of the vector by using the vector data described above. On the other hand, the amount of movement of the saccade corresponds to all detected eyeball retention start times based on information on the amount of movement from the beginning of the saccade to the end of the saccade (potential (μV) for the EOG method and angle (degree) for the corneal reflection method). And extracted.

なお、「サッケードの移動量」とは、方向を判別するための、水平方向に移動した量および垂直方向に移動した量を包含する概念であり、サッケード開始時の位置と、サッケード終了時の位置との間の単なる距離ではないことに留意されたい。   The “saccade movement amount” is a concept including the amount of movement in the horizontal direction and the amount of movement in the vertical direction for determining the direction. The position at the start of the saccade and the position at the end of the saccade. Note that it is not just a distance between.

上述の眼球停留開始時刻、サッケード移動方向およびサッケードの移動量は、サッケード情報としてEFRP分類部60に送信される。   The eyeball stop start time, the saccade movement direction, and the saccade movement amount are transmitted to the EFRP classification unit 60 as saccade information.

図10のステップS50において、EFRP切出部50は、解析区間に含まれる眼球停留関連電位(EFRP)を切り出す。具体的には、ステップS40で抽出した各眼球停留開始時刻を起点として、−300ミリ秒から600ミリ秒までの脳波データをEFRPとして切り出す。   In step S50 of FIG. 10, the EFRP cutout unit 50 cuts out the eyeball retention related potential (EFRP) included in the analysis section. Specifically, the electroencephalogram data from −300 milliseconds to 600 milliseconds is cut out as EFRP, starting from each eyeball stop start time extracted in step S40.

図13(b)は切り出されたEFRPの例を示す。切り出されたEFRPは、眼球停留開始時刻(0ミリ秒)の電位が0μVになるようにベースライン補正が行われる。   FIG. 13B shows an example of the cut out EFRP. Baseline correction is performed on the cut out EFRP so that the potential at the eyeball retention start time (0 milliseconds) is 0 μV.

なお上述の「切り出し」とは、脳波データと眼球停留開始時刻の情報とを対応付けるという意味を持つ。よって、処理のために解析区間の脳波データを取り出してメモリの別領域等にコピーする、という意味の切り出しに限定されない。たとえば、記録された脳波データのうち、所定区間の脳波データ自体をそのまま用いることも包含する。   The above-mentioned “cutout” has a meaning of associating the electroencephalogram data with the information on the eyeball stop start time. Therefore, the present invention is not limited to the extraction of the electroencephalogram data in the analysis section for processing and copying it to another area of the memory. For example, it also includes using the electroencephalogram data of a predetermined section of the recorded electroencephalogram data as it is.

図10のステップS60において、EFRP分類部60は、切出されたEFRPをサッケードの方向ごとに分類し、それぞれの方向のEFRPを加算平均する。図13(c)は、方向ごとに加算されたEFRPの例を示す。サッケード方向分類や加算平均などのEFRP分類部60の処理の詳細については後述する。本実施形態では、一例としてサッケード方向を8方向に分類する。   In step S60 of FIG. 10, the EFRP classification unit 60 classifies the cut out EFRP for each saccade direction, and adds and averages the EFRPs in the respective directions. FIG. 13C shows an example of EFRP added for each direction. Details of processing of the EFRP classification unit 60 such as saccade direction classification and addition averaging will be described later. In this embodiment, as an example, the saccade direction is classified into eight directions.

図10のステップS70において、注意量判別部70は、ステップS60において方向ごとに加算平均されたEFRP波形のそれぞれについて、注意状態を判別する。   In step S70 of FIG. 10, the attention amount determination unit 70 determines the attention state for each of the EFRP waveforms averaged for each direction in step S60.

まず、注意量判別部70は、各方向のEFRP加算平均波形において、約100ミリ秒付近の陽性の成分であるラムダ反応の振幅値を計測する。ここで図13(d)を参照しながら、具体的に説明する。 図13(d)は、右方向のサッケードの終了時刻を起点にしたEFRPが加算平均された波形を示している。グラフの横軸は時間で単位はミリ秒、縦軸は電位で単位はμVで下向きが正の値となっている。併せて図13(d)は、ラムダ反応振幅の例も示している。本実施形態では、ラムダ反応の振幅は、例えば50ミリ秒以上150ミリ秒以下における極大値の振幅により算出している。なお、波形には波形のドリフトやノイズ混入の影響が反映されている場合がある。そこで、ラムダ反応の振幅を、上述の50ミリ秒以上150ミリ秒以下の極大値に代えて区間平均値を算出することによって抽出してもよい。   First, the attention amount determination unit 70 measures the amplitude value of a lambda reaction that is a positive component in the vicinity of about 100 milliseconds in the EFRP addition average waveform in each direction. This will be specifically described with reference to FIG. FIG. 13D shows a waveform obtained by averaging the EFRPs starting from the end time of the saccade in the right direction. The horizontal axis of the graph is time, the unit is milliseconds, the vertical axis is potential, the unit is μV, and the downward direction is a positive value. In addition, FIG. 13D also shows an example of the lambda response amplitude. In the present embodiment, the amplitude of the lambda reaction is calculated based on the amplitude of the maximum value in, for example, 50 milliseconds to 150 milliseconds. Note that the waveform may reflect the effects of waveform drift and noise mixing. Therefore, the amplitude of the lambda response may be extracted by calculating the section average value instead of the local maximum value of 50 milliseconds to 150 milliseconds.

計測されたラムダ反応振幅の値と予め設定した閾値とを比較することにより、注意量判別部70は、注意状態を判別する。本実施形態では、集中および散漫の2つの注意状態を判別する。ラムダ反応振幅の傾向として、集中時にはその振幅が大きくなることが知られている(八木「眼球停留関連電位の産業場面への応用」心理学評論,vol.45(1)、103−117。2−2章)。この特徴を利用して、注意量判別部70に設定されている閾値により、注意状態を判別する。判別では、ラムダ反応振幅が閾値を超える場合は「集中」、閾値を下回る場合は「散漫」と判断する。   The attention amount determination unit 70 determines the attention state by comparing the measured lambda response amplitude value with a preset threshold value. In the present embodiment, two attention states of concentration and distraction are discriminated. As a tendency of the lambda response amplitude, it is known that the amplitude increases when concentrating (Yagi “Application of Eyeball-Related Potential to Industrial Scenes”, Psychological Review, vol. 45 (1), 103-117.2. -2). Using this feature, the attention state is determined based on the threshold set in the attention amount determination unit 70. In the determination, when the lambda response amplitude exceeds the threshold, it is determined as “concentration”, and when it is below the threshold, it is determined as “diffuse”.

いま、閾値が2.5μVと設定されていた場合を例に挙げて、図13(d)のEFRP加算平均波形の注意状態判別を説明する。EFRP加算平均波形のラムダ反応振幅は50ミリ秒以上150ミリ秒以下に含まれる極大値として、60ミリ秒付近の極大値が抽出される。この極大値の振幅値3.3μVがラムダ反応振幅となる。ラムダ反応振幅値3.3μVは、閾値である2.5μVを超えているため、注意量判別部70は、図13(d)のEFRP加算平均波形は「集中」を意味していると判別する。   Now, taking the case where the threshold is set to 2.5 μV as an example, attention state determination of the EFRP added average waveform in FIG. 13D will be described. As the lambda response amplitude of the EFRP added average waveform, a local maximum value in the vicinity of 60 milliseconds is extracted as the local maximum value included in the range from 50 milliseconds to 150 milliseconds. The maximum amplitude value 3.3 μV is the lambda response amplitude. Since the lambda response amplitude value 3.3 μV exceeds the threshold value of 2.5 μV, the attention amount determination unit 70 determines that the EFRP addition average waveform in FIG. 13D means “concentration”. .

注意量判別部70は、分類された全てのサッケード方向ごとに注意量を判別し、判別結果を統合判別部80に出力する。本実施形態では、8方向に分類しているため、8個の注意状態判別結果が注意量判別部70から出力される。   The attention amount determination unit 70 determines the attention amount for every classified saccade direction, and outputs the determination result to the integrated determination unit 80. In this embodiment, since eight directions are classified, eight attention state determination results are output from the attention amount determination unit 70.

図10のステップS80において、統合判別部80は、ステップS70において判別されたサッケード方向ごとの判別結果を統合し、運転者10の注意状態を判別する。統合判別部80の詳細な処理については後述する。   In step S80 in FIG. 10, the integration determination unit 80 integrates the determination results for each saccade direction determined in step S70, and determines the driver's 10 attention state. Detailed processing of the integrated determination unit 80 will be described later.

次に、図14を参照しながら、図10のステップS60で行われるEFRP分類部60の処理の詳細を説明する。   Next, details of the processing of the EFRP classification unit 60 performed in step S60 of FIG. 10 will be described with reference to FIG.

図14は、EFRP分類部60の処理の詳細な手順を示すフローチャートである。   FIG. 14 is a flowchart showing a detailed procedure of processing of the EFRP classification unit 60.

ステップS601において、EFRP分類部60は、ステップS40において計測されたサッケード情報と、ステップS50において切出されたEFRP波形のデータとを受信する。   In step S601, the EFRP classification unit 60 receives the saccade information measured in step S40 and the EFRP waveform data extracted in step S50.

ステップS602において、EFRP分類部60は、受信したEFRP波形のうち、処理していないEFRP波形を1つ選択する。ここでいう「処理」とは、サッケード方向に応じてEFRPを分類する処理を意味している。   In step S602, the EFRP classification unit 60 selects one unprocessed EFRP waveform from the received EFRP waveforms. Here, “processing” means processing for classifying EFRPs according to the saccade direction.

ステップS603において、EFRP分類部60は、選択されたEFRPの起点となった眼球停留開始時刻のサッケード情報から、サッケードの方向を特定する。EFRPおよびサッケード情報は、眼球停留開始時刻の時刻情報で対応付けられており、サッケード情報には、水平方向の移動量、垂直方向の移動量が保持されている。EFRP分類部60は、水平方向の移動量、垂直方向の移動量を利用して、上述の実験における方法でサッケード方向を特定する。すなわち、図5の例で示したように、水平方向、垂直方向で、サッケード移動量と閾値(300度/秒)とを比較し、組み合わせにより、方向を決定する。   In step S603, the EFRP classification unit 60 identifies the saccade direction from the saccade information of the eyeball stop start time that is the starting point of the selected EFRP. The EFRP and the saccade information are associated with the time information of the eyeball stop start time, and the saccade information holds the movement amount in the horizontal direction and the movement amount in the vertical direction. The EFRP classification unit 60 specifies the saccade direction by the method in the above-described experiment using the horizontal movement amount and the vertical movement amount. That is, as shown in the example of FIG. 5, the saccade movement amount is compared with the threshold value (300 degrees / second) in the horizontal direction and the vertical direction, and the direction is determined by combination.

図15は、処理中のEFRPおよびそのサッケード情報の例を示す。また図15は、これまで処理されたEFRPが、サッケード方向に応じて記憶装置上で分類されている状態も示している。最上部に記載された処理中のEFRPは、サッケードの移動量から、右方向と判定される。   FIG. 15 shows an example of EFRP being processed and its saccade information. FIG. 15 also shows a state in which the EFRP processed so far is classified on the storage device according to the saccade direction. The EFRP being processed at the top is determined to be in the right direction from the amount of movement of the saccade.

なお、上述のサッケード方向の分類方法は一例である。分類方法は上記に限定されるものではない。たとえば、EFRP分類部60は、水平方向の移動量、垂直方向の移動量から、サッケード方向ベクトルを求め、ベクトルの角度により分類を行ってもよい。サッケード方向ベクトルの角度の算出方法は、例えば、ベクトル角度(ラジアン)=arctan(垂直方向移動量/水平方向移動量)で算出できる。ベクトルの角度を利用して8方向に分類する場合は、例えば右方向を0度とし、半時計方向周りの角度を正とするとき、−22.5〜22.5度を「右」、22.5〜67.5度を「右上」、67.5〜112.5度を「上」というように、45度に区切った領域を方向と対応付ければよい。「左上」、「左」、「左下」についても同様である。ベクトルの角度の値によって、いずれの領域に分けられるかが決定される。   The saccade direction classification method described above is an example. The classification method is not limited to the above. For example, the EFRP classification unit 60 may obtain a saccade direction vector from the amount of movement in the horizontal direction and the amount of movement in the vertical direction, and may perform classification based on the angle of the vector. The method of calculating the angle of the saccade direction vector can be calculated by, for example, vector angle (radian) = arctan (vertical direction movement amount / horizontal direction movement amount). When classifying into 8 directions using the angle of the vector, for example, when the right direction is 0 degrees and the angle around the counterclockwise direction is positive, −22.5 to 22.5 degrees is “right”, 22 A region divided into 45 degrees may be associated with a direction such that 5 to 67.5 degrees is “upper right” and 67.5 to 112.5 degrees is “up”. The same applies to “upper left”, “left”, and “lower left”. Which region is divided is determined by the value of the vector angle.

ステップS604において、EFRP分類部60は、ステップS603において分類された方向に従って、対応する分類ごとにEFRP波形を蓄積する。8方向に分類した場合は、EFRPは8つの方向ごとに蓄積される。図15の例では、処理中のEFRPは、方向は「右」と分類されているため、8つに分類のうち「右」のグループにEFRPの波形が蓄積される。   In step S604, the EFRP classification unit 60 accumulates the EFRP waveform for each corresponding classification according to the direction classified in step S603. When classified into 8 directions, EFRP is accumulated for every 8 directions. In the example of FIG. 15, since the EFRP being processed is classified as “right”, the EFRP waveform is accumulated in the “right” group among the eight categories.

ステップS605において、EFRP分類部60は、ステップS601で受信した全てのEFRPが分類されたか否かをチェックする。全てのEFRPが分類された場合は、ステップS606の処理に遷移する。未処理のEFRPが残っている場合は、ステップS602に戻り、全てのEFRPが分類されるまで繰り返される。   In step S605, the EFRP classification unit 60 checks whether all the EFRPs received in step S601 have been classified. If all the EFRPs are classified, the process proceeds to step S606. If unprocessed EFRP remains, the process returns to step S602 and is repeated until all EFRPs are classified.

上述の説明では、方向の分類数は8方向であるとしたが、これは一例である。これに限定されるものではない。例えば、EFRPを、より細かく16方向に分類してもよい。16方向の場合は、上記と同様に、360度を16分割(各方向22.5度)し、−11.25〜11.25度を「右」のように領域を決めておく。垂直方向移動量と水平方向移動量から決定されるサッケード方向ベクトルの向き(角度)が16領域のうちのどの領域に含まれるかでサッケードの方向を決定することができる。   In the above description, the number of direction classifications is eight directions, but this is an example. It is not limited to this. For example, EFRP may be classified into 16 directions more finely. In the case of 16 directions, 360 degrees are divided into 16 (each direction is 22.5 degrees), and the area is determined such that “−11.25 to 11.25 degrees” is “right”. The direction of the saccade direction can be determined depending on which of the 16 regions the direction (angle) of the saccade direction vector determined from the vertical direction movement amount and the horizontal direction movement amount is included.

また、電極個数の制約等で垂直方向の移動量が計測できない場合は、水平方向のみの2方向でサッケード方向を分類してもよい。この場合は、水平方向移動量の正負で、「右」「左」のサッケード方向を分類する。   In addition, when the amount of movement in the vertical direction cannot be measured due to restrictions on the number of electrodes, the saccade direction may be classified into two directions only in the horizontal direction. In this case, the “right” and “left” saccade directions are classified according to the amount of horizontal movement.

また、サッケード方向の分類は、上述のように均等に分割しなくてもよい。図16は、非均等な角度の方向分類の一例を示す。運転時は、速度計やカーナビの機器類は視野の下側に存在するため、機器類を見るときに下方向のサッケードが発生すると考えられる。そこで、車両前方に対する視線の動きと運転機器に対する視線の動きを区別するように分割してもよい。図16の例では、0°から180°の領域を4分割(方向分類1〜4)で車両前方への視線の動きを分類し、180°から360°で運転機器に対する視線の動きとして分類している。サッケード方向の分類方法は上記と同様で、垂直方向移動量と水平方向移動量から決定されるサッケード方向ベクトルの向き(角度)がどの方向分類に属するかで決定される。   Further, the classification of the saccade direction may not be divided equally as described above. FIG. 16 shows an example of direction classification of non-uniform angles. When driving, speedometers and car navigation devices are present at the bottom of the field of view, so it is considered that downward saccades occur when looking at the devices. Therefore, it may be divided so as to distinguish the movement of the line of sight with respect to the front of the vehicle and the movement of the line of sight with respect to the driving equipment. In the example of FIG. 16, the movement of the line of sight toward the front of the vehicle is classified into four areas (direction classifications 1 to 4) from 0 ° to 180 °, and the movement of the line of sight with respect to the driving equipment is classified from 180 ° to 360 °. ing. The classification method of the saccade direction is the same as described above, and is determined according to which direction classification the direction (angle) of the saccade direction vector determined from the vertical direction movement amount and the horizontal direction movement amount belongs.

ステップS606において、EFRP分類部60は、方向ごとに分類されて蓄積されているEFRP波形の平均を算出する。本実施形態では、8方向に分類されているため、1方向1つのEFRP加算平均波形、合計8つのEFRP加算平均波形が算出される。   In step S606, the EFRP classification unit 60 calculates the average of the EFRP waveforms classified and accumulated for each direction. In the present embodiment, since eight directions are classified, one EFRP addition average waveform in one direction and a total of eight EFRP addition average waveforms are calculated.

ステップS607において、EFRP分類部60は、算出されたEFRP加算平均波形を注意量判別部70に送信する。   In step S <b> 607, the EFRP classification unit 60 transmits the calculated EFRP addition average waveform to the attention amount determination unit 70.

注意量判別部70は、分類された全てのサッケード方向ごとのEFRP加算平均波形におけるラムダ反応振幅と閾値とを比較して、ラムダ反応振幅が閾値を超える場合は「集中」、閾値を下回る場合は「散漫」と判断する。図17は、注意量判別部70から出力された注意状態判別結果の一例を示す。図示されるように、8つの方向ごとにそれぞれ「集中」または「散漫」の判別結果が保持されている。   The attention amount determination unit 70 compares the lambda response amplitude in the EFRP average waveform for each of the classified saccade directions with the threshold value. When the lambda response amplitude exceeds the threshold value, it is “concentration”. Judged as “diffuse”. FIG. 17 shows an example of the attention state determination result output from the attention amount determination unit 70. As shown in the drawing, discrimination results of “concentration” or “diffuse” are held for each of the eight directions.

次に、ステップS80で行われる統合判別部80の処理の詳細を説明する。図18は、統合判別部80の処理の詳細な手順を示すフローチャートである。   Next, details of the processing of the integrated determination unit 80 performed in step S80 will be described. FIG. 18 is a flowchart showing a detailed procedure of the processing of the integrated determination unit 80.

ステップS801において、統合判別部80は、注意量判別部70により判別された、方向ごとの注意状態判別結果を取得する。   In step S801, the integrated determination unit 80 acquires the attention state determination result for each direction determined by the attention amount determination unit 70.

ステップS802において、統合判別部80は、判定結果の比を算出する。図17の例では、「集中」という判別結果は3個に対し「散漫」という判別結果は5個である。よって、集中:散漫=3:5となる。   In step S802, the integrated determination unit 80 calculates a ratio of determination results. In the example of FIG. 17, the determination result of “concentration” is three, and the determination result of “diffuse” is five. Therefore, concentration: diffuse = 3: 5.

ステップS803において、統合判別部80は、「集中」の比率の大きさを判定する。「集中」の比率が「散漫」より高い場合には、ステップS805に遷移する。図17のデータでは、「集中」の比率が「散漫」より低いため、ステップS804に遷移する。   In step S <b> 803, the integration determination unit 80 determines the magnitude of the “concentration” ratio. When the ratio of “concentration” is higher than “diffuse”, the process proceeds to step S805. In the data of FIG. 17, since the ratio of “concentration” is lower than “diffuse”, the process proceeds to step S804.

ステップS804において、統合判別部80は、散漫の比率の大きさを判定する。「集中」の比率が「散漫」の比率よりも低い場合には、ステップS806に遷移する。「集中」の比率が散漫の比率よりも低くない場合には、「集中」=「散漫」の関係になっている状態と判定し、ステップS807に遷移する。   In step S804, the integrated determination unit 80 determines the magnitude of the diffuse ratio. If the “concentration” ratio is lower than the “diffuse” ratio, the process proceeds to step S806. If the ratio of “concentration” is not lower than the ratio of diffuse, it is determined that “concentration” = “diffuse”, and the process proceeds to step S807.

ステップS805において、統合判別部80は、運転者10の注意状態を「集中」と判断する。   In step S805, the integrated determination unit 80 determines that the driver's 10 attention state is “concentration”.

ステップS806において、統合判別部80は、運転者10の注意状態を「散漫」と判断する。   In step S806, the integrated determination unit 80 determines the attention state of the driver 10 as “diffuse”.

ステップS807において、統合判別部80は、特定方向の判別結果を利用して、運転者10の注意状態を判別する。本願発明者らの上記実験によると、実験参加者17名の方向別の判別率を調査した結果、右下方向の精度が高くなる傾向にあった。本実施形態では、左記の結果を反映し、右下方向の判別結果の重み付けを高くし、方向ごとの注意状態判別結果の「集中」と「散漫」の比が同数の場合は、右下方向の判別結果を採用するとした。   In step S807, the integrated determination unit 80 determines the attention state of the driver 10 using the determination result in the specific direction. According to the above experiments conducted by the inventors of the present application, as a result of investigating the discrimination rate by direction of 17 test participants, the accuracy in the lower right direction tended to increase. In the present embodiment, the result of the left is reflected, and the weight of the determination result in the lower right direction is increased. We decided to adopt the discrimination result.

なお、方向別注意状態判別結果の「集中」と「散漫」の比が同数の場合の処理は上記に限定されず、本実施形態の注意状態判別装置の使われ方や、注意の特性などによって決定される。例えば、注意状態判別装置が、注意散漫状態をもらさず検出したい場合、「集中」と「散漫」の比率が同数の場合には、散漫が出力されるようにすれば良い。また、注意状態の状態遷移の特性として、注意状態は変化しないということを前提とするならば、所定の注意状態を、前回の判定結果と同様、とすることも可能である。これにより、「散漫」と「集中」の中間状態においても安定した結果が出力できる。また、同数の場合は、「集中」でも「散漫」でもない状態として「どちらでもない」という注意状態として出力してもよい。   Note that the processing when the ratio of “concentration” and “diffuse” in the attention state determination results by direction is the same is not limited to the above, and depends on how the attention state determination device of the present embodiment is used, the characteristics of attention, etc. It is determined. For example, when the attention state determination device wants to detect without being distracted, if the ratio of “concentration” and “distraction” is the same, distraction may be output. Further, if it is assumed that the attention state does not change as the characteristic of the state transition of the attention state, the predetermined attention state can be made the same as the previous determination result. As a result, a stable result can be output even in an intermediate state between “diffuse” and “concentration”. In the case of the same number, it may be output as a caution state of “neither” as a state where it is neither “concentrated” nor “diffuse”.

なお、上述の統合判別部80の処理では、「集中」と「散漫」の比率により運転者10の注意状態を判別すると記述したが、必ずしもこの判別方法に限定されない。例えば、比率ではなく、「集中」と判定された数と、「散漫」と判定された数とを直接比較して最終的な注意状態を判別してもよい。その場合には、分類された方向ごとの判別結果を多数決することにより、最終的な注意状態を判別すればよい。   In the above-described processing of the integrated determination unit 80, it has been described that the attention state of the driver 10 is determined based on the ratio of “concentration” and “diffuse”, but is not necessarily limited to this determination method. For example, instead of the ratio, the final attention state may be determined by directly comparing the number determined as “concentrated” with the number determined as “diffuse”. In that case, the final attention state may be determined by determining a large number of determination results for each classified direction.

または、状況に合わせてあらかじめ方向ごとに重み付けを設定しておき、その重み付けに基づいて判別してもよい。図19(a)は、車にカーナビゲーションシステムが設置されているときの重み付けの例を示す。各方向の値は、その方向の重みの大きさを示す。左下の重みが0.5で、それ以外の方向の重みは1である。カーナビゲーションシステムが装着されている車では、視線を左下に動かした場合、カーナビを見る視線動作を多く含むと考えられる。運転に対する注意量を判別する場合には、カーナビを見たときの注意量はあまり大きく反映されないように、左下の重み付けが小さく設定されている。   Alternatively, a weight may be set in advance for each direction according to the situation, and the determination may be made based on the weight. FIG. 19A shows an example of weighting when a car navigation system is installed in a car. The value in each direction indicates the magnitude of the weight in that direction. The weight in the lower left is 0.5, and the weight in the other directions is 1. In a car equipped with a car navigation system, it is considered that when the line of sight is moved to the lower left, many line-of-sight movements for looking at the car navigation system are included. When discriminating the amount of attention to driving, the weight on the lower left is set small so that the amount of attention when looking at the car navigation system is not reflected so much.

以下に、重み付けを利用した判別の方法について説明する。注意量判別部70により判別された方向ごとの注意状態判別結果の一例を図19(b)に示す。注意状態判別結果は、上下左右方向が散漫と判別され、その他の4方向が集中と判断されている。方向ごとに集中、散漫に分けて重み付けを加算し、集中、散漫のどちらの重みの和が大きいかを判定する。図19の例では、集中(1+1+0.5+1)=3.5、散漫(1+1+1+1)=4で、散漫と判断される。   Hereinafter, a determination method using weighting will be described. An example of the attention state determination result for each direction determined by the attention amount determination unit 70 is shown in FIG. In the attention state determination result, the vertical and horizontal directions are determined to be diffuse, and the other four directions are determined to be concentrated. For each direction, the weight is divided into concentrated and diffused to determine whether the sum of the concentrated or diffused weights is greater. In the example of FIG. 19, concentration (1 + 1 + 0.5 + 1) = 3.5 and diffuse (1 + 1 + 1 + 1) = 4 are determined to be diffuse.

また、重み付けは上記のように、車内環境や個人に応じて定常的に設定されてもよいし、道路環境や運転操作に応じて動的に変化してもよい。例えば、道路環境に応じた重み付けの例として、高速道路が考えられる。高速道路では、左右からの飛び出しというケースが少ないため、左右方向への注意量が小さいことが多いと考えられる。そこで、左右方向の重みを小さく設定することにより、左右方向の注意量の低下の影響を運転注意量判別に反映されづらくすることができる。また、運転操作に応じた重み付けの例として、ハンドル操作時が考えられる。例えばハンドルを右に切っているときには、車は右方向に進行するため、右側に対して多くの注意が払われるべきである。逆に、左側については、右側に多くの注意のリソースが割かれる分、注意量が低下する。そこで、右折時には、サッケード右方向の重み付けを大きくまたはサッケード左方向の重みを小さくすることで、注意の偏りの影響を緩和することができると考えられる。   Further, as described above, the weighting may be steadily set according to the in-vehicle environment or the individual, or may be dynamically changed according to the road environment or the driving operation. For example, an expressway can be considered as an example of weighting according to the road environment. On expressways, there are few cases of jumping out from the left and right, so the amount of attention in the left and right direction is often small. Therefore, by setting a small weight in the left-right direction, it is possible to make it difficult to reflect the influence of a decrease in the attention amount in the left-right direction in driving attention amount determination. Further, as an example of weighting according to the driving operation, it is possible to operate the steering wheel. For example, when turning the steering wheel to the right, the car travels in the right direction, so much attention should be paid to the right side. On the contrary, on the left side, the amount of attention decreases as much attention resources are allocated to the right side. Therefore, when turning right, it is considered that the influence of attentional bias can be alleviated by increasing the saccade right direction weight or decreasing the saccade left direction weight.

なお、上述の重み付けを用いる方法は、「集中」と判定された数と、「散漫」と判定された数とを直接比較して最終的な注意状態を判別する場合にも応用することができる。すなわち、「集中」や「散漫」と判定された方向によっては、1より大きい数字を割り当ててもよいし、1より小さい数字を割り当ててもよい。その数字自体が重みに相当する。   Note that the above-described method using weighting can also be applied to the case where the final attention state is determined by directly comparing the number determined to be “concentrated” with the number determined to be “diffuse”. . That is, depending on the direction determined as “concentration” or “diffuse”, a number greater than 1 may be assigned, or a number less than 1 may be assigned. The number itself corresponds to the weight.

ステップS808において、統合判別部80は、注意状態判別結果に基づいて、運転者10へのフィードバックを行う。統合判別部80がディスプレイ等の映像出力装置を保持している場合、「集中」または「散漫」の判別結果をディスプレイ上に表示すればよい。また、統合判別部80に接続されたスピーカー等の音声出力装置を利用して、注意量が低下し注意散漫状態と判別された場合には、警告音を出力し、運転者および同乗者に注意散漫な状態を通知してもよい。さらに、統合判別部80が通信手段を保持している場合には、結果を注意状態判別装置の外部に送信し、例えば注意散漫と判別された場合には、自動車の制御部に結果を出力し、自動的にブレーキをかける等の機器の制御を行ってもよい。また、散漫状態時には、運転者10に呈示する情報(エンジン回転数やカーナビゲーションシステムの情報など)をフィルタリングして絞込み運転者に見せないようにすることで、より運転に集中できる環境を作り出すように作用してもよい。   In step S808, the integrated determination unit 80 performs feedback to the driver 10 based on the attention state determination result. When the integrated determination unit 80 holds a video output device such as a display, the determination result of “concentration” or “diffuse” may be displayed on the display. In addition, when a voice output device such as a speaker connected to the integrated determination unit 80 is used and the attention amount is reduced and it is determined that the state is distracted, a warning sound is output and attention is given to the driver and passengers. You may be notified of a distracted state. Further, when the integrated determination unit 80 holds the communication means, the result is transmitted to the outside of the attention state determination device. For example, when it is determined that the attention is distracted, the result is output to the control unit of the automobile. The device may be controlled such as automatically applying a brake. In addition, in a distracted state, the information presented to the driver 10 (engine speed, car navigation system information, etc.) is filtered so as not to be shown to the narrowed driver so as to create an environment that can concentrate more on driving. May act.

次に、本実施形態手法で注意状態の判別を行った場合の効果を、分析結果を用いて説明する。この分析結果は、本実施形態の冒頭で説明した実験データ(実験参加者17名分)と同じデータを用いて、これまでの方法で分析した場合と、本実施形態の方法で分析した場合とを比較した結果である。  Next, the effect when the attention state is determined by the method of the present embodiment will be described using the analysis result. This analysis result is obtained by using the same data as the experimental data (for 17 experiment participants) described at the beginning of the present embodiment, when analyzed by the conventional method, and when analyzed by the method of the present embodiment. It is the result of comparing.

まず図20(a)は、解析区間を従来と同様に120秒に揃えた場合の比較結果を示す。従来手法による判別率が79.6%であるのに対し、本実施形態の手法による判別率は90.2%となっており、非常によい結果が得られた。この結果によれば、80%以上の判別率を維持したまま、本実施形態では解析区間を短縮できることがわかる。  First, FIG. 20A shows a comparison result when the analysis interval is aligned to 120 seconds as in the conventional case. While the discrimination rate by the conventional method is 79.6%, the discrimination rate by the method of this embodiment is 90.2%, and a very good result was obtained. According to this result, it is understood that the analysis section can be shortened in this embodiment while maintaining the discrimination rate of 80% or more.

次に図20(b)は、同様の実験のデータを用いて、一定の判別精度を維持したまま、どこまで解析区間が短くできるかを評価した結果を示す。本願発明者らの実験においては、サッケード方向8方向に分類して判別する本実施形態の手法を利用した場合、どこまで全体の解析区間を短くできるかについて評価を行った。   Next, FIG. 20B shows the result of evaluating how much the analysis interval can be shortened while maintaining a certain discrimination accuracy using data of a similar experiment. In the experiments of the present inventors, when the method of this embodiment for classifying and discriminating in eight directions of the saccade direction was used, an evaluation was made as to how far the entire analysis section can be shortened.

図20(b)の表から、解析区間が120秒の場合には90.2%の高い判別率が得られ、以下、60秒で83.1%、40秒で81.5%、30秒で76.8%と、順次、解析区間を短くするのに従って、識別精度は徐々に低下することが読み取れる。ここで、従来手法で識別精度の目安としていた80%を超えているのは解析区間が40秒、およびそれ以上の場合となる。   From the table of FIG. 20B, when the analysis interval is 120 seconds, a high discrimination rate of 90.2% is obtained. Hereinafter, 83.1% at 60 seconds, 81.5% at 40 seconds, and 30 seconds. It can be seen that the identification accuracy gradually decreases as the analysis interval is shortened in order of 76.8%. Here, it exceeds 80%, which is the standard of identification accuracy in the conventional method, in the case where the analysis interval is 40 seconds or more.

以上の結果から、本実施形態の手法によれば、解析区間40秒でも、従来手法と同等の判別率(80%程度)を維持できることがわかった。   From the above results, it was found that according to the method of the present embodiment, a discrimination rate equivalent to the conventional method (about 80%) can be maintained even in the analysis interval of 40 seconds.

この40秒の解析区間を、自動車を運転しているときの時間に換算すると、時速40km/時なら40秒間に走行する距離は約440mであり、約440mの区間を走行中の注意状態が判別できることになる。従来の120秒であれば、1.3km以上の距離を走っていることと比較して考えると、注意状態の判別の詳細度が向上できると言える。例えば、市街地においても40秒ごとの計測であれば、交差点ごとに注意状態が判定できると考えられる。   When this 40-second analysis section is converted into the time when the car is driven, if the speed is 40 km / h, the distance traveled in 40 seconds is about 440 m, and the caution state while driving in the section of about 440 m is determined. It will be possible. In the case of the conventional 120 seconds, it can be said that the level of detail in determining the attention state can be improved when compared with running at a distance of 1.3 km or more. For example, it is considered that the attention state can be determined for each intersection if measurement is performed every 40 seconds even in an urban area.

このように本実施形態にかかる構成および処理の手順により、運転者の状態を判別し安全運転支援を行う装置においてサッケードの方向に基づきEFRPを分類して加算し、各分類されたEFRPにより判別された結果に基づいて、最終的な注意状態を判別することで、注意状態判別に必要な時間を短縮でき、市街地など状況が頻繁に変わる環境でも、より詳細な注意状態判別が可能になる。   As described above, according to the configuration and the processing procedure according to the present embodiment, the EFRP is classified and added based on the direction of the saccade in the apparatus that determines the driver's state and performs the safe driving support, and is determined by each classified EFRP. By determining the final attention state based on the result, the time required for the attention state determination can be shortened, and more detailed attention state determination can be performed even in an environment where the situation frequently changes, such as an urban area.

なお、本実施形態では、統合判別部80による注意状態判別結果を運転者10にフィードバックする例を用いて説明を行ったが、統合判別部80がHDD等の記憶装置を有している場合には、判別結果をその記憶装置に蓄積してもよい。判別結果を蓄積した場合は、運転終了後に運転者10に対する安全運転指導の基礎データとして解析や利用がされることが考えられる。例えば、運転中に散漫と判別された時間と運転時間との比を取り、運転終了後に運転者10に運転中の注意散漫状態の頻度を示すことにより、次回運転時の注意喚起ができる。   In the present embodiment, the example in which the attention state determination result by the integrated determination unit 80 is fed back to the driver 10 has been described. However, when the integrated determination unit 80 includes a storage device such as an HDD. May store the determination result in the storage device. When the discrimination results are accumulated, it is conceivable that analysis and use are performed as basic data for safe driving guidance for the driver 10 after the driving is completed. For example, by taking the ratio of the time determined to be diffuse during driving and the driving time, and indicating the frequency of the distraction state during driving to the driver 10 after the driving is completed, it is possible to alert the next driving.

なお、本実施形態による注意状態判別装置は自動車運転中の注意状態判定に限らず、視線方向に対する集中が求められる工場作業や監視作業における注意状態判別にも適用可能である。例えば工場作業においては、視線の動き方や視界に入っているオブジェクトへの注意の払い方などが個人や作業工程などによって異なり、運転時と同様、特定の方向に注意が偏りや、特定の方向を見たときのノイズ混入率が高まることが考えられる。よって、上記のような場合も、サッケード方向ごとにEFRPを分類して注意状態を判別することにより、解析区間が短縮できると考えられる。   Note that the attention state determination device according to the present embodiment is not limited to the determination of the attention state during driving of the vehicle, but can also be applied to the determination of the attention state in factory work or monitoring work that requires concentration in the line of sight. For example, in factory work, how to move the line of sight and how to pay attention to an object in the field of view varies depending on the individual and the work process. It is conceivable that the noise contamination rate when looking at is increased. Therefore, also in the above case, it is considered that the analysis section can be shortened by classifying the EFRP for each saccade direction and determining the attention state.

本実施形態では、運転者10の注意状態の判別として、集中状態と散漫状態の2状態を判別する例で説明を行った。運転者10が散漫状態になる前に警告を行う場合など、集中と散漫の間の状態を判別する必要がある適用例も考えられる。左記のように集中と散漫の間を多段階に状態判別する場合も、本発明の範疇である。多段階に状態を判別する場合、注意量判別部70は、ラムダ反応の振幅の大きさに基づいて注意状態を判別する。   In the present embodiment, as an example of the determination of the driver's 10 attention state, an example in which two states of a concentrated state and a diffuse state are determined has been described. There may be an application example in which it is necessary to determine the state between concentration and distraction, such as when a warning is given before the driver 10 becomes distracted. The case where the state is determined in multiple stages between concentration and distraction as shown on the left is also within the scope of the present invention. When determining states in multiple stages, the attention amount determination unit 70 determines the attention state based on the amplitude of the lambda reaction.

本実施形態では、解析区間を一定の長さとし、統合判別部80は一定の判別タイミングで注意状態を判別するという例を説明した。交差点から交差点までの間はあまり外部環境が変化しないことを考慮すると、交差点から交差点の間では、同一の注意状態であると考えることもできる。また、交差点における事故発生率は非常に高く、交差点での的確な注意状態に応じた安全運転支援が、事故防止の効果が高いと考えられる。   In the present embodiment, an example has been described in which the analysis section has a fixed length and the integrated determination unit 80 determines the attention state at a fixed determination timing. Considering that the external environment does not change so much from the intersection to the intersection, it can be considered that the same attention state exists between the intersection and the intersection. In addition, the incidence of accidents at intersections is very high, and safe driving support according to the state of caution at intersections is considered to be highly effective in preventing accidents.

そこで、交差点で効果的に安全運転支援するための注意状態判別システムの例を説明する。以下、上述の解析区間を交差点間をとした場合における、実施形態の変形例を説明する。   Therefore, an example of a caution state determination system for effectively supporting safe driving at an intersection will be described. Hereinafter, a modification of the embodiment in the case where the above-described analysis section is between intersections will be described.

図21は、本実施形態の変形例にかかる注意状態判別システム2の構成を示す。図21では、図7と同じ構成要素については同じ符号を付し、その説明を省略する。図21において、注意状態判別システム2は、外部環境が切り替わったタイミング、言い換えると、外部環境が変化したタイミングを検出する状況検出部90を有している。   FIG. 21 shows a configuration of the attention state determination system 2 according to a modification of the present embodiment. In FIG. 21, the same components as those in FIG. 7 are denoted by the same reference numerals, and the description thereof is omitted. In FIG. 21, the attention state determination system 2 includes a situation detection unit 90 that detects a timing when the external environment is switched, in other words, a timing when the external environment is changed.

状況検出部90は、車載のGPSやカーナビゲーションシステム等と接続され、現在地の情報と地図情報とを取得する。状況検出部90は現在地と地図情報の比較により、自車が交差点に差し掛かるタイミングを検出する。検出結果は、注意状態判別装置110の統合判別部81に送信される。統合判別部81は、状況検出部90からの検出結果を受け取り、後述するように、検出結果に応じた処理を行う。検出結果に応じた処理を行うことを除き、統合判別部81の動作は、先の実施形態の統合判別部80の動作と同じである。なお、注意状態判別装置110と注意状態判別装置100(図7)とは、統合判別部81を有しているか、統合判別部80を有しているかという点において相違している。   The situation detection unit 90 is connected to a vehicle-mounted GPS, a car navigation system, or the like, and acquires current location information and map information. The situation detection unit 90 detects the timing at which the vehicle approaches the intersection by comparing the current location with the map information. The detection result is transmitted to the integrated determination unit 81 of the attention state determination device 110. The integrated determination unit 81 receives the detection result from the situation detection unit 90, and performs processing according to the detection result, as will be described later. Except for performing processing according to the detection result, the operation of the integrated determination unit 81 is the same as the operation of the integrated determination unit 80 of the previous embodiment. Note that the attention state determination device 110 and the attention state determination device 100 (FIG. 7) are different in that they have the integrated determination unit 81 or the integrated determination unit 80.

図22は、上記実施形態の変形例に係る注意状態判別システム2の全体処理のフローチャートである。図10の処理と同一の処理には同じステップ番号を付し、その説明を省略する。   FIG. 22 is a flowchart of the overall processing of the attention state determination system 2 according to a modification of the above embodiment. The same steps as those in FIG. 10 are denoted by the same step numbers and description thereof is omitted.

ステップS90において、状況検出部90は、自車が交差点に差し掛かかる手前かどうかを判定する。例えば、状況検出部90は、カーナビゲーションシステムから現在地の情報と地図情報とを取得し、現在地の座標と、進行方向に存在する、道が交差している地点の座標との距離を比較して、その距離が一定値以内(例えば50m手前)かどうかを判定する。自車が交差点に差し掛かかる手前と判定された場合、状況検出部90は、統合判定部80に判定タイミングの指示を送信する。   In step S90, the situation detection unit 90 determines whether or not the own vehicle is near the intersection. For example, the situation detection unit 90 acquires information on the current location and map information from the car navigation system, and compares the distance between the coordinates of the current location and the coordinates of the point where the road intersects in the traveling direction. It is determined whether the distance is within a certain value (for example, 50 m before). When it is determined that the host vehicle is about to approach the intersection, the situation detection unit 90 transmits an instruction for determination timing to the integrated determination unit 80.

ステップS82において、統合判定部80は、判別タイミングの指示が状況検出部90より送信されてきたかを確認する。送信されていなかった場合は、再びステップS20に戻り、脳波計測を継続する。判定タイミングの指示があった場合は、前回判別タイミングの指示があった時刻から今回判別タイミングの指示があった時刻までを解析区間として、ステップS40以降の処理を実行する。   In step S <b> 82, the integrated determination unit 80 confirms whether an instruction for determination timing has been transmitted from the situation detection unit 90. If it has not been transmitted, the process returns to step S20 again, and the electroencephalogram measurement is continued. When the determination timing is instructed, the processing from step S40 onward is executed with the analysis period from the time when the previous determination timing is instructed to the time when the current determination timing is instructed.

上述の変形例の構成および処理の手順により、交差点手前での注意状態を判別することで、交差点において注意状態に応じた安全運転支援が可能になる。例えば、交差点に入る直前に注意散漫と判別されると、その時点で、または、交差点に入った際に、統合判別部80が自動車に制御信号を送り、車を大きく減速させる等の支援が考えられる。他にも、カーナビゲーションシステムを制御し、右左折のタイミングを指示する音声案内を頻繁に行って注意を喚起してもよい。または、カーナビゲーションシステムの画面に表示される交差点での右左折に関係ない情報を減らして、より表示情報に集中できるようしたりする等の安全運転支援が考えられる。   By determining the caution state before the intersection by the configuration and processing procedure of the above-described modification, it is possible to support safe driving according to the caution state at the intersection. For example, if it is determined that attention is distracted immediately before entering the intersection, the integrated determination unit 80 may send a control signal to the vehicle at that time or when entering the intersection, and support such as greatly decelerating the vehicle can be considered. It is done. In addition, the car navigation system may be controlled, and voice guidance for instructing the timing of turning right and left may be frequently performed to call attention. Alternatively, safe driving support such as reducing the information that is not related to the right or left turn at the intersection displayed on the screen of the car navigation system so that the user can concentrate on the displayed information can be considered.

このように、上記注意状態判別装置変形例の構成および処理の手順により、交差点のような事故多発エリアにおいて、注意状態に応じた安全運転支援が可能になる。上述の構成によれば、交差点走行における安全性が向上する。   As described above, the configuration and processing procedure of the above-described caution state determination device modification enables safe driving support according to the caution state in an accident-prone area such as an intersection. According to the above-described configuration, safety in intersection traveling is improved.

なお、上記の例では、状況検出部90はカーナビと連動し、地図情報から交差点の位置を検出していたが、これに限定されるものではない。例えば、ハンドルと接続され、ハンドルを切る角度により右左折動作を検知し、右左折動作を開始した地点を交差点にさしかかったタイミングとして検出してもよい。   In the above example, the situation detection unit 90 is linked to the car navigation system and detects the position of the intersection from the map information. However, the present invention is not limited to this. For example, a right / left turn operation may be detected based on an angle at which the handle is turned and the handle is turned, and a point where the right / left turn operation is started may be detected as a timing approaching an intersection.

また、運転時ではなく、工場作業に適用した場合は、作業工程等の情報を工場内の機器から取得し、工程切り替わりタイミングを検出してもよい。   In addition, when applied to factory work instead of during operation, information such as work processes may be acquired from equipment in the factory to detect process switching timing.

本発明は、コンピュータプログラムとしても実施され得る。そのようなコンピュータプログラムは、たとえば図10、14、18および22のフローチャートによって示される手順を実行するための命令を含む。コンピュータプログラムは、CD−ROM等の記録媒体に記録されて製品として市場に流通され、または、インターネット等の電気通信回線を通じて伝送される。なお、上述の実施形態および変形例にかかる注意状態判別装置は、半導体回路にコンピュータプログラムを組み込んだDSP等のハードウェアとして実現することも可能である。   The present invention can also be implemented as a computer program. Such a computer program includes instructions for performing the procedures illustrated by the flowcharts of FIGS. 10, 14, 18 and 22, for example. The computer program is recorded on a recording medium such as a CD-ROM and distributed as a product to the market, or transmitted through an electric communication line such as the Internet. Note that the attention state determination apparatus according to the above-described embodiments and modifications can also be realized as hardware such as a DSP in which a computer program is incorporated in a semiconductor circuit.

本発明にかかる注意状態判別システムは、状況が頻繁に変化する運転操作における注意状態判別に有用である。また、作業への集中が求められる工場での作業などへの注意状態判別にも有効である。また、たとえば、注意状態判別システムがヘッドマウントディスプレイ型の装置として構成される場合は、自転車運転中や歩行中の安全支援装置として有効である。さらに、TV視聴の注意状態をテレビ番組への興味と対応づけることにより、番組興味度計測などのマーケティング用途への応用も可能である。   The attention state determination system according to the present invention is useful for attention state determination in a driving operation in which the situation frequently changes. It is also effective for determining the state of caution when working in a factory where concentration on work is required. For example, when the attention state determination system is configured as a head-mounted display type device, it is effective as a safety support device during bicycle driving or walking. Furthermore, by associating a TV viewing attention state with an interest in a TV program, it can be applied to marketing applications such as program interest measurement.

10 ユーザ
20 脳波計測部
30 眼球運動計測部
40 サッケード検出部
50 EFRP切出部
60 EFRP分類部
70 注意量判別部
80 統合判別部
90 状況検出部
DESCRIPTION OF SYMBOLS 10 User 20 Electroencephalogram measurement part 30 Eye movement measurement part 40 Saccade detection part 50 EFRP extraction part 60 EFRP classification | category part 70 Attention amount discrimination | determination part 80 Integrated discrimination | determination part 90 Situation detection part

Claims (13)

ユーザの脳波信号を計測する脳波計測部と、
前記ユーザの眼球の運動を計測する眼球運動計測部と、
前記ユーザの眼球の運動を用いて、前記眼球のサッケードが終了した時刻である眼球停留開始時刻および前記サッケードの移動量を複数検出するサッケード検出部と、
各サッケードの移動量に基づいて各サッケードの方向を特定し、特定された各サッケードの方向を分類する分類部であって、分類された方向ごとに、各サッケードに対応する前記眼球停留開始時刻を起点として前記ユーザの脳波信号から切り出した眼球停留電位を加算平均する分類部と、
加算平均された前記眼球停留関連電位に基づいて、分類された方向ごとの注意状態を判別する注意量判別部と、
前記方向ごとの注意状態の判別結果を用いて、前記ユーザの注意状態を判別する統合判定部と
を備えた注意状態判別システム。
An electroencephalogram measurement unit that measures a user's electroencephalogram signal;
An eye movement measurement unit that measures the movement of the user's eyeball;
A saccade detection unit that detects a plurality of eyeball stop start times and movement amounts of the saccades using the movement of the user's eyeballs;
A classification unit that identifies the direction of each saccade based on the amount of movement of each saccade, and classifies the direction of each identified saccade, and for each classified direction, determines the eyeball stop start time corresponding to each saccade. A classifying unit that adds and averages eye-holding potentials cut out from the user's brain wave signal as a starting point;
An attention amount determination unit that determines an attention state for each classified direction based on the eye-holding-related potential that has been averaged;
An attention state determination system comprising: an integrated determination unit configured to determine the user's attention state using a determination result of the attention state for each direction.
前記注意量判別部は、前記方向ごとに、集中状態または注意散漫状態のいずれに該当するかを判別し、
前記統合判定部は、前記注意量判別部によって判別された集中状態および注意散漫状態のうちいずれか多く判別された状態を前記ユーザの注意状態と判別する、請求項1に記載の注意状態判別システム。
The attention amount determination unit determines, for each direction, whether it is in a concentrated state or a distracted state,
The attention state determination system according to claim 1, wherein the integrated determination unit determines a state determined by either the concentration state or the distraction state determined by the attention amount determination unit as the attention state of the user. .
前記統合判別部は、前記注意量判別部による方向ごとの判別結果を多数決することにより、前記ユーザの注意状態を判別する、請求項2に記載の注意状態判別装置。   The attention state determination apparatus according to claim 2, wherein the integrated determination unit determines the attention state of the user by deciding a majority of determination results for each direction by the attention amount determination unit. 前記サッケード検出部は、前記ユーザの眼球の運動量が予め定めた閾値よりも小さくなった時点を、前記眼球停留開始時刻として検出する、請求項1に記載の注意状態判別システム。   The attention state determination system according to claim 1, wherein the saccade detection unit detects, as the eyeball stop start time, a time point when the amount of movement of the user's eyeball becomes smaller than a predetermined threshold. 前記注意量判別部は、前記方向ごとに、加算平均された前記眼球停留関連電位のラムダ反応の振幅値と、予め定められた閾値とを比較することにより、分類された方向ごとの注意状態を判別する、請求項2に記載の注意状態判別システム。   The attention amount discriminating unit compares the amplitude value of the lambda response of the eyeball retention-related potential averaged for each direction with a predetermined threshold value to determine the attention state for each classified direction. The attention state determination system according to claim 2, wherein the determination is performed. 前記注意量判別部は、前記眼球停留開始時刻を起点として、加算平均された前記眼球停留関連電位の100±100ミリ秒に含まれる極大値を、ラムダ反応の振幅値として利用する、請求項5に記載の注意状態判別システム。   6. The attention amount determination unit uses a local maximum value included in 100 ± 100 milliseconds of the eye-holding-related potential obtained by averaging from the eye-holding start time as a starting point, as an amplitude value of a lambda reaction. Caution state determination system described in 1. 前記統合判定部は、一定時間ごとに前記ユーザの注意状態を判別する、請求項1に記載の注意状態判別システム。   The attention state determination system according to claim 1, wherein the integration determination unit determines the attention state of the user at regular time intervals. 外部環境が変化したタイミングを検出する状況検出部をさらに備え、
前記統合判定部は、前記状況検出部によって検出された前記外部環境が変化したタイミングにおいて、前記ユーザの注意状態を判別する、請求項1に記載の注意状態判別システム。
It further includes a situation detection unit that detects when the external environment changes,
The attention state determination system according to claim 1, wherein the integration determination unit determines the user's attention state at a timing when the external environment detected by the situation detection unit changes.
前記状況検出部は、現在地の情報および地図情報を取得し、前記現在地の情報と地図上の交差点の位置情報とを比較することにより、交差点に差し掛かるタイミングを検出する、請求項8に記載の注意状態判別システム。   The said situation detection part detects the timing which approaches an intersection by acquiring the information of present location and map information, and comparing the information of the said present location with the positional information on the intersection on a map, Attention state determination system. 前記統合判別部は、方向ごとの判別結果を多数決することで前記ユーザの注意状態を判別する、請求項1に記載の注意状態判別システム。   The attention state determination system according to claim 1, wherein the integrated determination unit determines the user's attention state by deciding a majority of determination results for each direction. 眼球の運動を計測する眼球運動計測部によって計測された、ユーザの眼球の運動を用いて、前記眼球のサッケードが終了した時刻である眼球停留開始時刻および前記サッケードの移動量を複数検出するサッケード検出部と、
各サッケードの移動量に基づいて各サッケードの方向を特定し、特定された各サッケードの方向を分類する分類部であって、分類された方向ごとに、各サッケードに対応する前記眼球停留開始時刻を起点として、脳波信号を計測する脳波計測部を用いて計測された前記ユーザの脳波信号から切り出した眼球停留電位を加算平均する分類部と、
加算平均された前記眼球停留関連電位に基づいて、分類された方向ごとの注意状態を判別する注意量判別部と、
前記方向ごとの注意状態の判別結果を用いて、前記ユーザの注意状態を判別する統合判定部と
を備えた注意状態判別装置。
Saccade detection that detects a plurality of eyeball stop start times and movement amounts of the saccades, which are times when the saccades of the eyeballs have ended, using the eyeball movements of the user measured by an eyeball movement measurement unit that measures eyeball movements And
A classification unit that identifies the direction of each saccade based on the amount of movement of each saccade, and classifies the direction of each identified saccade, and for each classified direction, determines the eyeball stop start time corresponding to each saccade. As a starting point, a classification unit that adds and averages eye-holding potentials cut out from the user's electroencephalogram signal measured using an electroencephalogram measurement unit that measures an electroencephalogram signal;
An attention amount determination unit that determines an attention state for each classified direction based on the eye-holding-related potential that has been averaged;
An attention state determination apparatus comprising: an integrated determination unit configured to determine the user's attention state using a determination result of the attention state for each direction.
ユーザの脳波信号を計測するステップと、
前記ユーザの眼球の運動を計測するステップと、
前記ユーザの眼球の運動を用いて、前記眼球のサッケードが終了した時刻である眼球停留開始時刻および前記サッケードの移動量を複数検出するステップと、
各サッケードの移動量に基づいて各サッケードの方向を特定し、特定された各サッケードの方向を分類するステップであって、分類された方向ごとに、各サッケードに対応する前記眼球停留開始時刻を起点として前記ユーザの脳波信号から切り出した眼球停留電位を加算平均するステップと、
加算平均された前記眼球停留関連電位に基づいて、分類された方向ごとの注意状態を判別するステップと、
前記方向ごとの注意状態の判別結果を用いて、前記ユーザの注意状態を判別するステップと
を包含する、注意状態判別方法。
Measuring a user's brain wave signal;
Measuring the movement of the user's eyeball;
Using the movement of the user's eyeball to detect a plurality of eyeball stop start times that are times when the saccade of the eyeball has ended and a movement amount of the saccade;
Identifying the direction of each saccade based on the amount of movement of each saccade, and classifying the direction of each identified saccade, starting from the eyeball stop start time corresponding to each saccade for each classified direction Adding and averaging eyeball stationary potentials cut out from the user's brain wave signal,
Determining a state of caution for each classified direction based on the addition-averaged eye-holding-related potential; and
And a step of determining the attention state of the user using a determination result of the attention state for each direction.
注意状態判別装置に実装されたコンピュータによって実行されるコンピュータプログラムであって、
前記コンピュータプログラムは、前記コンピュータに対し、
ユーザの脳波信号を受け取るステップと、
前記ユーザの眼球の運動を受け取るステップと、
前記ユーザの眼球の運動を用いて、前記眼球のサッケードが終了した時刻である眼球停留開始時刻および前記サッケードの移動量を複数検出するステップと、
各サッケードの移動量に基づいて各サッケードの方向を特定し、特定された各サッケードの方向を分類するステップであって、分類された方向ごとに、各サッケードに対応する前記眼球停留開始時刻を起点として前記ユーザの脳波信号から切り出した眼球停留電位を加算平均するステップと、
加算平均された前記眼球停留関連電位に基づいて、分類された方向ごとの注意状態を判別するステップと、
前記方向ごとの注意状態の判別結果を用いて、前記ユーザの注意状態を判別するステップと
を実行させる、コンピュータプログラム。
A computer program executed by a computer mounted on the attention state determination device,
The computer program is for the computer.
Receiving a user's electroencephalogram signal;
Receiving eye movements of the user;
Using the movement of the user's eyeball to detect a plurality of eyeball stop start times that are times when the saccade of the eyeball has ended and a movement amount of the saccade;
Identifying the direction of each saccade based on the amount of movement of each saccade, and classifying the direction of each identified saccade, starting from the eyeball stop start time corresponding to each saccade for each classified direction Adding and averaging eyeball stationary potentials cut out from the user's brain wave signal,
Determining a state of caution for each classified direction based on the addition-averaged eye-holding-related potential; and
And a step of determining the user's attention state using a determination result of the attention state for each direction.
JP2010233851A 2010-10-18 2010-10-18 Attentional state determination system, method, computer program, and attentional state determination device Pending JP2012085746A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010233851A JP2012085746A (en) 2010-10-18 2010-10-18 Attentional state determination system, method, computer program, and attentional state determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010233851A JP2012085746A (en) 2010-10-18 2010-10-18 Attentional state determination system, method, computer program, and attentional state determination device

Publications (1)

Publication Number Publication Date
JP2012085746A true JP2012085746A (en) 2012-05-10

Family

ID=46258060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010233851A Pending JP2012085746A (en) 2010-10-18 2010-10-18 Attentional state determination system, method, computer program, and attentional state determination device

Country Status (1)

Country Link
JP (1) JP2012085746A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014018234A (en) * 2012-07-12 2014-02-03 Saga Univ Health management system, method thereof and program, and spectacle type bio-information acquisition apparatus
JP2015081057A (en) * 2013-10-24 2015-04-27 日産自動車株式会社 Display device for vehicle
CN104771132A (en) * 2014-01-09 2015-07-15 哈曼国际工业有限公司 Detecting visual inattention based on eye convergence
JP2016045681A (en) * 2014-08-22 2016-04-04 三菱電機株式会社 Safety driving support system
JP2017185148A (en) * 2016-04-08 2017-10-12 株式会社デンソー Wearable biomedical measurement device
WO2017186721A1 (en) * 2016-04-25 2017-11-02 Koninklijke Philips N.V. Eye movement monitoring system
JP2017199212A (en) * 2016-04-27 2017-11-02 株式会社デンソー Drive assist system
US9926661B2 (en) 2013-07-09 2018-03-27 Koninklijke Philips N.V. Steaming device
CN113440151A (en) * 2021-08-03 2021-09-28 合肥科飞康视科技有限公司 Concentration detection system, detection method and use method of system
JP2022509752A (en) * 2018-10-29 2022-01-24 コグニクソン Brain computer interface for augmented reality

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014018234A (en) * 2012-07-12 2014-02-03 Saga Univ Health management system, method thereof and program, and spectacle type bio-information acquisition apparatus
US9926661B2 (en) 2013-07-09 2018-03-27 Koninklijke Philips N.V. Steaming device
JP2015081057A (en) * 2013-10-24 2015-04-27 日産自動車株式会社 Display device for vehicle
CN104771132A (en) * 2014-01-09 2015-07-15 哈曼国际工业有限公司 Detecting visual inattention based on eye convergence
JP2016045681A (en) * 2014-08-22 2016-04-04 三菱電機株式会社 Safety driving support system
JP2017185148A (en) * 2016-04-08 2017-10-12 株式会社デンソー Wearable biomedical measurement device
WO2017186721A1 (en) * 2016-04-25 2017-11-02 Koninklijke Philips N.V. Eye movement monitoring system
JP2017199212A (en) * 2016-04-27 2017-11-02 株式会社デンソー Drive assist system
JP2022509752A (en) * 2018-10-29 2022-01-24 コグニクソン Brain computer interface for augmented reality
CN113440151A (en) * 2021-08-03 2021-09-28 合肥科飞康视科技有限公司 Concentration detection system, detection method and use method of system
CN113440151B (en) * 2021-08-03 2024-04-12 合肥科飞康视科技有限公司 Concentration force detection system, detection method and use method of system

Similar Documents

Publication Publication Date Title
JP5570386B2 (en) Attention state discrimination system, method, computer program, and attention state discrimination device
JP2012085746A (en) Attentional state determination system, method, computer program, and attentional state determination device
JP4733242B2 (en) Driving attention amount determination device, method, and computer program
US9480429B2 (en) State-of-attention determination apparatus
JP4625544B2 (en) Driving attention amount judging device, method and program
JP4500369B2 (en) Distraction detection device, distraction detection method, and computer program
JP5127576B2 (en) Mental work load detection device and motorcycle equipped with the same
CN112960001A (en) Driving mode switching method and device, vehicle and storage medium
US11580701B2 (en) Apparatus and method for displaying contents on an augmented reality device
JP2011180873A (en) Driving support device and driving support method
US11211095B1 (en) Modifying media content playback based on user mental state
CN110584657B (en) Attention detection method and system
JP2013244116A (en) Alertness assessment device and method
Acerra et al. The Impact of the Adaptive Cruise Control on the Drivers’ Workload and Attention
Miyaji Data mining for safety transportation by means of using Internet survey
Djerf et al. Measuring drivers’ gaze concentration: Comparison of metrics and eye tracking systems with respect to gaze concentration
JP7380365B2 (en) state estimation device
DO HYONG The Study of Visual Attention: From Raw Data to an Interdisciplinary Environment
JP2023145446A (en) Electronic apparatus and display method
Krupa An Evaluation of the Effects of Motorcycle LED Brake Lamp Flash Frequency Sequences on Conspicuity During Texting in a Static Vehicle
Terada et al. Influence of Brightness and Traffic Flow on Driver’s Eye-Fixation-Related Potentials
Johansson et al. INFORMATION SOCIETY TECHNOLOGIES (IST) PROGRAMME
JONES Queasy Passengers