WO2007086222A1 - 注意領域を推定するシステムおよび方法 - Google Patents

注意領域を推定するシステムおよび方法 Download PDF

Info

Publication number
WO2007086222A1
WO2007086222A1 PCT/JP2006/325780 JP2006325780W WO2007086222A1 WO 2007086222 A1 WO2007086222 A1 WO 2007086222A1 JP 2006325780 W JP2006325780 W JP 2006325780W WO 2007086222 A1 WO2007086222 A1 WO 2007086222A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
line
sight
gaze
estimating
Prior art date
Application number
PCT/JP2006/325780
Other languages
English (en)
French (fr)
Inventor
Takamasa Koshizen
Hiroshi Tsujino
Yuji Hasegawa
Kazuyuki Aihara
Motohri Kon
Taiji Suzuki
Original Assignee
Honda Motor Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co., Ltd. filed Critical Honda Motor Co., Ltd.
Priority to JP2007555872A priority Critical patent/JP4969462B2/ja
Publication of WO2007086222A1 publication Critical patent/WO2007086222A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4029Detecting, measuring or recording for evaluating the nervous system for evaluating the peripheral nervous systems
    • A61B5/4035Evaluating the autonomic nervous system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Definitions

  • the present invention relates to a technique for estimating an attention area in which a user is interested in a field of view, and more specifically, based on a user's gaze distribution and autonomic nervous system biological information.
  • the present invention relates to a technique for estimating an attention area.
  • a specific gaze pattern that frequently appears when the user is looking at an object with interest is extracted using a statistical model, and based on this gaze pattern instead of the gaze point.
  • a method has been proposed for estimating an attention area in which the user is interested. For example, Santella et al. Proposed a method for statistically extracting the part of the user's attention using the EM algorithm (A. Santella and D. DeCarlo, 'Robust clustering of eye movement recordings ror quantincation or visual interest ', see eye tracking research and applications (ETRA) symposium 2004, pp. 27-34).
  • the above-described conventional method estimates the gaze area using only information on the user's line of sight, and the user is interested in the estimated gaze area depending on the psychological state of the user. There may be no object or the like. Humans do not always look at things that interest them. For example, it is known that when something that is seen for the first time is presented, the line of sight is directed in that direction. In addition, in a state where the user's concentration is lacking, there can be a situation where one point is only vaguely looked at. In this way, with the conventional method, the reliability of the attention area estimated based on the gaze retention model does not depend on the psychological state of the user and is not stationary. It is difficult to decide and involves uncertainty.
  • An object of the present invention is to provide a system that can more appropriately estimate the attention area in consideration of the psychological state of the user.
  • the present invention provides a system for estimating an attention area in which a user is interested in a field of view.
  • This system calculates the user's gaze distribution from the gaze direction by means for detecting the user's gaze direction, means for detecting the biological information of the user's autonomic nervous system, and analyzes this gaze distribution using statistical learning techniques.
  • a means for estimating a gaze retention model representing the degree to which the user's gaze stays within the field of view, a means for estimating the user's arousal level based on biological information, and parameters of the gaze retention model
  • means for estimating the attention area based on the arousal level means for estimating the attention area based on the arousal level.
  • the attention area is estimated based on the line of sight and the biological information of the autonomic nervous system, so that the attention area can be estimated more appropriately in consideration of the psychological state of the user.
  • the means for estimating the attention area is an area defined by the gaze retention model when the parameters of the gaze retention model and the arousal level are equal to or greater than a threshold value set for each. Is estimated as the attention area.
  • the threshold of the gaze retention model parameter and the arousal level is obtained by measuring a user's gaze direction and biological information when a plurality of visual stimuli are presented in advance. While adjusting each of the values, the attention area in a plurality of visual stimuli is estimated based on the measured gaze direction and biological information. Select the combination of thresholds that has the highest match rate with your own evaluation. This makes it possible to obtain an optimum threshold value according to the execution conditions, and therefore, it is possible to estimate the attention area more appropriately.
  • the statistical learning method is a variational Bayes method
  • the parameters of the line-of-sight stop model include a line-of-sight stop time and a mixing ratio of a mixed Gaussian distribution.
  • the biological information is a skin potential level.
  • the means for estimating the arousal level determines the arousal level based on the frequency at which the skin potential level exceeds a predetermined threshold value.
  • the present invention provides a system for assisting a user's activity, comprising the above-described system for estimating an attention area.
  • This system has means for controlling the operation of an auxiliary device that assists the user's activity in accordance with the estimated attention area and arousal level.
  • the assisting device is a device that assists the movement of the user by boarding and moving the user, and controls the user's movement by applying a force to the user's body.
  • the present invention provides a method for estimating an attention area in which a user is interested in a field of view.
  • This method detects the user's gaze direction, detects the user's autonomic nervous system biological information, calculates the user's gaze distribution from the gaze direction, and analyzes the gaze distribution using a statistical learning method. Then, based on the step of estimating the gaze retention model representing the degree of the user's gaze staying within the field of view, the step of estimating the user's arousal level from the biological information, the parameters of the gaze retention model and the arousal level Estimating the attention area.
  • FIG. 1 is a configuration diagram of an attention area estimation system according to an embodiment of the present invention.
  • FIG. 2 is a functional block diagram of the attention area estimation system.
  • FIG. 3 is a diagram showing a user's gaze distribution and a mixed Gaussian function derived based on the gaze distribution.
  • FIG. 4 is a diagram showing an example of SPL and awakening detection result based on this SPL.
  • 5] A diagram showing a three-dimensional space for determining the attention area.
  • FIG. 6 is a flowchart of attention area estimation processing.
  • FIG. 9 is a flowchart of processing for determining threshold values dl, d2, and f for determining the attention area. [10] This is a subroutine that shows the details of the process of calculating the hit rate.
  • FIG. 1 is a configuration diagram of an attention area estimation system according to an embodiment of the present invention.
  • the attention area estimation system 10 estimates the gaze area in which the user is interested in the visual field based on the line-of-sight information and skin potential level (SPL) measured from the user of the auxiliary device 15, Further, an operation command corresponding to the attention area is sent to the auxiliary device 15.
  • SPL skin potential level
  • the attention area estimation system 10 can be realized by a general-purpose computer including a central processing unit (CPU) and a memory.
  • the function of the attention area estimation system 10 is realized by the CPU executing a program stored in the memory.
  • Attention area estimation system 1 0 may be in the form installed in the auxiliary device 15, or may be in the form of communicating with the auxiliary device 15 from a distance by wire or wirelessly.
  • the CCD camera 11 is installed toward the user's face, and provides the attention area estimation system 10 with imaging data used to detect the user's gaze direction.
  • the CCD camera 11 is provided with a mechanism for adjusting the height and direction, and can be adjusted to image the user's face according to physical characteristics such as the sitting height of the user.
  • Skin potential sensor 13 is affixed to a user's arbitrary skin surface (the forearm in Fig. 1), and an electrical signal for detecting the user's skin potential level (SPL) is sent to attention area estimation system 10.
  • SPL has a feature that varies depending on the psychological state of the user.
  • the assisting device 15 is a device for assisting a user's mental or physical activity.
  • an electric wheelchair is exemplified.
  • a caution area estimated by the caution area estimation system 10 is set as a target position, and a control command is given to the electric wheel / wheel movement mechanism to move to the target position.
  • FIG. 2 is a functional block diagram of the attention area estimation system 10.
  • the attention area estimation system 10 includes a line-of-sight detection unit 17, a line-of-sight distribution analysis unit 19, an SPL detection unit 21, a wakefulness estimation unit 23, a attention region estimation unit 25, and a control unit 27.
  • the functional blocks of the attention area estimation system 10 can be realized by executing a program stored in the memory of the computer using the CPU.
  • the line-of-sight detection unit 17 detects the user's line-of-sight direction based on the imaging data of the CCD camera 11.
  • the line-of-sight distribution analysis unit 19 obtains a user's line-of-sight distribution based on the line-of-sight direction obtained by the line-of-sight detection unit 17, analyzes the line-of-sight distribution using a statistical learning method, and Estimate a gaze stop model that represents the degree to which the user's gaze remains.
  • the line-of-sight distribution analysis unit 19 first measures the position coordinates in the line-of-sight direction obtained by the line-of-sight detection unit 17 at a predetermined time interval to obtain a line-of-sight distribution representing the transition of the line of sight of the user.
  • Fig. 3 (a) shows an example of the user's gaze distribution for an arbitrary visual stimulus.
  • the X and Y axes in Fig. 3 (a) correspond to the vertical and horizontal position coordinates of the presented visual stimulus. Referring to Fig. 3 (a), there are many lines of sight in a specific part surrounded by a circle. It can be seen that it is plotted. This indicates that the user frequently looks at the circled parts.
  • the line-of-sight distribution analysis unit 19 derives a probability density function based on the line-of-sight distribution using the variational Bayes method (VB).
  • the probability density function ⁇ ( ⁇ ; ⁇ ) can be approximated as a Gaussian Mixture as follows:
  • ⁇ p (x; 0) ⁇ m N (x ⁇ m , ⁇ m ) (1)
  • X is a two-dimensional vector and represents the position coordinates (x, y) of each point of the line-of-sight distribution.
  • ⁇ , ⁇ ) represents a Gaussian function with a center position ⁇ and variance ⁇ .
  • is a mixing ratio.
  • the mixed Gaussian function in equation (1) is composed of M components each having a probability density distribution of ⁇ ⁇ ⁇ ( ⁇
  • Fig. 3 (b) is a three-dimensional representation of the mixed Gaussian function derived based on the gaze distribution shown in Fig. 3 (a).
  • the X-axis and y-axis in Fig. 3 (b) correspond to the X-axis and y-axis in Fig. 3 (a) and represent the position coordinates of the line-of-sight distribution.
  • the vertical direction of the graph represents the probability density p calculated by equation (1).
  • Each component m constituting the mixed Gaussian function has a vertical height (probability density) determined by the mixing ratio ⁇ m and a horizontal spread determined by the variance ⁇ m.
  • the method for deriving the mixed Gaussian function by the variational Bayes method is a well-known technique, and a specific method [ ⁇ , [column; ⁇ _ ⁇ , S. Waterhouse, D. Mackay, and T. See Robinson, Bayesian Methods for Mixture of Experts ", Proc. NIPS8, pp. 351-357, 1995.
  • the line-of-sight distribution analysis unit 19 extracts a line-of-sight retention model representing the degree to which the user's line of sight remains based on the derived mixed Gaussian function.
  • the area defined by the line-of-sight model is highly likely to be an attention area because the line-of-sight is highly likely to stop.
  • the line-of-sight distribution analysis unit 19 selects one component from the mixed Gaussian function of equation (1), where the mixture ratio ( ⁇ »is the largest), and uses this component as the line-of-sight model. For example, FIG. ), The component with the highest probability density with the largest mixing ratio ⁇ 31 is selected as the line-of-sight model.
  • an area having a probability density equal to or higher than a predetermined value is selected as a user's gaze area candidate.
  • the longest time during which the line of sight continuously exists in the gaze region candidate is calculated as a stop time (Gaze Duration Time).
  • the mixture ratio and stop time of the line-of-sight model are sent to the attention area estimation unit 25.
  • the SPL detection unit 21 amplifies and filters the electrical signal measured by the skin potential sensor 13 to obtain the user's skin potential level (SPL).
  • Figure 4 (a) shows an example of SPL.
  • the SPL is measured at predetermined time intervals, and when a predetermined amount of data is accumulated, it is sent to the arousal level estimation unit 23. Note that the predetermined amount is the same as the data amount of the line-of-sight information necessary for creating the line-of-sight distribution in the line-of-sight distribution analysis unit 19, for example.
  • the arousal level estimation unit 23 estimates the arousal level of the user based on the SPL.
  • the arousal level estimation unit 23 first obtains an average value / i spl and a standard deviation a spl of the SPL data set received from the SPL detection unit 21. Then, the arousal detection threshold ⁇ is obtained as in the following equation.
  • is a coefficient that determines the sensitivity of wakefulness detection. The smaller the value of ⁇ , the more frequently wakefulness is detected. As the value of ⁇ , an optimum value is set in advance by a preliminary experiment described later.
  • wakefulness estimation unit 23 performs wakefulness detection based on the wakefulness detection threshold value calculated by equation (2).
  • Each SPL data set is compared to the threshold ⁇ .
  • SPL data that is greater than the threshold is considered significantly responsive data and is labeled 1 as high wakefulness.
  • SPL data below the threshold ⁇ is labeled 0.
  • Figure 4 (b) is a diagram showing the results of wakefulness detection. The more frequently 1 is plotted, the higher the possibility of being awake. The more frequently 0 is plotted, the less likely it is to be awake.
  • the arousal level estimation unit 23 calculates the frequency at which the arousal is detected and labeled 1 in the SPL data set, and normalizes this frequency to a value between 0 and 1. It is defined as the arousal level.
  • the obtained arousal level is sent to the attention area estimation unit 25.
  • the method for obtaining the arousal level from SPL is a well-known technique. For details, see J. Healey and R. Picard, Digital processing or affective signals, Proceedings of the wenty- sixth Annual Conference of the Cognitive Science Society, See 1565, 1998, etc.
  • the attention area estimation unit 25 uses the gaze retention model as the attention area based on the mixture ratio and the retention time received from the gaze distribution analysis unit 19 and the arousal level received from the arousal level estimation unit 23. Determine whether or not. For this determination, three-dimensional coordinates each taking an axis for the mixing ratio, stop time, and arousal level are used. Figure 5 shows a three-dimensional space for determining the attention area.
  • the X-axis in the graph relates to the mixing ratio, the y-axis relates to the dwell time, and the z-axis relates to the arousal level.
  • the determination threshold is set to dl for the mixing ratio, d2 for the stop time, and f for the arousal level. These determination threshold values are set in advance by preliminary experiments to be described later.
  • the control section 27 When receiving the attention area information from the attention area estimation section 25, the control section 27 generates a control command corresponding to the attention area information and controls the operation of the auxiliary device 15.
  • a control command is generated to move with the attention area as the target position.
  • the moving speed may be set according to the magnitude of the arousal level so that the movement is accelerated when the arousal level is high and the movement is slowed when the arousal level is low.
  • FIG. 6 is a flowchart of the attention area estimation process.
  • Steps S10:! To S107 will be described.
  • the line-of-sight distribution detection unit 17 detects the line-of-sight distribution based on the user's line-of-sight information from the camera 11 (step S101).
  • Line-of-sight distribution analysis unit 19 calculates a mixed Gaussian function such as equation (1) based on the line-of-sight distribution (S103)
  • the component with the largest ratio ⁇ m is selected as the line-of-sight model (S 105), and the stop time of the line-of-sight model is calculated (S 107).
  • Steps S109 and S117 will be described.
  • SPL detection unit 21 force SPL is detected based on the skin surface potential of the user measured by skin potential sensor 13 (S 109), and SPL average value ⁇ and standard deviation ⁇ are calculated (S l l l).
  • the parameter ⁇ that determines the sensitivity of wakefulness detection is read from the memory (based on the threshold ⁇ obtained from SI 13 (2), SPL is labeled with 0 or 1 (S 1 15). If it is greater than the threshold ⁇ , it is labeled 1 and if it is less than or equal to the threshold ⁇ , it is labeled 0.
  • S 1 15 an optimal value is derived in advance by a preliminary experiment described later.
  • the ratio of SPLs labeled 1 is obtained and set as the arousal level (S 117).
  • the attention area estimation unit 25 reads the judgment threshold value dl d2 f previously derived in a preliminary experiment described later (SI 19), and determines the mixing ratio, the retention time, and the arousal level. When all of them are larger than their respective half-IJ constant threshold values dl d2 f (step S 121 S 125 force S all YES), the selected line-of-sight model is determined as the attention area (S 127).
  • FIG. 7 is a configuration diagram of the preliminary experiment.
  • the subject sits on a fixed chair (not shown) with the skin potential sensor 13 attached.
  • a CCD camera 1 1 is installed to detect the subject's line of sight.
  • a display 41 for presenting visual stimuli is arranged in front of the subject.
  • a plurality of visual stimuli 43 and control stimuli 45 are alternately displayed. Visual and control stimuli are presented, for example, for 25 seconds and 30 seconds, respectively.
  • the gaze information of the subject is measured by the CCD camera 11, and the SPL of the subject is measured by the skin potential sensor 13.
  • the contents of the visual stimulus 43 may be related to the operation of the auxiliary device 15.
  • the auxiliary device 15 is an electric wheelchair
  • the image of the scenery that the user sees when using the wheelchair is divided at regular intervals, and each is used as a visual stimulus for preliminary experiments.
  • Control stimulus 45 was tested to be unaffected by the visual stimulus presented immediately before. This is to return the person's line of sight and SPL to the standard level. For example, as shown in Fig. 7, the + mark is used.
  • FIG. 8 is a flowchart of a preliminary experiment.
  • the visual stimulus 43 is presented (step S203). While the visual stimulus 43 is presented for a predetermined time, the gaze information of the subject is detected by the camera 11 (step S205), and in parallel with this, the SPL of the subject is detected by the surface potential sensor 13. (Step S207). After a predetermined period of time, the subject self-assesses how much attention he / she was viewing the presented visual stimulus 43 in 5 steps (step S208).
  • the detected line-of-sight information and SPL are stored in a storage means such as a memory included in the system.
  • step S 209 If the prepared visual stimulus 43 still exists (YES in step S 209), the process returns to step S 2 01 and the same measurement is performed for the new visual stimulus 43. If all visual stimuli 43 are presented (NO in step S209), the process ends.
  • FIG. 9 is a flowchart showing processing for determining threshold values dl, d2, and f for determining the attention area.
  • the determination threshold values dl, d2, f and the parameter ⁇ that determines the sensitivity of wakefulness detection are initialized (step S301).
  • step S303 the line-of-sight information and SPL measured in the preliminary experiment are read from the memory (step S303), and the mixing ratio is changed for each visual stimulus by the same processing as steps S10:! To S107 in FIG.
  • the stop time is calculated (step S 305).
  • dl and d2 are set (step S307).
  • dl and d2 are initial values in the first processing, and are changed by a predetermined step size in subsequent loops.
  • step S309 the estimation result of the attention area and the user A coincidence rate indicating the degree of matching with the self-evaluation of is calculated (step S31 1).
  • the process of calculating the match rate will be described later with reference to FIG. [0064]
  • the process of calculating the coincidence rate in steps S309 to S311 is repeatedly performed until it is determined that thresholds, values dl and d2 are set for all combinations within a predetermined range (NO in step S315). Is done.
  • the matching rate is obtained for all combinations of the determination parameters dl, d2, and ⁇ within a predetermined range, and the combination of dl, d2, f, and ⁇ that gives the highest matching rate among them is obtained.
  • FIG. 10 is a subroutine showing details of the matching rate calculation processing in step S31 1.
  • variable C 1 used to calculate the match rate is initialized (step S401).
  • step S403 the degree of arousal is calculated for each visual stimulus by the same processing as steps S109 to S117 in FIG. 6 (step S403).
  • An average value of the arousal level of each calculated visual stimulus is obtained, and this average value is stored as a determination threshold value (step S405).
  • steps S407 to S425 for each visual stimulus, the calculated arousal level is compared with the self-evaluation of the subject.
  • step S407 When a visual stimulus is selected (step S407), when the arousal level, the mixing ratio, and the retention time are larger than the respective judgment thresholds f, dl, and d2 (S409 to S413 force S all YES) If the subject's self-evaluation is 4 or more (YES in step S417), C 1 is incremented (step S423). Also, if the arousal level, mixing ratio, and dwell time are less than the respective judgment thresholds f, dl, and d2 (S409 to S413 are all N0), if the subject's self-evaluation is 3 or less (step C421 is incremented (YES in S421).
  • steps S407 to S423 is repeated until it is determined in step S425 that the processing has been performed for all visual stimuli.
  • the finally obtained value of C 1 is the state in which the attention area is extracted and the concentration level of the subject is high or the attention area is not extracted in each of the visual stimuli presented in the preliminary experiment. In addition, the number of times that the concentration level of the subject is low.
  • the coincidence rate C 1 / the number of visual stimuli X 100 is calculated (step S427), and the process returns to the main noretin.
  • the attention region estimation system is an autonomic nerve such as a skin potential level (SPL). Since the user's arousal level is estimated based on the biological information of the system, and the attention area is estimated in consideration of this arousal level, the arousal level is low, and sometimes the attention area is not selected. Les Therefore, the attention area estimation system according to the present invention can more appropriately estimate the attention area in consideration of the human psychological state.
  • SPL skin potential level
  • the user's movement is assisted by the electric wheelchair 15.
  • the user's movement may be assisted by another moving body such as an automobile.
  • a walking assist device as described in Japanese Patent Application Laid-Open No. 2004-329510 assists the walking motion by applying force to the user's body according to the user's attention area. May be.
  • information may be provided to the user through an image display device, an audio device, or the like according to the attention area of the user.
  • information on the works that the user's attention is directed to among the works of art that are included in the user's field of view at the museum is displayed. Activities are assisted.

Abstract

本発明は、ユーザの精神状態に依存せずに精度良く注意領域を推定することが可能なシステム(10)を提供する。このシステム(10)は、ユーザの視線方向を検出する手段(11,17)と、ユーザの自律神経系の生体情報を検出する手段(13,21)と、視線方向からユーザの視線分布を求め、統計学習手法を用いてこの視線分布を解析して、視界内でユーザの視線が留まっている度合いを表す視線停留モデルを推定する手段(19)と、生体情報に基づいてユーザの覚醒度を推定する手段(23)と、視線停留モデルのパラメータおよび覚醒度に基づいて、注意領域を推定する手段(25)と、を有する。

Description

明 細 書
注意領域を推定するシステムおよび方法
技術分野
[0001] 本発明は、ユーザが視界内で関心を持っている注意領域を推定する技術に関する ものであり、より詳細には、ユーザの視線分布および自律神経系の生体情報に基づ レ、て注意領域を推定する技術に関するものである。
背景技術
[0002] 人間は好むものを注視する傾向があり、この現象は選好注視(preferential looking) として知られている。この選好注視の特性を利用して、搭乗者(ユーザ)の視線に基 づいて注視点(eye gaze point)を特定し、注視点に基づいて搭乗者が関心をもって いる物体を推定する技術が知られている(例えば特開 2005-6897号公報を参照)。
[0003] また、ユーザが関心を持って物体を見ている状態において頻繁に現れる特有の注 視パターン(eye gaze pattern)を統計モデルにより抽出して、注視点の代わりにこの 注視パターンに基づいてユーザが関心を持っている注意領域(attended area)を推 定する手法が提案されている。例えば、 Santellaらは、 EMアルゴリズムを用いて、ユー ザが注視している部分を統計的に抽出する手法を提案している(A. Santella and D. DeCarlo, 'Robust clustering of eye movement recordings ror quantincation or visual interest', eye tracking research and applications (ETRA) symposium 2004, pp. 27 - 34を参照)。本願発明者である Koshizenらは、変分ベイズ法(Variational Bayes : VB) を用いて、ユーザの視線分布に基づき混合ガウス関数(Gaussian Mixture)を導出す ることによって、視線分布を幾つかの注視パターンに分離できることを示した。そして 、これらの注視パターンのうち最大事後確率(Maximum A Posteriori)を示すものを視 線停留モデル (fixation model)として抽出し、この視線停留モデルを用いて注視対象 推疋した (T. uzuki, T. Koshizen, et al, Learning to estimate user interest utilizi ng the variational Bayes estimator", ISDA 2005, pp. 94 - 99を参照)。
発明の開示
発明が解決しょうとする課題 [0004] し力 ながら、上述の従来手法は、ユーザの視線に関する情報だけを利用して注 視領域を推定しており、ユーザの心理状態によっては、推定された注視領域にユー ザが関心をもつ物体等が存在しない場合がある。人間は常に関心をもつものを見て いるわけではなぐたとえば、初めてみるようなものを提示された場合には視線がその ものの方向に向く現象が知られている。また、ユーザの集中力が欠けている状態では 、一点をただ漠然と見つめる状況がありうる。このように、従来手法では、視線停留モ デルに基いて推定された注意領域の信頼性は、ユーザの心理状態に依存してしま い定常的なものではないので、注意領域の境界を一意に決めるのは困難であり、不 確定性を伴う。
[0005] 本発明の目的は、ユーザの心理状態を考慮して注意領域をより適切に推定するこ とが可能なシステムを提供することである。
課題を解決するための手段
[0006] 本発明は、ユーザが視界内で関心を持っている注意領域を推定するシステムを提 供する。このシステムは、ユーザの視線方向を検出する手段と、ユーザの自律神経 系の生体情報を検出する手段と、視線方向からユーザの視線分布を求め、統計学 習手法を用いてこの視線分布を解析して、視界内でユーザの視線が留まっている度 合いを表す視線停留モデルを推定する手段と、生体情報に基づいてユーザの覚醒 度(arousal level)を推定する手段と、視線停留モデルのパラメータおよび覚醒度に基 づいて、注意領域を推定する手段と、を有する。
[0007] この発明により、視線および自律神経系の生体情報に基づレ、て注意領域を推定す るので、ユーザの心理状態を考慮して注意領域をより適切に推定することができる。
[0008] 本発明の一実施形態によると、注意領域を推定する手段は、視線停留モデルのパ ラメータおよび覚醒度がそれぞれに設定されたしきい値以上のとき、視線停留モデル によって画定される領域を注意領域として推定する。
[0009] 本発明の一実施形態によると、視線停留モデルのパラメータおよび覚醒度のしきい 値は、事前に複数の視覚刺激を提示したときのユーザの視線方向および生体情報 を計測し、しきい値のそれぞれを調整しながら、計測された視線方向および生体情報 に基づいて複数の視覚刺激における注意領域を推定し、推定の結果とユーザの自 己評価との一致率が最高となったしきい値の組み合わせを選択する。これにより、実 施条件に応じた最適なしきい値を得ることができるので、注意領域をより適切に推定 すること力 Sできる。
[0010] 本発明の一実施形態によると、統計学習手法が変分ベイズ法であり、視線停留モ デルのパラメータが、視線停留時間と、混合ガウス分布の混合率とを含む。
[0011] 本発明の一実施形態によると、生体情報が皮膚電位レベルである。
[0012] 本発明の一実施形態によると、覚醒度を推定する手段は、皮膚電位レベルが所定 のしきい値を超えた頻度により覚醒度を決定する。
[0013] 本発明は、上述の注意領域を推定するシステムを備える、ユーザの活動を補助す るシステムを提供する。このシステムは、推定された注意領域および覚醒度に応じて 、ユーザの活動を補助する補助装置の動作を制御する手段を有する。
[0014] 本発明の一実施形態によると、補助装置は、ユーザを搭乗させて移動することによ りユーザの移動を補助する装置、ユーザの身体に力を作用させることでユーザの運 動を補助する装置、または、ユーザに情報を提供することによりユーザの身体的また は精神的活動を補助する装置を含む。
[0015] 本発明は、ユーザが視界内で関心を持っている注意領域を推定する方法を提供す る。この方法は、ユーザの視線方向を検出するステップと、ユーザの自律神経系の生 体情報を検出するステップと、視線方向からユーザの視線分布を求め、統計学習手 法を用いて視線分布を解析して、視界内でユーザの視線が留まっている度合いを表 す視線停留モデルを推定するステップと、生体情報からユーザの覚醒度を推定する ステップと、視線停留モデルのパラメータおよび覚醒度に基づいて、注意領域を推定 するステップと、を含む。
図面の簡単な説明
[0016] [図 1]本発明の一実施形態による注意領域推定システムの構成図である。
[図 2]注意領域推定システムの機能ブロック図である。
[図 3]ユーザの視線分布およびこの視線分布に基づき導出された混合ガウス関数を 示す図である。
[図 4]SPLおよびこの SPLに基づく覚醒検知結果の一例を示す図である。 園 5]注意領域を判定するための三次元空間を示す図である。
[図 6]注意領域推定処理のフローチャートである。
園 7]注意領域を判定するしきい値 dl、 d2、 fを決めるための予備実験の構成図であ る。
園 8]予備実験のフローチャートである。
[図 9]注意領域を判定するしきい値 dl、 d2、 fを決める処理のフローチャートである。 園 10]—致率を算出する処理の詳細を示すサブルーチンである。
符号の説明
10 注意領域推定シ
11 CCDカメラ
13 皮膚電位センサ
15 補助装置
17 視線検出部
19 視線分布解析部
21 SPL検出部
23 覚醒度推定部
25 注意領域推定部
27 制御部
発明を実施するための最良の形態
[0018] 次に図面を参照して、この発明の実施の形態を説明する。
[0019] 図 1は、本発明の一実施形態による注意領域推定システムの構成図である。
[0020] 注意領域推定システム 10は、補助装置 15のユーザから計測した視線情報および 皮膚電位レベル(Skin Potential Level : SPL)に基づいて、ユーザが視界内で関心を もっている注視領域を推定し、さらに、注意領域に応じた動作指令を補助装置 15に 送る。
[0021] 注意領域推定システム 10は、中央処理装置(CPU)およびメモリを備える汎用のコ ンピュータによって実現可能である。注意領域推定システム 10の機能は、メモリに記 憶されたプログラムを CPUが実行することにより実現される。注意領域推定システム 1 0は、補助装置 15に搭載されている形式でも良いし、遠隔から補助装置 15と有線ま たは無線で通信する形式でもよレ、。
[0022] CCDカメラ 11は、ユーザの顔に向けて設置されており、ユーザの視線方向を検出 するために利用する撮像データを注意領域推定システム 10に提供する。 CCDカメラ 11は、高さおよび方向を調整するための機構を備えており、ユーザの座高などの身 体的特徴に応じてユーザの顔を撮像するよう調整することができる。
[0023] 皮膚電位センサ 13は、ユーザの任意の皮膚表面(図 1では前腕部)に貼付されて おり、ユーザの皮膚電位レベル (SPL)を検出するための電気信号を注意領域推定 システム 10に提供する。 SPLは、ユーザの心理状態に応じて変動する特徴がある。
[0024] 補助装置 15は、ユーザの精神的または肉体的活動を補助するための装置であり、 本実施形態では、電動車いすを例示している。電動車いすの場合、例えば、注意領 域推定システム 10が推定した注意領域を目標位置として設定し、この目標位置まで 移動するように制御指令が電動車レ、すの移動機構に与えられる。
[0025] 図 2は、注意領域推定システム 10の機能ブロック図である。
[0026] 注意領域推定システム 10は、視線検出部 17、視線分布解析部 19、 SPL検出部 2 1,覚醒度推定部 23、注意領域推定部 25、および制御部 27を有する。注意領域推 定システム 10の機能ブロックは、コンピュータのメモリに記憶されたプログラムを、 CP Uを用いて実行することによって実現することができる。
[0027] 視線検出部 17は、 CCDカメラ 11の撮像データに基づいてユーザの視線方向を検 出する。
[0028] 視線分布解析部 19は、視線検出部 17で求められた視線方向に基づレ、てユーザ の視線分布を求め、統計学習手法を用いてこの視線分布を解析して、視界内で前 記ユーザの視線が留まってレ、る度合レ、を表す視線停留モデルを推定する。
[0029] 視線分布解析部 19は、まず、視線検出部 17で求められた視線方向の位置座標を 所定の時間間隔で計測して、ユーザの視線の遷移を表す視線分布を求める。図 3 (a )は、任意の視覚刺激 (visual stimuli)に対するユーザの視線分布の一例を示してい る。図 3 (a)の X軸および Y軸は、提示された視覚刺激の縦方向および横方向の位置 座標に対応している。図 3 (a)を参照すると、円で囲まれた特定の部分に視線が多く プロットされていることがわかる。このことは、ユーザがこれらの円で囲まれた部分を頻 繁に見ていることを示している。
[0030] 視線分布解析部 19は、次に、変分ベイズ法(Variational Bayes:VB)を利用して、 視線分布に基づく確率密度関数を導出する。確率密度関数 ρ(χ; Θ )は、次式のように 混合ガウス関数(Gaussian Mixture)として近似することができる。
刚 p(x;0) = ^mN(x\ m,∑m) ( 1 )
[0031] ここで、 Xは二次元ベクトルであり、視線分布の各点の位置座標(x、 y)を表す。 N(x| μ , ∑)は、中心位置 μ、分散∑のガウス関数を表す。 φは混合比率(Mixing Proport ion)である。 Θは、ガウス関数を構成するパラメータで θ = ( μ、 σ )である。
[0032] (1)式の混合ガウス関数は、それぞれが φπι·Ν(χ|μ πι, ∑m)という確率密度分布を もつ M個のコンポーネントから構成される。図 3(b)は、図 3 (a)に示す視線分布に基 づいて導出された混合ガウス関数を 3次元表現した図である。図 3 (b)の X軸および y 軸は、図 3 (a)の X軸および y軸に対応しており、視線分布の位置座標を表す。グラフ の垂直方向は、(1)式で算出された確率密度 pを表している。混合ガウス関数を構成 する各コンポーネント mは、混合比率 φ mによって垂直方向の高さ(確率密度の大き さ)が決められ、分散∑mによって水平方向の広がりが決められる。
[0033] なお、変分ベイズ法による混合ガウス関数の導出方法は周知技術であり、具体的な 方法につレヽて【ま、 ^ [列; ζ_ί 、 S. Waterhouse, D. Mackay, and T. Robinson, Bayesian Methods for Mixture of Experts", Proc. NIPS8, pp. 351-357, 1995などを参照された レ、。
[0034] 視線分布解析部 19は、次に、導出した混合ガウス関数に基づいて、ユーザの視線 が留まっている度合いを表す視線停留モデルを抽出する。視線停留モデルによって 画定される領域は、視線が停留する度合いが高いので、注意領域である可能性が高 レ、。視線分布解析部 19は、 (1)式の混合ガウス関数のうち、混合比率 (ί»が最も大き レ、コンポーネントを 1つ選択し、このコンポーネントを視線停留モデルとする。例えば 、図 3 (b)を参照すると、混合比率 φが最も大きぐ確率密度が最大のコンポーネント 31が視線停留モデルとして選択される。
[0035] そして、図 3 (b)に円 33で示すように、たとえば、所定値以上の確率密度をもつ領 域がユーザの注視領域の候補として選択される。そして、この注視領域の候補の中 に視線が連続して存在する最長時間が、停留時間(Gaze Duration Time)として算出 される。視線停留モデルの混合比率および停留時間は、注意領域推定部 25に送ら れる。
[0036] SPL検出部 21は、皮膚電位センサ 1 3で計測された電気信号を増幅およびフィルタ 処理して、ユーザの皮膚電位レベル(SPL)を求める。図 4 (a)は、 SPLの一例を示し ている。 SPLは所定の時間間隔で計測され、所定量のデータが蓄積されると覚醒度 推定部 23へ送られる。なお、この所定量とは、たとえば、視線分布解析部 19におい て視線分布を作成するために必要な視線情報のデータ量と同一である。
[0037] 覚醒度推定部 23は、 SPLに基づいてユーザの覚醒度を推定する。覚醒度推定部 2 3は、まず、 SPL検出部 21から受け取った SPLのデータセットの平均値/ i splおよび標 準偏差 a splを求める。そして、次式のように、覚醒検知しきい値 τを求める。
[0038] τ = μ spl + ε · σ spl ( 2)
ここで、 εは、覚醒検知の感度を決める係数であり、 εの値が小さいほど覚醒が頻繁 に検知されるようになる。 εの値は、後述する予備実験により最適な値が予め設定さ れている。
[0039] 覚醒度推定部 23は、次に、 (2)式で算出された覚醒検出しきい値てに基づいて覚 醒検知を行なう。 SPLのデータセットのそれぞれがしきい値 τと比較される。しきい値 てより大きい SPLデータは、有意に反応したデータとみなされ、高い覚醒状態として 1をラベル付けされる。しきい値 τ以下の SPLデータは 0をラベル付けされる。図 4 (b )は、覚醒検知の結果を示す図である。 1がプロットされる頻度が多いほど覚醒状態 である可能性が高 0がプロットされる頻度が多いほど覚醒状態である可能性が低 レ、。
[0040] 覚醒度推定部 23は、続いて、 SPLのデータセットのうち覚醒検知され 1をラベル付 けされた頻度を算出し、この頻度を 0から 1の間の値に正規化したものを覚醒度として 定義する。求められた覚醒度は、注意領域推定部 25に送られる。 [0041] なお、 SPLから覚醒度を求める手法は周知技術であり、詳細については、 J. Healey and R. Picard, Digital processing or affective signals , Proceedings of the wenty- sixth Annual Conference of the Cognitive Science Society, 1565, 1998などを参照さ れたい。
[0042] 注意領域推定部 25は、視線分布解析部 19から受け取った混合比率および停留時 間と、覚醒度推定部 23から受け取った覚醒度とに基づいて、視線停留モデルが注 意領域であるかどうかを判定する。この判定には、混合比率、停留時間、覚醒度につ レ、てそれぞれ軸をとる三次元座標を用いる。図 5は、注意領域を判定するための三 次元空間を示している。グラフの X軸は混合比率に関するものであり、 y軸は停留時 間に関するものであり、 z軸は覚醒度に関するものである。混合比率には dl、停留時 間には d2、覚醒度には fという判定しきい値が設定されている。これらの判定しきい値 は、後述する予備実験により最適な値が予め設定されてレ、る。
[0043] 図 5に示すような三次元空間において、混合比率が dl以上であり、停留時間が d2 以上であり、覚醒度力 ¾以上である空間 35に視線停留モデルのパラメータが含まれる とき、この視線停留モデルが注意領域であると判定される。注意領域推定部 25は、 視線停留モデルを注意領域と判定すると、この注意領域の位置情報を制御部 27に 送る。
[0044] 制御部 27は、注意領域推定部 25から注意領域の情報を受け取ると、これに応じた 制御指令を生成し、補助装置 15の動作を制御する。補助装置 15が電動車椅子の場 合、たとえば、注意領域を目標位置として移動する制御指令が生成される。また、覚 醒度が高いときには移動を速くして、覚醒度が低いときには移動を遅くするように、覚 醒度の大きさに応じて移動速度を設定してもよい。
[0045] 図 6は、注意領域推定処理のフローチャートである。
[0046] まず、ユーザの視線に基づく処理(S10:!〜 S107)と、ユーザの SPLに基づく処理
(S109〜S117)が並行して実施される。
[0047] ステップ S10:!〜 S107について説明する。視線分布検出部 17が、カメラ 11による ユーザの視線情報に基づレ、て視線分布を検出する(ステップ S101)。視線分布解析 部 19が、視線分布に基づいて(1)式のような混合ガウス関数を算出し(S103)、混合 比率 φ mが最大のコンポーネントを視線停留モデルとして選択し(S 105)、視線停留 モデルの停留時間を算出する(S 107)
[0048] ステップ S 109 S 1 17につレ、て説明する。 SPL検出部 21力 皮膚電位センサ 13 によって計測されたユーザの皮膚表面電位に基づいて SPLを検出し(S 109) SPL の平均値 μおよび標準偏差 σを算出する(S l l l)。覚醒検知の感度を決めるパラメ ータ εをメモリから読出し(S I 13 (2)式から求めたしきい値 τに基づき、 SPLを 0 または 1でラベル付けする(S 1 15)。すなわち、 SPLがしきい値 τより大きい場合に 1 をラベル付けし、しきい値 τ以下の場合に 0をラベル付けする。ここで、 εは、後述す る予備実験によって予め最適値が導出されている。そして、 SPLのうち 1がラベル付 けされた割合を求め、これを覚醒度として設定する(S 1 17)。
[0049] 続レ、て、注意領域推定部 25が、後述する予備実験で予め導出されてレ、る判定しき い値 dl d2 fを読出し(S I 19)、混合比率、停留時間、覚醒度のすべてが、それぞ れの半 IJ定しきい値 dl d2 fより大きレヽとき(ステップ S 121 S 125力 S全て YES)、選 択された視線停留モデルを注意領域と判定する(S 127)
[0050] 次に、図 7〜図 10を参照して、注意領域を判定するしきい値 dl d2 fを決めるた めの予備実験について説明する。
[0051] 図 7は、予備実験の構成図である。被験者は、皮膚電位センサ 13を装着された状 態で固定された椅子(図示せず)に座っている。 CCDカメラ 1 1が被験者の視線を検 出できるように設置されている。被験者の正面には視覚刺激 (visual sti li)を提示 するためのディスプレイ 41が配置されている。
[0052] ディスプレイ 41には、複数の視覚刺激 43およびコントロール刺激 45が交互に表示 される。視覚刺激およびコントロール刺激は、例えば、それぞれ 25秒および 30秒間 提示される。視覚刺激 43が表示されているときに、被験者の視線情報が CCDカメラ 1 1で計測され、被験者の SPLが皮膚電位センサ 13により計測される。
[0053] 視覚刺激 43の内容は、補助装置 15の動作に関連するものであればよい。補助装 置 15が電動車椅子の場合、車いすの使用時にユーザが見るような風景の映像を所 定時間ごとに分割して、それぞれを予備実験用の視覚刺激とする。
[0054] コントロール刺激 45は、直前に提示された視覚刺激の影響を受けないように被験 者の視線や SPLを標準的なレベルに戻すためのものであり、例えば、図 7に示すよう に +マークなどを用いる。
[0055] このように計測された視線情報および SPLを規準として利用して、最適な判定しき い値のセットが導出される。
[0056] 図 8は、予備実験のフローチャートである。
[0057] まず、画面にコントロール刺激 45が提示された後(ステップ S 201 )、視覚刺激 43が 提示される(ステップ S203)。視覚刺激 43を所定時間提示している間に、カメラ 1 1に より被験者の視線情報が検出され (ステップ S 205)、これと並行して、表面電位セン サ 13によって被験者の SPLが検出される (ステップ S207)。所定時間経過後、被験 者は、提示された視覚刺激 43をどれくらいの注意度で見ていたかを 5段階で自己評 価する(ステップ S208)。検出された視線情報および SPLは、システムに含まれるメ モリなどの記憶手段に記憶される。
[0058] 用意された視覚刺激 43がまだ有る場合には(ステップ S 209の YES)、ステップ S 2 01に戻り、新たな視覚刺激 43に対して同様の計測を行なう。視覚刺激 43をすベて 提示した場合には(ステップ S 209の NO)、処理を終了する。
[0059] 図 9は、注意領域を判定するしきい値 dl、 d2、 fを決めるための処理を表すフロー チャートである。
[0060] まず、判定しきい値 dl , d2, fと、覚醒検出の感度を決めるパラメータ εを初期化す る(ステップ S301)。
[0061] 次に、予備実験で測定した視線情報および SPLがメモリから読出され (ステップ S3 03)、図 6のステップ S 10:!〜 S 107と同様の処理により、視覚刺激ごとに混合比率お よび停留時間が算出される(ステップ S 305)。
[0062] 続いて、 dl、 d2が設定される(ステップ S307)。 dl、 d2は、 1回目の処理では初期 値であり、以降のループでは所定のきざみ幅で変更される。
[0063] 続いて、 εを 0. 5〜3まで 0. 5ずつ変化させながら(ステップ S 309)、現在設定され ているしきい値 dl、 d2、 εにおいて、注意領域の推定結果と、ユーザの自己評価と の適合度合いを示す一致率が算出される (ステップ S31 1)。一致率を算出する処理 については、図 10を参照して後述する。 [0064] ステップ S 309〜S31 1の一致率を算出する処理は、しきレ、値 dl、 d2が所定範囲内 の全ての組み合わせについて設定されたと判定されるまで(ステップ S315の NO)、 繰り返し実施される。
[0065] このように、所定の範囲内で判定パラメータ dl、 d2、 εの全ての組み合わせにおけ る一致率が求められ、この中で最高の一致率となる dl、 d2、 f、 εの組み合わせが、 注意領域推定部 25で用いる判定しきい値として設定される(ステップ S 317)。
[0066] 図 10は、ステップ S31 1の一致率算出処理の詳細を示すサブルーチンである。
[0067] まず、一致率を計算するために使われる変数 C 1が初期化される (ステップ S401)。
[0068] ステップ S 309で設定された現在の εの値に応じて、図 6のステップ S 109〜S 1 17 と同様の処理により、視覚刺激ごとに覚醒度が算出される (ステップ S403)。算出さ れた各視覚刺激の覚醒度の平均値が求められ、この平均値が判定しきい値 して 記憶される(ステップ S405)。
[0069] 続いて、ステップ S407〜S425において、視覚刺激ごとに、算出された覚醒度が、 被験者の自己評価と比較される。
[0070] 視覚刺激が選択されると (ステップ S407)、覚醒度、混合比率、停留時間がそれぞ れの判定しきい値 f、 dl、 d2より大きレヽ場合(S409〜S413力 S全て YES)、被験者の 自己評価が 4以上ならば (ステップ S417の YES)、 C 1がインクリメントされる(ステップ S423)。また、覚醒度、混合比率、停留時間がそれぞれの判定しきい値 f、 dl、 d2以 下である場合(S409〜S413が全て N〇)、被験者の自己評価が 3以下ならば (ステ ップ S421の YES)、 C 1がインクリメントされる(ステップ S423)。
[0071] ステップ S407〜S423の処理は、ステップ S425で全ての視覚刺激について処理 が行なわれたと判定されるまで繰り返し行なわれる。
[0072] 最終的に得られる C 1の値は、予備実験で提示された視覚刺激のそれぞれにおい て、注意領域が抽出され、かつ被験者の集中度合いが高い状態、または注意領域 が抽出されず、かつ被験者の集中度が低い状態の回数である。
[0073] そして、一致率 = C 1/視覚刺激数 X 100が算出され (ステップ S427)、メインノレ一 チンに戻る。
[0074] 本発明による注意領域推定システムは、皮膚電位レベル(SPL)のような自律神経 系の生体情報に基づいてユーザの覚醒度を推定し、この覚醒度を考慮して注意領 域を推定するので、覚醒度が低レ、ときには注意領域を選択しなレ、ように構成されてレ、 る。したがって、本発明による注意領域推定システムは、人間の心理状態を考慮して 注意領域をより適切に推定することができる。
[0075] なお、上述の実施形態では、電動車椅子 15によってユーザの移動が補助されたが 、他の実施形態として自動車などの他の移動体によってユーザの移動が補助されて も良い。
[0076] また、たとえば特開 2004— 329510号公報に記載されているような歩行補助装置 によって、ユーザの注意領域に応じてユーザの身体に力を作用させることで、その歩 行運動が補助されてもよい。
[0077] さらに、ユーザの注意領域に応じて、画像表示装置や音響装置などを通じて当該 ユーザに対して情報が提供されてもよい。これにより、たとえば美術館においてユー ザの視野に含まれる複数の美術作品のうち、ユーザの注意が向けられた作品の案内 情報が表示等されるので、ユーザの美術鑑賞に関する理解や試作などの精神的活 動が補助される。
[0078] 以上にこの発明を特定の実施例によって説明したが、この発明はこのような実施例 に限定されるものではない。

Claims

請求の範囲
[1] ユーザが視界内で関心を持ってレ、る注意領域を推定するシステムであって、
前記ユーザの視線方向を検出する手段と、
前記ユーザの自律神経系の生体情報を検出する手段と、
前記視線方向から前記ユーザの視線分布を求め、統計学習手法を用いて該視線 分布を解析して、前記視界内で前記ユーザの視線が留まってレ、る度合レ、を表す視 線停留モデルを推定する手段と、
前記生体情報に基づいて前記ユーザの覚醒度を推定する手段と、
前記視線停留モデルのパラメータおよび前記覚醒度に基づレ、て、前記注意領域を 推定する手段と、
を有するシステム。
[2] 前記注意領域を推定する手段は、前記視線停留モデルのパラメータおよび前記覚 醒度がそれぞれに設定されたしきレ、値以上のとき、前記視線停留モデルによって画 定される領域を前記注意領域として推定する、請求項 1に記載のシステム。
[3] 前記視線停留モデルのパラメータおよび前記覚醒度のしきい値は、事前に複数の 視覚刺激を提示したときのユーザの視線方向および生体情報を計測し、前記しきい 値のそれぞれを調整しながら、該計測された視線方向および生体情報に基づレ、て該 複数の視覚刺激における注意領域を推定し、該推定の結果とユーザの自己評価と の一致率が最高となった前記しきい値の組み合わせを選択する、請求項 2に記載の システム。
[4] 前記統計学習手法が変分ベイズ法であり、
前記視線停留モデルのパラメータが、視線停留時間および混合比率を含む、請求 項 1に記載のシステム。
[5] 前記生体情報が皮膚電位レベルである、請求項 1に記載のシステム。
[6] 前記覚醒度を推定する手段は、前記皮膚電位レベルが所定のしきい値を超えた頻 度により覚醒度を決定し、
該しきい値は次式により算出され、
て = μ spl+ ε · σ spl ここで、 τはしきレ、値を表し、 z splは前記皮膚電位レベルの平均値であり、 a splは 前記皮膚電位レベルの標準偏差であり、 εは覚醒検知の感度を決める正の値であ る、
請求項 5に記載のシステム。
[7] 請求項 1乃至 6に記載の注意領域を推定するシステムを備える、ユーザの活動を補 助するシステムであって、
前記推定された注意領域および覚醒度に応じて、前記ユーザの活動を補助する補 助装置の動作を制御する手段を有するシステム。
[8] 前記補助装置は、ユーザを搭乗させて移動することにより該ユーザの移動を補助 する装置、ユーザの身体に力を作用させることで該ユーザの運動を補助する装置、 または、ユーザに情報を提供することにより該ユーザの身体的または精神的活動を 補助する装置を含む、請求項 7に記載のシステム。
[9] ユーザが視界内で関心を持ってレ、る注意領域を推定する方法であって、
前記ユーザの視線方向を検出するステップと、
前記ユーザの自律神経系の生体情報を検出するステップと、
前記視線方向から前記ユーザの視線分布を求め、統計学習手法を用いて該視線 分布を解析して、前記視界内で前記ユーザの視線が留まってレ、る度合レ、を表す視 線停留モデルを推定するステップと、
前記生体情報から前記ユーザの覚醒度を推定するステップと、
前記視線停留モデルのパラメータおよび前記覚醒度に基づレ、て、前記注意領域を 推定するステップと、
を含む方法。
[10] 前記注意領域を推定するステップは、前記視線停留モデルのパラメータおよび前 記覚醒度がそれぞれに設定されたしきい値以上のとき、前記視線停留モデルによつ て画定される領域を前記注意領域として推定することを含む、請求項 9に記載の方法
[11] 事前に複数の視覚刺激を提示したときのユーザの視線方向および生体情報を計 測し、前記しきい値のそれぞれを調整しながら、該計測された視線方向および生体 情報に基づいて該複数の視覚刺激における注意領域を推定し、該推定の結果とュ 一ザの自己評価との一致率が最高となった前記しきい値の組み合わせを、前記視線 停留モデルのパラメータおよび前記覚醒度のしきい値として選択するステップをさら に含む、請求項 10に記載の方法。
[12] 前記統計学習手法が変分ベイズ法であり、
前記視線停留モデルのパラメータが、視線停留時間および混合比率を含む、請求 項 9に記載の方法。
[13] 前記生体情報が皮膚電位レベルである、請求項 9に記載の方法。
[14] 前記覚醒度を推定するステップは、前記皮膚電位レベルが所定のしきい値を超え た頻度により覚醒度を決定することを含み、
該しきい値は次式により算出され、
て = μ spl+ ε · σ spl
ここで、 τはしきレヽ値を表し、 /i splは前記皮膚電位レベルの平均値であり、 σ spltt 前記皮膚電位レベルの標準偏差であり、 εは覚醒検知の感度を決める正の値であ る、
請求項 13に記載の方法。
PCT/JP2006/325780 2006-01-24 2006-12-25 注意領域を推定するシステムおよび方法 WO2007086222A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007555872A JP4969462B2 (ja) 2006-01-24 2006-12-25 注意領域を推定するシステムおよび方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US76202306P 2006-01-24 2006-01-24
US60/762,023 2006-01-24

Publications (1)

Publication Number Publication Date
WO2007086222A1 true WO2007086222A1 (ja) 2007-08-02

Family

ID=38309023

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/325780 WO2007086222A1 (ja) 2006-01-24 2006-12-25 注意領域を推定するシステムおよび方法

Country Status (2)

Country Link
JP (1) JP4969462B2 (ja)
WO (1) WO2007086222A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
JP2009247753A (ja) * 2008-04-09 2009-10-29 Honda Motor Co Ltd 関心度推定装置および方法
JP2011115460A (ja) * 2009-12-04 2011-06-16 Saga Univ 視線制御装置、視線制御方法、及びそのプログラム
CN106473493A (zh) * 2015-08-25 2017-03-08 松下电器产业株式会社 生活辅助系统、方法以及自动升降型椅子
JP2017158804A (ja) * 2016-03-09 2017-09-14 パナソニックIpマネジメント株式会社 生活支援システム、歩行アシストロボット及び生活支援方法
CN110151413A (zh) * 2019-05-28 2019-08-23 上海电力学院 一种太阳能机械臂式智能轮椅
WO2023135692A1 (ja) * 2022-01-13 2023-07-20 日本電信電話株式会社 注意対象推定装置、方法およびプログラム
US11972049B2 (en) 2017-08-23 2024-04-30 Neurable Inc. Brain-computer interface with high-speed eye tracking features

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102137213B1 (ko) 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241835A (ja) * 1991-01-14 1992-08-28 Nippondenso Co Ltd 皮膚電位検出装置
JPH04282129A (ja) * 1991-03-08 1992-10-07 Fujitsu Ltd 注視点解析装置
JP2005006897A (ja) * 2003-06-19 2005-01-13 Nara Institute Of Science & Technology 関心度推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241835A (ja) * 1991-01-14 1992-08-28 Nippondenso Co Ltd 皮膚電位検出装置
JPH04282129A (ja) * 1991-03-08 1992-10-07 Fujitsu Ltd 注視点解析装置
JP2005006897A (ja) * 2003-06-19 2005-01-13 Nara Institute Of Science & Technology 関心度推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SUZUKI T. ET AL: "Learning to estimate user interest utilizing the variational Bayes estimator", PROCEEDINGS OF THE 2005 5TH INTERNATIONAL CONFERENCE ON INTELLIGENT SYSTEMS DESIGN AND APPLICATIONS, 8 September 2005 (2005-09-08), pages 94 - 99, XP010881492 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
JP2009247753A (ja) * 2008-04-09 2009-10-29 Honda Motor Co Ltd 関心度推定装置および方法
JP2011115460A (ja) * 2009-12-04 2011-06-16 Saga Univ 視線制御装置、視線制御方法、及びそのプログラム
CN106473493A (zh) * 2015-08-25 2017-03-08 松下电器产业株式会社 生活辅助系统、方法以及自动升降型椅子
CN106473493B (zh) * 2015-08-25 2021-04-27 松下电器产业株式会社 生活辅助系统、方法以及自动升降型椅子
JP2017158804A (ja) * 2016-03-09 2017-09-14 パナソニックIpマネジメント株式会社 生活支援システム、歩行アシストロボット及び生活支援方法
CN107174441A (zh) * 2016-03-09 2017-09-19 松下知识产权经营株式会社 生活辅助系统、行走辅助机器人以及生活辅助方法
US10765585B2 (en) 2016-03-09 2020-09-08 Panasonic Intellectual Property Management Co., Ltd. Walking assistance robot for assisting smooth start of user's action after standing up from chair
US11972049B2 (en) 2017-08-23 2024-04-30 Neurable Inc. Brain-computer interface with high-speed eye tracking features
CN110151413A (zh) * 2019-05-28 2019-08-23 上海电力学院 一种太阳能机械臂式智能轮椅
WO2023135692A1 (ja) * 2022-01-13 2023-07-20 日本電信電話株式会社 注意対象推定装置、方法およびプログラム

Also Published As

Publication number Publication date
JPWO2007086222A1 (ja) 2009-06-18
JP4969462B2 (ja) 2012-07-04

Similar Documents

Publication Publication Date Title
WO2007086222A1 (ja) 注意領域を推定するシステムおよび方法
KR20130074459A (ko) 사용자의 상태 적용 게임 장치 및 그 게임 제공 방법
KR101417226B1 (ko) 심탄도 분석 장치와 방법 및 이를 이용한 차량의 심탄도 활용 시스템
KR20080064199A (ko) 사람의 상태 검출 장치
JP2017093760A (ja) 心拍に連動する周期的変動の計測装置及び計測方法
KR101536348B1 (ko) 동영상 기반 생리 신호를 이용한 졸음 검출 방법 및 장치
JP4811255B2 (ja) 状態推定装置
JP2007097625A (ja) 皮膚状態評価装置及び皮膚状態評価プログラム並びに同プログラムを記憶したコンピュータ読み取り可能な記憶媒体
JP2007229218A (ja) 覚醒度推定装置及びシステム並びに方法
Andò et al. A measurement system to monitor postural behavior: Strategy assessment and classification rating
JP5343790B2 (ja) 脳活動情報出力装置、脳活動情報出力方法、およびプログラム
Ren et al. Chameleon: personalised and adaptive fall detection of elderly people in home-based environments
Kavya et al. Fall detection system for elderly people using vision-based analysis
Hahm et al. In-home health monitoring using floor-based gait tracking
Gold et al. The efficiency of biological motion perception
JP6044670B2 (ja) 歩行分析装置
Toivanen An advanced Kalman filter for gaze tracking signal
EP3424408B1 (en) Fatigue state determination device and fatigue state determination method
Quagliarella et al. An interactive fall and loss of consciousness detector system
WO2013008150A1 (en) Signal processor for determining an alertness level
Ruiz et al. A low-cost and unobtrusive system for fall detection
US10478066B2 (en) System and method for detection of cravings in individuals with addiction
Sciarrone et al. A wearable prototype for neurological symptoms recognition
KR101306922B1 (ko) 뇌파 측정 장치 및 뇌파 측정 방법
JP2010205015A (ja) グループ行動推定装置およびサービス提供システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007555872

Country of ref document: JP

122 Ep: pct application non-entry in european phase

Ref document number: 06843183

Country of ref document: EP

Kind code of ref document: A1