WO2007148465A1 - 操作誘導装置及び操作誘導方法 - Google Patents

操作誘導装置及び操作誘導方法 Download PDF

Info

Publication number
WO2007148465A1
WO2007148465A1 PCT/JP2007/057914 JP2007057914W WO2007148465A1 WO 2007148465 A1 WO2007148465 A1 WO 2007148465A1 JP 2007057914 W JP2007057914 W JP 2007057914W WO 2007148465 A1 WO2007148465 A1 WO 2007148465A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
operation target
gaze
video signal
display
Prior art date
Application number
PCT/JP2007/057914
Other languages
English (en)
French (fr)
Inventor
Kiyomi Sakamoto
Masaharu Matsuoka
Shigeo Asahara
Original Assignee
Panasonic Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corporation filed Critical Panasonic Corporation
Publication of WO2007148465A1 publication Critical patent/WO2007148465A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Definitions

  • the present invention relates to an operation guide device that guides device operation by a user.
  • the proficiency level of the user of the device is analyzed by measuring the input time or erroneous input time interval of the keyboard or pointing device, and according to the analyzed proficiency level.
  • the frequency of displaying a dialog explaining the work to be performed next by the user is variable. As a result, the user can operate the device efficiently.
  • Patent Document 1 Japanese Patent Laid-Open No. 9 152926
  • Patent Document 1 is a method in which the display frequency of the dialog is simply variable based on the time required for the input operation, the time required for the input operation. Even if the proficiency level of the operation does not necessarily correspond to the case, there is a problem that if necessary, the operation is guided even if the operation is guided.
  • the present invention has been made in view of such a situation, and an operation guide device and an operation guide method for guiding a device operation only when it is really necessary for a user of the device.
  • the purpose is to provide.
  • an operation guidance device for guiding a device operation by a user, and displays a display unit for displaying an operation menu for the device operation.
  • operation target area information storage means for storing operation target area information, which is information for specifying an operation target area in the operation menu, and obtaining a video signal showing the user's face Video signal acquisition means, image cutout means for cutting out a user's face image from an image indicated by the video signal acquired by the video signal acquisition means, and analysis of eye movements in the face image cut out by the image cutout means.
  • the eye movement analysis means, the analysis result by the eye movement analysis means, and the operation target area information stored in the operation target area information storage means are watched by the user!
  • Gaze state analysis means for estimating a gaze state that indicates whether or not the user is gazing at the operation target in a concentrated manner, and the user collects the operation target.
  • the display control for guiding the operation on the operation target when the operation is performed on the operation target is estimated by the gaze state analysis means when the user is gazing and the operation target is not operated! / ⁇ And a display control means for the means.
  • the eye movement analysis means analyzes the gaze direction of the user, and the gaze state analysis means is displayed in the gaze direction analyzed by the eye movement analysis means. It is preferable to specify the operation target being watched by the user by specifying the operation target based on the position information for each operation target area indicated by the operation target area information.
  • the eye movement analysis means analyzes at least one of the blink rate of the user, the time required to close the eyelid, the time required to open the eyelid, and the pupil diameter,
  • the gaze state analysis means has a time required for closing the eyelid is not more than a predetermined value. If the time required to open the eyelid is less than or equal to a predetermined value, or if the pupil diameter is larger than the predetermined value, the user watches in the operation target eyelid. I prefer to judge!
  • the display control means as display control for guiding an operation on the operation target, at least of contrast, brightness, color tone, and display size when the operation target is displayed on the display means.
  • a first output mode in which one is changed, a second output mode in which a predetermined message is displayed on the display means, and a third in which a voice message is added to display control in the first or second output mode.
  • the output mode may be switched according to the degree of concentration of the user estimated by the gaze state analyzing means.
  • the operation guidance device further includes user intention estimation means for estimating what operation the user is trying to perform, and the display control means is specified by the gaze situation analysis means.
  • the gaze state analysis means estimates that the operated object matches the operation object corresponding to the operation estimated by the user intention estimation means and the user is gazing at the operation object in a concentrated manner.
  • the display control may be performed when an operation is not performed on the operation target. As a result, the operation guidance is performed on the target that the operator is trying to operate, so that it is possible to accurately guide the operation that reflects the user's intention.
  • the operation target area information storage means further stores user intention understanding support information, which is a table in which intentions related to user operations are associated with behavioral characteristics associated with user eye movements.
  • the user intention estimation means stores the eye movement of the user analyzed by the eye movement analysis means by referring to the user intention understanding support information stored in the operation target area information storage means. It is preferable that the intention regarding the operation of the user corresponding to the above is specified and the specified intention is estimated as the user's intention.
  • the present invention can be realized as an operation guidance method that can be realized as such an operation guidance device, or a program that causes a computer to execute steps included in the method. It can also be realized as a ram or as a computer-readable recording medium such as a CD-ROM on which the program is recorded.
  • the device operation is guided only when it is really necessary for the user of the device, thereby avoiding annoying help that guides the user one by one even though the method is known. And the annoyance is improved, so comfort in device operation is improved.
  • FIG. 1 is a diagram showing an application example of an operation guidance device according to an embodiment of the present invention.
  • FIG. 2 is a functional block diagram showing the configuration of the operation guidance device according to the first embodiment of the present invention.
  • FIG. 3 is a block diagram showing a detailed configuration of a video signal processing unit.
  • FIGS. 4 (a) and 4 (b) are diagrams for explaining a method of measuring a gaze in the horizontal direction.
  • FIGS. 5 (a) and 5 (b) are diagrams for explaining a method of measuring a line of sight in the vertical direction.
  • FIG. 6 is a diagram showing an example of a blink waveform.
  • FIG. 7 is a diagram showing a correlation with physiological / psychological state estimation based on blink information or pupil information.
  • FIG. 8 is a flowchart showing a processing procedure of a video signal processing unit.
  • FIG. 9 is a flowchart showing a flow of an operation “view from a program guide”.
  • FIG. 10 is an external view of a remote control for explaining the operation in FIG.
  • FIG. 11 shows a GUI display example for selecting a program as seen from the program guide.
  • FIG. 12 is a diagram illustrating a data example of operation target area information.
  • FIG. 13 is an external view of a remote control for explaining an operation for selecting and determining a program to be viewed from the program guide.
  • FIG. 14 is a flowchart showing a procedure of an operation for switching from “Today's program guide” to “Tomorrow's program guide” (a procedure when the user smoothly executes the operation procedure without being confused).
  • FIG. 15 is an external view of a remote control for explaining the operation in FIG.
  • FIG. 16 is a flowchart showing a flow of an operation for switching from “Today's program guide” to “Tomorrow's program guide” in the first embodiment.
  • FIG. 17 is a diagram showing a display example of operation guidance in FIG. 16 (a double screen by a plurality of stages).
  • FIG. 18 is a functional block diagram showing an operation guiding device according to a second embodiment of the present invention.
  • FIG. 19 is a diagram showing a data example of the user intention understanding support information.
  • FIG. 20 is a flowchart showing an operation centering on estimation of user intention by the operation guidance device.
  • FIG. 21 is a flowchart showing a process flow of a user intention estimation unit.
  • FIG. 1 is a diagram showing an application example of the operation guiding device according to the first embodiment of the present invention.
  • the operation guidance device in the present embodiment is a device that guides device operation by a user.
  • the operation guidance device is incorporated in a television 7 that includes a camera 6 that captures the face of the user of the device, a remote control 8 for operation, and the like. Is realized.
  • FIG. 2 is a block diagram showing a functional configuration of the operation guidance device 1 according to the present embodiment.
  • the operation guidance device 1 includes a display unit 2, an operation target area information storage unit 3, a video signal processing unit 4, and a video signal acquisition unit 5.
  • the display unit 2 is an LCD, PDP, organic EL display, CRT, or the like that displays an operation menu for device operation, and corresponds to the screen of the television 7 in FIG.
  • the operation target area information storage unit 3 is a memory or the like that stores operation target area information that is information for specifying an operation target area in the operation menu.
  • the video signal acquisition unit 5 is a processing unit that acquires a video signal that reflects the face of the user of the device, and corresponds to the camera 6 in FIG.
  • the camera 6 includes an infrared (or near-infrared light) camera or the like that only uses visible light power mela.
  • the video signal processing unit 4 analyzes the user's eye movement based on the video signal acquired by the video signal acquisition unit 5, and the user truly induces an operation based on the analysis result.
  • This is a processing unit that performs display control for the display unit 2 only for the cases that require this, and is realized by a CPU and a program.
  • FIG. 3 is a block diagram showing a detailed functional configuration of the video signal processing unit 4 in FIG.
  • the video signal processing unit 4 includes an image clipping unit 44, an eye movement analysis unit 43, and a gaze situation analysis unit 4
  • the image cutout unit 44 is a processing unit that cuts out the face image of the user from the image indicated by the video signal acquired by the video signal acquisition unit 5 by outline processing or the like.
  • the eye movement analysis unit 43 moves the eyeball in the face image cut out by the image cutout unit 44 (the user's line-of-sight direction, line-of-sight movement trajectory, line-of-sight stop time, convergence 'divergence, blink rate, Analyze eye movement (time required to close eyelids, time required to open eyelids), pupil diameter, pupil dynamics (change rate of pupil diameter when light intensity change is detected), etc. To do.
  • the gaze state analysis unit 42 identifies the operation target being watched by the user from the analysis result of the eye movement analysis unit 43 and the operation target region information stored in the operation target region information storage unit 3. Then, the gaze state indicating whether or not the user is gazing at the operation target is analyzed.
  • the display control unit 41 is estimated by the gaze situation analysis unit 42 that the user is gazing at the operation target and the operation on the operation target is not performed within a predetermined time.
  • the processing unit performs display control for guiding the operation on the operation target with respect to the display unit 2.
  • the display control unit 41 determines whether or not there is an operation by the user by monitoring the operation by the remote controller 8. In addition, as display control for guiding the operation, at least one of contrast, brightness, color tone, and display size when the operation target is displayed on the display unit 2 is changed, or the operation target is emphasized. Voice messages are added to the display control by the first output mode for displaying (stereoscopic display, blinking, etc.), the second output mode for displaying a predetermined message on the display unit 2, and the first or second output mode. The third output mode is switched and executed according to the degree of user concentration estimated by the gaze state analysis unit 42.
  • the eye movement analysis unit 43 analyzes the gaze direction from the face images cut out by the image cut-out unit 44. As shown in Figs. 4 and 5, the analysis method is based on the position and ratio of the sclera (white eye) and cornea (black eye) in the horizontal and vertical directions. Identifies. Usually, only the eye movement information in the horizontal and vertical directions cannot detect the depth of force that can be detected in the gaze direction. (Cross-eye state) and spread (open eye state when looking far away) To detect 3D gaze points. Convergence may be detected by measuring the degree of crossed eyes / open eyes when the display unit 2 is viewed in advance by calibration in order to further improve accuracy.
  • the eye movement analysis unit 43 uses a distance between the upper and lower eyelids representing the degree of eye opening (hereinafter referred to as “eye opening”) from the image data near the eye cut out by the image cutout unit 44. Measure. Then, the eye opening for each frame is measured, and a waveform showing the time change of the eye opening as shown in FIG. 6 (hereinafter referred to as “blink waveform”) is created. From the generated blink waveform, the eye movement analysis unit 43 identifies the number of blinks per unit time (blink rate), movement of blinks (time required to close ⁇ , required to open ⁇ Time).
  • the camera (video signal acquisition unit 5) starts imaging the face of the user.
  • the operation guidance device 1 for example, every minute, the user's video for the previous minute is analyzed and the physiological state is estimated using the blink information. Then, the display state of the screen is changed according to the physiological state. That is, the operation guidance device 1 changes the display state of the screen according to the physiological state of the user, for example, every minute.
  • the video signal acquisition unit 5 starts imaging the user's face.
  • the captured image data is accumulated in a buffer (not shown).
  • the iris that is dark only in the pupil is slightly darker than the white of the eyeball. That is, in the image by near infrared light, the pupil becomes darkest next, and then the skin such as iris, white eye, and eyelid becomes brighter. Therefore, it is possible to identify pupils, wrinkles, etc. using this difference in brightness.
  • the reason for using the blink information for the estimation of the physiological state is as follows.
  • the number of blinks is significantly reduced when viewing a television.
  • the TV program is interesting, that is, the interest / degree of interest is high, and the blinking is less.
  • the number of blinks decreases.
  • the tension or work continues for a long time, it will be difficult to feel heavy eyelids or open eyes.
  • the level of consciousness or activity level decreases, such as when you become sleepy or tired, several blinks occur continuously in 1 to 2 seconds. , Called blink blink swarm).
  • the physiological or psychological state of the user can also be estimated by the variation of the pupil diameter.
  • the pupil When light enters the eye, the pupil becomes smaller (called photoresponse) and grows in the dark.
  • the pupil diameter varies from a minimum of 2 mm to a maximum of 8 mm in young people.
  • the pupil diameter is not as large as that of the young, even in the dark, and is up to about 6 mm.
  • response speed characteristics are different between young people and elderly people, and the elderly people respond more slowly.
  • the change in pupil diameter is as follows. Even if the amount of light incident on the eye is constant, the size of the pupil fluctuates at a low frequency. And when nervous, the pupil is wide open (mydriasis) and the sway is not noticeable. However, if you feel tired or become sleepy, your pupils will become smaller (miosis) and start to shake. And the more tired or sleepy, the greater the upset. The pupil also grows when looking at something of interest. On the other hand, the size of the pupil hardly changes for things that are not of interest, such as boring photographs or abstract paintings of unknown meaning. Thus, the change of the pupil reflects the human psychological state. Therefore, if the pupil diameter, pupil reaction, etc. are measured, it is possible to estimate the age group of the user, the degree of interest in the object, the fatigue state, and the like.
  • FIG. 7 is a table collectively showing the correlation between blink information and pupil information as described above and physiological / psychological state estimation.
  • the analysis result of the eye movement obtained by the eye movement analysis unit 43 is used as follows.
  • the gaze state analysis unit 42 displays the operation target on the operation menu displayed in the line-of-sight direction analyzed by the eye movement analysis unit 43, as the operation target area information stored in the operation target region information storage unit 3 By specifying the location based on the location information for each area, the operation target being watched by the user is identified.
  • the gaze state analysis unit 42 when the blink rate analyzed by the eye movement analysis unit 43 is equal to or less than a predetermined value, the time required to close the eyelid is equal to or less than a predetermined value. If the time required to open the lid is less than a predetermined value, If the pupil diameter is larger than a predetermined value, it is determined that the user concentrates on the operation target.
  • the display control unit 41 estimates that the gaze state analysis unit 42 estimates that the user is gazing at the operation target, and performs an operation on the operation target when no operation is performed on the operation target. Display control for guidance is performed on display unit 2. This makes it possible to guide device operation only when it is truly necessary for the device user.
  • the variation in pupil diameter varies depending on the individual, including factors such as age, but iris information that can be authenticated with very high accuracy through personal authentication can also be acquired with a video signal with similar camera power. Therefore, if the iris authentication mechanism is incorporated into the eye movement analysis unit 43, the physiological and psychological state can be estimated with higher accuracy in consideration of the individual fluctuation rate.
  • the operation of the operation guidance device 1 according to the present embodiment configured as described above will be described.
  • the physiological 'psychological state estimation based only on the pupil diameter variation the physiological' psychological state estimation based only on the blink rate variation, and the pupil diameter variation and blinking
  • a physiological / psychological state estimation from a change in rate a case will be described in which both information (a change in pupil diameter and a change in blink rate) is estimated.
  • FIG. 8 is a flowchart showing the processing procedure of the video signal processing unit 4.
  • the image cutout unit 44 receives the acquired video signal from the video signal acquisition unit 5 (step S11), and uses the received video signal to extract the extracted image information for each frame, for example. For the force, the part necessary for extracting the eye movement information is extracted (step S12). Then, the eye movement analysis unit 43 determines the eye movement information ( gaze direction, gaze movement trajectory, gaze stop time, vergence divergence, blink rate, blink movement identification, pupil diameter, pupil from the cut out information. The eye movement information indicating the result is passed to the gaze analysis unit 42 (step S13).
  • the gaze situation analysis unit 42 selects the operation target on the operation menu displayed in the line-of-sight direction analyzed by the eye movement analysis unit 43 as the operation target region stored in the operation target region information storage unit 3.
  • the position based on the position information for each operation target area indicated by the information the operation target being watched by the user is specified (step S14).
  • the gaze state analysis unit 42 identifies, for example, an operation target that matches the line-of-sight direction and identifies It is judged that the operation target can be effectively identified when the gaze stop time of a certain time or more exists in the operation target and its vicinity, or when the gaze movement locus is drawn.
  • the gaze state analysis unit 42 determines the user based on the eye movement information obtained by the eye movement analysis unit 43. It is determined whether the gaze state is the concentrated mode (the state of focusing and gazing) or the non-concentrated mode (the state of not concentrating) (step S16). Specifically, the mode is determined under the following conditions.
  • Pupil dynamics are slow (smaller than a certain threshold), youth pupil (2mm ⁇ pupil diameter ⁇ 8111111), and miosis
  • the pupil dynamics are slow (greater than a certain threshold), the elderly pupil (pupil diameter ⁇ 6 mm), and mydriasis
  • the gaze state analysis unit 42 for example, results with a large number of determinations ( Concentration mode Z non-concentration mode) is adopted.
  • step S17 the display control unit 41 performs an operation on the operation target. It is determined whether or not the force has been reduced (step S18). For example, by monitoring the operation by the remote controller 8, it is determined whether or not the user has performed an operation on the operation target within a predetermined time after the user starts to focus on the operation target.
  • step S18 when an operation on the operation target is not performed (NO in step S18), the display control unit 41 determines that a case requiring a guidance operation has occurred, Display control for guiding the operation to the operation target is performed (step S19). At this time, the display control unit 41, for example, displays the operation target on the display unit 2 when it is determined as the concentrated mode by one of the above conditions (1) to (7).
  • Display control is performed in the first output mode that changes at least one of the contrast, brightness, color tone, display size, or highlights the operation target (stereoscopic display, blinking, etc.), and the above condition (1) If it is determined that the concentrated mode is determined by two of the conditions (1) to (7), display control is performed in the second output mode in which a predetermined message is displayed on the display unit 2, and the above conditions (1) to (7) If the centralized mode is determined by three or more of the conditions in (7), the display control is performed in the third output mode in which a voice message is added to the display control in the first or second output mode. And switch the output mode according to the degree of user concentration. .
  • the operation target is displayed in the first output mode, and the second operation is performed when the user does not operate even after a predetermined time (5 seconds or the like) has elapsed.
  • a predetermined time for example, 5 seconds or the like
  • switching to the output mode and switching to the third output mode when the user does not operate even after a certain period of time for example, 5 seconds. Switch to a more friendly output mode, or you can use it.
  • step S15 when the operation target is not effectively identified (No in step S15), or when it is determined that the gaze state is the non-concentration mode (No in step S17), or the operation target If the operation is performed within a certain period of time (Yes in step S18), it is determined that no operation guidance is required, and no special display control is performed. Will remain displayed.
  • the operation target is based on the user's eye movement, even though the user concentrates on the operation target. If the operation is not performed, that is, the user really needs to guide the operation. The device operation is guided only in such a case. This eliminates the hassle of device operation guidance and help functions.
  • FIG. 9 is a flowchart showing the flow of the “view from the program table” operation.
  • FIG. 10 is an external view of the remote controller 8 for explaining the operation.
  • the user When selecting a program that has been viewed, the user first selects the broadcast (type of broadcast) that he / she viewed (step S21). Specifically, as shown in FIG. 10, by selecting the four buttons B1 arranged vertically on the left side of the remote control 8, it is switched to one of the terrestrial analog Z terrestrial digital ZBSZCS.
  • step S22 the “program guide” button B2 is pressed.
  • the screen of the television 7 is switched, and a GUI display example for selecting a program to be viewed from the program table as shown in FIG. 11 is obtained.
  • the user uses the “arrow” and “decision” button B3 to select and decide a program to be viewed from the program guide (step S23). Then, the contents of the selected program are displayed (step S24).
  • FIG. 12 shows the operation target area information stored in the operation target area information storage unit 3, that is, necessary for identifying the GUI component to be watched from the gaze point on the display unit 2 (screen). It is a figure which shows the example of an information table.
  • each area R1 to R4 includes As shown in the table in FIG. 12, information on the GUI component (operation target) “number”, “image area name”, “display image address”, “number of images”, “area coordinates”, and “remote control key”. Information is associated.
  • the “image area name” stores names such as a date display area, a program guide operation area, a date change area, and a program table presentation area.
  • the “display image address” stores the address of the memory in which the display image displayed in the screen area is stored. In “Number of sheets” The number of display images is stored. Multiple images can be displayed as a reverse image or animation when the button is pressed.
  • the “region coordinates” stores the coordinates on the display unit 2 (screen) that displays the display image.
  • the “remote control key” stores the ID and number of the remote control 8 buttons and keys corresponding to the screen area.
  • FIG. 13 shows an example of the correspondence relationship between the buttons of the remote controller 8 used in the operation of selecting and determining a program to be viewed from the program guide and the operation target.
  • the remote control 8 includes the operation button B4 in the date change area R3, the operation button B5 in the program guide operation area R2, and the operation button B3 in the program information presentation area R4. It is not placed at the matching position.
  • FIG. 15 is an external view of the remote controller 8 for explaining the operation.
  • step S31 From the program table shown in FIG. 12, the user moves his gaze target to the date change area R3 on the GUI display screen for selecting a program to be viewed (step S31). Subsequently, the user gazes and confirms the next day button (yellow button B41 shown in FIG. 15) (step S32), and then presses yellow button B41 on remote control 8 (step S33). Then, the user confirms that the program guide has been updated to the next day's information (step S34).
  • step S34 the next day button
  • FIG. 16 is a flowchart showing an operation procedure of the operation guiding device 1 in an operation in which the user switches from “Today's program guide” to “Tomorrow's program guide”.
  • the gaze state analysis unit 42 specifies an operation target (step S41).
  • the gaze state analysis unit 42 collates the eye movement analysis result (such as the line of sight) by the eye movement analysis unit 43 with the operation target area information stored in the operation target area information storage unit 3, thereby The user's gaze target is specified to be the date change area R3 displayed on the display unit 2.
  • the gaze state analysis unit 42 determines whether or not the gaze state is the concentrated mode (step S42). As a result, when it is determined that the gaze state is not the concentrated mode (the non-concentrated mode) (No in step S42), it is determined that the operation guidance in this procedure is unnecessary, and the special operation guidance is not performed. I will not.
  • step S42 the display control unit 41 subsequently performs an operation on the date change area R3, that is, the next day button (the yellow button on the remote control 8). It is determined whether or not (B41) has been pressed (step S43).
  • step S43 the program guide is updated to the next day's information (step S45), while if the next day button is not pressed (step S45)
  • step S43, No the display control unit 41 performs operation guidance so as to move the gaze target to the date change area R3 displayed on the display unit 2 (step S44).
  • operation guidance highlighting (animation, color change, arrow, etc.) of the date display area R 1 and voice guidance are performed.
  • the user moves the gaze target to the date change area (yellow button B41) on the remote control 8.
  • Perform voice guidance such as “Yellow on remote control, press button”.
  • the first embodiment by estimating the user's gaze state and gaze target, there is a screen display control for performing only the necessary operation guidance when it is really necessary. Or a display with voice guidance is performed.
  • the user's gaze state and gaze target can be analyzed, and the user's gaze target is entered in the operation screen area where the next operation needs to be performed.
  • display control by voice and animation is performed and the guidance and arousal are performed, so a non-intrusive interface can be realized, comfort and convenience Is improved.
  • the color tone of the screen may be changed in addition to the above-described luminance 'contrast adjustment. Furthermore, the image displayed on the screen may be enlarged and displayed only on that portion.
  • FIG. 18 is a block diagram showing a functional configuration of the operation guiding apparatus 10 according to the second embodiment of the present invention.
  • the operation guidance device 10 corresponds to the operation guidance device according to the first embodiment to which a function for estimating what operation the user wants to perform is added.
  • An information storage unit 13, a video signal processing unit 14, a video signal acquisition unit 15, a user intention estimation unit 16 and an input unit 17 are provided.
  • the display unit 12 Of the components included in the operation guidance device 10, the display unit 12, the operation target region information storage unit 13, the video signal processing unit 14, and the video signal acquisition unit 15 are each the display in the first embodiment.
  • Unit 2 operation target area information storage unit 3, video signal processing unit 4 and video signal acquisition unit 5 have the functions.
  • the video signal processing unit 14 has the same components 41 to 44 as the video signal processing unit 4 in the first embodiment. The following description will focus on differences from the first embodiment.
  • the input unit 17 is a processing unit that obtains an operation instruction from the user, and corresponds to the remote control 8 shown in FIG.
  • the operation target area information storage unit 13 stores user intention understanding support information as shown in FIG. 19 in addition to the operation target area information.
  • User intent understanding support information is a table that associates intentions related to user operations with behavioral features associated with the user's eye movements. The number that identifies the intention and the name of the intention "User intention” From “ Figure Name”, “Gaze Behavior DB Address” indicating the storage location of information describing behavioral characteristics, “Number” indicating the number of actions belonging to the characteristics, “Action Name ID” identifying the behavior, etc. Become. Note that “action name ⁇ action” in the table shown in FIG. 19 is a content example of information indicating behavioral characteristics stored in the storage location indicated by “gaze action DB address”.
  • the user intention estimation unit 16 is a processing unit that estimates what operation the user intends to perform, and is linked to the input unit 17, the operation target area information storage unit 13, and the video signal processing unit 14. Works. Specifically, the user intention estimation unit 16 performs the operation target area information storage unit when the input from the input unit 17 is not performed within a predetermined time and the operation target to be operated next is not determined. By identifying the user intention understanding support information stored in Fig. 13, the intention regarding the user's operation corresponding to the user information related to the gaze target and gaze state obtained from the video signal processing unit 14 is identified and identified. The intended intention is estimated as the user's intention. Then, the user intention estimation unit 16 notifies the video signal processing unit 14 of the operation target corresponding to the estimated intention or, if determined in advance, as the operation target related to the next operation.
  • the video signal processing unit 14 estimates the user information regarding the user's gaze target and gaze state analyzed by the gaze state analysis unit 42. Reply to part 16. Further, the display control unit 41 of the video signal processing unit 14 matches the operation target specified by the gaze state analysis unit 42 with the operation target related to the next operation notified from the user intention estimation unit 16, and Display control to guide the operation only when the user is presuming that the operation target is focused and is estimated by the gaze state analysis unit 42 and the operation is not performed on the operation target. I do.
  • FIG. 20 is a flowchart showing operations centering on estimation of user intention by the operation guidance device 10. It is a chart.
  • the user intention estimation unit 16 waits for an input from the input unit 17 for a certain time (step S51). If there is no input from the user after waiting for a certain period of time, the process proceeds to the user state estimation process.
  • the user intention estimation unit 16 checks whether the operation instruction to be executed has already been input by the user, or whether the request for the function to be executed has already been issued (step S 52 ).
  • step S52 when an operation instruction has already been input and a force or a function request has already been issued (Yes in step S52), the user intention estimation unit 16 has the operation instruction, Alternatively, the operation target corresponding to the function request is notified to the video signal processing unit 14 (step S54).
  • the user intention estimation unit 16 performs the operation target area information storage unit 13 and The user's intention is estimated in conjunction with the video signal processing unit 14 (step S53), and the operation target corresponding to the intention, that is, the operation target for the next operation is notified to the video signal processing unit 14 (step S53). S54).
  • the display control unit 41 of the video signal processing unit 14 Upon receiving the notification of the next operation target, the display control unit 41 of the video signal processing unit 14 is notified of the operation target specified by the gaze state analysis unit 42 from the user intention estimation unit 16. It is inferred by the gaze situation analysis unit 42 that the user agrees with the operation target related to the next operation, and the user focuses on the operation target, and the operation is performed on the operation target. Only if it is determined whether or not the force is weak (operation is stagnant) (step S55) and it is determined that these conditions are satisfied (Yes in step S55), Display control is performed (step S56).
  • FIG. 21 is a flowchart showing a detailed flow of processing in the user intention estimation unit 16.
  • the user intention estimation unit 16 sends a command for obtaining user information related to a gaze target and a gaze state for a certain period of time to the video signal processing unit 14 to obtain user information related to gaze (step S61).
  • the user intention estimation unit 16 obtains from the video signal processing unit 14 by referring to the user intention understanding support information and the operation target region information stored in the operation target region information storage unit 13. Based on the user information obtained, the user's intention is estimated and the estimated user intention An operation target corresponding to the figure number or the estimated intention is notified to the video signal processing unit 14 (step S62).
  • the user intention estimation unit 16 is the target of gaze obtained from the video signal processing unit 14 for “action name (conditional clause)” of “action name ⁇ action” in the user intention understanding support information.
  • the video signal is identified as the operation target related to the next operation as the operation target indicated in the “Corrective Action” corresponding to the specified “Action Name (Conditional Clause)”. Notify the processing unit 14.
  • the operation guidance device 10 in the present embodiment the operation target being watched by the user is operated next, and the user collects the operation targets.
  • display control for guiding the operation is performed only when the operation target is not operated. Therefore, only when the user really needs to guide the operation, the operation of the device is guided. This eliminates the trouble of the device operation guidance and the help function, and makes the operation interface comfortable. And convenience are improved.
  • an operation guidance device realized by arbitrarily combining the components in each embodiment is also included in the present invention.
  • the target of the next operation is estimated based on the user intention understanding support information and the eye movement of the user at that time.
  • the target of the next operation is estimated.
  • the estimation may be performed according to data indicating a typical operation procedure stored in advance.
  • the operation guidance device according to the present invention is incorporated and applied to a television.
  • the present invention includes display screens such as a personal computer and various guidance devices that can be used only by the television. It can be applied as an operation guidance device for all types of equipment.
  • the present invention relates to an operation guidance device for guiding a device operation by a user, for example, an operation guidance device for an electronic device having a screen of a television or the like. It is useful as an operation guidance device corresponding to the title, an operation guidance device suitable for the elderly, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 機器の利用者にとって真に必要な場合にだけ機器操作を誘導する操作誘導装置を提供する。その操作誘導装置は、機器操作のための操作メニューを表示する表示部(2)と、操作メニューにおける操作対象の領域を特定する情報である操作対象領域情報を格納している操作対象領域情報格納部(3)と、利用者の顔を映し出した映像信号を取得する映像信号取得部(5)と、取得された映像信号が示す画像から利用者の顔画像を切り出し、切り出した顔画像における眼球の運動を解析し、その解析結果と操作対象領域情報とから、利用者が注視している操作対象を特定するとともに、利用者が操作対象を集中して注視しているか否かを示す注視状態を推定し、利用者が操作対象を集中して注視していると推定され、かつ、操作対象に対する操作が行われない場合に、操作対象に対する操作を誘導するための表示制御を表示部(2)に対して行う映像信号処理部(4)とを備える。

Description

明 細 書
操作誘導装置及び操作誘導方法
技術分野
[0001] 本発明は、利用者による機器操作を誘導する操作誘導装置に関する。
背景技術
[0002] 近年、機器が多機能となり複合機化、システム化していく中、使用方法や手順が複 雑ィ匕してきている。そこで、従来、ヘルプ機能やガイダンスなどを使用した操作誘導 方式やそれを搭載した電子機器が開示されている (例えば、特許文献 1参照)。
[0003] 特許文献 1に開示された操作誘導方式においては、キーボードもしくはポインティ ングデバイスの入力時間や誤入力時間間隔の計測によって機器の利用者の習熟度 を解析し、解析した習熟度に応じて、利用者が次に行うべき作業について説明した ダイアログを表示する頻度を可変にしている。これによつて、利用者の機器操作を効 率ィ匕しょうとするものである。
特許文献 1:特開平 9 152926号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上記特許文献 1に開示された操作誘導方式では、単に入力操作に おける所要時間に基づいてダイアログの表示頻度を可変にする方式であるために、 入力操作における所要時間と操作の習熟度とが必ずしも対応しないケースまでも勘 案され、必要でな 、ケースにぉ 、ても操作の誘導が行われると!、う問題がある。
[0005] たとえば、機器の利用者は使用法を理解していているが意思決定や選択に時間が 力かる場合や、次に行うべき作業が複数存在するためにシステムがどのダイアログを 表示すべき力が入力時間だけ力もは判断できな 、場合などが想定されて 、な 、。そ のために、必要でないケースにおいても操作の誘導が行われ、かえって煩わしさが 増すという問題がある。
[0006] そこで、本発明は、このような状況に鑑みてなされたものであり、機器の利用者にと つて真に必要な場合にだけ機器操作を誘導する操作誘導装置及び操作誘導方法を 提供することを目的とする。
課題を解決するための手段
[0007] 上記目的を達成するために、本発明に係る操作誘導装置は、利用者による機器操 作を誘導する操作誘導装置であって、前記機器操作のための操作メニューを表示す る表示手段と、前記操作メニューにおける操作対象の領域を特定する情報である操 作対象領域情報を格納して!/ヽる操作対象領域情報格納手段と、前記利用者の顔を 映し出した映像信号を取得する映像信号取得手段と、前記映像信号取得手段が取 得した映像信号が示す画像から利用者の顔画像を切り出す画像切り出し手段と、前 記画像切り出し手段によって切り出された顔画像における眼球の運動を解析する眼 球運動解析手段と、前記眼球運動解析手段による解析結果と前記操作対象領域情 報格納手段に格納された操作対象領域情報とから、利用者が注視して!/ヽる操作対 象を特定するとともに、前記利用者が前記操作対象を集中して注視しているか否か を示す注視状態を推定する注視状況解析手段と、前記利用者が前記操作対象を集 中して注視していると前記注視状況解析手段によって推定され、かつ、前記操作対 象に対する操作が行われな!/ヽ場合に、前記操作対象に対する操作を誘導するため の表示制御を前記表示手段に対して行う表示制御手段とを備えることを特徴とする。 これにより、利用者が操作対象を集中して注視しているとき、つまり、機器操作をしよ うとしているときであって、かつ、操作が停滞しているときにだけ、操作誘導が行われ 、機器の利用者にとって真に必要な場合にだけ機器操作が誘導される。
[0008] ここで、前記眼球運動解析手段は、前記利用者の視線方向を解析し、前記注視状 況解析手段は、前記眼球運動解析手段によって解析された視線方向に表示される 前記操作メニュー上の操作対象を、前記操作対象領域情報が示す操作対象の領域 ごとの位置情報に基づいて特定することによって、前記利用者が注視している操作 対象を特定するのが好まし ヽ。
[0009] また、前記眼球運動解析手段は、前記利用者の瞬目率、瞼を閉じるのに要する時 間、瞼を開くのに要する時間、及び、瞳孔径の少なくとも 1つを解析し、前記注視状 況解析手段は、前記眼球運動解析手段によって解析された瞬目率が予め定めた一 定値以下である場合、瞼を閉じるのに要する時間が予め定めた一定値以下である場 合、瞼を開くのに要する時間が予め定めた一定値以下である場合、又は、瞳孔径が 予め定めた一定値よりも大きい場合に、前記利用者が前記操作対象魏中して注視 して 、ると判断するのが好まし!/、。
[0010] また、前記表示制御手段は、前記操作対象に対する操作を誘導するための表示制 御として、前記操作対象を前記表示手段に表示する際のコントラスト、輝度、色調、 表示サイズのうちの少なくとも 1つを変更する第 1の出力モードと、前記表示手段に所 定のメッセージを表示する第 2の出力モードと、前記第 1又は第 2の出力モードによる 表示制御に音声メッセージを加えた第 3の出力モードとを、前記注視状況解析手段 によって推定された前記利用者の集中の程度に応じて、切り替える構成としてもよい 。これにより、機器操作の習熟度に対応した丁寧さで操作誘導が行われ、様々な習 熟度の利用者にとって煩わしさを感じることがない快適な操作誘導装置が実現される
[0011] また、前記操作誘導装置はさらに、前記利用者がどのような操作をしょうとしている かを推定する利用者意図推定手段を備え、前記表示制御手段は、前記注視状況解 析手段によって特定された操作対象が前記利用者意図推定手段によって推定され た操作に対応する操作対象と一致し、かつ、前記利用者が前記操作対象を集中して 注視していると前記注視状況解析手段によって推定され、かつ、前記操作対象に対 する操作が行われない場合に、前記表示制御を行う構成としてもよい。これにより、操 作者が操作しょうとしている対象に対して操作誘導が行われるので、より利用者の意 図を反映した的確な操作誘導が可能となる。
[0012] ここで、前記操作対象領域情報格納手段はさらに、利用者の操作に関する意図と 利用者の眼球運動を伴う行動上の特徴とを対応づけたテーブルである利用者意図 理解支援用情報を格納し、前記利用者意図推定手段は、前記操作対象領域情報格 納手段に格納された利用者意図理解支援用情報を参照することで、前記眼球運動 解析手段で解析された利用者の眼球運動に対応する利用者の操作に関する意図を 特定し、特定した意図を前記利用者の意図として推定するのが好ましい。
[0013] なお、本発明は、このような操作誘導装置として実現できるだけでなぐ操作誘導方 法として実現したり、その方法に含まれるステップをコンピュータに実行させるプログ ラムとして実現したり、そのプログラムを記録した CD— ROM等のコンピュータ読み取 り可能な記録媒体として実現することもできる。
発明の効果
[0014] 本発明によれば、機器の利用者にとって真に必要な場合にだけ機器操作が誘導さ れ、これにより、やり方が分かっているのにいちいち誘導するようなおせつかいなヘル プ等が回避され、煩わしさが改善されるので、機器操作における快適性が向上される
[0015] また、機器操作の習熟度に応じた操作誘導が行われ、初心者にとっても熟練者に とっても煩わしくない操作インターフェースが実現される。
[0016] よって、本発明により、機器操作が適切に支援され、特に、電子機器の高機能化に 伴って操作が複雑ィ匕してきた今日において、本発明の実用的価値は極めて高い。 図面の簡単な説明
[0017] [図 1]図 1は、本発明の実施形態に係る操作誘導装置の適用例を示す図である。
[図 2]図 2は、本発明の第 1の実施形態に係る操作誘導装置の構成を示す機能ブロッ ク図である。
[図 3]図 3は、映像信号処理部の詳細な構成を示すブロック図である。
[図 4]図 4 (a)及び (b)は、水平方向の視線を計測する方法を説明する図である。
[図 5]図 5 (a)及び (b)は、垂直方向の視線の計測する方法を説明する図である。
[図 6]図 6は、瞬目波形の一例を示す図である。
[図 7]図 7は、瞬目情報あるいは瞳孔情報による生理 ·心理状態推定との相関関係を 示す図である。
[図 8]図 8は、映像信号処理部の処理手順を示すフローチャートである。
[図 9]図 9は、「番組表から見る」操作の流れを示すフローチャートである。
[図 10]図 10は、図 9における操作を説明するためのリモコンの外観図である。
[図 11]図 11は、番組表から見た 、番組を選択するための GUI表示例である。
[図 12]図 12は、操作対象領域情報のデータ例を示す図である。
[図 13]図 13は、番組表から見たい番組を選んで決定する操作を説明するためのリモ コンの外観図である。 [図 14]図 14は、「今日の番組表」から「明日の番組表」に切り替える操作の手順 (利用 者が操作手順を戸惑うことなくスムーズに実行した場合の手順)を示すフローチャート である。
[図 15]図 15は、図 14における操作を説明するためにリモコンの外観図である。
[図 16]図 16は、第 1の実施形態において「今日の番組表」から「明日の番組表」に切 り替える操作の流れを示すフローチャートである。
[図 17]図 17は、図 16における操作誘導の表示例 (複数段階による 2重画面)を示す 図である。
[図 18]図 18は、本発明の第 2の実施形態に係る操作誘導装置を示す機能ブロック図 である。
圆 19]図 19は、利用者意図理解支援用情報のデータ例を示す図である。
[図 20]図 20は、操作誘導装置による利用者意図の推定を中心とした動作を示すフロ 一チャートである。
[図 21]図 21は、利用者意図推定部の処理の流れを示すフローチャートである。
符号の説明
1、 10 操作誘導装置
2、 12 表示部
3、 13 操作対象領域情報格納部
4、 14 映像信号処理部
5、 15 映像信号取得部
6 カメラ
7 テレビ
8 リモコン
16 利用者意図推定部
17 入力部
41 表示制御部
42 注視状況解析部
43 眼球運動解析部 44 画像切り出し部
発明を実施するための最良の形態
[0019] 以下、本発明の実施の形態について、図面を参照して説明する。
[0020] (第 1の実施形態)
まず、本発明の第 1の実施形態について説明する。
[0021] 図 1は、本発明の第 1の実施形態に係る操作誘導装置の適用例を示す図である。
本実施の形態における操作誘導装置は、利用者による機器操作を誘導する装置で あり、一例として、機器の利用者の顔を撮像するカメラ 6や、操作用のリモコン 8等を 備えるテレビ 7に組み込まれる形態で実現される。
[0022] 図 2は、本実施形態に係る操作誘導装置 1の機能構成を示すブロック図である。本 図に示されるように、操作誘導装置 1は、表示部 2、操作対象領域情報格納部 3、映 像信号処理部 4及び映像信号取得部 5を備えて ヽる。
[0023] 表示部 2は、機器操作のための操作メニュー等を表示する LCD、 PDP、有機 ELデ イスプレイ、 CRT等であり、図 1におけるテレビ 7の画面に対応する。
[0024] 操作対象領域情報格納部 3は、操作メニューにおける操作対象の領域を特定する 情報である操作対象領域情報を格納しているメモリ等である。
[0025] 映像信号取得部 5は、機器の利用者の顔を映し出した映像信号を取得する処理部 であり、図 1におけるカメラ 6に対応する。なお、カメラ 6は、可視光力メラだけでなぐ 赤外線 (あるいは近赤外光)カメラ等も含まれる。
[0026] 映像信号処理部 4は、映像信号取得部 5により取得された映像信号をもとに、利用 者の眼球運動を解析し、その解析結果に基づいて、使用者が真に操作の誘導を必 要としているケースにだけ、その誘導のための表示制御を表示部 2に対して行う処理 部であり、 CPUとプログラム等によって実現される。
[0027] 図 3は、図 2における映像信号処理部 4の詳細な機能構成を示すブロック図である
。映像信号処理部 4は、画像切り出し部 44、眼球運動解析部 43、注視状況解析部 4
2及び表示制御部 41を備えている。
[0028] 画像切り出し部 44は、映像信号取得部 5が取得した映像信号が示す画像から、輪 郭処理等により、利用者の顔画像を切り出す処理部である。 [0029] 眼球運動解析部 43は、画像切り出し部 44によって切り出された顔画像における眼 球の運動 (利用者の視線方向、視線移動軌跡、視線停留時間、輻輳 '開散、瞬目率 、瞬目の動特定 (瞼を閉じるのに要する時間,瞼を開くのに要する時間)、瞳孔径、瞳 孔の動特性 (光量の変化が検出された時の瞳孔径の変化率)等)を解析する。
[0030] 注視状況解析部 42は、眼球運動解析部 43による解析結果と操作対象領域情報 格納部 3に格納された操作対象領域情報とから、利用者が注視している操作対象を 特定するとともに、利用者が操作対象を集中して注視しているか否かを示す注視状 態を解析する。
[0031] 表示制御部 41は、利用者が操作対象を集中して注視していると注視状況解析部 4 2によって推定され、かつ、その操作対象に対する操作が一定時間内に行われない 場合に、その操作対象に対する操作を誘導するための表示制御を表示部 2に対して 行う処理部である。
[0032] なお、表示制御部 41は、利用者の操作の有無については、リモコン 8による操作を 監視することによって判断する。また、操作を誘導するための表示制御としては、操 作対象を表示部 2に表示する際のコントラスト、輝度、色調、表示サイズのうちの少な くとも 1つを変更する、あるいは操作対象を強調表示 (立体表示や点滅など)にする 第 1の出力モードと、表示部 2に所定のメッセージを表示する第 2の出力モードと、第 1又は第 2の出力モードによる表示制御に音声メッセージを加えた第 3の出力モード とを、注視状況解析部 42によって推定された利用者の集中の程度に応じて、切り替 えて実行する。
[0033] ここで、眼球運動解析部 43による眼球運動の解析の詳細、及び、眼球運動を解析 する意義について説明する。
[0034] 眼球運動解析部 43は、画像切り出し部 44で切り出された顔画像の中から視線方 向の解析を行う。解析方法としては、図 4と図 5に示すように、水平方向と垂直方法の 強膜(白目)と角膜 (黒目)の位置関係や割合によつて、表示部 2 (画面)上の点を同 定する。通常、水平方向と垂直方向の眼球運動情報だけでは、視線方向は検出でき る力 奥行きを検出できないので、眼球運動情報の中からさらに左右の眼の輻輳 (い わゆる近くを見ている時の寄り眼の状態)や開散 (遠くを見ている時に開き眼の状態) を検出して、 3次元的な注視点を抽出する。輻輳 '開散については、さらに精度を上 げるために、予めキャリブレーションによって表示部 2を見ているときの寄り眼 ·開き眼 の程度を計測しておくことで、検出してもよい。
[0035] また、眼球運動解析部 43は、画像切り出し部 44が切り出した眼の付近の画像デー タから、眼の開き度合いを表す上下瞼の間隔 (以下、「眼の開度」と称す)を計測する 。そして、 1フレームごとの眼の開度を計測し、図 6に示されるような、目の開度の時間 変化を示す波形 (以下、「瞬目波形」と称す)を作成する。眼球運動解析部 43は、作 成した瞬目波形から、単位時間当たりの瞬目の回数 (瞬目率)や、瞬目の動特定 (瞼 を閉じるのに要する時間、瞼を開くのに要する時間)を算出する。
[0036] 本実施形態では、操作誘導装置 1が起動すると、カメラ (映像信号取得部 5)が利用 者の顔の撮像を開始する。操作誘導装置 1の動作中は、例えば 1分毎に、その直前 1分間の利用者の映像を解析し、瞬目情報を用いて生理状態を推測する。そして、 当該生理状態に応じて、画面の表示状態を変化させる。つまり、操作誘導装置 1は、 例えば 1分毎に、利用者の生理状態に応じて画面の表示状態を変えていく。併せて 、映像信号取得部 5は、利用者の顔の撮像を開始する。撮像された画像データは、 図示されないバッファに蓄積されていく。ここで、例えば、上述した近赤外光による画 像においては、虹彩での反射率が高いため、瞳孔だけが暗ぐ虹彩は眼球の白目よ り若干暗い程度の明るさとなる。すなわち、近赤外光による画像では、瞳孔が一番暗 ぐ次に、虹彩、白目、瞼などの皮膚の順に明るくなる。そのため、この明るさの差を 利用して瞳孔や瞼等を識別することが可能となる。
[0037] 生理状態の推定に瞬目情報を用いる理由は、次の通りである。つまり、例えば、テ レビ観視時には、瞬目回数は顕著に低下する。し力も、テレビ番組が面白い、すなわ ち興味 ·関心の度合 、が高 、ときほど瞬目が少なくなる。関心度の高 、ものを見て 、 るときは、瞬目回数は少なくなる。また、緊張や作業が長時間続くと、瞼が重い、ある いは眼を開けているのがつらく感じられるようになる。このような場合、すなわち、疲労 している状態のときは、瞼が閉じるまでの時間、あるいは瞼が開くまでの時間が有意 に長くなる。また、眠くなつてきたときや疲労しているときなど、意識水準や活動水準 が低下している状態になると、 1〜2秒間の間に数回の瞬目が連続的に発生 (これは 、瞬目群発と呼ばれる)するようになる。以上のような瞬目の特性を計測すれば、利用 者がコンテンツに集中している力、読み疲れてきている力、あるいは眠い状態なのか 等を推定することができる。
[0038] また、瞳孔径の変動によっても、利用者の生理'心理状態が推定できる。光が眼に 入ったときには瞳孔は小さくなり(対光反応と呼ばれる)、暗いところでは大きくなる。 瞳孔径は、若年者では直径最小 2mm、最大 8mm程度まで変化する。一方、高齢者 では、暗いところでも瞳孔径は若年者のようには大きくならず、最大 6mm程度までで ある。また、対光反応についても、若年者と高齢者とでは、応答速度特性が異なり、 高齢者のほうが反応が遅い。
[0039] 瞳孔径の変化については、次の通りである。眼に入射する光の量が一定でも、瞳孔 の大きさは低周波で揺らいでいる。そして、緊張時は瞳孔が大きく開いており(散瞳) 、動揺も目立たない。しかし、疲労を感じてくる、あるいは、眠くなつてくると、瞳孔は 小さくなり(縮瞳)、動揺し始める。そして、疲れているほど、あるいは、眠いほど、動揺 は大きくなる。また、関心があるものを見るときにも瞳孔は大きくなる。一方、退屈な写 真や意味不明な抽象画等の関心の薄いものに対しては、瞳孔の大きさはほとんど変 化しない。このように、瞳孔の変化は人間の心理状態を反映する。そのため、瞳孔径 や瞳孔反応等を計測すれば、利用者の年齢層や対象物への関心度や疲労状態等 を推定することができる。
[0040] 図 7は、以上のような瞬目情報及び瞳孔情報と生理'心理状態推定との相関関係を まとめて示したテーブルである。
[0041] 本実施の形態では、眼球運動解析部 43で得られた眼球運動の解析結果を以下の ように利用している。注視状況解析部 42は、眼球運動解析部 43によって解析された 視線方向に表示される操作メニュー上の操作対象を、操作対象領域情報格納部 3に 格納された操作対象領域情報が示す操作対象の領域ごとの位置情報に基づいて特 定することによって、利用者が注視している操作対象を特定する。
[0042] また、注視状況解析部 42は、眼球運動解析部 43によって解析された瞬目率が予 め定めた一定値以下である場合、瞼を閉じるのに要する時間が予め定めた一定値 以下である場合、瞼を開くのに要する時間が予め定めた一定値以下である場合、又 は、瞳孔径が予め定めた一定値よりも大きい場合に、利用者が操作対象を集中して 注視していると判断する。そして、表示制御部 41は、利用者が操作対象を集中して 注視していると注視状況解析部 42によって推定され、かつ、操作対象に対する操作 が行われない場合に、その操作対象に対する操作を誘導するための表示制御を表 示部 2に対して行う。これによつて、機器の利用者にとって真に必要な場合にだけ機 器操作を誘導することが可能となる。
[0043] なお、瞳孔径の変動は年齢などの要因も含めて個人差があるが、個人認証などで 非常に精度の良い認証が可能な虹彩情報も同様のカメラ力 の映像信号で取得で きるので、虹彩認証のメカニズムを眼球運動解析部 43に組み込めば、個人の変動率 を考慮した、より精度の良い生理'心理状態の推定ができる。
[0044] 次に、以上のように構成された本実施形態における操作誘導装置 1の動作につい て説明する。なお、利用者の生理'心理状態の推定については、瞳孔径の変動のみ での生理'心理状態推定、瞬目率の変動のみでの生理'心理状態推定、及び、瞳孔 径の変動と瞬目率の変化とからの生理'心理状態推定が存在するが、本実施形態で は、両方の情報 (瞳孔径の変動と瞬目率の変化)力もの推定を行う場合を説明する。
[0045] 図 8は、映像信号処理部 4の処理手順を示すフローチャートである。
[0046] まず、画像切り出し部 44は、映像信号取得部 5から、取得された映像信号を受け取 り(ステップ S11)、受け取った映像信号を用いて、例えば 1フレーム毎に、抽出され た画像情報力も眼球運動情報の切り出しに必要な部分を抽出する (ステップ S12)。 そして、眼球運動解析部 43は、切り出された情報から、眼球運動情報 (視線方向、視 線移動軌跡、視線停留時間、輻輳 '開散、瞬目率、瞬目の動特定、瞳孔径、瞳孔の 動特性等)を解析し、その結果を示す眼球運動情報を注視状況解析部 42に渡す (ス テツプ S 13)。
[0047] 続いて、注視状況解析部 42は、眼球運動解析部 43によって解析された視線方向 に表示される操作メニュー上の操作対象を、操作対象領域情報格納部 3に格納され た操作対象領域情報が示す操作対象の領域ごとの位置情報に基づいて特定するこ とによって、利用者が注視している操作対象を特定する (ステップ S14)。具体的には 、注視状況解析部 42は、例えば、視線方向と一致する操作対象を特定し、特定した 操作対象及びその付近において、一定時間以上の視線停留時間が存在したり、視 線移動軌跡が描かれたりした場合に、操作対象を有効に特定できたと判断する。
[0048] その結果、操作対象を有効に特定できた場合には (ステップ S15で Yes)、注視状 況解析部 42は、眼球運動解析部 43で得られた眼球運動情報に基づいて、利用者 の注視状態が集中モード (集中して注視して 、る状態)か非集中モード (集中して ヽ ない状態)かのモード判定を行う(ステップ S16)。具体的には、以下の条件でモード 判定を行う。
(1)計測された瞬目数≤ 20
→視覚情報処理に熱中しており、集中モードと判定する。
(2) (瞬目数 > 20) & (1〜2秒の間に数回の瞬目群発がある)
→覚醒水準が低下し、非集中モードと判定する。
(3)瞬目の動特性が有意に(一定のしき!/、値より)長!、
→非集中モードと判定する。
(4)計測された瞳孔径≤ 3mm
→縮瞳しており、非集中モードと判定する。
(5) (瞳孔径> 5111111)
→散瞳しており、覚醒度が高ぐ集中モードと判定する。
(6)瞳孔の動特性が遅く(一定のしきい値より小さい)、かつ、若者瞳孔(2mm≤瞳孔 径≤8111111)、かつ、縮瞳
→非集中モードと判定する。
(7)瞳孔の動特性が遅く(一定のしきい値より大きい)、かつ、老人瞳孔(瞳孔径≤6 mm)、かつ、散瞳
→集中モードと判定する。
[0049] このとき、上記条件(1)〜(7)によって集中モード及び非集中モードと判定される結 果が混在した場合には、注視状況解析部 42は、例えば、判定数の多い結果 (集中 モード Z非集中モード)を採用する。
[0050] その結果、注視状況解析部 42によって注視状態が集中モードと判定された場合は
(ステップ S 17で Yes)、続いて、表示制御部 41は、操作対象に対する操作が行われ た力否かを判断する (ステップ S18)。例えば、リモコン 8による操作を監視することで 、利用者が操作対象を集中して注視し始めてから一定時間内にその操作対象に対 する操作を行ったカゝ否かを判断する。
[0051] その結果、その操作対象に対する操作が行われなカゝつた場合に (ステップ S 18で N 〇)、表示制御部 41は、誘導操作が必要なケースが発生していると判断し、その操作 対象に対する操作の誘導のための表示制御を行う(ステップ S19)。このとき、表示制 御部 41は、例えば、上記条件(1)〜(7)のうちの 1個の条件によって集中モードと判 定された場合には、操作対象を表示部 2に表示する際のコントラスト、輝度、色調、表 示サイズのうちの少なくとも 1つを変更する、あるいは操作対象を強調表示(立体表示 や点滅など)にする第 1の出力モードで表示制御し、上記条件(1)〜(7)のうちの 2個 の条件によって集中モードと判定された場合には、表示部 2に所定のメッセージを表 示する第 2の出力モードで表示制御し、上記条件(1)〜(7)のうちの 3個以上の条件 によって集中モードと判定された場合には、第 1又は第 2の出力モードによる表示制 御に音声メッセージを加えた第 3の出力モードで表示制御するというように、利用者 の集中の程度に応じて出力モードを切り替える。
[0052] あるいは、出力モードの他の切り替え例として、例えば、第 1の出力モードで操作対 象を表示し、一定時間(5秒等)経過しても利用者が操作しない場合に第 2の出力モ ードに切り替え、さらに一定時間(さらに 5秒等)経過しても利用者が操作しない場合 に第 3の出力モードに切り替えるというように、操作が行われない時間の経過に伴つ てより親切な出力モードに切り替えて 、く方式でもよ 、。
[0053] なお、操作対象が有効に特定されな力つた場合 (ステップ S15で No)、あるいは、 注視状態が非集中モードであると判定された場合 (ステップ S 17で No)、あるいは、 操作対象に対する操作が一定時間内に行われた場合 (ステップ S 18で Yes)には、 操作の誘導が必要でないと判断され、特別な表示制御は行われず、表示部 2には通 常の操作メニュー等が表示されたままの状態となる。
[0054] このように、本実施形態における操作誘導装置 1によれば、利用者の眼球運動に基 づいて、利用者が操作対象を集中して注視しているにも拘わらず、その操作対象に 対する操作が行われなカゝつた場合、つまり、利用者が真に操作の誘導を必要として いる場合が推定され、そのような場合にだけ、機器操作の誘導が行われる。これによ り、機器操作のガイダンスやヘルプ機能にっ ヽての煩わしさが解消される。
[0055] 次に、本実施形態における操作誘導装置 1の具体的な動作例について説明する。
ここでは、テレビ 7の番組選択を例として説明する。
[0056] まず、利用者のテレビ 7に対する基本的な操作手順の流れを説明する。図 9は、「番 組表から見る」操作の流れを示すフローチャートである。図 10は、その操作を説明す るためのリモコン 8の外観図である。
[0057] 番組表力 見た 、番組を選択する場合、利用者は、まず、見た 、放送 (放送の種 別)を選ぶ (ステップ S21)。具体的には、図 10に示されるように、リモコン 8の左側の 縦に配列されている 4つのボタン B1を選択することで、地上アナログ Z地上ディジタ ル ZBSZCSのどれかに切り替える。
[0058] 続、て、「番組表」のボタン B2を押す (ステップ S 22)。これによつて、テレビ 7の画面 が切り替わり、図 11に示されるような、番組表から見たい番組を選択するための GUI 表示例になる。
[0059] そこで、利用者は、「矢印」及び「決定」ボタン B3を用いて、番組表から見たい番組 を選んで決定する (ステップ S 23)。すると、選択された番組内容が表示される (ステツ プ S24)。
[0060] 図 12は、操作対象領域情報格納部 3に格納されている操作対象領域情報、つまり 、表示部 2 (画面)上の注視点から注視対象となる GUI部品を同定するために必要な 情報テーブルの例を示す図である。
[0061] 図 11に示される表示例では、画面上の表示領域として、日付表示領域 R1、番組 表操作領域 R2、日付変更領域 R3、番組情報提示領域 R4があり、各領域 R1〜R4 には、図 12に示されるテーブルのように、 GUI部品(操作対象)の「番号」、「画像領 域名」、「表示画像アドレス」、「枚数」、「領域座標」、「リモコン対応キー」に関する情 報が対応づけられている。
[0062] ここで、「画像領域名」には、日付表示領域、番組表操作領域、日付変更領域、番 組表提示領域等の名前が格納されている。「表示画像アドレス」には、画面領域に表 示された表示画像が格納されているメモリのアドレスが格納されている。「枚数」には 、上記表示画像の枚数が格納されている。複数枚数の表示画像によって、ボタンを 押した時の反転画像やアニメーション表示が可能になる。「領域座標」には、表示画 像を表示する表示部 2 (画面)上の座標が格納されて 、る。「リモコン対応キー」には、 画面領域に対応するリモコン 8のボタンやキーの IDと個数が格納されている。
[0063] これらの情報により、表示画面とリモコン 8のボタンとが動的に対応付けられる。例え ば、図 13に、番組表から見たい番組を選んで決定する操作で使用されるリモコン 8の ボタンと操作対象との対応関係の例を示す。リモコン 8には、 日付変更領域 R3の操 作用ボタン B4、番組表操作領域 R2の操作用ボタン B5、番組情報提示領域 R4の操 作用ボタン B3が存在する力 画面表示されている GUIの位置と必ずしも一致した位 置には配置されていない。
[0064] 次に、上述した番組選択における操作手順にぉ ヽて、操作の誘導が必要とされる 確率が高い手順、つまり、利用者が戸惑いがちな手順の例を説明する。ここでは、そ のような手順の例として、「今日の番組表」から「明日の番組表」に切り替える操作の 流れを示すフローチャート (利用者が操作手順を戸惑うことなくスムーズに実行した場 合)を図 14に示す。図 15は、その操作を説明するためのリモコン 8の外観図である。
[0065] 利用者は、図 12に示される番組表から、見たい番組を選択するための GUI表示画 面上の日付変更領域 R3に注視対象を移す (ステップ S31)。続いて、利用者は、翌 日ボタン(図 15に示される黄色いボタン B41)を注視し確認した後に (ステップ S32) 、リモコン 8の黄色いボタン B41を押す (ステップ S33)。そして、利用者は、番組表が 翌日の情報に更新されたことを確認する (ステップ S34)。
[0066] 次に、このような「今日の番組表」から「明日の番組表」への切り替え操作における 本実施形態の操作誘導装置 1の具体的な動作について説明する。
[0067] 図 16は、利用者が「今日の番組表」から「明日の番組表」に切り替える操作におけ る操作誘導装置 1の動作手順を示すフローチャートである。
[0068] まず、注視状況解析部 42は、操作対象を特定する (ステップ S41)。ここでは、注視 状況解析部 42は、眼球運動解析部 43による眼球運動の解析結果 (視線方向等)と 操作対象領域情報格納部 3に格納された操作対象領域情報とを照合することで、利 用者の注視対象が表示部 2に表示された日付変更領域 R3であることを特定する。 [0069] 続ヽて、注視状況解析部 42は、注視状態が集中モードであるかどうかを判定する( ステップ S42)。その結果、注視状態が集中モードでない (非集中モードである)と判 定された場合には (ステップ S42で No)、この手順における操作誘導が不要であると 判断し、特別な操作誘導は行われない。一方、注視状態が集中モードであると判定 された場合には (ステップ S42で Yes)、表示制御部 41は、続いて、 日付変更領域 R 3に対する操作、つまり、翌日ボタン(リモコン 8の黄色いボタン B41)が押されたか否 か判断する (ステップ S43)。
[0070] その結果、翌日ボタンが押された場合には (ステップ S43で Yes)、番組表が翌日の 情報に更新されるが (ステップ S45)、一方、翌日ボタンが押されない場合には (ステ ップ S43で No)、表示制御部 41は、表示部 2に表示された日付変更領域 R3に注視 対象を移すように操作誘導を行う (ステップ S44)。操作誘導として、 日付表示領域 R 1の強調表示 (アニメーション、色変化、矢印等)や音声案内などを行う。具体的には 、図 17の表示例に示されるように、利用者の集中の程度に応じて、リモコン 8上の日 付変更領域 (黄色いボタン B41)に利用者が注視対象を移すように、表示部 2にリモ コン 8の画像を表示し、表示したリモコン上の黄色いボタンに操作誘導するために日 付表示領域 R1を強調表示 (アニメーション、色変化、矢印等の表示)するか、音声で 「リモコンの黄色 、ボタンを押してくださ 、」などの音声案内を行う。
[0071] このとき、図 17に示される「今日の番組表」から「明日の番組表」に切り替える操作 誘導の複数段階による 2重画面の表示例のように、表示制御部 41は、(1)第 1段階と して、 日付変更領域 R3を強調表示し、それでも、利用者が次に行う操作が理解でき ない場合、(2)第 2段階として、翌日ボタンに対応するリモコン 8の位置を子画面に表 示、あるいは Zかつ、「リモコン 8の黄色いボタンを押してください」という音声案内を 行う、というように、時間の経過に伴って操作誘導の程度を変化させてもよい。
[0072] このような操作誘導によって、利用者は、翌日ボタンを押すことによって「今日の番 組表」から「明日の番組表」に切り替えることができると気付き、翌日ボタンを押す。こ れによって、番組表は、翌日の情報に更新される (ステップ S45)。
[0073] このように、第 1の実施形態では、利用者の注視状態と注視対象を推定すること〖こ より、本当に必要な時に、必要なだけの操作誘導を行うための画面の表示制御ある いは音声案内付き表示が行われる。つまり、人間の生理情報を取得するための映像 信号取得部を有することで、利用者の注視状態や注視対象が解析でき、次期操作を 行う必要のある操作画面領域に利用者の注視対象が入っていて、かつ、注視状態が 集中モードである場合など、本当に必要な場合だけ、音声やアニメーションによる表 示制御を行い、誘導喚起が行われるので、煩わしくないインターフェースが実現でき 、快適性と利便性が向上される。
[0074] なお、表示制御の手法としては、上述の輝度'コントラスト調整の他に、画面の色調 を変更しても良い。更に、画面に表示する画像をその部分だけ拡大して表示してもよ い。
[0075] (第 2の実施形態)
次に、本発明の第 2の実施形態について説明する。
[0076] 図 18は、本発明の第 2の実施形態に係る操作誘導装置 10の機能構成を示すプロ ック図である。操作誘導装置 10は、第 1の実施形態の操作誘導装置に、利用者がど のような操作をしょうとして 、るかを推定する機能を付加したものに相当し、表示部 12 、操作対象領域情報格納部 13、映像信号処理部 14、映像信号取得部 15、利用者 意図推定部 16及び入力部 17を備えて ヽる。
[0077] なお、操作誘導装置 10が備える構成要素のうち、表示部 12、操作対象領域情報 格納部 13、映像信号処理部 14及び映像信号取得部 15は、それぞれ、第 1の実施 形態における表示部 2、操作対象領域情報格納部 3、映像信号処理部 4及び映像信 号取得部 5が有する機能を備える。たとえば、映像信号処理部 14は、第 1の実施形 態における映像信号処理部 4が有する構成要素 41〜44と同一のものを有する。以 下、第 1の実施形態と異なる点を中心に説明する。
[0078] 入力部 17は、利用者による操作指示を取得する処理部であり、図 1に示されるリモ コン 8等に相当する。
[0079] 操作対象領域情報格納部 13は、操作対象領域情報に加えて、図 19に示されるよ うな利用者意図理解支援用情報を格納している。利用者意図理解支援用情報は、 利用者の操作に関する意図と利用者の眼球運動を伴う行動上の特徴とを対応づけ たテーブルであり、その意図を識別する「番号」、その意図の名前を示す「利用者意 図名」、行動上の特徴を記述した情報の格納場所を示す「注視行動 DBアドレス」、そ の特徴に属する行動の個数を示す「個数」、その行動を識別する「行動名 ID」等から なる。なお、図 19に示されたテーブルにおける「行動名→対処法」は、「注視行動 DB アドレス」で示される格納場所に格納された行動上の特徴を示す情報の内容例であ る。例えば、「日付変更」という「利用者意図名」を持っている番号 1のデータでは、「 行動名→対処法」に記載されているように、「表示部 12に表示された日付変更領域と リモコンとを交互に注視している場合には、 日付を変更したいが操作方法がわ力もな
V、」 、う行動上の特徴を記述した情報が登録されて 、る。
[0080] 利用者意図推定部 16は、利用者がどのような操作をしょうとしているかを推定する 処理部であり、入力部 17、操作対象領域情報格納部 13及び映像信号処理部 14と 連動して動作する。具体的には、利用者意図推定部 16は、入力部 17からの入力が 一定時間内になされず、かつ、次に操作される操作対象が定まっていない場合には 、操作対象領域情報格納部 13に格納された利用者意図理解支援用情報を参照す ることで、映像信号処理部 14から得られる注視対象及び注視状態に関する利用者 情報に対応する利用者の操作に関する意図を特定し、特定した意図を利用者の意 図として推定する。そして、利用者意図推定部 16は、推定した意図に対応する操作 対象、あるいは、予め定まっている場合にはその操作対象を、次期操作に係る操作 対象として、映像信号処理部 14に通知する。
[0081] 映像信号処理部 14は、利用者意図推定部 16からの依頼コマンドを受けて、注視 状況解析部 42で解析された利用者の注視対象及び注視状態に関する利用者情報 を利用者意図推定部 16に返信する。また、映像信号処理部 14の表示制御部 41は 、注視状況解析部 42によって特定された操作対象が、利用者意図推定部 16から通 知される次期操作に係る操作対象と一致し、かつ、利用者がその操作対象を集中し て注視していると注視状況解析部 42によって推定され、かつ、その操作対象に対す る操作が行われな ヽ場合にだけ、操作を誘導するための表示制御を行う。
[0082] 次に、以上のように構成された本実施形態における操作誘導装置 10の動作につ いて説明する。
[0083] 図 20は、操作誘導装置 10による利用者意図の推定を中心とした動作を示すフロ 一チャートである。まず、利用者意図推定部 16は、入力部 17からの入力を一定時間 待つ (ステップ S51)。一定時間待っても利用者からの入力がない場合、利用者状態 の推定処理に進む。
[0084] ここで、利用者意図推定部 16は、実行したい操作指示が利用者力も既に入力され ているか、あるいは、実行したい機能の要求が既に出されているかどうかをチェックす る(ステップ S 52)。
[0085] その結果、操作指示が既に入力されて 、る力、あるいは、機能要求が既に出されて いる場合には (ステップ S52で Yes)、利用者意図推定部 16は、その操作指示、ある いは、機能要求に対応する操作対象を映像信号処理部 14に通知する (ステップ S5 4)。一方、操作指示が既に入力されておらず、かつ、機能要求が既に出されていな い場合には (ステップ S52で No)、利用者意図推定部 16は、操作対象領域情報格 納部 13及び映像信号処理部 14と連動して利用者の意図を推定し (ステップ S53)、 その意図に対応する操作対象、つまり、次期操作の対象となる操作対象を映像信号 処理部 14に通知する(ステップ S54)。
[0086] そして、次期操作対象の通知を受けた映像信号処理部 14の表示制御部 41は、注 視状況解析部 42によって特定された操作対象が、利用者意図推定部 16から通知さ れた次期操作に係る操作対象と一致し、かつ、利用者がその操作対象を集中して注 視していると注視状況解析部 42によって推定され、かつ、その操作対象に対する操 作が行われて 、な ヽ (操作が停滞して 、る)力否かを判断し (ステップ S55)、それら の条件が満たされて 、ると判断した場合にだけ (ステップ S55で Yes)、操作を誘導 するための表示制御を行う(ステップ S56)。
[0087] 図 21は、利用者意図推定部 16での処理の詳細な流れを示すフローチャートである 。利用者意図推定部 16は、映像信号処理部 14に対して、ある一定時間の注視対象 及び注視状態に関する利用者情報を得るためのコマンドを送り、注視に関する利用 者情報を得る (ステップ S61)。
[0088] そして、利用者意図推定部 16は、操作対象領域情報格納部 13に格納してある利 用者意図理解支援情報及び操作対象領域情報を参照することで、映像信号処理部 14から得られた利用者情報を元に、利用者の意図を推定し、推定された利用者意 図番号、あるいは、推定された意図に対応する操作対象を映像信号処理部 14に通 知する (ステップ S62)。つまり、利用者意図推定部 16は、利用者意図理解支援用情 報における「行動名→対処法」のうち、「行動名(条件節)」について、映像信号処理 部 14から得られた注視対象及び注視状態に関する利用者情報と一致するものを特 定し、特定した「行動名(条件節)」に対応する「対処法」に示される操作対象を、次期 操作に係る操作対象として、映像信号処理部 14に通知する。
[0089] このようにして、本実施の形態における操作誘導装置 10によれば、利用者が注視 している操作対象が次に操作されるものであり、かつ、利用者がその操作対象を集 中して注視しているが、その操作対象に対する操作が行われない場合にだけ、操作 を誘導するための表示制御が行われる。よって、利用者が真に操作の誘導を必要と している場合にだけ、機器操作の誘導が行われ、これにより、機器操作のガイダンス やヘルプ機能についての煩わしさが解消され、操作インターフェースにおける快適 性と利便性が向上される。
[0090] 以上、本発明に係る操作誘導装置について、第 1及び第 2の実施形態に基づいて 説明したが、本発明は、これらの実施の形態に限定されるものではない。
[0091] たとえば、各実施形態における構成要素を任意に組み合わせて実現される操作誘 導装置も本発明に含まれる。
[0092] また、上記第 2の実施形態では、次期操作の対象は、利用者意図理解支援情報と そのときの利用者の眼球運動に基づいて推定されたが、次期操作の対象の推定に ついては、この手法だけに限られず、例えば、予め内部に記憶された典型的な操作 手順を示すデータに従って推定してもよ ヽ。
[0093] また、上記実施形態では、本発明に係る操作誘導装置は、テレビに組み込まれて 適用されたが、本発明は、テレビだけでなぐパーソナルコンピュータや各種案内装 置等の表示画面を備えるあらゆる種類の機器用の操作誘導装置として適用すること ができる。
産業上の利用可能性
[0094] 本発明は、利用者による機器操作を誘導する操作誘導装置として、例えば、テレビ 等の画面を備える電子機器用の操作誘導装置として、特に、ディジタルデバイドの問 題にも対応した操作誘導装置、高齢者に適した操作誘導装置等として有用である。

Claims

請求の範囲
[1] 利用者による機器操作を誘導する操作誘導装置であって、
前記機器操作のための操作メニューを表示する表示手段と、
前記操作メニューにおける操作対象の領域を特定する情報である操作対象領域情 報を格納して ヽる操作対象領域情報格納手段と、
前記利用者の顔を映し出した映像信号を取得する映像信号取得手段と、 前記映像信号取得手段が取得した映像信号が示す画像から利用者の顔画像を切 り出す画像切り出し手段と、
前記画像切り出し手段によって切り出された顔画像における眼球の運動を解析す る眼球運動解析手段と、
前記眼球運動解析手段による解析結果と前記操作対象領域情報格納手段に格納 された操作対象領域情報とから、利用者が注視している操作対象を特定するとともに 、前記利用者が前記操作対象を集中して注視しているか否かを示す注視状態を推 定する注視状況解析手段と、
前記利用者が前記操作対象を集中して注視していると前記注視状況解析手段〖こ よって推定され、かつ、前記操作対象に対する操作が行われない場合に、前記操作 対象に対する操作を誘導するための表示制御を前記表示手段に対して行う表示制 御手段と
を備えることを特徴とする操作誘導装置。
[2] 前記眼球運動解析手段は、前記利用者の視線方向を解析し、
前記注視状況解析手段は、前記眼球運動解析手段によって解析された視線方向 に表示される前記操作メニュー上の操作対象を、前記操作対象領域情報が示す操 作対象の領域ごとの位置情報に基づいて特定することによって、前記利用者が注視 して ヽる操作対象を特定する
ことを特徴とする請求項 1記載の操作誘導装置。
[3] 前記眼球運動解析手段は、前記利用者の瞬目率、瞼を閉じるのに要する時間、瞼 を開くのに要する時間、及び、瞳孔径の少なくとも 1つを解析し、
前記注視状況解析手段は、前記眼球運動解析手段によって解析された瞬目率が 予め定めた一定値以下である場合、瞼を閉じるのに要する時間が予め定めた一定 値以下である場合、瞼を開くのに要する時間が予め定めた一定値以下である場合、 又は、瞳孔径が予め定めた一定値よりも大きい場合に、前記利用者が前記操作対象 を集中して注視して!/、ると判断する
ことを特徴とする請求項 1記載の操作誘導装置。
[4] 前記表示制御手段は、前記操作対象に対する操作を誘導するための表示制御と して、前記操作対象を前記表示手段に表示する際のコントラスト、輝度、色調、表示 サイズのうちの少なくとも 1つを変更する第 1の出力モードと、前記表示手段に所定の メッセージを表示する第 2の出力モードと、前記第 1又は第 2の出力モードによる表示 制御に音声メッセージを加えた第 3の出力モードとを、前記注視状況解析手段によつ て推定された前記利用者の集中の程度に応じて、切り替える
ことを特徴とする請求項 1記載の操作誘導装置。
[5] 前記操作誘導装置はさらに、前記利用者がどのような操作をしょうとしているかを推 定する利用者意図推定手段を備え、
前記表示制御手段は、前記注視状況解析手段によって特定された操作対象が前 記利用者意図推定手段によって推定された操作に対応する操作対象と一致し、か つ、前記利用者が前記操作対象を集中して注視していると前記注視状況解析手段 によって推定され、かつ、前記操作対象に対する操作が行われない場合に、前記表 示制御を行う
ことを特徴とする請求項 1記載の操作誘導装置。
[6] 前記操作対象領域情報格納手段はさらに、利用者の操作に関する意図と利用者 の眼球運動を伴う行動上の特徴とを対応づけたテーブルである利用者意図理解支 援用情報を格納し、
前記利用者意図推定手段は、前記操作対象領域情報格納手段に格納された利用 者意図理解支援用情報を参照することで、前記眼球運動解析手段で解析された利 用者の眼球運動に対応する利用者の操作に関する意図を特定し、特定した意図を 前記利用者の意図として推定する
ことを特徴とする請求項 5記載の操作誘導装置。
[7] 表示装置に表示された操作メニューに対する利用者による操作を誘導する操作誘 導方法であって、
前記利用者の顔を映し出した映像信号を取得する映像信号取得ステップと、 前記映像信号取得ステップで取得した映像信号が示す画像から利用者の顔画像 を切り出す画像切り出しステップと、
前記画像切り出しステップで切り出された顔画像における眼球の運動を解析する眼 球運動解析ステップと、
前記眼球運動解析ステップによる解析結果と前記操作メニューにおける操作対象 の領域を特定する情報である操作対象領域情報とから、利用者が注視して 、る操作 対象を特定するとともに、前記利用者が前記操作対象を集中して注視しているか否 かを示す注視状態を推定する注視状況解析ステップと、
前記利用者が前記操作対象を集中して注視していると前記注視状況解析ステップ によって推定され、かつ、前記操作対象に対する操作が行われない場合に、前記操 作対象に対する操作を誘導するための表示制御を前記表示装置に対して行う表示 制御ステップと
を含むことを特徴とする操作誘導方法。
[8] 表示装置に表示された操作メニューに対する利用者による操作を誘導するための プログラムであって、
請求項 7記載の操作誘導方法に含まれるステップをコンピュータに実行させる ことを特徴とするプログラム。
PCT/JP2007/057914 2006-06-21 2007-04-10 操作誘導装置及び操作誘導方法 WO2007148465A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-171938 2006-06-21
JP2006171938A JP2008003816A (ja) 2006-06-21 2006-06-21 操作誘導装置及び操作誘導方法

Publications (1)

Publication Number Publication Date
WO2007148465A1 true WO2007148465A1 (ja) 2007-12-27

Family

ID=38833208

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/057914 WO2007148465A1 (ja) 2006-06-21 2007-04-10 操作誘導装置及び操作誘導方法

Country Status (2)

Country Link
JP (1) JP2008003816A (ja)
WO (1) WO2007148465A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010143377A1 (ja) * 2009-06-08 2010-12-16 パナソニック株式会社 注視対象判定装置及び注視対象判定方法
CN111596760A (zh) * 2020-04-30 2020-08-28 维沃移动通信有限公司 操作控制方法、装置、电子设备及可读存储介质
CN112711325A (zh) * 2019-10-25 2021-04-27 华为终端有限公司 一种控制输出操作提示的方法及终端
JP2022132349A (ja) * 2017-04-14 2022-09-08 マジック リープ, インコーポレイテッド マルチモーダル眼追跡

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101596890B1 (ko) 2009-07-29 2016-03-07 삼성전자주식회사 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법
JP5293570B2 (ja) * 2009-11-16 2013-09-18 富士通株式会社 表示装置、表示プログラム及び表示方法
JP5915000B2 (ja) 2011-06-13 2016-05-11 ソニー株式会社 情報処理装置及びプログラム
EP2754028A4 (en) * 2011-09-08 2015-08-12 Intel Corp VISUALIZATION OF INTERACTIVE SCREEN
JP6326901B2 (ja) * 2014-03-26 2018-05-23 富士ゼロックス株式会社 画像処理装置およびプログラム
JP6494466B2 (ja) * 2015-08-06 2019-04-03 三菱電機株式会社 機器制御装置、機器制御システム、機器制御方法及び機器制御プログラム
JP6597429B2 (ja) * 2016-03-18 2019-10-30 沖電気工業株式会社 情報処理装置、情報処理方法、情報処理システム
JP6733461B2 (ja) * 2016-09-28 2020-07-29 沖電気工業株式会社 情報処理装置および情報処理方法
JP7291779B2 (ja) * 2019-03-20 2023-06-15 株式会社Nttドコモ 情報生成装置、及び制御システム
CN110191369A (zh) * 2019-06-06 2019-08-30 广州酷狗计算机科技有限公司 图像截取方法、装置、设备及存储介质
JP7387493B2 (ja) 2020-03-06 2023-11-28 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328715A (ja) * 1995-05-31 1996-12-13 Matsushita Electric Ind Co Ltd 無人端末装置
JPH09262216A (ja) * 1996-03-28 1997-10-07 Nec Corp 集中度推定装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328715A (ja) * 1995-05-31 1996-12-13 Matsushita Electric Ind Co Ltd 無人端末装置
JPH09262216A (ja) * 1996-03-28 1997-10-07 Nec Corp 集中度推定装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010143377A1 (ja) * 2009-06-08 2010-12-16 パナソニック株式会社 注視対象判定装置及び注視対象判定方法
JPWO2010143377A1 (ja) * 2009-06-08 2012-11-22 パナソニック株式会社 注視対象判定装置及び注視対象判定方法
US8678589B2 (en) 2009-06-08 2014-03-25 Panasonic Corporation Gaze target determination device and gaze target determination method
JP5460691B2 (ja) * 2009-06-08 2014-04-02 パナソニック株式会社 注視対象判定装置及び注視対象判定方法
JP2022132349A (ja) * 2017-04-14 2022-09-08 マジック リープ, インコーポレイテッド マルチモーダル眼追跡
JP7455905B2 (ja) 2017-04-14 2024-03-26 マジック リープ, インコーポレイテッド マルチモーダル眼追跡
CN112711325A (zh) * 2019-10-25 2021-04-27 华为终端有限公司 一种控制输出操作提示的方法及终端
CN111596760A (zh) * 2020-04-30 2020-08-28 维沃移动通信有限公司 操作控制方法、装置、电子设备及可读存储介质

Also Published As

Publication number Publication date
JP2008003816A (ja) 2008-01-10

Similar Documents

Publication Publication Date Title
WO2007148465A1 (ja) 操作誘導装置及び操作誘導方法
US7716697B2 (en) Information processing system, information processing apparatus, and method
JP4399513B2 (ja) 脳波インタフェースシステム、脳波インタフェース装置、方法およびコンピュータプログラム
JP3993882B2 (ja) 生体信号利用機器およびその制御方法
US7536270B2 (en) Service providing system, disappointment judging system, and disappointment judging method
JP4287903B2 (ja) 脳波インタフェースシステムおよび起動装置
JP4856791B2 (ja) 脳波インタフェースシステム、脳波インタフェース提供装置、脳波インタフェースの実行方法、および、プログラム
EP2081100B1 (en) Adjusting device for brain wave identification method, adjusting method and computer program
US20100130882A1 (en) Apparatus, method and program for adjusting distinction method for electroencephalogram signal
JPWO2006093074A1 (ja) 電子表示媒体および電子表示媒体に用いられる画面表示制御方法
CN112118380A (zh) 相机操控方法、装置、设备及存储介质
JP5181853B2 (ja) ガイダンス方法、その装置、そのプログラム及び機器
JP2010102465A (ja) Gui変更方法及び変更装置
US11616903B2 (en) Method and system for assisting a user who is looking at a screen of a user device
US8326409B2 (en) Adjustment device, method, and computer program for a brainwave identification system
JP4686299B2 (ja) ユーザビリティ評価装置、ユーザビリティ評価方法およびプログラム
KR102191966B1 (ko) 디스플레이 장치 제어 방법 및 장치
CN112817550A (zh) 一种数据处理方法及装置
JP2009010849A (ja) 電子機器の制御装置
WO2023238703A1 (ja) 情報処理装置、情報処理方法、プログラム
CN114845165A (zh) 界面显示方法、装置、设备及可读存储介质
JP2016063524A (ja) 映像表示装置、視聴制御装置及び視聴制御プログラム
Van Tonder The development and evaluation of gaze selection techniques

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07741350

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07741350

Country of ref document: EP

Kind code of ref document: A1