WO2010061520A1 - 操作支援装置及びその方法 - Google Patents

操作支援装置及びその方法 Download PDF

Info

Publication number
WO2010061520A1
WO2010061520A1 PCT/JP2009/005535 JP2009005535W WO2010061520A1 WO 2010061520 A1 WO2010061520 A1 WO 2010061520A1 JP 2009005535 W JP2009005535 W JP 2009005535W WO 2010061520 A1 WO2010061520 A1 WO 2010061520A1
Authority
WO
WIPO (PCT)
Prior art keywords
selection
user
item
history
load
Prior art date
Application number
PCT/JP2009/005535
Other languages
English (en)
French (fr)
Inventor
井上剛
小澤順
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2010511846A priority Critical patent/JP4571234B2/ja
Priority to US12/865,919 priority patent/US8438479B2/en
Priority to CN2009801200360A priority patent/CN102047213A/zh
Publication of WO2010061520A1 publication Critical patent/WO2010061520A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47214End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for content reservation or setting reminders; for requesting event notification, e.g. of sport results or stock market
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection

Definitions

  • the present invention relates to an operation support apparatus and method for a device having various functions such as a computer that executes an application program, an electrical appliance, or an AV (Audio / Visual) device.
  • the present invention relates to an operation support apparatus and method for estimating a user's target function from a user's operation history and using the estimation result to assist the user's operation.
  • a technique for supporting user operations using the user operation history has been proposed.
  • a help display device has been proposed that searches for a function highly relevant to a key operation input made through trial and error and presents an operation description related to the function (see, for example, Patent Document 1).
  • the target function is estimated using the operation history until immediately before the user makes an operation support request. This is based on the assumption that the user performs an operation related to the target function until immediately before making an operation support request.
  • the user examines the possibility of reaching the target function for the operation that has not yet been performed, prioritizes the operation, and executes from the operation with the higher priority .
  • the user stops examining the possibility of reaching the target function for each operation, and performs the operation as desired.
  • the operation performed randomly the user does not examine the possibility.
  • the operation is performed while considering that the relationship with the target function is low. For this reason, in the following, an operation performed randomly is also described as a non-thought operation.
  • the present invention has been made to solve the above-described problem, and even when a user makes an operation support request after performing a random operation, the operation history performed by the user is determined and deleted. It is an object of the present invention to provide an operation support apparatus and an operation support method capable of providing a user with more appropriate operation support by presenting a target function with high estimation accuracy to the user.
  • the present invention considers that a non-thought operation performed without considering the possibility of reaching the target function, or that the relevance to the target function is low, and the user is more optimal for thinking in a non-thought operation performed at random. It is based on the idea of performing an operation with a small operation load rather than selecting an operation.
  • An operation support apparatus is an operation support apparatus that supports an operation of a device for a user, and an operation history storage unit that stores a history of selection operations performed by the user for executing the function of the device; For the selection operation stored in the operation history storage unit, the operation load of the user when performing the selection operation is determined based on the selection operation and another selection operation before the selection operation included in the history. For the operation load calculation unit to be calculated and the selection operation stored in the operation history storage unit, the smaller the operation load of the user calculated by the operation load calculation unit, the more the selection operation A no-thought operation determination unit that determines whether or not the selection operation is the no-thought operation by determining that the selection operation is a no-thought operation that is performed randomly. Serial based on the selection operation history said excluding the determined selection operation to be no thoughts operated without thinking operation determination unit, and an operation support portion for supporting the operation on the user.
  • the operation load is calculated for each selection operation from the history of the user's selection operation, and the selection operation with a small operation load is determined as a non-thought operation. For this reason, it is possible to estimate a function intended by the user, excluding a non-thought operation that causes a decrease in the accuracy of function estimation. Therefore, it is possible to estimate the target function with high accuracy and to perform more appropriate operation support for the user.
  • the present invention can be realized not only as an operation support apparatus including such a characteristic processing unit, but also as an operation support method using a characteristic processing unit included in the operation support apparatus as a step. Can do. It can also be realized as a program that causes a computer to execute characteristic steps included in the operation support method. Such a program can be distributed via a recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet.
  • a recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet.
  • the operation history used for purpose estimation is performed without considering the possibility that the user can reach the target function, or the user has a low relationship with the target function. It is possible to delete unthinking operations performed while thinking. For this reason, it is possible to estimate the purpose with higher accuracy and to perform appropriate operation support for the user.
  • FIG. 1 is a functional block diagram showing the configuration of the operation support apparatus according to the embodiment of the present invention.
  • FIG. 2 is a flowchart showing main operations performed by the user in the embodiment of the present invention.
  • FIG. 3 is a flowchart showing main processing executed by the operation support apparatus according to the embodiment of the present invention.
  • FIG. 4 is a diagram showing a data example of screen information stored in the screen information storage unit in the embodiment of the present invention.
  • FIG. 5 is a diagram showing an example of a screen of the recording device in the embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of operation history data stored in the operation history storage unit according to the embodiment of the present invention.
  • FIG. 7 is a diagram showing a menu hierarchy example of the function selection screen in the embodiment of the present invention.
  • FIG. 1 is a functional block diagram showing the configuration of the operation support apparatus according to the embodiment of the present invention.
  • FIG. 2 is a flowchart showing main operations performed by the user in the embodiment of the present
  • FIG. 8 is a diagram showing a screen change corresponding to the operation history in the embodiment of the present invention.
  • FIG. 9A is a diagram showing an example of operation history data stored in the operation history storage unit in the embodiment of the present invention.
  • FIG. 9B is a diagram showing an example of a function selection screen for explaining the operation history shown in FIG. 9A.
  • FIG. 10 is a diagram illustrating an example of operation history data stored in the operation history storage unit according to the embodiment of the present invention.
  • FIG. 11 is a diagram showing an example of the design of the remote controller according to the embodiment of the present invention.
  • FIG. 12 is a flowchart showing the processing of the operation load calculation unit in the embodiment of the present invention.
  • FIG. 13 is a diagram illustrating an example of operation history data stored in the operation history storage unit according to the embodiment of the present invention.
  • FIG. 14 is a diagram illustrating an example of operation history data stored in the operation history storage unit according to the embodiment of the present invention.
  • FIG. 15 is a flowchart illustrating processing executed by the non-thought operation determination unit according to the embodiment of the present invention.
  • FIG. 16 is a diagram illustrating an example of operation history data stored in the operation history storage unit according to the embodiment of the present invention.
  • FIG. 17 is a diagram illustrating an example of operation history data stored in the purpose estimation target function storage unit according to the embodiment of the present invention.
  • FIG. 18 is a diagram showing an example of data used for purpose estimation in the embodiment of the present invention.
  • FIG. 19A is a diagram showing an example of a screen output in the operation support in the embodiment of the present invention.
  • FIG. 19B is a diagram showing an example of a screen output in the operation support in the embodiment of the present invention.
  • FIG. 19C is a diagram showing an example of a screen output in the operation support in the embodiment of the present invention.
  • FIG. 20 is a diagram showing an example of a screen output in the operation support in the embodiment of the present invention.
  • FIG. 21 is a diagram illustrating an example of an operation screen of a device that uses the pointing device as an input unit according to the first modification of the embodiment of the present invention.
  • FIG. 22 is a diagram showing an example of operation history data stored in the operation history storage unit in the first modification of the embodiment of the present invention.
  • FIG. 23A is a first diagram for illustrating an operation load in Modification 1 of the embodiment of the present invention.
  • FIG. 23B is a second diagram for illustrating the operation load in the first modification of the embodiment of the present invention.
  • FIG. 24 is a flowchart showing main operations of the user in the second modification of the embodiment of the present invention.
  • FIG. 25 is a flowchart showing main processing of the operation support apparatus in Modification 2 of the embodiment of the present invention.
  • FIG. 26A is a diagram showing an example of a screen output in the operation support in the second modification of the embodiment of the present invention.
  • FIG. 26B is a diagram showing an example of a screen output in the operation support in the second modification of the embodiment of the present invention.
  • remote controller when a user who operates a recording device using a remote controller (hereinafter referred to as “remote controller”) cannot reach the target function and makes an operation support request, the menu items up to that point (menu screen)
  • selection history The operation of estimating the user's target function from the selection operation history displayed above and the button selection operation history (hereinafter referred to as “selection history”) and providing operation support to the user will be described. . Note that the selection operation does not include a movement operation such as movement of the cursor.
  • FIG. 1 is a block diagram showing a configuration of an operation support apparatus according to an embodiment of the present invention.
  • the operation support device 100 is a device that supports a user operation on a recording device that records a television program.
  • the operation support apparatus 100 includes a user operation input unit 101, a recording device operation execution unit 102, a screen information storage unit 103, an operation history storage unit 104, a timer 105, and an operation load calculation unit 106.
  • the operation support apparatus 100 further includes a non-thought operation determination unit 107, an operation support unit 112, and an output unit 111.
  • the recording device may be provided in the operation support apparatus 100 or may be provided separately from the operation support apparatus 100.
  • the operation history storage unit 104, the operation load calculation unit 106, the no-thought operation determination unit 107, and the operation support unit 112 are essential components in the present invention.
  • the other components are preferably components that are equipped. This is because the presence of essential components makes it possible to discriminate and delete the history of operations that have been performed at random. This is because more appropriate operation support can be provided to the user by presenting the target function with high estimation accuracy to the user.
  • the user operation input unit 101 is configured by a remote control or a touch panel, and is a processing unit that receives an operation input from the user to the recording device.
  • the screen information storage unit 103 is a storage device that stores various screen information including the screen information of the operation screen of the recording device.
  • the screen information on the operation screen of the recording device is information indicating a process or display screen executed by the recording device in response to an operation input. A specific example of the screen information will be described later.
  • the recording device operation execution unit 102 is a processing unit that executes the operation of the recording device based on the operation input from the user received by the user operation input unit 101. At that time, the recording device operation execution unit 102 refers to the screen information stored in the screen information storage unit 103 and specifies a function to be executed in response to an operation input or a screen to be displayed.
  • the operation history storage unit 104 is a storage device that stores a history of selection operations performed in order to execute a device function by a user. That is, the operation history storage unit 104 stores the operation history associated with the time information at the time of input and the state of the recording device, including the operation for selecting the function of the recording device, accepted by the user operation input unit 101. It is a storage device.
  • Timer 105 is a processing unit that acquires the current time.
  • the operation load calculation unit 106 is a processing unit that calculates the load of each operation of the user using the operation history stored in the operation history storage unit 104. That is, the operation load calculation unit 106 determines the user's operation load when performing the selection operation for the selection operation stored in the operation history storage unit 104 rather than the selection operation and the selection operation included in the history. Calculation is performed using the previous other selection operation.
  • the unthinking operation determination unit 107 is a processing unit that determines whether or not the user's operation is an operation performed randomly (non-thought operation) according to the operation load of each operation.
  • the unthinking operation determination unit 107 deletes the operation determined to be the unthinking operation from the operation history of the target for target estimation. That is, regarding the selection operation stored in the operation history storage unit 104, the unthinking operation determination unit 107 performs the selection operation gradually as the user's operation load calculated by the operation load calculation unit 106 decreases. By determining that the selected operation is a non-thought operation, it is determined whether or not the selection operation is a non-thought operation.
  • the operation support unit 112 is a processing unit that supports an operation for a user based on a history of selection operations excluding a selection operation determined as a non-thought operation by the non-thought operation determination unit 107.
  • the operation support unit 112 includes an objective function estimation unit 108, an objective estimation target function storage unit 109, and an operation support determination unit 110.
  • the purpose estimation target function storage unit 109 is a storage device that stores information regarding a function that is a target of target estimation (hereinafter referred to as a “target estimation target function”).
  • the objective function estimation unit 108 is a processing unit that estimates a function intended by the user. That is, the objective function estimation unit 108 uses the operation history in which the no-thought operation is deleted by the no-thought operation determination unit 107 and the information on the objective estimation target function stored in the objective estimation target function storage unit 109, Prioritize each function that is the target of purpose estimation.
  • the target function estimation unit 108 estimates each function as a function intended by the user as a function having a higher order.
  • the operation support determination unit 110 is a processing unit that determines an operation support method for the user based on the result of ranking the functions.
  • the output unit 111 is a processing unit that displays an execution result for the operation of the recording device executed by the recording device operation execution unit 102 and displays the operation support method determined by the operation support determination unit 110.
  • the output unit 111 is a display such as a television. Note that an output unit that displays the execution result for the operation of the recording device and an output unit that displays the determined operation support method may be provided separately. For example, the execution result of the normal recording device operation is output from the television, but the operation support for the user may be output from the display of the mobile phone.
  • FIG. 2 is a flowchart showing a user operation procedure.
  • FIG. 3 is a flowchart illustrating a processing procedure of the operation support apparatus 100.
  • the user operates the operation support apparatus 100 with the aim of achieving the target function (S201). For example, a user who wants to reserve a program for 2 hours from 7 o'clock at night is displayed on the operation or output unit 111 of a button on a remote control (hereinafter referred to as “remote control button”) to execute a recording reservation. Select the menu item on the selected menu screen.
  • a remote control hereinafter referred to as “remote control button”
  • the user can execute the target function without any problems. Even if the user does not know the operation procedure, the target function may be executed by selecting a remote control button that the user thinks is correct or a menu item displayed on the output unit 111.
  • the user can execute the target function in this way when the operation procedure for executing the target function expected by the user is equal to the operation procedure for the function designed by the system developer.
  • the user causes the operation support apparatus 100 to execute the target function without receiving operation support. For a user who wants to make a recording reservation as described above, if there is a remote control button or menu item labeled “Recording time setting”, the user can reach the target function without hesitation.
  • the recording device operation execution unit 102 determines whether or not the user has requested the operation support apparatus 100 for operation support (S203). .
  • the user requests operation support by an action such as pressing a guide button (for example, “? Button”) on the remote controller.
  • the user receives operation support from the operation support apparatus 100 (S204). For example, the operation support apparatus 100 displays a candidate list of target functions of the user in response to a support request from the user. When the user selects a target function, the operation support apparatus 100 displays information such as menu selection necessary for reaching the target function on the output unit 111.
  • the user who knows how to reach the target function by the operation support from the operation support determination unit 110 causes the recording device operation execution unit 102 to execute the target function (S205).
  • the recording device operation execution unit 102 waits for a user operation input from the user operation input unit 101 (S301).
  • the recording device operation execution unit 102 uses the operation input of the user input from the user operation input unit 101 as an operation history, associates this operation history with the screen information stored in the screen information storage unit 103, and operates the operation history.
  • the data is stored in the storage unit 104 (S302).
  • the “screen name” is the name of the screen displayed when operating the recording device.
  • the screen name “select function” is the name given to the menu screen as shown in FIG. It is.
  • the screen information is information including six items 401 to 406.
  • An item 401 indicates an item number and indicates the position of the menu item.
  • An item 402 indicates an item name.
  • Item 403 indicates to which item number the menu item is moved when the “Up” button is pressed.
  • the item 404 indicates to which item number the menu item is moved when the “down” button is pressed.
  • the selection state moves to the item number “7” when the “up” button is pressed. For this reason, the menu item with the item name “to other functions” is selected.
  • the menu item with the item name “Play Navi” with the item number “1” is in the selected state
  • the item name “Reserve from the program guide” with the item number “2” is displayed.
  • the menu item is selected.
  • the items after the item 405 indicate which remote control button is pressed and where the selected state changes.
  • information indicating which screen to move to is described because the selection state moves to another screen by pressing the remote control button.
  • each item describes information about which menu item to move to if the destination screen is a menu screen.
  • the screen name of the destination is described before the symbol “@”, and the item number of the menu item to be selected on the screen of the destination is described after the symbol “@”. . More specifically, when the menu item with the item name “Play Navi” with the item number “1” is in a selected state, when the “Enter” button on the remote control is pressed, the menu screen with the screen name “Play Navi” is displayed. Move to. In the menu screen, the menu item having the item name “1” is selected.
  • the operation history includes items 601 to 607.
  • Each record including items 601 to 607 indicates one operation.
  • An item 601 indicates an operation number, and a continuous number is assigned to each operation. This operation number is reset at a fixed timing such as when the device is activated.
  • An item 602 indicates the time of the operation performed by the user.
  • An item 603 indicates the screen name of the screen displayed before the operation performed by the user.
  • An item 604 indicates the name of a menu item that has been selected before the user operates it (selected state item name).
  • An item 605 indicates an operation performed by the user, and indicates a remote control button selected at the time of the operation.
  • the item 606 indicates which menu hierarchy the operation of the item 605 has been performed on.
  • a state where the screen of the recording device is not displayed in the activated state of the recording device is defined as the 0th layer.
  • the state in which the screen is displayed by pressing any remote control button from the 0th layer is defined as the 1st layer.
  • a state in which another screen is displayed by performing an operation defined in the screen displayed in the first layer is defined as the second layer.
  • An example of the menu hierarchy is shown in FIG.
  • an operation of pressing the button “select function” on the remote control is an operation in the 0th hierarchy.
  • the operation of selecting “Night reservation” which is one of the menu items displayed on the “function selection” screen displayed is an operation in one layer.
  • the operation of selecting “Recording time setting” which is one of the menu items displayed on the “Night reservation” screen displayed as a result is an operation in two layers.
  • Item 607 indicates a trial number.
  • An operation in which the user goes down the menu hierarchy, determines that there is no target function ahead, and returns to a higher hierarchy to search for the function again is expressed as a trial.
  • An item 607 is a number representing a break in trial units. According to the example of FIG. 6, the user searches for a function while pressing the up / down / left / right button on the “program guide” screen up to the operation number “6”, but determines that the target function cannot be achieved on this screen, The function search is performed again by pressing the “function selection” button. For this reason, it is determined that the operation number “7” is another trial.
  • the operation of operation number “1” and operation number “2” in FIG. 6 will be described with reference to FIG.
  • the operation history of the operation number “1” in FIG. 6 indicates an operation in which the “function selection” button on the remote control is pressed on the “TV display” screen as shown in FIG.
  • the screen of the recording device is not displayed on the “TV display” screen.
  • the display hierarchy is 0 hierarchy.
  • the operation screen of the recording device is not displayed on the television.
  • the selection state item name before the operation indicated in the item 604 is “none”.
  • the operation history of the operation number “2” in FIG. 6 indicates an operation in which the user presses the “down” button on the remote control in a state where the “function selection” screen is displayed as shown in FIG. 8B.
  • the “menu selection” screen displayed when the “function selection” button is pressed is “playback navigation” at the top and the menu item “reservation from the program guide” is displayed below it. ”,“ Reservation confirmation ”, etc.
  • the “Select function” button is pressed, the top item “Playback Navi” is in the selected state.
  • the menu screen selection state is one item below. Move to “Reserve from Program Guide”. This is the user operation performed with the operation number “2”.
  • FIG. 9A shows an operation history in which only items selected by the user are extracted from the operation history as shown in FIG.
  • the operation history includes items 801 to 803.
  • An item 801 indicates a selection number.
  • An item 802 indicates an item selected by the user.
  • This selection item is acquired as follows. That is, using the screen information shown in FIG. 4, whether the user is selecting an item on the screen or whether an item on the remote control button, ie, a label attached to the remote control button is selected. To be judged. According to this determination result, an appropriate selection item is acquired. For example, when the user selects the up / down button on the remote controller on a menu selectable screen, this is an operation for moving the cursor to a target item, not a selection item.
  • the recording device operation execution unit 102 acquires the item selected in the menu as the selection item instead of “OK” that is the label of the remote control button. To do. More specifically, when the “decision” button is pressed in the operation number “3” of the item 605 in FIG. 6, “reservation from the program guide” that is the selection state item indicated by the item 604 is acquired. An item 803 is a trial number corresponding to the item 607 in FIG.
  • 9A may be stored in the operation history storage unit 104 in addition to the operation history shown in FIG.
  • the recording device operation execution unit 102 determines whether or not the operation input input from the user operation input unit 101 is a request for operation support (S303).
  • the recording device operation execution unit 102 determines whether or not the operation input is a function execution operation (S304).
  • the recording device operation execution unit 102 executes the function of the recording device (S310).
  • the recording device operation execution unit 102 executes the operation of the recording device (S305). After that, the process returns to S301 and enters a standby state for user operation input.
  • the operation support apparatus 100 When the operation input input from the user operation input unit 101 is a request for operation support (YES in S303), the operation support apparatus 100 tries to execute the target function by executing the processing described below. Extract the operation history that seems to have been mistaken. In addition, the operation support apparatus 100 performs a process of performing operation support by estimating a user's target function based on the extracted operation history.
  • the operation history considered to have been trial and error is extracted as follows. For example, an operation that is considered to be a trial and error is searched from the operation history for the function that was executed immediately before the operation support request. All the operations from the retrieved operation that is considered to be trial and error until the operation support is requested are extracted as the operation history that is considered to have been trial and error.
  • the operation history that is considered to have been trial and error is an operation history that has been operated but not realized, for example, an operation history performed between an operation support request and the function executed most recently. Obtained by extraction.
  • the operation load calculation unit 106 calculates the operation load of the user using the operation history stored in the operation history storage unit 104 and the screen information stored in the screen information storage unit 103 (S306). .
  • the operation target in the present embodiment is a recording device operated by a remote controller, but the selection action includes selection of a menu item on the screen and remote control button selection. Both are actions of pressing the remote control button, but since the operation target is different, the calculation method of the operation load is also different.
  • an operation load calculation method in selecting a menu item using the remote controller will be described first, and then an operation load calculation method in remote control button selection will be described.
  • FIG. 9A is a diagram illustrating an example of an operation history
  • FIG. 9B is a diagram illustrating an example of a function selection screen for explaining the operation history illustrated in FIG. 9A.
  • the numbers in the function selection screen shown in FIG. 9B correspond to the operation history selection numbers shown in FIG. 9A and indicate the positions of the selection items in the function selection screen.
  • the operation history shown in FIG. 9A includes the following operation history.
  • the operation history shown in FIG. 9A is an operation history when such an operation is repeated.
  • the function selection button indicated by the selection number “5” is an operation for displaying the initial state of the function selection screen.
  • the operation load calculation unit 106 calculates the value of each item of data as shown in FIG. 10 using the operation history information stored in the operation history storage unit 104, quantifies the operation load, and the operation history storage unit 104.
  • the data shown in FIG. 10 includes items 801, 802, and 903 to 907. Items 801 and 802 are the same as items 801 and 802 in FIG. 9A, respectively.
  • Item 903 is an item indicating a screen initialization operation. An operation for initializing the screen is indicated by 1, and other operations are indicated by 0. When an operation for initializing the screen is performed, the selection item that is normally selected is often the option that is positioned at the top of the screen.
  • the remote control button is pressed during an action in which the selection item indicated by the next selection number is selected from the state in which the previous selection item is in the selected state (hereinafter referred to as “selection item moving action”). It is the number of times. The number of times the remote control button has been pressed does not include the number of times the “OK” button used to select a selection item has been pressed. For example, when the “function selection” button with the selection number “1” is pressed, the screen shown in FIG. 5 is displayed, and the item in the selected state is “reproduction navigation”.
  • selection number “3” indicates that “just recording” has been reached by pressing the remote control button nine times from “reservation from program guide” of selection number “2”.
  • the number of times the remote control button has been pressed does not include the number of times the “OK” button has been pressed, but may include the number of times the “OK” button has been pressed.
  • the value of the item 904 is set to -1.
  • the case where the remote control button is selected as a selection item is, for example, a case where the “function selection” button is pressed to display a function selection screen. This is also the case of pressing a “play” button for playing the content.
  • Item 905 is the number of types of remote control buttons pressed during the selection item moving action. For example, when the selection item moving action is performed only with the “down” button on the remote controller, the number of button types indicated by the item 905 is one. Also, if the user is at a loss during the selection item moving action and presses the “up” and “down” buttons to move the selected item up and down, the number of button types is two. For example, it is possible to move from “reservation from program guide” with selection number “2” to “perfect recording” with selection number “3” by pressing the “down” button six times. However, since the user is at a loss when selecting and changes the moving direction of the selection item once by pressing the “up” button once, the number of pressing required for the selection item moving action is eight.
  • Item 906 indicates whether there is a change between the type of the button pressed last in the previous selection item movement action and the button pressed first in the current selection item movement action. When there is a change, the value of the item 906 is set to 1, and when there is no change, the value of the item 906 is set to 0. For example, even in the act of pressing a button once, pressing “down” in the previous operation, then pressing “down”, pressing “down” in the previous operation, then pressing “up” Therefore, the operation load is based on the idea that the latter is larger.
  • the button here does not include the “OK” button.
  • Item 907 is the result of calculating the operation load using the information of items 904 to 906.
  • the operation load is quantified by simply adding the values of all items (items 904 to 906), but processing such as weighting may be performed. Note that when the remote control button is selected as a selection item rather than an operation on the menu screen as in the above-described item 904, it is set to ⁇ 1 to distinguish it from others.
  • the operation load calculation unit 106 extracts the operation of the user pressing the remote control button as a selection item from the operation history as shown in FIG. 6, and creates an operation history for remote control operation as shown in FIG. 13 (S1101).
  • the operation history includes items 1201 and 1202.
  • An item 1201 indicates a selection number.
  • An item 1202 indicates a selection item.
  • An item 1202 uses a label attached to the remote control button as a selection item.
  • the operation load calculation unit 106 determines whether the operation being performed is a screen operation from the screen information and the type of the remote control button. When it is determined that the operation is a screen operation, the operation histories are collectively recorded as “menu operation” like the selection numbers “2” and “4”. More specifically, when a button such as “up”, “down”, “left”, “right”, “decision”, or “return” is pressed on the function selection screen, the operation load calculation unit 106 performs a menu operation. Judge that there is.
  • the operation load calculation unit 106 determines whether each selection item included in the operation history for remote control operation is a selection item in an operation in which the remote control button is continuously pressed as a selection item (S1102). More specifically, when one of the selection items before and after the selection item to be determined is not “menu operation” or “operation support request”, the selection item to be determined is a continuous remote control button press. Judge. For example, in the case of the remote control operation history shown in FIG. 13, it is determined that the remote control button is continuously pressed from the selection number “5” to the selection number “8”.
  • the operation load calculation unit 106 has a large operation load on the selection item. (S1105).
  • the process proceeds to S1103.
  • the operation load calculation unit 106 determines whether or not the selection item to be determined is a selection item in an operation in which a button of the same group is continuously pressed on the remote controller (S1103). More specifically, the operation load calculation unit 106 determines whether the selection item to be determined is a button in the same group as one of the selection items before and after the selection item.
  • the buttons of the same group may be determined in advance by the developer, or may be determined automatically using the number, shape, color, and arrangement of the buttons. For example, when three or more buttons having the same shape are included within a certain distance, the buttons may be defined as the same group. In the case of such a definition, in the remote control of FIG.
  • this step for example, in the case of the operation history for remote control operation shown in FIG. 13, it is determined that the operation from the operation number “6” to the operation number “8” is a selection item when the buttons of the same group are continuously pressed.
  • the operation load calculation unit 106 determines that the operation load of the selection item is large. (S1105).
  • the operation load calculation unit 106 determines that the operation load of the selection item is small. (S1104).
  • FIG. 14 shows the result of determining the operation load for the remote control operation history shown in FIG. 13 by this processing.
  • An item 1303 is an operation load, and 1 is assigned to an operation determined to have a large operation load, and 0 is assigned to an operation determined to have a small operation load. Further, -1 is assigned to the operation that the user has requested to support the operation by pressing the guide button on the remote controller in order to distinguish it from others.
  • the non-thought operation determination unit 107 classifies the operation history using the operation load for each operation calculated in the operation load calculation process (S306) (S307).
  • the purpose of the classification is performed without considering the possibility that the user can reach the target function from the operation history used for the purpose estimation, or while the user considers that the relationship with the target function is low. This is to delete the thinking operation. Therefore, the unthinking operation determination unit 107 classifies whether the operation history is a no-thought operation.
  • FIG. 15 is a flowchart of the operation history classification process (S307) in the menu item selection using the remote control by the non-thought operation determination unit 107.
  • the unthinking operation determination unit 107 acquires, for example, data shown in FIG. 10 calculated in the operation load calculation process (S306) (S1401).
  • the unthinking operation determination unit 107 corrects the number of operations and the operation load included in the acquired data illustrated in FIG. 10 using the operation history illustrated in FIG. 6 (S1402). Specifically, the number of pressings required for the moving action between the selection items is calculated by ignoring selection items that have been selected more than a certain number of times in the operation history to be estimated. For example, in FIG. 10, it is necessary to press twice in order to move from “reproduction navigation” of selection number “6” to “reservation confirmation” of selection number “7”. However, from FIG. 6, “Reserve from program guide” between “Reproduction Navi” and “Reservation confirmation” is an item already selected in the selection number “2” in FIG. 10.
  • the number of presses required to move from “reproduction navigation” to “reservation confirmation” is calculated while ignoring “reservation from program guide”. Also, the operation load is corrected in accordance with the correction of the number of presses. This is because an already selected item is less likely to be selected again, and thus an already selected item is ignored.
  • FIG. 16 shows an example of data obtained by adding the result reflecting the above correction to the data of FIG.
  • the data shown in FIG. 16 is obtained by adding items 1508 and 1509 to the data shown in FIG.
  • An item 1508 indicates the number of presses after the number of presses indicated in the item 904 is corrected.
  • An item 1509 indicates an operation load after the operation load indicated in the item 907 is corrected.
  • the unthinking operation determination unit 107 performs the following processing for each operation whose operation load is corrected in this way, and determines whether or not the operation is a no-thought operation.
  • the unthinking operation determination unit 107 compares each operation load reflecting the correction with a threshold value (S1403). When the operation load of the operation to be determined is larger than the threshold (NO in S1403), the unthinking operation determination unit 107 determines that the operation is a thinking operation and is not a non-thinking operation (S1406).
  • the unthinking operation determination unit 107 acquires the value of the operation load in the operation before and after the operation to be determined, and checks whether the operation below the threshold is in the front or back (S1404). This means that it is determined whether or not an operation with an operation load equal to or less than a threshold value continues twice or more. If the operation with the operation load equal to or less than the threshold value is not continued twice or more (NO in S1404), the no-think operation determination unit 107 determines that the operation to be determined is an operation having thought and not a no-thought operation (S1406). ). If an operation with an operation load equal to or less than the threshold value continues twice or more (YES in S1401), the process proceeds to S1405.
  • the processing of S1404 may not be performed for each operation. That is, it may be determined whether the operation load is equal to or less than a threshold value for all operations.
  • the unthinking operation determination unit 107 may extract an operation in which the operation below the threshold is continued twice or more using the result, and may perform the process of S1405 on the operation history in which the operation is continued twice or more. .
  • the continuous frequency used for determination by S1404 was set to 2 times, the frequency
  • the unthinking operation determination unit 107 determines whether or not the operation sequence that is extracted from the processing of S1404 and the operation load is continuous with a threshold value equal to or less than the threshold is a selected sequence in the same group (S1405).
  • the selection series in the same group is a set of similar menu items determined by the common degree, similarity or layout of words included in the menu items.
  • the word “setting” is included in both “broadcast setting” and “initial setting” (since the semantic similarity between the words included in the menu item is large). ) Or the same group.
  • “reservation from program guide”, “reservation confirmation”, “search of program guide”, and “input G code” classified as “reserve” in the layout may be the same group.
  • the information may be classified into groups using information such as the top position of the menu or the type, size or color of the font. For example, menu items having the same horizontal position may be grouped, and menu items having the same font size or color may be grouped.
  • the non-thought operation determination unit 107 compares the group of menu items defined in this way with the operation sequence extracted by the processing of S1404.
  • the unthinking operation determination unit 107 determines whether the operation sequence is included in one group according to the comparison result (S1405). When the operation sequence is included in one group (YES in S1405), the unthinking operation determination unit 107 determines that the operation to be determined is not a non-thinking operation (S1406). On the other hand, when the operation sequence is not included in one group (NO in S1405), that is, when an operation across groups is performed, the no-thought operation determination unit 107 determines that the operation to be determined is a no-thought operation. (S1407).
  • a method of determining whether or not the operation is a non-thought operation based on the similarity of each selection item in the selection history is conceivable.
  • word set 2 words included in the selection items of each operation history extracted by the processing of S1404 are extracted (a set of extracted words is referred to as word set 2). Then, an index word / document matrix is created from a text corpus such as a manual. Each word is expressed as a vector (Non-patent document: Kita et al .: Information search algorithm, Kyoritsu Publishing, pp 60-63), and the word vectors included in the word set 1 and the word set 2 are added. Thus, a vector corresponding to each word set is created, and the semantic similarity is calculated by comparing both vectors.
  • the classification divided in S306 is used as it is, and the operation determined to have a small operation load is determined to be a non-thought operation. For example, in the case of the operation history data of FIG. 14, it is determined that the selection number “6” to the selection number “8” are non-thought operations.
  • the objective function estimation unit 108 uses each selection history stored in the operation history storage unit 104 excluding the unthinking operation to store each function stored in the objective estimation target function storage unit 109. Ranking is performed for. Thereby, the target function is estimated (S308).
  • FIG. 17 shows a specific example of data related to the purpose estimation target function stored in the purpose estimation target function storage unit 109.
  • the data includes items 1601 to 1603.
  • An item 1601 indicates a function number of each function.
  • An item 1602 shows a function expression of each function, and the function expression is a document expressing the function in a short word as shown in the table of contents of the manual.
  • An item 1603 indicates a word used for describing each function in the manual.
  • the word in this item 1603 is a morphological analysis of a manual text document. For example, specific parts of speech such as nouns, verbs and adverbs.
  • the objective function estimation unit 108 extracts an operation history that is not a non-thought operation used for purpose estimation from the operation history classified by the no-thought operation determination unit 107.
  • the objective function estimation unit 108 further extracts words used in each selected word.
  • the extraction method is performed by morphological analysis as described above.
  • FIG. 18 shows an example of data obtained by extracting selection items used for purpose estimation from the operation history shown in FIG. 16 and extracting words used in the extracted selection items.
  • the data includes items 1701 to 1703. Items 1701 and 1702 correspond to the operation history items 801 and 802 shown in FIG. 9A. An item 1703 indicates a word used in the selection item shown in the item 1702. Note that the “function selection” of the selection number “5” in the operation history shown in FIG. 16 is a screen initialization operation, and the subsequent operation is a non-thought operation, so this selection item is not used for purpose estimation. .
  • the objective function estimation unit calculates the similarity between all the functions stored in the objective estimation target function storage unit 109 and the selection items used for the extracted objective estimation, and ranks the functions. .
  • the similarity between each function and the selection item selected by the user is calculated from the similarity between the word used for explaining the function and the use word used in the selection item. In the simplest method, the number of common words is counted, and the degree of similarity is calculated by assuming that the more similar the number of common words, the more similar.
  • each function is represented as a document set, and an index word / document matrix is created from the document set to express each function as a vector. Further, the selection item is expressed as a vector as a search question vector. A method of calculating the similarity between the function expressed in vector and the selected item may be used.
  • the operation support determination unit 110 determines an operation support method using the functions ranked by the target function estimation unit 108 and outputs the operation support method to the output unit 111 (S309).
  • the output unit 111 may be the same as a terminal such as a television from which the operation screen of the recording device is output, or may be a terminal different from the terminal from which the operation screen of the recording device is output, such as a mobile phone.
  • 19A to 19C show examples of operation support screens.
  • the operation support determination unit 110 arranges the functions in descending order of the estimated score.
  • the operation support determination unit 110 causes the output unit 111 to display the function expression of each function arranged (the function expression described in the data item 1602 in FIG. 17) as illustrated in FIG. 19A.
  • FIG. 19A words that are strongly related to the user's input history are highlighted and displayed so that the user can easily understand what criteria the operation support apparatus 100 uses to obtain the estimation result.
  • a manual regarding the function is displayed as shown in FIG. 19B.
  • the information displayed when a function is selected is not limited to the related page of the manual.
  • a screen created in advance for operation support or a moving image may be displayed, or a screen of a recording device that can execute the function may be displayed.
  • the number of operations used for purpose estimation and the number of operations not used may be displayed before operation support. At this time, whether or not to display may be determined according to the number of operations that are not used. For example, when the number of operations (non-thinking operations) that are not used for purpose estimation is greater than the threshold value, an effect of shortening the user's confusion time from the next time can be expected by making the presentation as shown in FIG. 19C.
  • FIG. 20 shows an example of the operation support screen when the operation load is calculated as described above and the operation history used for estimating the target function is not extracted using the result.
  • the target function is estimated using all the selection items of the data shown in FIG. For this reason, the function related to “play” and “dubbing” selected by the unthinking operation is estimated to be higher, and as a result, the function related to the recording reservation, which is the function intended by the user, is estimated to be lower. If the target function of the user is estimated at the lower level, the user has to look for more functions to find the target function in order to search for the function, which increases the burden on the user.
  • the recording device operation execution unit 102 executes the target function of the recording device instructed by the user based on the operation support result (S310).
  • the operation support apparatus can delete a no-thought operation that causes a decrease in accuracy of target function estimation from an operation history used for target function estimation.
  • This unthinking operation is an operation performed without considering the possibility that the user can reach the target function, or an operation performed while the user thinks that the relationship with the target function is low.
  • a target function estimation is possible only using operation which a user thinks that a relationship with a target function is high. Therefore, the target function can be estimated with higher accuracy, and appropriate operation support can be provided to the user.
  • Modification 1 the recording device operated by the remote controller has been described as an operation target.
  • the present invention can also be applied to a device whose input device is a pointing device such as a touch panel.
  • the items stored in the operation history storage unit 104 and the operation load calculation method performed by the operation load calculation unit 106 are different from the above embodiment.
  • this modification only a device-specific process that uses a pointing device as an input, which is a difference from the above embodiment, will be described.
  • FIG. 21 shows an example of an operation screen of a device using a pointing device as an input means.
  • the icons “icon1” to “icon12” and the icons “iconA” to “iconD” indicate icons that can be selected by the user. When the user selects one of the icons, a screen corresponding to each icon is displayed.
  • FIG. 22 shows an example of selection history data stored in the operation history storage unit 104.
  • the operation history data includes the following operation history. That is, the user selects the icon on the screen shown in FIG. However, the user determines that there is no appropriate information on the screen displayed as a result, and the screen shown in FIG. 21 is displayed again by an operation such as “return”, and another icon is selected. This is an operation history when such an operation is repeated.
  • the operation history shown in FIG. 22 includes items 2101 to 2106.
  • An item 2101 indicates a selection number assigned a number every time an icon is selected.
  • An item 2102 indicates the name of the selected icon.
  • An item 2103 indicates the coordinates of the selected icon and is represented by a two-dimensional vector.
  • An item 2104 is a movement distance necessary for movement from the previously selected icon to the next selected icon as a target. Specifically, the movement distance in the operation of the selection number “2” when the icon “icon8” is selected is the distance between the previously selected icon “icon1” and the currently selected icon “icon8”. The distance is a distance between the center coordinates of the icons, for example.
  • Item 2105 indicates a movement operation vector.
  • the movement operation vector is calculated by subtracting the coordinates of the icon previously selected from the coordinates of the selected icon as a target.
  • the movement operation vector indicates a trajectory in which the user moves the pointer, and a mouse, a finger, a pen, or the like can be considered as the user's pointer.
  • Item 2106 indicates a cosine measure.
  • the cosine scale is a cosine value of an angle formed by the moving operation vector of the selected icon as a target and the moving operation vector of the icon previously selected.
  • the cosine scale corresponding to the icon “icon7” is a cosine value of an angle formed by the moving operation vector of the icon “icon8” selected immediately before and the moving operation vector of the icon “icon7”.
  • the operation load calculation unit 106 calculates the operation load using the movement distance indicated by the item 2104 and the cosine scale indicated by the item 2106 in the operation history data as shown in FIG. More specifically, the operation load calculation unit 106 calculates the operation load by adding a value obtained by multiplying the movement distance by ⁇ and a value obtained by multiplying the cosine scale by ⁇ ( ⁇ and ⁇ are both positive real numbers). . This is based on the idea that the longer the pointer travel distance, the greater the burden on the user. Further, it is based on the idea that the greater the angle between the pointer movement required for the previous operation and the pointer movement required for the current operation, the greater the burden on the user. For example, the moving distance of the pointer shown in FIG.
  • the movement of the pointer shown in FIG. 23A (b) is longer than the moving distance of the pointer shown in FIG. 23A (a). For this reason, the movement of the pointer shown in FIG. 23A (b) has a relatively larger operation load than the movement of the pointer shown in FIG. 23A (a). Further, when the change in the movement direction of the pointer shown in FIG. 23B (a) is compared with the change in the movement direction of the pointer shown in FIG. 23B (b), the latter has a larger change in the movement direction. For this reason, the movement of the pointer shown in FIG. 23B (b) has a relatively larger operation load than the movement of the pointer shown in FIG. 23B (a). However, depending on the position of the icon, the movement direction of the pointer may have to be changed.
  • the operation load is calculated in the unthinking operation determination unit 107. Similar to the above embodiment, in S1403 of FIG. 15, the operation load is compared with a predetermined threshold value, the number of consecutive operations is calculated, and it is determined whether or not the operation is a selection within the same group. Thus, it is determined whether or not the operation is a non-thought operation.
  • Modification 2 In the embodiment described above, the operation support for the user using the estimation of the target function is performed based on the user operation support request. However, the operation support device may detect that the user has started the unthinking operation, and the operation support may be provided to the user at an early timing.
  • FIG. 24 shows a user operation procedure when the operation support device performs operation support
  • FIG. 25 shows a processing procedure of the operation support device.
  • each process will be described with a focus on differences from FIGS. 2 and 3.
  • the calculation method of operation load and the extraction method of unthinking operation are the same as that of the said embodiment, the description is not repeated.
  • the operation support device proposes operation support (S2203).
  • the user receives operation support from the operation support apparatus 100 (S204).
  • the user executes a target function based on the operation support (S205).
  • the operation support apparatus 100 calculates an operation load every time a user input is received (S306), and detects a non-thought operation (S2404). If it is determined that the target operation is not a non-thought operation (NO in S2404), the operation support apparatus 100 performs a normal device operation operation (S304, S305, S310). If it is determined that the target operation is a non-thought operation (YES in S2404), the target function is estimated using the operation history excluding the non-thought operation (S308), and operation support is proposed to the user. (S2408).
  • FIG. 26A and FIG. 26B show examples of screens at the time of operation support proposal.
  • FIG. 26A is an example of a screen that displays a message prompting the user to press a guide button on the remote controller
  • FIG. 26B is an example of a screen that displays the title of the estimated function. If one function is presented as shown in FIG. 26B and the operation support for the information of the display function can be performed by one operation, the operation support with less burden on the user is obtained. However, if the presented function is not a function intended by the user, the burden on the user increases.
  • the reliability of the target function estimation result may be calculated to determine which function is to be displayed, or to control the number of functions to be displayed.
  • the reliability may be calculated using the number of selection items used for estimating the target function, the number of words included in the selection items, the appearance frequency of the words on the manual, and the like.
  • the calculation may be performed using the degree of similarity or the distribution of similarity between each function and the operation sequence calculated in the target function estimation process.
  • the present invention can be applied to devices having a selection-type interface that estimates a user's purpose using a user's operation history. Therefore, the present invention can be used not only in the recording device described in the above embodiment, but also in various devices such as a mobile phone, a car navigation system, or a music / video player. Very big.
  • the operation support apparatus supports the user's operation on the recording device
  • the operation support target device is not limited to the recording device, and may be other devices as long as the operation is performed by the user.
  • it may be a video playback device that plays back video or an audio playback device that plays back audio.
  • the operation support device may be specifically configured as a computer system including a microprocessor, ROM, RAM, hard disk drive, display unit, keyboard, mouse, and the like.
  • a computer program is stored in the RAM or hard disk drive.
  • the operation support apparatus achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the constituent elements constituting the operation support apparatus may be configured by an IC card or a single module that can be attached to and detached from the operation support apparatus.
  • the IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention may be the computer program or the digital signal recorded on a computer-readable recording medium.
  • a computer-readable recording medium For example, it may be recorded on a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, or DVD-RAM. Further, it may be recorded on a BD (Blu-ray Disc (registered trademark)), a semiconductor memory, or the like. Further, the digital signal may be recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may also be a computer system including a microprocessor and a memory.
  • the memory may store the computer program, and the microprocessor may operate according to the computer program.
  • program or the digital signal may be recorded on the recording medium and transferred to be carried out by another independent computer system. Further, the program or the digital signal may be transferred via the network or the like to be executed by another independent computer system.
  • the present invention estimates, for example, a user's target function from a user's operation history for a device having various functions such as a computer application, an electrical appliance, or an AV device, and uses the result to determine the user's function.
  • the present invention can be applied to an operation support device that supports operations.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

 操作の履歴に含まれる複数の選択操作の各々について、当該選択操作を行なう際のユーザの操作負荷を、当該選択操作と履歴に含まれる当該選択操作よりも前の他の選択操作とを用いて、算出する操作負荷算出部(106)と、操作の履歴に含まれる複数の選択操作の各々について、操作負荷が小さいほど、当該選択操作が手当たり次第に行なわれた操作である無思考操作であると判断することにより、当該選択操作が無思考操作であるか否かを判定する無思考操作判定部(107)と、無思考操作であると判定された選択操作を除いた選択操作の履歴に基づいて、ユーザに対して操作を支援する目的機能推定部(108)および目的推定対象機能記憶部(109)とを備える。

Description

操作支援装置及びその方法
 本発明は、例えば、アプリケーションプログラムを実行するコンピュータ、電化製品又はAV(Audio/Visual)機器のような多様な機能を有する機器に対する操作支援装置及びその方法に関する。特に、ユーザの操作履歴からユーザの目的機能を推定し、その推定結果を利用してユーザの操作を支援する操作支援装置及びその方法に関する。
 近年のコンピュータ・アプリケーションプログラム、電化製品又はAV機器の操作は、その多様な機能の実装と共に複雑化している。このため、操作方法が分からないユーザに対する操作支援が重要となっている。目的機能を実現する操作方法が分からないユーザに対して、マニュアルを提供することにより、ユーザ自身がマニュアルから対象機能の操作方法を探すことで解決を図ることも可能である。しかし、マニュアルを用いてユーザが対象機能を探すことはユーザにとっての負担が大きく、時間もかかってしまう。そこで、ユーザが支援を要求した際に、支援を要求するまでに試行錯誤しながら入力した操作履歴を用いて、システムがユーザの目的機能を推定する技術がある。その推定結果を基にした操作支援を行うことで、ユーザにとって負担の少ない操作支援が実現できる。
 このように、ユーザの操作履歴を利用してユーザの操作を支援する技術が提案されている。例えば、試行錯誤しながら行われたキー操作入力と関連性の高い機能を検索して、その機能に関する操作説明を提示するヘルプ表示装置が提案されている(例えば、特許文献1参照。)。
 このヘルプ表示装置では、ユーザが操作支援要求を行った直前までの操作履歴を利用して、目的機能の推定を行う。これは、ユーザが操作支援要求を行う直前まで目的機能に関する操作を行っているという仮定に基づくものである。
特開平11-231998号公報
 しかしながら、実際のユーザ行動においては、自信のある操作をはじめに行い、目的機能に到達できない場合、可能性がある程度あるとユーザが考える操作を探索的に行う。それでも目的機能に到達できない場合は、手当たり次第に操作を行い、最終的に自力での実現を諦めて操作支援要求を行うという行動が見受けられる。例えば、メニューを選択して目的の機能を実現する場合、ユーザは、はじめは複数のメニュー項目の中から機能が実現できる可能性が高いと考えるメニュー項目を選択する。しかし、ある程度メニュー項目を選択しても目的機能に到達できない場合、まだ選択していないメニュー項目を手当たり次第に選択する。
 前記手当たり次第の操作が行われるまでは、ユーザはまだ行っていない操作に対して目的機能に到達できる可能性を検討し、操作に対して優先順位を付けて、優先順位が高い操作から実行する。しかし、ある程度優先順位が高い操作を行い、それでも目的機能に到達できない場合、ユーザは各操作に対して目的機能に到達できる可能性を検討し、優先順位を付けることが困難になる。このような状態になると、ユーザは各操作に対して目的機能に到達できる可能性を検討することをやめ、手当たり次第に操作を行う。このように手当たり次第に行なう操作では、ユーザは前記可能性検討を行わない。または、目的機能と関係性が低いと考えながら操作を行なう。このため、以下では、手当たり次第に行なう操作のことを無思考操作とも記述する。
 このようなユーザの行動に対し、従来のヘルプ表示装置を用いた場合、目的機能に関係の無い操作履歴を利用して目的推定を行ってしまう。このため、目的機能の推定精度が悪くなり、ユーザは正しい操作支援を受けることができないという問題が生じる。
 本発明は上記課題を解決するためになされたものであって、ユーザが手当たり次第に操作を行なった後に操作支援要求を行った場合であっても、手当たり次第に行った操作履歴を判別し削除することで推定精度の高い目的機能をユーザに提示することにより、ユーザに対してより適切な操作支援を行うことが可能な操作支援装置及び操作支援方法を提供することを目的とする。
 本発明は、目的機能に到達できる可能性の検討を行なわずに行なう無思考操作、又は、目的機能と関連性が低いと考え、手当たり次第に行なう無思考操作においては、ユーザは、思考により最適な操作を選択するのではなく、操作負荷が小さい操作を行うという思想に基づく。
 本発明に係る操作支援装置は、ユーザに対して機器の操作支援を行なう操作支援装置であって、前記ユーザによる前記機器の機能実行するために行う選択操作の履歴を記憶する操作履歴記憶部と、前記操作履歴記憶部に記憶されている前記選択操作について、当該選択操作を行なう際の前記ユーザの操作負荷を、当該選択操作と前記履歴に含まれる当該選択操作よりも前の他の選択操作とを用いて、算出する操作負荷算出部と、前記操作履歴記憶部に記憶されている前記選択操作について、前記操作負荷算出部で算出された前記ユーザの前記操作負荷が小さいほど、当該選択操作が手当たり次第に行なわれた操作である無思考操作であると判断することにより、当該選択操作が前記無思考操作であるか否かを判定する無思考操作判定部と、前記無思考操作判定部で前記無思考操作であると判定された選択操作を除いた前記選択操作の履歴に基づいて、前記ユーザに対して操作を支援する操作支援部とを備える。
 この構成によると、ユーザの選択操作の履歴から、選択操作毎に操作負荷が算出され、操作負荷が小さい選択操作が無思考操作として判定される。このため、機能推定の精度を下げる要因となる無思考操作を除いて、ユーザが目的とする機能を推定することができる。よって、高精度な目的機能推定が可能となり、ユーザに対してより適切な操作支援を行なうことが可能となる。
 なお、本発明は、このような特徴的な処理部を備える操作支援装置として実現することができるだけでなく、操作支援装置に含まれる特徴的な処理部をステップとする操作支援方法として実現することができる。また、操作支援方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムは、CD-ROM(Compact Disc-Read Only Memory)等の記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは言うまでもない。
 以上のように、本発明による操作支援装置によれば、目的推定に利用する操作履歴から、ユーザが目的機能に到達できる可能性を検討せずに行う、または、ユーザが目的機能と関係が低いと考えながら行う無思考操作を削除できる。このため、より高精度な目的推定が可能となり、ユーザに対して適切な操作支援が行うことができる。
図1は、本発明の実施の形態における操作支援装置の構成を示す機能ブロック図である。 図2は、本発明の実施の形態におけるユーザが実行する主な操作を示すフローチャートである。 図3は、本発明の実施の形態における操作支援装置が実行する主な処理を示すフローチャートである。 図4は、本発明の実施の形態における画面情報記憶部に記憶される画面情報のデータ例を示す図である。 図5は、本発明の実施の形態における録画機器の画面例を示す図である。 図6は、本発明の実施の形態における操作履歴記憶部に記憶される操作履歴データ例を示す図である。 図7は、本発明の実施の形態における機能選択画面のメニュー階層例を示す図である。 図8は、本発明の実施の形態における操作履歴に対応した画面変化を示す図である。 図9Aは、本発明の実施の形態における操作履歴記憶部に記憶される操作履歴データ例を示す図である。 図9Bは、図9Aに示す操作履歴を説明するための機能選択画面の一例を示す図である。 図10は、本発明の実施の形態における操作履歴記憶部に記憶される操作履歴データ例を示す図である。 図11は、本発明の実施の形態におけるリモコンのデザインの一例を示す図である。 図12は、本発明の実施の形態における操作負荷算出部の処理を示すフローチャートである。 図13は、本発明の実施の形態における操作履歴記憶部に記憶される操作履歴データ例を示す図である。 図14は、本発明の実施の形態における操作履歴記憶部に記憶される操作履歴データ例を示す図である。 図15は、本発明の実施の形態における無思考操作判定部が実行する処理を示すフローチャートである。 図16は、本発明の実施の形態における操作履歴記憶部に記憶される操作履歴データ例を示す図である。 図17は、本発明の実施の形態における目的推定対象機能記憶部に記憶される操作履歴データ例を示す図である。 図18は、本発明の実施の形態における目的推定に利用するデータ例を示す図である。 図19Aは、本発明の実施の形態における操作支援において出力される画面例を示す図である。 図19Bは、本発明の実施の形態における操作支援において出力される画面例を示す図である。 図19Cは、本発明の実施の形態における操作支援において出力される画面例を示す図である。 図20は、本発明の実施の形態における操作支援において出力される画面例を示す図である。 図21は、本発明の実施の形態の変形例1におけるポインティングデバイスを入力手段とする機器の操作画面の一例を示す図である。 図22は、本発明の実施の形態の変形例1における操作履歴記憶部に記憶される操作履歴データ例を示す図である。 図23Aは、本発明の実施の形態の変形例1における操作負荷を説明するための第1の図である。 図23Bは、本発明の実施の形態の変形例1における操作負荷を説明するための第2の図である。 図24は、本発明の実施の形態の変形例2におけるユーザの主な操作を示すフローチャートである。 図25は、本発明の実施の形態の変形例2における操作支援装置の主な処理を示すフローチャートである。 図26Aは、本発明の実施の形態の変形例2における操作支援において出力される画面例を示す図である。 図26Bは、本発明の実施の形態の変形例2における操作支援において出力される画面例を示す図である。
 以下、本発明の実施の形態について、図面を参照しながら説明する。
 本実施の形態では、リモートコントローラ(以後「リモコン」と記述する。)を用いて録画機器を操作するユーザが目的機能に到達できず、操作支援要求をした際にそれまでのメニュー項目(メニュー画面上に表示されている選択可能な項目)やボタンの選択操作の履歴(以後「選択履歴」と記述する。)からユーザの目的機能を推定し、ユーザに対して操作支援を行う動作について説明する。なお、選択操作には、カーソルの移動などの移動操作は含まれない。
 図1は、本発明の実施の形態における操作支援装置の構成を示すブロック図である。
 操作支援装置100は、テレビ番組を録画する録画機器に対するユーザの操作を支援する装置である。
 操作支援装置100は、ユーザ操作入力部101と、録画機器操作実行部102と、画面情報記憶部103と、操作履歴記憶部104と、タイマー105と、操作負荷算出部106とを含む。操作支援装置100は、さらに、無思考操作判定部107と、操作支援部112と、出力部111とを含む。なお、録画機器は、操作支援装置100内に備えられていても良いし、操作支援装置100とは別に備えられていても良い。
 図1に示された機能ブロック図において、操作履歴記憶部104と、操作負荷算出部106と、無思考操作判定部107と、操作支援部112とが本発明に必須の構成要素である。それ以外の構成要素は、装備されていることが好ましい構成要素である。なぜならば、必須の構成要素が存在することにより、手当たり次第に行った操作履歴を判別し削除するができる。これにより、推定精度の高い目的機能をユーザに提示することにより、ユーザに対してより適切な操作支援を行うことができるからである。
 ユーザ操作入力部101は、リモコン又はタッチパネルなどにより構成され、ユーザからの録画機器に対する操作入力を受け付ける処理部である。
 画面情報記憶部103は、録画機器の操作画面の画面情報を含む、各種画面情報を記憶する記憶装置である。録画機器の操作画面の画面情報は、操作入力に対して、録画機器が実行する処理または表示画面を示す情報である。画面情報の具体例については、後述する。
 録画機器操作実行部102は、ユーザ操作入力部101で受け付けられたユーザからの操作入力に基づいて、録画機器の操作を実行する処理部である。その際、録画機器操作実行部102は、画面情報記憶部103に記憶されている画面情報を参照し、操作入力に対して実行すべき機能または表示すべき画面を特定する。
 操作履歴記憶部104は、ユーザによる機器の機能を実行するために行う選択操作の履歴を記憶する記憶装置である。つまり、操作履歴記憶部104は、ユーザ操作入力部101で受け付けられた、録画機器の機能の選択操作を含む操作入力を、入力時の時刻情報及び録画機器の状態と関連づけた操作履歴を記憶する記憶装置である。
 タイマー105は、現在時刻を取得する処理部である。
 操作負荷算出部106は、操作履歴記憶部104に記憶されている操作履歴を用いて、ユーザの各操作の負荷を算出する処理部である。つまり、操作負荷算出部106は、操作履歴記憶部104に記憶されている選択操作について、当該選択操作を行なう際のユーザの操作負荷を、当該選択操作と前記履歴に含まれる当該選択操作よりも前の他の選択操作とを用いて、算出する。
 無思考操作判定部107は、前記各操作の操作負荷に応じて、ユーザの操作が手当たり次第に行なわれた操作(無思考操作)か否かを判定する処理部である。無思考操作判定部107は、無思考操作であると判断した操作を、目的推定の対象の操作履歴から削除する。つまり、無思考操作判定部107は、操作履歴記憶部104に記憶されている選択操作について、操作負荷算出部106で算出されたユーザの前記操作負荷が小さいほど、当該選択操作が手当たり次第に行なわれた操作である無思考操作であると判断することにより、当該選択操作が無思考操作であるか否かを判定する。
 操作支援部112は、無思考操作判定部107で無思考操作であると判定された選択操作を除いた選択操作の履歴に基づいて、ユーザに対して操作を支援する処理部である。
 操作支援部112は、目的機能推定部108と、目的推定対象機能記憶部109と、操作支援決定部110とを含む。
 目的推定対象機能記憶部109は、目的推定の対象となる機能(以後「目的推定対象機能」と記述する。)に関する情報を記憶している記憶装置である。
 目的機能推定部108は、ユーザが目的とする機能を推定する処理部である。つまり、目的機能推定部108は、無思考操作判定部107で無思考操作が削除された操作履歴と、目的推定対象機能記憶部109に記憶されている目的推定対象機能に関する情報とを用いて、目的推定の対象となる各機能の順位付けを行う。目的機能推定部108は、各機能を、この順位が高い機能ほどユーザの目的とする機能として推定する。
 操作支援決定部110は、前記各機能の順位付けの結果を基にして、ユーザに対する操作支援方法を決定する処理部である。
 出力部111は、録画機器操作実行部102で実行された録画機器の操作に対する実行結果を表示すると共に、操作支援決定部110で決定された操作支援方法を表示する処理部である。出力部111は、例えばテレビなどのディスプレイである。なお、前記録画機器の操作に対する実行結果を表示する出力部と、前記決定された操作支援方法を表示する出力部とは別に設けられていてもよい。例えば、通常の録画機器操作の実行結果はテレビから出力するが、ユーザに対する操作支援は携帯電話のディスプレイから出力しても良い。
 前記のように構成された操作支援装置100の動作の一例について説明する。つまり、録画機器を操作するユーザが目的機能に辿り着けず、操作支援要求をするものとする。その際に、それまでのメニュー項目やボタンの選択履歴からユーザの目的機能を推定し、操作支援を行う処理について説明する。図2は、ユーザの操作手順を示すフローチャートである。図3は、操作支援装置100の処理手順を示すフローチャートである。
 はじめに、ユーザが操作支援装置100を利用する際の基本的な行動について、図2を用いて説明する。
 ユーザは、目的機能の達成を目指して操作支援装置100の操作を行う(S201)。例えば、夜の7時から2時間、番組の予約を行いたいユーザは、録画予約を実行するべく、リモコン上のボタン(以後「リモコンボタン」と記述する。)の操作又は出力部111に表示されたメニュー画面でのメニュー項目の選択操作を行う。
 ユーザが目的機能を実行するための操作手順を知っている場合、ユーザは困ることなく目的機能を実行できる。また、ユーザが上記操作手順を知らなくとも、ユーザが正しいと思うリモコンボタン又は出力部111に表示されるメニュー項目を選択することにより、目的機能を実行できる場合もある。このようにユーザが目的機能を実行できるのは、ユーザが予想する目的機能を実行するための操作手順と、システム開発者が設計した同機能に対する操作手順とが等しい場合である。このように迷うことなくユーザが目的機能を実行できた場合(S202でYES)、ユーザは操作支援を受けることなく、操作支援装置100に目的機能を実行させる。上記のような録画予約を行いたいユーザにとって、「録画時間設定」というラベルのついたリモコンボタン又はメニュー項目がある場合は、ユーザは迷うことなく目的機能に辿り着ける。
 しかし、ユーザが予想する目的機能を実行するための操作手順と、システム開発者が設計した同機能に対する操作手順とが異なる場合、以下のような問題がある。例えば、上記のように「録画時間設定」というラベルのリモコンボタン又はメニュー項目が無い場合、ユーザは、様々なメニュー項目の選択を試行する。しかし、目的機能へ到達できず、操作支援装置100が目的機能を実行できない場合がある。
 操作支援装置100が目的機能を実行できない場合には(S202でNO)、録画機器操作実行部102は、ユーザが操作支援装置100に対して操作支援を要求したか否かを判断する(S203)。ユーザは、目的機能へ自力で到達できないと考える場合には、リモコン上のガイドボタン(例えば、「?ボタン」)を押す等の行為により操作支援を要求する。
 操作支援が要求された場合には(S203でYES)、ユーザは、操作支援装置100から操作支援を受ける(S204)。例えば、操作支援装置100は、ユーザからの支援要求に対してユーザの目的機能の候補リストを表示する。ユーザが目的の機能を選択すると、操作支援装置100は、目的機能へ到達するために必要なメニュー選択などの情報を出力部111に表示する。
 操作支援決定部110からの操作支援により目的機能への到達方法が分かったユーザは、録画機器操作実行部102に目的機能を実行させる(S205)。
 一方、目的機能は実行できなかったが、ユーザから操作支援装置100に対して操作支援の要求が行われなかった場合(S203でNO)、ユーザは目的機能を実行することなく、操作を終える。
 次に、操作支援装置100が実行する処理を、図1の操作支援装置100の構成を示すブロック図と図3のフローチャートとを中心に説明する。
 録画機器操作実行部102は、ユーザ操作入力部101よりユーザの操作入力を待ち受ける(S301)。
 録画機器操作実行部102は、ユーザ操作入力部101より入力されたユーザの操作入力を操作履歴とし、この操作履歴と、画面情報記憶部103に記憶される画面情報と、を関連付けて、操作履歴記憶部104に保存する(S302)。
 はじめに、画面情報記憶部103に記憶される「機能選択」という画面名に関する画面情報の具体的なデータの一例を図4に示す。ここで「画面名」とは、録画機器を操作する際に表示される画面の名前であり、例えば、「機能選択」という画面名は図5に示すようなメニュー画面に対して付与された名称である。
 図4に示すように、画面情報は、6つの項目401~406を含む情報である。項目401は、項目番号を示し、メニュー項目の位置を表す。項目402は、項目名を示す。項目403は、「上」ボタンを押した際にどの項目番号のメニュー項目へ選択状態が移動するかを示す。同様に、項目404は、「下」ボタンを押した際にどの項目番号のメニュー項目へ選択状態が移動するかを示す。具体的には、項目番号「1」の「再生ナビ」という項目名のメニュー項目が選択状態である場合、「上」というボタンを押すと、項目番号「7」に選択状態が移動する。このため、「その他の機能へ」という項目名のメニュー項目が選択状態となる。同様に、項目番号「1」の「再生ナビ」という項目名のメニュー項目が選択状態である場合、「下」というボタンを押すと項目番号「2」の「番組表から予約」という項目名のメニュー項目が選択状態となる。項目405以降の各項目は、項目403及び項目404と同様に、どのリモコンボタンを押すと選択状態がどこに遷移するかを示すものである。ここで、項目405以降の各項目には、リモコンボタンを押すことにより他の画面へ選択状態が移動するため、どの画面に移動するのかという情報が記述されている。それに加え、当該各項目には、もし移動先の画面がメニュー画面である場合、どのメニュー項目へ移動するのかという情報が記述されている。本データ例では、「@」の記号の前に前記移動先の画面名が記述され、「@」の記号の後に前記移動先の画面における選択状態となるメニュー項目の項目番号が記述されている。具体的には、項目番号「1」の「再生ナビ」という項目名のメニュー項目が選択状態である場合に、リモコン上の「決定」ボタンを押すと、「再生ナビ」という画面名のメニュー画面に移動する。そのメニュー画面において項目番号「1」の項目名のメニュー項目が選択状態となる。
 次に、操作履歴記憶部104に記憶される操作履歴の具体的なデータの一例を図6に示す。操作履歴は、項目601~607を含む。項目601~607からなる各レコードが1つの操作を示す。項目601は、操作番号を示し、各操作に対して連続的な番号が付与される。この操作番号は機器を起動したときなど、決まったタイミングでリセットされる。項目602は、ユーザが行った操作の時刻を示す。項目603は、ユーザが行った操作の前に表示されていた画面の画面名を示す。項目604は、ユーザが操作する前に選択状態となっているメニュー項目の名称(選択状態項目名)を示す。項目605は、ユーザが行った操作を示し、操作時に選択されたリモコンボタンを示す。項目606は、項目605の操作がどのメニュー階層に対して行われたかを示すものであり、例えば、録画機器の起動状態で録画機器の画面が表示されていない状態を0階層と定義する。0階層からいずれかのリモコンボタンを押して画面を表示させた状態を1階層と定義する。また、1階層で表示されている画面内で定義される操作を行い別の画面を表示させた状態を2階層と定義する。メニュー階層の一例を図7に示す。例えばリモコン上のボタン「機能選択」を押す操作は0階層での操作である。その結果表示された「機能選択」画面で表示されているメニュー項目の一つである「ぴったり予約」を選択する操作は1階層での操作である。その結果表示された「ぴったり予約」画面で表示されているメニュー項目の一つである「録画時間設定」を選択する操作は2階層での操作である。
 項目607は試行番号を示す。ユーザがメニュー階層を下っていくが、その先に目的の機能が無いと判断して上位の階層に戻って機能の探索をやり直した操作を試行と表現する。項目607は、試行単位での区切りを表す番号である。図6の例によると、ユーザは、操作番号「6」までは「番組表」画面で上下左右ボタンを押しながら機能探索をしているが、この画面では目的機能が達成できないと判断して、「機能選択」ボタンを押し、再度、機能探索をやり直している。このため、操作番号「7」からが別の試行であると判断される。
 図6の操作番号「1」及び操作番号「2」の操作について、図8を用いて説明する。図6の操作番号「1」の操作履歴は、図8(a)に示すように「テレビ表示」画面において、リモコン上の「機能選択」というボタンを押した操作を示す。「テレビ表示」画面には録画機器の画面が表示されていない。このため、表示階層は0階層である。また、テレビには録画機器の操作画面が表示されていない。このため、項目604に示される操作前の選択状態項目名は「なし」となる。操作番号「1」の操作でユーザがリモコン上の「機能選択」ボタンを押した結果、図8(b)に示されるような「機能選択」画面(図5の画面)がテレビに表示される。図6の操作番号「2」の操作履歴は、図8(b)に示すように、「機能選択」画面が表示された状態で、ユーザがリモコン上の「下」ボタンを押した操作を示す。「機能選択」ボタンを押した際に表示される「機能選択」画面は、図5に示すように、最も上のメニュー項目が「再生ナビ」であり、その下にメニュー項目「番組表から予約」、「予約確認」等が続くメニュー画面である。「機能選択」ボタンが押されたときは、最も上の項目である「再生ナビ」が選択状態にあり、リモコン上の「下」ボタンを押すことでメニュー画面の選択状態は一つ下の項目である「番組表から予約」に移動する。これが操作番号「2」で行われたユーザの操作である。
 図6に示すような操作履歴から、ユーザが選択した項目のみを抽出した、操作履歴を図9Aに示す。操作履歴は、項目801~803を含む。項目801は、選択番号を示す。項目802は、ユーザが選択した項目を示す。この選択項目は、以下のようにして取得される。つまり、図4に示すような画面情報を利用して、ユーザが画面上の項目を選択しているのか、リモコンボタン上の項目、即ちリモコンボタンに付与されているラベルを選択しているのかが判断される。この判断結果に従って、適切な選択項目が取得される。例えば、メニューが選択可能な画面において、ユーザがリモコンの上下ボタンを選択している場合、これは目的の項目へカーソルを移動するための操作であり、選択項目ではない。目的の項目へカーソルを移動させ、「決定」ボタンが押された場合、録画機器操作実行部102は、リモコンボタンのラベルである「決定」ではなく、メニューで選択された項目を選択項目として取得する。より具体的には、図6の項目605の操作番号「3」において「決定」ボタンが押された際は、項目604で示される選択状態項目である「番組表から予約」を取得する。項目803は図6の項目607に対応する試行番号である。
 図9Aに示すような形式の操作履歴を図6に示す操作履歴に加えて操作履歴記憶部104に記憶してもよい。
 再度図3を参照して、録画機器操作実行部102は、ユーザ操作入力部101より入力された操作入力が、操作支援の要求か否かを判定する(S303)。
 操作支援要求で無い場合(S303でNO)、録画機器操作実行部102は、前記操作入力が機能の実行操作か否かを判定する(S304)。
 前記操作入力が機能の実行操作である場合は(S304でYES)、録画機器操作実行部102は、録画機器の機能を実行する(S310)。一方、前記操作入力が機能の実行操作で無い場合は(S304でNO)、録画機器操作実行部102は、録画機器の動作を実行する(S305)。その後、S301へもどり、ユーザの操作入力の待ち受け状態となる。
 ユーザ操作入力部101より入力された操作入力が操作支援の要求である場合(S303でYES)、操作支援装置100は、以下に説明する処理を実行することにより、目的機能を実行するために試行錯誤したと考えられる操作履歴を抽出する。また、操作支援装置100は、この抽出された操作履歴に基づき、ユーザの目的機能の推定を行い、操作支援を行う処理を実施する。ここで、前記試行錯誤したと考えられる操作履歴は以下のようにして抽出される。例えば、操作支援要求の直近で実行された機能に対する操作履歴の中から、試行錯誤したと考えられる操作が検索される。検索された試行錯誤したと考えられる操作から、操作支援の要求がされるまでのすべての操作が、試行錯誤したと考えられる操作履歴として抽出される。
 ここで、前記試行錯誤したと考えられる操作履歴は、操作は行ったが実現されていない操作履歴であり、例えば、操作支援要求と直近で実行された機能との間で行われた操作履歴を抽出することにより得られる。
 つまり、操作負荷算出部106は、操作履歴記憶部104に記憶されている操作履歴と、画面情報記憶部103に記憶されている画面情報とを用いて、ユーザの操作負荷を算出する(S306)。
 本実施の形態での操作対象はリモコンで操作される録画機器であるが、選択行為には、画面上のメニュー項目の選択とリモコンボタン選択とがある。共にリモコンボタンを押す行為であるが、操作対象が異なるため操作負荷の算出方法も異なる。以下では、はじめにリモコンを用いたメニュー項目の選択における操作負荷の算出方法について説明し、その後リモコンボタン選択における操作負荷の算出方法について説明する。
 はじめに、リモコンを用いたメニュー項目の選択における操作負荷算出方法について説明する。例えば、図5に示す画面(以後単に「機能選択画面」と記述する。)上で図9Aおよび図9Bに示す操作が行われた際のユーザの操作負荷を算出する方法について述べる。図9Aは、操作履歴の一例を示す図であり、図9Bは、図9Aに示す操作履歴を説明するための機能選択画面の一例を示す図である。図9Bに示す機能選択画面中の数字は、図9Aに示す操作履歴の選択番号に対応し、選択項目の機能選択画面中での位置を示している。なお、図9Aに示す操作履歴は、以下のような操作履歴を含む。つまり、ユーザは、機能選択画面上で選択項目を選択した結果、選択項目選択後に表示された画面上には希望する選択項目が無い。このため、ユーザは、「戻る」ボタン等で機能選択画面に戻り、他の選択項目を選択する。図9Aに示す操作履歴は、このような操作を繰り返した際の操作履歴である。但し、選択番号「5」に示す機能選択ボタンは、機能選択画面の初期状態を表示させるための操作である。
 操作負荷算出部106は、操作履歴記憶部104に記憶されている操作履歴の情報を用いて図10に示すようなデータの各項目の値を算出し、操作負荷を定量化して操作履歴記憶部104に記憶する。
 図10に示すデータは、項目801、802、903~907を含む。項目801および802は、図9Aの項目801および802とそれぞれ同じである。
 項目903は、画面の初期化操作を示す項目であり、画面が初期化される操作を1で示し、それ以外の操作を0で示す。なお画面が初期化される操作が行われた場合、通常では選択状態にある選択項目は、画面上で一番上に位置する選択肢である場合が多い。
 項目904は、前回の選択項目が選択状態である状態から次の選択番号で示される選択項目が選択される行為(以後「選択項目移動行為」と記述する。)の間にリモコンボタンが押された回数である。なお、リモコンボタンが押された回数の中には、選択項目を選択するために使用される「決定」ボタンが押された回数は含まれない。例えば選択番号「1」の「機能選択」ボタンが押されたとき、表示されるのは図5に示す画面であり、選択状態にある項目は「再生ナビ」である。この状態から選択番号「2」の「番組表から予約」を選ぶには、「下」ボタンを1回押す必要があるので、操作番号「2」の項目904は1となる。同様に選択番号「3」では選択番号「2」の「番組表から予約」から9回リモコンボタンを押すことで「ぴったり録画」に到達していることを示している。
 ここでは、リモコンボタンが押された回数の中には「決定」ボタンが押された回数は含まれないものとしたが、「決定」ボタンを押された回数を含むものとしてもよい。
 なお、リモコンボタンをメニュー画面の選択状態にある項目の移動といった操作ではなく、リモコンボタンを選択項目として選択している場合は他と区別する必要がある。このため、このような場合には、項目904の値を-1とする。リモコンボタンを選択項目として選択している場合とは、例えば機能選択画面を表示するために「機能選択」ボタンを押す場合である。また、コンテンツを再生させるための「再生」ボタンを押す場合である。
 項目905は、選択項目移動行為の間に押されたリモコンボタンの種類数である。例えば、リモコン上の「下」ボタンのみで選択項目移動行為を行った場合、項目905で示されるボタン種類数は1である。また、選択項目移動行為の間にユーザが迷い、「上」「下」ボタンを押して選択状態にある項目が上下した場合などは、ボタン種類数は2となる。例えば、選択番号「2」の「番組表から予約」から選択番号「3」の「ぴったり録画」へは「下」ボタンを6回押下することで移動可能である。しかし、ユーザが選択の際に迷い、「上」ボタンを一度押して選択項目の移動方向を一度変えたため、選択項目移動行為に必要な押下数は8となる。
 項目906は、前回の選択項目移動行為において最後に押したボタンの種類と、今回の選択項目移動行為の最初に押したボタンとの間に変化があるかどうかを示す。変化があった場合には、項目906の値を1とし、変化が無かった場合には、項目906の値を0とする。これは、例えば1回ボタン押すという行為においても、先の操作で「下」を押し、続いて「下」を押すのと、先の操作で「下」を押し、続いて「上」を押すのでは操作負荷は後者の方が大きいとする考え方に基づく。なお、ここでのボタンには「決定」ボタンは含まれない。
 項目907は、項目904から項目906の情報を利用して操作負荷を算出した結果である。本例では単純に全ての項目(項目904から項目906)の値の加算により操作負荷を定量化しているが、重み付けを行う等の処理を行ってもよい。なお、上述の項目904のようにリモコンボタンをメニュー画面の操作ではなく、選択項目として選択している場合は他と区別するため-1とする。
 次に、図11に示すリモコンでリモコンボタンに対する選択操作が行われた際のユーザの操作負荷算出方法について、図12に示すフローチャートを用いて説明する。なお、リモコンの操作におけるユーザの操作負荷は、上記メニュー画面上での操作における操作負荷とは異なり、操作負荷が大きいか否かの2値で表現する。
 操作負荷算出部106は、図6に示すような操作履歴から、ユーザがリモコンボタンを選択項目として押下した操作を抽出し、図13に示すようなリモコン操作用操作履歴を作成する(S1101)。操作履歴は、項目1201および1202を含む。項目1201は選択番号を示す。項目1202は、選択項目を示す。項目1202は、リモコンボタンに付与されているラベルを選択項目とする。操作負荷算出部106は、画面情報とリモコンボタンの種類とから、行われている操作が画面操作であるか否かを判定する。画面操作であると判定した場合には、選択番号「2」や「4」のように、その操作履歴をまとめて「メニュー操作」として記録する。より具体的には、機能選択画面において「上」「下」「左」「右」「決定」「戻る」などのボタンが押された場合、操作負荷算出部106は、その操作がメニュー操作であると判断する。
 操作負荷算出部106は、前記リモコン操作用操作履歴に含まれる各選択項目について、連続してリモコンボタンを選択項目として押下した操作における選択項目か否かを判定する(S1102)。より具体的には、判定対象となる選択項目の前後の選択項目のどちらかが「メニュー操作」や「操作支援要求」ではない場合、判定対象である選択項目は連続したリモコンボタンの押下であると判断する。例えば、図13に示すリモコン操作用操作履歴の場合、選択番号「5」から選択番号「8」までが連続したリモコンボタンの押下であると判定する。
 判定対象となる選択項目が、連続してリモコンボタンを選択項目として押下した操作における選択項目でないと判定されると(S1102でNO)、操作負荷算出部106は、その選択項目の操作負荷が大きいと判定する(S1105)。一方、判定対象となる選択項目が、連続してリモコンボタンを選択項目として押下した操作における選択項目であると判定されると(S1102でYES)、S1103に移る。
 操作負荷算出部106は、判定対象である選択項目がリモコン上で同一グループのボタンを連続的に押下した操作における選択項目か否かの判定を行う(S1103)。より具体的には、操作負荷算出部106は、判定対象となる選択項目が、その選択項目の前後の選択項目のどちらかと同一グループのボタンであるか否かを判定する。ここで、同一グループのボタンは、開発者が予め決定しても良いし、ボタンの数、形状、色、配置を利用して自動的に決定しても良い。例えば、一定距離以内に、3つ以上の同一形状のボタンが含まれる場合に、それらのボタンを同一グループであると定義してもよい。このような定義の場合、図11のリモコンにおいては、例えば、「再生ナビ」ボタン、「番組表」ボタン、「機能選択」ボタンが同一グループであると判定される。また、「青」ボタン、「赤」ボタン、「緑」ボタン、「黄」ボタンが同一グループであると判定される。さらに、「停止」ボタン、「一時停止」ボタン、「再生」ボタンなどが、同一グループであると判定される。
 本ステップの判定により、例えば図13に示すリモコン操作用操作履歴の場合、操作番号「6」から操作番号「8」の操作が同一グループのボタンの連続押下における選択項目であると判定される。ここで、判定対象である選択項目が同一グループのボタンの連続押下における選択項目でないと判定されると(S1103でNO)、操作負荷算出部106は、当該選択項目の操作負荷が大きいと判定する(S1105)。一方、判定対象である選択項目が同一グループのボタンの連続押下における選択項目であると判定されると(S1103でYES)、操作負荷算出部106は、当該選択項目の操作負荷が小さいと判定する(S1104)。
 図14に、本処理により図13に示すリモコン操作用操作履歴に対して操作負荷を判定した結果を示す。項目1303が操作負荷であり、操作負荷が大きいと判定された操作には1が付与され、操作負荷が小さいと判定された操作には0が付与される。また、ユーザがリモコンのガイドボタンを押下して操作支援要求を行った操作については、他と区別するために-1が付与される。
 再度図3を参照して、無思考操作判定部107は、操作負荷算出処理(S306)で算出された各操作に対する操作負荷を用いて、操作履歴を分類する(S307)。分類の目的は、前述のように、目的推定に利用する操作履歴から、ユーザが目的機能に到達できる可能性を検討せずに行う、または、ユーザが目的機能と関係が低いと考えながら行う無思考操作を削除するためである。このため、無思考操作判定部107は、操作履歴が無思考操作か否かの分類を行う。
 無思考操作判定部107による、リモコンを用いたメニュー項目の選択における操作履歴の分類処理(S307)のフローチャートを図15に示す。
 無思考操作判定部107は、操作負荷算出処理(S306)において算出された、例えば、図10に示すデータを取得する(S1401)。
 無思考操作判定部107は、図6に示した操作履歴を用いて、図10に示す前記取得したデータに含まれる押下数および操作負荷を修正する(S1402)。具体的には、目的推定の対象とする操作履歴内で一定回数以上選択経験のある選択項目を無視して、選択項目間の移動行為に必要な押下数を算出する。例えば、図10において、選択番号「6」の「再生ナビ」から選択番号「7」の「予約確認」への移動には、2回の押下が必要である。しかし、図6より、「再生ナビ」と「予約確認」との間にある「番組表から予約」は、既に図10の選択番号「2」において選択されている項目である。そこで、「番組表から予約」を無視して「再生ナビ」から「予約確認」への移動に必要な押下数を算出する。また、この押下数の修正に応じて操作負荷も修正を行う。これは、既に選択した項目は、再度選択する可能性が低いため、既に選択した項目を無視するためである。
 図16に図10のデータに対して上記修正を反映した結果を追加したデータの一例を示す。図16に示すデータは、図10に示すデータに、さらに、項目1508および項目1509が追加されたものである。項目1508は、項目904に示される押下数を修正した後の押下数を示す。項目1509は、項目907に示される操作負荷を修正した後の操作負荷を示す。
 無思考操作判定部107は、このように操作負荷を修正した各操作に対して、以下に示す処理を行い、無思考操作か否かの判定を行う。
 つまり、無思考操作判定部107は、上記修正を反映した操作負荷の各々を閾値と比較する(S1403)。判定対象の操作の操作負荷が閾値より大きい場合(S1403でNO)、無思考操作判定部107は、その操作が思考を有する操作であって、無思考操作でないと判定する(S1406)。
 一方、判定対象の操作の操作負荷が閾値よりも小さい場合(S1403でYES)、S1404へ進む。無思考操作判定部107は、判定対象の操作の前後の操作における操作負荷の値を取得し、閾値以下の操作が、前後のどちらかにあるかを調べる(S1404)。これは操作負荷が閾値以下の操作が2回以上続いているか否かを判定していることになる。操作負荷が閾値以下の操作が2回以上続いていない場合(S1404でNO)、無思考操作判定部107は、判定対象の操作が思考を有する操作であって無思考操作でないと判定する(S1406)。操作負荷が閾値以下の操作が2回以上続いている場合には(S1401でYES)、S1405へ進む。
 なお、S1404の処理は操作毎に行うのではなくてもよい。つまり、全ての操作に対して操作負荷が閾値以下か否かを判定するようにしてもよい。無思考操作判定部107は、その結果を用いて閾値以下の操作が2回以上連続している操作を抽出し、2回以上連続している操作履歴に対してS1405の処理を行っても良い。また、S1404での判定に用いた連続回数は2回としたが、それ以外の回数でも良い。例えば、判定に用いる連続回数を5回とすると、操作負荷が閾値以下の操作が4回続いたとしてもS1406へ進み、無思考操作でないと判定する。
 無思考操作判定部107は、S1404の処理より抽出された、操作負荷が閾値以下で連続した操作系列が、同一グループ内の選択系列か否かの判定を行う(S1405)。
 ここで、同一グループ内の選択系列とは、メニュー項目に含まれる単語の共通度合い、類似性またはレイアウトなどにより決定される類似したメニュー項目の集合である。例えば、図5の機能選択画面において、「放送設定」と「初期設定」とには共に「設定」という単語が含まれているので(メニュー項目に含まれる単語間の意味的類似度が大きいので)、同一グループであるとしても良い。また、レイアウト上、「予約する」に分類される「番組表から予約」「予約確認」「番組表の検索」および「Gコード入力」を同一グループとしても良い。また、メニューの先頭位置、またはフォントの種類、大きさ若しくは色などの情報を利用してグループに分類してもよい。例えば、横方向の位置が等しいメニュー項目を同一グループとしたり、フォントのサイズまたは色が等しいメニュー項目を同一グループとしたりしてもよい。
 無思考操作判定部107は、このように定義されたメニュー項目のグループとS1404の処理により抽出された操作系列とを比較する。無思考操作判定部107は、この比較結果に従い、前記操作系列が1つのグループの中に含まれるか否かを判定する(S1405)。前記操作系列が1つのグループ内に含まれる場合(S1405でYES)、無思考操作判定部107は、判定対象の操作が無思考操作でないと判定する(S1406)。一方、前記操作系列が1つのグループ内に含まれない場合(S1405でNO)、すなわちグループ間を跨る操作が行われている場合、無思考操作判定部107は、判定対象の操作が無思考操作であると判定する(S1407)。
 なお、メニューの構成上、類似したメニュー項目が近くにあれば、無思考操作でない場合でも、操作負荷が小さい連続的な操作が行われると考えられる。このため、このように類似したメニュー項目間で操作負荷が小さい連続した操作が行なわれている場合には、無思考操作ではないと判断する必要がある。S1405の判定は、操作負荷が小さい連続的な操作が行われたとき、その操作は無思考操作であるという基本的な考えに、前述のような考えを加えたものである。さらに、上記処理では操作負荷が小さい連続的な操作がグループを跨って行われた場合は無思考操作であるという判定も行っている。
 この考えを基にした別の判定方法として、選択履歴における各選択項目の類似性を基に、操作が無思考操作か否かの判定を行う方法が考えられる。具体的には、S1403で操作負荷が閾値以下ではなく無思考操作でないと判定された選択履歴と、S1404で抽出された操作系列の各選択項目との意味的類似度を、閾値と比較する。類似度が閾値以上となる際の選択項目を無思考操作でないと判定する。より具体的には、前記無思考操作でないと判定された選択履歴の選択項目に含まれる単語を抽出する(抽出された単語の集合を単語集合1とする)。同様にS1404の処理により抽出された各操作履歴の選択項目に含まれる単語を抽出する(抽出された単語の集合を単語集合2とする)。そして、例えばマニュアルのようなテキストコーパスから索引語・文書行列を作成する。また、各単語をベクトル表現し(非特許文献:北他:情報検索アルゴリズム,共立出版,pp60-63)、前記単語集合1と前記単語集合2に含まれる単語ベクトルを加算する。このことで、各単語集合に対応したベクトルを作成し、両ベクトルを比較することにより前記意味的類似度を算出する。
 上記の処理を行うことにより、図16に示す操作履歴データにおいて、S1403での閾値を2とした場合、選択番号「6」から選択番号「9」までの操作が無思考操作であると判定される。
 なお、リモコンボタンに対する選択操作が行われた際の操作履歴における各操作の操作負担は、既に2値に分かれている。このため、S306で分けた分類をそのまま利用し、操作負荷が小さいと判定された操作を無思考操作であると判定する。例えば図14の操作履歴データの場合、選択番号「6」から選択番号「8」までを無思考操作であると判定する。
 再度図3を参照して、目的機能推定部108は、操作履歴記憶部104に記憶された無思考操作を除いた選択履歴を用いて、目的推定対象機能記憶部109に記憶されている各機能に対して順位付けを行う。これにより、目的機能の推定を行う(S308)。
 図17に目的推定対象機能記憶部109に記憶されている目的推定対象機能に関するデータの具体例を示す。当該データは、項目1601~1603を含む。項目1601は、各機能の機能番号を示す。項目1602は、各機能の機能表現を示し、当該機能表現は、マニュアルの目次で示されているように機能を短い言葉で表現した文書である。項目1603は、マニュアルにおいて各機能を説明するために利用されている単語を示す。この項目1603における単語は、マニュアルのテキスト文書を形態素解析したものである。例えば、名詞や動詞、副詞などの特定の品詞である。
 目的機能推定部108は、無思考操作判定部107で分類された操作履歴の中から、目的推定に利用する無思考操作ではない操作履歴を抽出する。目的機能推定部108は、さらに各選択単語で利用されている単語を抽出する。抽出方法は上記と同様に形態素解析により行う。
 図18に、図16に示す操作履歴から目的推定に利用する選択項目を抽出し、抽出された選択項目に含まれる利用単語を抽出したデータの一例を示す。当該データは、項目1701~1703を含む。項目1701および1702は、図9Aに示した操作履歴の項目801および802に対応する。項目1703は、項目1702に示した選択綱目で利用されている単語を示す。なお、図16に示す操作履歴における選択番号「5」の「機能選択」は画面初期化操作であり、その後に続く操作が無思考操作であったため、この選択項目は、目的推定には利用されない。
 目的機能推定部108は、目的推定対象機能記憶部109に記憶される全ての機能と前記抽出した目的推定に利用される選択項目との類似度を算出し、各機能に対して順位付けを行う。各機能とユーザが選択した選択項目との類似度は、前記機能を説明するために利用されている単語と、選択項目で利用されている利用単語との類似度から算出される。最も簡単には、共通の単語数をカウントし、共通の単語数が多いほど類似しているとして類似度を算出する方法である。その他に、各機能を文書集合として、文書集合から索引語・文書行列を作成することで各機能をベクトル表現する。また、選択項目を検索質問ベクトルとして、ベクトル表現する。ベクトル表現された機能と選択項目との類似度を算出する方法であってもよい。
 なお、前記類似度が大きいほど、ユーザの目的機能である可能性が高いと推定し、以後この類似度を推定スコアと記述する。
 操作支援決定部110は、目的機能推定部108で順位付けされた機能を利用して操作支援方法を決定し、出力部111に出力する(S309)。出力部111は、録画機器の操作画面が出力されるテレビなどの端末と同一でも良いし、例えば携帯電話など、録画機器の操作画面が出力される端末とは別の端末でも良い。
 図19A~図19Cに操作支援画面の一例を示す。まず、操作支援決定部110は、機能を推定スコアの高い順に並べる。操作支援決定部110は、並べられた各機能の機能表現(図17のデータの項目1602に記述されている機能表現)を、図19Aのように、出力部111に表示させる。なお、図19Aでは、ユーザにとって操作支援装置100がどのような基準で推定結果を求めたかが理解しやすいように、ユーザの入力履歴と関連の強い単語を強調して表示している。
 次に、ユーザが自分の目的機能であると思われる項目を選択すると、図19Bのように、その機能に関するマニュアルが表示される。なお、機能を選択した際に表示される情報は、マニュアルの関連ページに限られない。例えば、操作支援用に予め作成した画面や、動画を表示するようにしてもよいし、機能が実行可能な録画機器の画面に遷移させるようにしてもよい。
 また、図19Cのように、目的推定に利用した操作の数と、利用しなかった操作の数とを、操作支援の前に表示しても良い。このとき、利用しない操作の数の大きさに応じて表示するか否かを決定しても良い。例えば、目的推定に利用しない操作(無思考操作)の数が閾値より多い場合、図19Cのような提示を行うことで、次回からのユーザの困惑時間を短くする効果が期待できる。
 上記のように操作負荷を算出し、その結果を用いて目的機能の推定に利用する操作履歴の抽出を行わなかった場合の操作支援画面の一例を図20に示す。前記操作履歴の抽出を行わなかった場合、図16のデータの全ての選択項目を利用して目的機能の推定が行われる。このため、無思考操作で選択された「再生」や「ダビング」に関する機能が上位に推定され、結果として、ユーザが目的とする機能である録画予約に関する機能が下位に推定される。ユーザの目的機能が下位に推定されると、ユーザはその機能を探すためにより多くの機能を見て目的の機能を探さなければならなくなり、ユーザの負担が大きくなってしまう。
 再度図3を参照して、録画機器操作実行部102は、操作支援の結果に基づきユーザにより指示された、録画機器の目的機能を実行する(S310)。
 以上説明したように、本実施の形態に係る操作支援装置は、目的機能推定に利用する操作履歴から、目的機能推定の精度を下げる要因となる無思考操作を削除できる。この無思考操作は、ユーザが目的機能に到達できる可能性を検討せずに行う操作、または、ユーザが目的機能と関係が低いと考えながら行う操作である。このため、本実施の形態に係る操作支援装置によると、ユーザが目的機能と関係が高いと考えながら行う操作のみを用いて目的機能推定が可能となる。よって、より高精度な目的機能推定が可能となり、ユーザに対して適切な操作支援が可能となる。
 (変形例1)
 上記実施の形態において、リモコンで操作する録画機器を操作対象として説明を行ったが、入力デバイスがタッチパネルなどのポインティングデバイスである機器に対しても、本発明は適用可能である。ポインティングデバイスを入力とする機器に対しては、操作履歴記憶部104に記憶される項目と、操作負荷算出部106で行う操作負荷の算出方法とが上記実施の形態と異なる。本変形例では、上記実施の形態との差異であるポインティングデバイスを入力とする機器特有の処理のみを説明する。
 図21に、ポインティングデバイスを入力手段とする機器の操作画面の一例を示す。アイコン「icon1」からアイコン「icon12」及びアイコン「iconA」からアイコン「iconD」はユーザが選択可能なアイコンを示す。ユーザがいずれかのアイコンを選択することにより、各アイコンに対応した画面が表示される。
 図22に、操作履歴記憶部104に記憶される選択履歴データの一例を示す。本操作履歴データは、以下のような操作履歴を含む。つまり、ユーザは、図21に示す画面のアイコンを選択する。しかし、その結果表示された画面上に適切な情報がないとユーザが判断し、「戻る」等の操作により、再び図21に示す画面を表示させ、別のアイコンを選択する。このような操作を繰り返した際の操作履歴である。
 図22に示す操作履歴は、項目2101~2106を含む。項目2101は、アイコンの選択毎に番号が振られる選択番号を示す。項目2102は、選択されたアイコンの名称を示す。項目2103は、選択されたアイコンの座標を示し、2次元のベクトルで表現される。項目2104は、前回選択されたアイコンから、対象とする次に選択されたアイコンまでの移動に必要な移動距離である。具体的には、アイコン「icon8」を選択した選択番号「2」の操作における移動距離は、前回選択されたアイコン「icon1」と、今回選択されたアイコン「icon8」との間の距離である。当該距離は、例えばアイコンの中心座標間の距離である。
 項目2105は、移動操作ベクトルを示す。移動操作ベクトルは、対象とする選択されたアイコンの座標から、一つ前に選択されたアイコンの座標を引くことにより算出される。移動操作ベクトルは、ユーザがポインタを移動させる軌跡を示しており、ユーザのポインタとしては、マウス、指またはペンなどが考えられる。項目2106は、コサイン尺度を示す。コサイン尺度とは、対象とする選択されたアイコンの移動操作ベクトルと、一つ前に選択されたアイコンの移動操作ベクトルとのなす角度のコサインの値である。例えば、アイコン「icon7」に対応するコサイン尺度は、一つ前に選択されたアイコン「icon8」の移動操作ベクトルと、アイコン「icon7」の移動操作ベクトルとのなす角度のコサインの値である。
 操作負荷算出部106は、図22に示すような操作履歴データのうち、項目2104で示される移動距離と項目2106で示されるコサイン尺度とを用いて、操作負荷を算出する。より具体的には、操作負荷算出部106は、移動距離をα倍した値とコサイン尺度をβ倍した値とを足し合わせることにより、操作負荷を算出する(α、βは共に正の実数)。これは、ポインタの移動距離が長いほど、ユーザの負担が大きくなるという考えに基づくものである。また、先の操作に必要としたポインタの移動と今回の操作に必要としたポインタ移動とのなす角度が大きいほどユーザの負担が大きくなるという考えに基づくものである。例えば、図23A(a)に示すポインタの移動距離よりも、図23A(b)に示すポインタの移動距離のほうが長い。このため、図23A(b)に示すポインタの移動のほうが、図23A(a)に示すポインタの移動に比べて、相対的に、操作負荷が大きくなる。また、図23B(a)に示すポインタの移動方向の変化と、図23B(b)に示すポインタの移動方向の変化とを比較すると、後者のほうが移動方向の変化が大きい。このため、図23B(b)に示すポインタの移動のほうが、図23B(a)に示すポインタの移動に比べて、相対的に、操作負荷が大きくなる。ただし、アイコンの位置によっては、ポインタの移動方向を変更しなければならない場合がある。例えば、図23B(c)のように、「選択2」で選択したアイコンの右隣にアイコンが無い場合には、次のアイコンを選択するためにはポインタの移動方向を変更せざるを得ない。このような場合には、移動方向の変化が大きいが、操作負荷は小さいと判断するようにしてもよい。例えば、図23B(a)の場合と操作負荷の大きさを同じにしてもよい。
 このようにして、無思考操作判定部107において、操作負荷が算出される。上記実施の形態と同様に、図15のS1403において、操作負荷が予め指定した閾値と比較され、操作の連続回数が算出され、当該操作が同一グループ内の選択か否かが判定される。このことにより、当該操作が無思考操作か否かが判定される。
 なお、S1405の処理のために必要なアイコンのグルーピングは、上記実施の形態と同様に、アイコンに記述されている単語や、アイコンのレイアウト情報を基に行われる。
 その他の処理は、上記実施の形態と同様であるので、その説明は繰り返さない。
 このように、ポインタの移動距離と、ポインタの移動軌跡のなす角度とが用いられる。これにより、ポインティングデバイスを入力デバイスとする機器に対しても、リモコンを入力デバイスとする機器の場合と同様に、無思考操作を削除することが可能となる。このため、より精度の高い目的推定が可能となり、ユーザに適した操作支援が可能となる。
 (変形例2)
 上記実施の形態において、目的機能の推定を用いたユーザへの操作支援は、ユーザの操作支援要求に基づいて行われた。しかし、ユーザが無思考操作を開始したことを操作支援装置が検出し、早いタイミングでユーザへ操作支援を行っても良い。
 操作支援装置が操作支援を行う場合のユーザの操作手順を図24に示し、操作支援装置の処理手順を図25に示す。以下では、それぞれの処理について、図2及び図3との違いを中心に説明する。なお、操作負荷の算出方法や無思考操作の抽出方法は上記実施の形態と同様であるため、その説明は繰り返さない。
 ユーザは、図24に示すように、目的機能の実行ができない場合に(S202でNO)、操作支援装置から操作支援の提案がされる(S2203)。操作支援装置100からの操作支援の提案を受理することにより(S2204でYES)、ユーザは、操作支援装置100から操作支援を受ける(S204)。ユーザは、操作支援に基づいて、目的とする機能を実行する(S205)。
 操作支援装置100は、図25に示すように、ユーザの入力を受け付けるたびに操作負荷の算出を行い(S306)、無思考操作の検出を行う(S2404)。対象の操作が無思考操作でないと判定されると(S2404でNO)、操作支援装置100は、通常の機器操作の動作を実行する(S304、S305、S310)。対象の操作が無思考操作であると判定されると(S2404でYES)、無思考操作を除いた操作履歴を用いて、目的機能の推定を行い(S308)、ユーザに対して操作支援を提案する(S2408)。
 図26Aおよび図26Bに操作支援提案時の画面の一例を示す。図26Aは、リモコン上のガイドボタンを押すように促すメッセージを表示する画面の一例であり、図26Bは推定された機能のタイトルなどを表示する画面の一例である。図26Bのように一つの機能を提示して、1回の操作で表示機能の情報についての操作支援を行えると、ユーザにとって負担の少ない操作支援となる。しかし、提示された機能が、ユーザの目的とする機能ではない場合、逆にユーザの負担が増えてしまう。
 そこで、目的機能の推定結果に対する信頼度を算出し、いずれの機能を表示するかを決定したり、表示する機能の数を制御したりしても良い。ここで、信頼度は、目的機能の推定に利用した選択項目の数、選択項目に含まれる単語の数、前記単語のマニュアル上での出現頻度などを用いて算出してもよい。また、目的機能の推定処理で算出した各機能と操作系列との類似度の大きさ又は類似度の分布を用いて算出しても良い。
 図26Aまたは図26Bのような操作支援の提案情報が提示されているにも関わらず、ユーザが操作を続けたり、キャンセルボタン等により操作支援提示の表示を消したりする操作が行われた場合がある(S2409でNO)。このような場合には、出力部111の画面上に表示されている操作支援の提示情報を消去する(S2410)。
 このように、ユーザが入力する操作に対して、その都度、操作負荷を算出して、無思考操作か否かを判定することで、無思考操作になってすぐに操作支援の提案が可能となる。このことにより、ユーザが目的機能に到達できる可能性を検討せずに行う、または、ユーザが目的機能と関係が低いと考えながら行う無思考操作を減らすことができる。このため、ユーザの負担を減らした操作支援が可能となる。
 以上のように、上記実施の形態によると、本発明は、ユーザの操作履歴を用いてユーザの目的を推定する選択型のインタフェースを持つ機器一般に適用できる。このため、本発明は、上記実施の形態で説明した録画機器だけでなく、携帯電話、カーナビゲーションシステム、又は音楽・動画プレイヤーなど、様々な機器での利用が可能であり、その利用可能性は非常に大きい。
 以上、本発明の実施の形態に係る操作支援装置について説明したが、本発明は、この実施の形態に限定されるものではない。
 例えば、操作支援装置は、録画機器に対するユーザの操作を支援したが、操作支援対象の機器は録画機器に限定されるものではなく、ユーザにより操作が行なわれる機器であれば他の機器でもよい。例えば、映像を再生する映像再生機器、または音声を再生する音声再生機器などであってもよい。
 また、上記の操作支援装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されても良い。RAM又はハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、操作支援装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 さらに、上記の操作支援装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしても良い。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 さらにまた、上記の操作支援装置を構成する構成要素の一部又は全部は、操作支援装置に脱着可能なICカード又は単体のモジュールから構成されているとしても良い。ICカード又はモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカード又はモジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカード又はモジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしても良い。
 また、本発明は、上記に示す方法であるとしても良い。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、前記コンピュータプログラムからなるデジタル信号であるとしても良い。
 さらに、本発明は、上記コンピュータプログラム又は上記デジタル信号をコンピュータ読み取り可能な記録媒体に記録したものとしてもよい。例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAMに記録したものとしてもよい。また、BD(Blu-ray Disc(登録商標))、半導体メモリなどに記録したものとしても良い。また、これらの記録媒体に記録されている上記デジタル信号であるとしても良い。
 また、本発明は、上記コンピュータプログラム又は上記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしても良い。
 また、上記プログラム又は上記デジタル信号を上記記録媒体に記録して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。また、上記プログラム又は上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。
 さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしても良い。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
 本発明は、例えば、コンピュータ・アプリケーション、電化製品、又はAV機器のような多様な機能を有する機器に対して、ユーザの操作履歴からユーザの目的機能を推定し、その結果を利用してユーザの操作を支援する操作支援装置等に適用可能である。
 100 操作支援装置
 101 ユーザ操作入力部
 102 録画機器操作実行部
 103 画面情報記憶部
 104 操作履歴記憶部
 105 タイマー
 106 操作負荷算出部
 107 無思考操作判定部
 108 目的機能推定部
 109 目的推定対象機能記憶部
 110 操作支援決定部
 111 出力部
 112 操作支援部

Claims (20)

  1.  ユーザに対して機器の操作支援を行なう操作支援装置であって、
     前記ユーザによる前記機器の機能を実行するために行う選択操作の履歴を記憶する操作履歴記憶部と、
     前記操作履歴記憶部に記憶されている前記選択操作について、当該選択操作を行なう際の前記ユーザの操作負荷を、当該選択操作と前記履歴に含まれる当該選択操作よりも前の他の選択操作とを用いて、算出する操作負荷算出部と、
     前記操作履歴記憶部に記憶されている前記選択操作について、前記操作負荷算出部で算出された前記ユーザの前記操作負荷が小さいほど、当該選択操作が手当たり次第に行なわれた操作である無思考操作であると判断することにより、当該選択操作が前記無思考操作であるか否かを判定する無思考操作判定部と、
     前記無思考操作判定部で前記無思考操作であると判定された選択操作を除いた前記選択操作の履歴に基づいて、前記ユーザに対して操作を支援する操作支援部と
     を備える操作支援装置。
  2.  前記ユーザによる前記機器の機能を実行するために行う選択操作は、メニュー項目選択型のインタフェースにおけるメニュー項目の選択操作であり、
     前記操作負荷算出部は、前記選択操作について、前記他の選択操作と当該選択操作との間で必要とされる前記ユーザの操作である選択項目移動操作において、(i)当該選択項目移動操作を行なうために必要としたボタンの押下数、(ii)当該選択項目移動操作を行なうために押下されたボタンの種類数、および(iii)当該選択項目移動操作の最初に押下されたボタンと前回の選択項目移動操作の最後に押下されたボタンとの間の変化情報のうちの少なくとも1つを用いて、前記操作負荷を算出する
     請求項1記載の操作支援装置。
  3.  前記操作負荷算出部は、前記選択項目移動操作を行なうために必要としたボタンの押下数が多いほど大きくなるように、前記操作負荷を算出する
     請求項2記載の操作支援装置。
  4.  前記操作負荷算出部は、前記選択項目移動操作を行なうために押下されたボタンの種類数が多いほど大きくなるように、前記操作負荷を算出する
     請求項2記載の操作支援装置。
  5.  前記操作負荷算出部は、前記選択項目移動操作の最初に押下されたボタンと前記前回の選択項目移動操作の最後に押下されたボタンとの間の変化が大きいほど大きくなるように、前記操作負荷を算出する
     請求項2記載の操作支援装置。
  6.  前記操作負荷算出部は、さらに、前記ボタンの押下数を、過去に一定回数以上選択された前記機器の機能を実行するための選択項目を無視し、前記選択項目移動操作を行なうために必要としたボタンの押下数に修正する
     請求項2~5のいずれか1項に記載の操作支援装置。
  7.  前記無思考操作判定部は、前記操作履歴記憶部に記憶されている前記選択操作について、前記操作負荷算出部で算出された前記ユーザの前記操作負荷が所定の閾値よりも大きい場合に、当該選択操作が前記無思考操作ではないと判定する
     請求項1~6のいずれか1項に記載の操作支援装置。
  8.  前記ユーザによる前記機器の機能を実行するために行う選択操作は、メニュー項目選択型のインタフェースにおけるメニュー項目の選択操作であり、
     前記無思考操作判定部は、さらに、メニュー選択画面に表示されるメニュー項目に対して行われたグループ化に従い、前記操作履歴記憶部に記憶されている前記履歴に含まれる前記選択操作について、当該選択操作と前記履歴に含まれる当該選択操作よりも前の他の選択操作とが同一のグループに属している場合に、当該選択操作が前記無思考操作ではないと判定する
     請求項1~7のいずれか1項に記載の操作支援装置。
  9.  前記グループ化は、前記メニュー選択画面におけるメニュー項目の配置情報およびメニュー項目のフォント情報のうちの少なくとも1つを利用して行われる
     請求項8記載の操作支援装置。
  10.  前記グループ化は、前記メニュー選択画面におけるメニュー項目に含まれる単語間の意味的類似度を利用して行われる
     請求項8記載の操作支援装置。
  11.  前記無思考操作判定部は、前記操作履歴記憶部に記憶されている前記履歴に含まれる前記選択操作について、前記操作負荷算出部で算出された前記ユーザの前記操作負荷が小さく、かつ、より小さな前記操作負荷が連続しているほど、当該選択操作が前記無思考操作であると判断することにより、当該選択操作が前記無思考操作であるか否かを判定する
     請求項1~6のいずれか1項に記載の操作支援装置。
  12.  前記ユーザによる前記機器の機能を実行するために行う選択操作は、前記機器を操作するためのリモートコントローラに設けられた、前記機器の機能に対応付けられたボタンの選択操作であり、
     前記操作負荷算出部は、前記リモートコントローラに設けられたボタンを当該ボタンの形状情報、色情報および配置情報のうちの少なくとも1つを用いてグループ化した際に、同一グループ内のボタンが連続的に押下されている場合は、グループを跨ってボタンが押下されている場合に比べて小さくなるように、前記操作負荷を算出する
     請求項1記載の操作支援装置。
  13.  前記ユーザによる前記機器の機能を実行するために行う選択操作は、前記機器を操作するためのポインティングデバイス上での選択操作であり、
     前記操作負荷算出部は、(i)前記選択操作と前記他の選択操作との間に必要とするポインタの移動距離、および(ii)前記選択操作に必要としたポインタの移動軌跡と前記他の選択操作に必要としたポインタの移動軌跡とのなす角度のうちの少なくとも1つを用いて、前記操作負荷を算出する
     請求項1記載の操作支援装置。
  14.  前記操作負荷算出部は、前記ポインタの移動距離が長いほど大きくなるように、前記操作負荷を算出する
     請求項13記載の操作支援装置。
  15.  前記操作負荷算出部は、前記なす角度が大きいほど大きくなるように、前記操作負荷を算出する
     請求項13記載の操作支援装置。
  16.  前記無思考操作判定部は、さらに、前記操作履歴記憶部に記憶されている前記履歴に含まれる前記選択操作について、当該選択操作に含まれる単語と前記履歴に含まれる当該選択操作よりも前の他の選択操作に含まれる単語との間の意味的類似度を算出し、算出された前記意味的類似度が大きいほど無思考操作でないと判定する
     請求項1記載の操作支援装置。
  17.  前記操作支援部は、さらに、前記無思考操作と分類された選択操作の数に応じたメッセージを表示する
     請求項1~16のいずれか1項に記載の操作支援装置。
  18.  前記操作負荷算出部は、前記ユーザによる選択操作が行なわれる度に、当該選択操作の操作負荷を算出し、
     前記無思考操作判定部は、前記ユーザによる選択操作が行なわれる度に、当該選択操作が無思考操作であるか否かを判定し、
     前記操作支援部は、前記ユーザによる選択操作が無思考操作であると判定された場合に、当該無思考操作であると判定された前記選択操作を除いた前記選択操作の履歴に基づいて、前記ユーザに対して操作を支援する
     請求項1記載の操作支援装置。
  19.  コンピュータにより、ユーザに対して機器の操作支援を行なう操作支援方法であって、
     操作履歴記憶部に記憶されている前記ユーザによる前記機器の機能実行するために行う選択操作について、当該選択操作を行なう際の前記ユーザの操作負荷を、当該選択操作と前記履歴に含まれる当該選択操作よりも前の他の選択操作とを用いて、算出し、
     前記選択操作について、前記操作負荷算出部で算出された前記ユーザの前記操作負荷が小さいほど、当該選択操作が手当たり次第に行なわれた操作である無思考操作であると判断することにより、当該選択操作が前記無思考操作であるか否かを判定し、
     前記無思考操作であると判定された選択操作を除いた前記選択操作の履歴に基づいて、前記ユーザに対して操作を支援する
     操作支援方法。
  20.  ユーザに対して機器の操作支援を行なうコンピュータ実行可能なプログラムであって、
     コンピュータに、
     操作履歴記憶部に記憶されている前記ユーザによる前記機器の機能実行するために行う選択操作について、当該選択操作を行なう際の前記ユーザの操作負荷を、当該選択操作と前記履歴に含まれる当該選択操作よりも前の他の選択操作とを用いて、算出させ、
     前記選択操作について、前記操作負荷算出部で算出された前記ユーザの前記操作負荷が小さいほど、当該選択操作が手当たり次第に行なわれた操作である無思考操作であると判断することにより、当該選択操作が前記無思考操作であるか否かを判定させ、
     前記無思考操作であると判定された選択操作を除いた前記選択操作の履歴に基づいて、前記ユーザに対して操作を支援させる
     プログラム。
PCT/JP2009/005535 2008-11-25 2009-10-22 操作支援装置及びその方法 WO2010061520A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010511846A JP4571234B2 (ja) 2008-11-25 2009-10-22 操作支援装置及びその方法
US12/865,919 US8438479B2 (en) 2008-11-25 2009-10-22 Operation support apparatus and method of the same
CN2009801200360A CN102047213A (zh) 2008-11-25 2009-10-22 操作支援装置以及其方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008300206 2008-11-25
JP2008-300206 2008-11-25

Publications (1)

Publication Number Publication Date
WO2010061520A1 true WO2010061520A1 (ja) 2010-06-03

Family

ID=42225412

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/005535 WO2010061520A1 (ja) 2008-11-25 2009-10-22 操作支援装置及びその方法

Country Status (4)

Country Link
US (1) US8438479B2 (ja)
JP (2) JP4571234B2 (ja)
CN (1) CN102047213A (ja)
WO (1) WO2010061520A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102634A (ja) * 2012-11-19 2014-06-05 Nippon Telegr & Teleph Corp <Ntt> ユーザ操作支援方法およびその装置
JPWO2020189028A1 (ja) * 2019-03-20 2020-09-24

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145386A (ja) * 2010-01-13 2011-07-28 Fuji Xerox Co Ltd 表示制御装置、表示装置及びプログラム
US9311061B2 (en) * 2011-02-10 2016-04-12 International Business Machines Corporation Designing task execution order based on location of the task icons within a graphical user interface
USD777739S1 (en) * 2014-02-21 2017-01-31 Lenovo (Beijing) Co., Ltd. Display screen or portion thereof with graphical user interface
USD784373S1 (en) * 2014-02-21 2017-04-18 Lenovo (Beijing) Co., Ltd. Display screen or portion thereof with graphical user interface
US9934507B2 (en) 2014-08-11 2018-04-03 International Business Machines Corporation Mapping user actions to historical paths to determine a predicted endpoint
US20160241904A1 (en) * 2015-02-12 2016-08-18 Kabushiki Kaisha Toshiba Electronic Device, Electronic Device Control Method and Electronic Device Control System
WO2017026002A1 (ja) * 2015-08-07 2017-02-16 株式会社日立製作所 監視装置、監視方法、および監視プログラム
WO2020059428A1 (ja) * 2018-09-21 2020-03-26 株式会社Nttドコモ 情報処理装置及びヒント提供方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101935A (ja) * 1995-10-06 1997-04-15 Fujitsu Ltd 利用者の操作行動に適応する応答制御方法およびシステム
JPH11203006A (ja) * 1998-01-20 1999-07-30 Fujitsu Ltd ユーザ状況推定装置
JP2000231429A (ja) * 1999-02-09 2000-08-22 Fuji Xerox Co Ltd ヘルプ情報提供装置
JP2006163988A (ja) * 2004-12-09 2006-06-22 Canon Inc 情報処理装置
JP2008084172A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 映像記録・再生装置
WO2008059710A1 (fr) * 2006-11-15 2008-05-22 Panasonic Corporation Dispositif de support d'opération et procédé de support d'opération

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE37431E1 (en) * 1990-08-02 2001-10-30 Ast Research, Inc. Intelligent help system
JP3488525B2 (ja) * 1994-12-13 2004-01-19 富士通株式会社 ヘルプ画面表示方法およびヘルプ画面表示装置
JPH1131190A (ja) 1997-05-13 1999-02-02 Hitachi Ltd 電子マネーカード、電子マネー入出金機及び電子マネーカード編集装置
DE69821545T2 (de) 1997-05-13 2004-12-23 Hitachi, Ltd. Elektronische Geldkarte, Empfangs-/Auszahlungsmaschine für elektronisches Geld und Editiervorrichtung für eine elektronische Geldkarte
JPH11231998A (ja) 1998-02-13 1999-08-27 Sharp Corp ヘルプ表示装置及びヘルプ表示プログラムを記録した媒体
US6340977B1 (en) * 1999-05-07 2002-01-22 Philip Lui System and method for dynamic assistance in software applications using behavior and host application models
US7228329B2 (en) * 2002-12-31 2007-06-05 Sap Ag Methods and systems for providing guidance using case-based reasoning
US7480064B2 (en) * 2003-03-31 2009-01-20 Ricoh Company Method and system for providing updated help and solution information at a printing device
JP4510431B2 (ja) * 2003-11-26 2010-07-21 キヤノン株式会社 ジョブ処理システム及びジョブ処理システムの制御方法及びプログラム及び記憶媒体及びジョブ処理装置
US7221885B2 (en) 2003-11-26 2007-05-22 Canon Kabushiki Kaisha Image forming device, system, control method, program and memory medium utilizing operation history
JP2006344018A (ja) 2005-06-09 2006-12-21 Hitachi Systems & Services Ltd 操作支援システム
CN100373936C (zh) 2005-08-09 2008-03-05 深圳市同洲电子股份有限公司 动态演示机顶盒操作指导的装置和方法
TW200801513A (en) 2006-06-29 2008-01-01 Fermiscan Australia Pty Ltd Improved process
JP2008269119A (ja) 2007-04-18 2008-11-06 Hitachi Ltd 情報処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101935A (ja) * 1995-10-06 1997-04-15 Fujitsu Ltd 利用者の操作行動に適応する応答制御方法およびシステム
JPH11203006A (ja) * 1998-01-20 1999-07-30 Fujitsu Ltd ユーザ状況推定装置
JP2000231429A (ja) * 1999-02-09 2000-08-22 Fuji Xerox Co Ltd ヘルプ情報提供装置
JP2006163988A (ja) * 2004-12-09 2006-06-22 Canon Inc 情報処理装置
JP2008084172A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 映像記録・再生装置
WO2008059710A1 (fr) * 2006-11-15 2008-05-22 Panasonic Corporation Dispositif de support d'opération et procédé de support d'opération

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102634A (ja) * 2012-11-19 2014-06-05 Nippon Telegr & Teleph Corp <Ntt> ユーザ操作支援方法およびその装置
JPWO2020189028A1 (ja) * 2019-03-20 2020-09-24
WO2020189028A1 (ja) * 2019-03-20 2020-09-24 株式会社Nttドコモ 情報処理装置
JP7374990B2 (ja) 2019-03-20 2023-11-07 株式会社Nttドコモ 情報処理装置

Also Published As

Publication number Publication date
JP4571234B2 (ja) 2010-10-27
US8438479B2 (en) 2013-05-07
JP4653251B2 (ja) 2011-03-16
CN102047213A (zh) 2011-05-04
JPWO2010061520A1 (ja) 2012-04-19
US20100333022A1 (en) 2010-12-30
JP2010192004A (ja) 2010-09-02

Similar Documents

Publication Publication Date Title
JP4571234B2 (ja) 操作支援装置及びその方法
US20200341999A1 (en) Process and Apparatus for Selecting An Item From A Database
KR102262453B1 (ko) 텍스트 예측용 이모지
US7590948B2 (en) Display information selection apparatus and method, program and recording medium
TWI241511B (en) Alphanumeric keyboard input system using a game controller
KR101967036B1 (ko) 비디오 콘텐츠를 검색하는 방법들, 시스템들, 및 매체들
JP4536637B2 (ja) 情報散策装置及び方法、プログラム並びに記録媒体
JP4609544B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
JP4382155B2 (ja) 操作支援装置及びその方法
US20080007570A1 (en) Digital Content Playback
US20110304649A1 (en) Character selection
JP4308315B2 (ja) 目的推定装置および目的推定方法
US20120131460A1 (en) Playlist Creation
US20180275756A1 (en) System And Method Of Controlling Based On A Button Having Multiple Layers Of Pressure
JP4542206B2 (ja) 操作支援装置及び操作支援方法
JP5129999B2 (ja) 目的推定装置、目的推定方法およびプログラム
JP5349433B2 (ja) 情報提示装置、方法およびプログラム
JP6136987B2 (ja) データ検索装置
CN112839251A (zh) 一种电视及其与用户的交互方法
JP6592960B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980120036.0

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2010511846

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09828770

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12865919

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09828770

Country of ref document: EP

Kind code of ref document: A1