JP2008269119A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2008269119A
JP2008269119A JP2007108828A JP2007108828A JP2008269119A JP 2008269119 A JP2008269119 A JP 2008269119A JP 2007108828 A JP2007108828 A JP 2007108828A JP 2007108828 A JP2007108828 A JP 2007108828A JP 2008269119 A JP2008269119 A JP 2008269119A
Authority
JP
Japan
Prior art keywords
degree
user
confusion
erroneous
history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007108828A
Other languages
Japanese (ja)
Inventor
Yasuhiro Asa
康博 朝
Yasutsugu Morimoto
康嗣 森本
Hirohiko Sagawa
浩彦 佐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007108828A priority Critical patent/JP2008269119A/en
Publication of JP2008269119A publication Critical patent/JP2008269119A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To estimate wrong operation from an operation history, by extracting the degree of puzzlement for operation and certainty of an operation flow from the operation history of a user. <P>SOLUTION: The operation history of the user for an information processor is accumulated, the degree of puzzlement of the user is obtained by collating a rule 110 showing relation between the operation history and the degree of puzzlement of the user with the operation history; further the certainty of the operation flow of the user is obtained by collating with a model 112 expressing a general operation history for an application by a probability with the operation history; and by comparing the degree of puzzlement as a subjective element of the user with a value obtained by integrating the certainty of the operation flow as an objective element for each operation, the wrong operation is estimated from the operation history of the user. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ユーザが誤操作をした場合に正しい操作を推測して提示するユーザ支援手段を備える情報処理装置に関する。   The present invention relates to an information processing apparatus including user support means that estimates and presents a correct operation when a user performs an incorrect operation.

入出力装置からのユーザの操作履歴を用いたユーザ支援方法として、以下の従来技術がある。特許文献1では、ユーザの戸惑い状態と操作パターンを対応付けたデータを用いて、ユーザの操作履歴からユーザの戸惑い状態を検出し能動的にヘルプ機能を起動する。そして、ヘルプ起動直前のシステム状態及びユーザ操作挙動から推測されるユーザに有益なヘルプ情報を提示する。特許文献2では、ユーザが特定の操作ステップにおいて所定の操作ミス回数を超えて操作ミスを行ったことを検知し、前記操作ステップの操作マニュアルをユーザに提示する。特許文献3では、ユーザの操作履歴と共にシステム状態と各状態での所要時間を記録しておき、ユーザのヘルプ要求時に前記所要時間と既定の標準所要時間を比較することで、ユーザの操作履歴において戸惑っていた箇所を検出する。そして、現在の操作と前記戸惑い検出箇所の操作を強調した操作履歴をユーザに提示し、前記強調提示した箇所のヘルプ情報へと誘導する。   As a user support method using a user operation history from an input / output device, there are the following conventional techniques. In Patent Document 1, the user's confused state is detected from the user's operation history using data in which the user's confused state and the operation pattern are associated, and the help function is activated actively. Then, useful help information is presented to the user inferred from the system state and user operation behavior immediately before the help is activated. In Patent Document 2, it is detected that the user has made an operation error exceeding a predetermined number of operation errors in a specific operation step, and an operation manual for the operation step is presented to the user. In Patent Document 3, the system state and the required time in each state are recorded together with the user's operation history, and the user's operation history is compared by comparing the required time with a predetermined standard required time when the user requests help. Detect a place that was confused. Then, the operation history highlighting the current operation and the operation at the point where the confusion is detected is presented to the user, and the user is guided to the help information at the highlighted point.

特開平10-154057号公報Japanese Patent Laid-Open No. 10-154057 特開平4-44113号公報Japanese Unexamined Patent Publication No. 4-44113 特開2000-231429号公報JP 2000-231429 A

特許文献1の技術は、戸惑い状態を検出するまでのユーザ操作履歴に誤りが無い場合に有効である。しかし実際のユーザ操作では、戸惑うことなく確信をもって誤った操作を行い、後々に操作方法が分からずに戸惑うことがありうる。このような場合、特許文献1の技術でユーザ支援を行うことはできない。特許文献2の技術は、ユーザが操作した直後にシステムが操作ミスを断定できる場合に有効である。しかしエラーメッセージが表示されるようなエラー操作を除いて、ユーザ操作の直後にシステムが操作ミスを断定することは困難である。特許文献3の技術は、ユーザの操作過程にミスがあった箇所において、ユーザが操作に戸惑ってしまい所要時間が標準所要時間を越えるような場合に有効である。しかし、実際のユーザ操作では戸惑いながら正しい操作を行うことがある。このような場合、特許文献3の技術ではユーザ支援を行うことはできない。つまり、ユーザの主観的要素である戸惑い状態の検出のみで正確にユーザの操作訂正箇所を推測することは困難である。   The technique of Patent Literature 1 is effective when there is no error in the user operation history until the confusing state is detected. However, in an actual user operation, an erroneous operation is performed with certainty without being confused, and it may be confused later without knowing the operation method. In such a case, user support cannot be performed with the technique of Patent Document 1. The technique of Patent Document 2 is effective when the system can determine an operation error immediately after a user operates. However, it is difficult for the system to determine an operation error immediately after a user operation, except for an error operation in which an error message is displayed. The technique of Patent Document 3 is effective when the user is confused by the operation and the required time exceeds the standard required time at a location where the user's operation process has an error. However, there are cases where a correct operation is performed while being confused by an actual user operation. In such a case, the technology of Patent Document 3 cannot provide user support. That is, it is difficult to accurately estimate the user's operation correction location only by detecting the confusion state that is a subjective factor of the user.

このように従来の技術によっては、ユーザの操作履歴に誤りがある場合に、その誤操作箇所を推測することが困難である。   Thus, depending on the conventional technology, when there is an error in the user operation history, it is difficult to estimate the erroneous operation location.

本発明は、ユーザの操作履歴における誤操作箇所を正確に推測するため、ユーザの主観的要素である戸惑いの度合(戸惑い度)に加えて客観的要素である操作に誤りがある度合(誤操作度)を用いる。また、本発明は、操作フロー確率モデルの正操作度を用い、誤操作箇所における正しい操作を推測する。そして、この推測した正しい操作をユーザに提示する。   The present invention accurately estimates an erroneous operation location in a user's operation history, so that the degree of error in an operation that is an objective element in addition to the degree of confusion (degree of confusion) that is a subjective element of the user (degree of erroneous operation). Is used. Further, the present invention uses the correct operation degree of the operation flow probability model to estimate a correct operation at an erroneous operation location. Then, the estimated correct operation is presented to the user.

本発明の情報処理装置は、ユーザ操作履歴における誤操作箇所を正確に推測できるため、その誤操作した状況へユーザを誘導することができる。また、誤操作箇所における正しい操作を推測することができるため、タスク達成への正しい操作をユーザに提示することができる。   Since the information processing apparatus according to the present invention can accurately estimate the erroneous operation location in the user operation history, the user can be guided to the erroneous operation situation. In addition, since a correct operation at an erroneous operation location can be estimated, a correct operation for accomplishing the task can be presented to the user.

以下、本発明を適用した情報処理装置の一実施例について、図面を参照して説明する。
図1は、本発明を適用した情報処理装置の概念構成図である。図1において入力部101はユーザの要求をUI処理部103に送る装置であって、マウスやキーボードなど計算機に用いられる入力機器であればなんでもよい。出力部102はUI処理部103から受け取った情報をユーザに提示する装置であって、CRTモニタやLCD表示装置など計算機に用いられる表示装置であればなんでもよい。UI処理部103は入力部101、出力部102といった入出力装置との情報のやり取りを行う装置であり、入力部101から受け取ったコマンドやデータといったユーザ入力情報を情報処理部104へ送る処理、及び情報処理部104あるいは訂正情報提示部109から受け取ったアプリケーションの応答結果を示した画面情報やユーザに提示するヘルプ内容の画面情報といったユーザ提示画面情報を出力部102へ送る処理を行う。情報処理部104は、UI処理部103から受け取ったユーザ入力情報に対応した処理を実行し、その応答結果をUI処理部103に送る装置である。また情報処理部104は、ユーザ入力情報とアプリケーションの現在の状態を示す情報及びユーザ入力情報に対するアプリケーションの応答内容をユーザ操作挙動取得部105へ送る。
Hereinafter, an embodiment of an information processing apparatus to which the present invention is applied will be described with reference to the drawings.
FIG. 1 is a conceptual configuration diagram of an information processing apparatus to which the present invention is applied. In FIG. 1, an input unit 101 is a device that sends a user request to the UI processing unit 103, and may be any input device such as a mouse or a keyboard that is used in a computer. The output unit 102 is a device that presents information received from the UI processing unit 103 to the user, and may be any display device used in a computer such as a CRT monitor or an LCD display device. The UI processing unit 103 is a device for exchanging information with an input / output device such as the input unit 101 and the output unit 102, a process of sending user input information such as commands and data received from the input unit 101 to the information processing unit 104, and A process of sending user presentation screen information such as screen information indicating the response result of the application received from the information processing unit 104 or the correction information presentation unit 109 or screen information of help contents presented to the user to the output unit 102 is performed. The information processing unit 104 is a device that executes processing corresponding to user input information received from the UI processing unit 103 and sends a response result to the UI processing unit 103. Further, the information processing unit 104 sends the user input information, information indicating the current state of the application, and the response contents of the application to the user input information to the user operation behavior acquisition unit 105.

ユーザ操作挙動取得部105は、情報処理部104から受け取った情報を操作履歴データ111に格納する装置である。ユーザ戸惑い度検出部106は、本システムに対するユーザの操作の挙動からユーザがどのくらい戸惑っているかを推測する装置であり、ユーザの操作の挙動とユーザの戸惑いの度合である戸惑い度を対応付けた戸惑い操作ルール110を用いる。誤操作度検出部107は、本システムに対するユーザの操作の挙動からユーザの操作にどのくらいの度合で操作誤りがありそうかを示す誤操作度を推測する装置であり、本システムにおける操作手順の頻度を表した操作フロー確率モデル112を用いる。スコア統合部108は、ユーザが操作に戸惑っていることを検知した時あるいはユーザから入力部101を介してヘルプ情報の提示要求があった時に、現在までにユーザが操作してきた履歴の中で操作の訂正が必要な箇所が存在しないかを推測し、存在する場合は訂正箇所における正しい操作を推測する装置である。訂正情報提示部109は、ユーザの過去の操作における訂正箇所と訂正箇所における正しい操作の推測結果を画面情報としてまとめ、ユーザに提示するためにUI処理部103へ送る装置である。   The user operation behavior acquisition unit 105 is a device that stores information received from the information processing unit 104 in the operation history data 111. The user confusion level detection unit 106 is an apparatus that estimates how much the user is confused from the behavior of the user's operation with respect to the system. An operation rule 110 is used. The erroneous operation degree detection unit 107 is a device that estimates the degree of erroneous operation that indicates how much an operation error is likely to occur in the user's operation from the behavior of the user's operation with respect to the system, and represents the frequency of the operation procedure in the system. The operation flow probability model 112 is used. The score integration unit 108 operates in the history that the user has operated so far when it is detected that the user is confused about the operation or when there is a request for presentation of help information from the user via the input unit 101 It is an apparatus that estimates whether there is a portion that needs to be corrected, and if there is, correct operation at the corrected portion is estimated. The correction information presenting unit 109 is a device that summarizes the correction location in the past operation of the user and the estimation result of the correct operation in the correction location as screen information and sends it to the UI processing unit 103 for presentation to the user.

図2は、本発明を適用した情報処理装置のハードウェア構成図である。外部記憶装置205のデータ部206には、戸惑い操作ルール110、操作履歴データ111、操作フロー確率モデル112が格納される。また、UI処理部103、情報処理部104、ユーザ操作挙動取得部105、ユーザ戸惑い度検出部106、誤操作度検出部107、スコア統合部108、訂正情報提示部109は処理プログラム207として記憶装置205に格納される。本システムがユーザに提供する機能は、処理装置203が記憶装置205のデータ部206及び処理プログラム207をメモリ204に読み出して処理を行うことで実現される。   FIG. 2 is a hardware configuration diagram of an information processing apparatus to which the present invention is applied. The data unit 206 of the external storage device 205 stores a confusing operation rule 110, operation history data 111, and an operation flow probability model 112. Also, the UI processing unit 103, the information processing unit 104, the user operation behavior acquisition unit 105, the user confusion level detection unit 106, the erroneous operation level detection unit 107, the score integration unit 108, and the correction information presentation unit 109 are stored as a processing program 207 in the storage device 205. Stored in The function provided to the user by this system is realized by the processing device 203 reading the data unit 206 and the processing program 207 of the storage device 205 into the memory 204 and performing processing.

以下、本発明を適用した情報処理装置の一例としてパソコン向けメディア視聴録画システムを取り上げ、システムの具体的な処理の流れを説明する。   Hereinafter, taking a media viewing / recording system for a personal computer as an example of an information processing apparatus to which the present invention is applied, a specific processing flow of the system will be described.

図3は、情報処理部104における処理の流れ図である。ステップ301では、UI処理部103から受け取ったユーザ入力情報と出力部102にてユーザに提示しているアプリケーションの画面情報をユーザ操作挙動取得部105に送る。図4(A)はユーザ入力情報の一例、図4(B)はアプリケーションの画面情報の一例である。この例では入力部101に該当する入力機器はマウスであり、出力部102に該当する出力機器はLCD表示装置である。また図4(A)(B)は、最下部が最新のデータであり、上にいくほど古いデータが時系列に格納される。ユーザ入力情報として、マウスへの物理的操作を示す操作内容401、システム起動時からの相対的な時間経過をミリ秒単位で示す開始時間402、LCD表示装置の画面上におけるマウスの座標位置403が入力され、ユーザ操作挙動取得部105に送られる。また、アプリケーションの画面情報として、現在の表示画面の種類404、表示画面上にてマウスポインタの下にあるオブジェクトの種類405、そしてシステム起動時からの相対的な時間経過をミリ秒単位で示す開始時間406が取得され、ユーザ操作挙動取得部105に送られる。   FIG. 3 is a flowchart of processing in the information processing unit 104. In step 301, the user input information received from the UI processing unit 103 and the screen information of the application presented to the user by the output unit 102 are sent to the user operation behavior acquisition unit 105. FIG. 4A shows an example of user input information, and FIG. 4B shows an example of application screen information. In this example, the input device corresponding to the input unit 101 is a mouse, and the output device corresponding to the output unit 102 is an LCD display device. 4A and 4B, the lowest part is the latest data, and the older data is stored in time series as it goes upward. As user input information, there are an operation content 401 indicating a physical operation on the mouse, a start time 402 indicating a relative time elapsed from the start of the system in milliseconds, and a coordinate position 403 of the mouse on the screen of the LCD display device. It is input and sent to the user operation behavior acquisition unit 105. In addition, as the screen information of the application, the current display screen type 404, the object type 405 under the mouse pointer on the display screen, and the relative time elapsed from the start of the system in milliseconds. Time 406 is acquired and sent to the user operation behavior acquisition unit 105.

次にステップ302では、UI処理部103から受け取ったユーザ入力情報の識別を行う。ユーザ入力情報がヘルプ情報の要求を表す入力である場合はステップ305へ進み、その他の入力である場合はステップ303へ進む。図4(A)の場合はヘルプ情報の要求を表す入力がないのでステップ303へ進む。ステップ303ではユーザ入力情報に対応した処理を実行し、応答結果を示す画面情報をUI処理部103を介してユーザに提示する。図4(C)は、図4(A)をユーザ入力情報、図4(B)をアプリケーションの画面情報とする場合の応答結果の一例であり、入力情報と同期してアプリケーションの応答結果408を示している。この例では、番組検索ボタンをマウスでクリックしたことで表示画面を番組検索画面に切り替えるという応答結果となるため、番組検索画面の情報をUI処理部103へ送る。そしてステップ304では、ユーザ入力情報に対するアプリケーション応答結果をユーザ操作挙動取得部105に送り、再びユーザ入力待ちの状態に戻る。一方、ステップ305では、ユーザに提示するヘルプ情報を取得するためにスコア統合部108を呼び出し、再びユーザ入力待ちの状態に戻る。   In step 302, the user input information received from the UI processing unit 103 is identified. If the user input information is an input representing a request for help information, the process proceeds to step 305, and if it is any other input, the process proceeds to step 303. In the case of FIG. 4A, since there is no input indicating a request for help information, the process proceeds to step 303. In step 303, processing corresponding to the user input information is executed, and screen information indicating a response result is presented to the user via the UI processing unit 103. FIG. 4C is an example of a response result when FIG. 4A is user input information and FIG. 4B is application screen information. The application response result 408 is synchronized with the input information. Show. In this example, since the response result that the display screen is switched to the program search screen is obtained by clicking the program search button with the mouse, the information on the program search screen is sent to the UI processing unit 103. In step 304, the application response result for the user input information is sent to the user operation behavior acquisition unit 105, and the process returns to the state waiting for user input again. On the other hand, in step 305, the score integration unit 108 is called in order to obtain help information to be presented to the user, and the state again waits for user input.

図5は、ユーザ操作挙動取得部105における処理の流れ図である。ステップ501では、情報処理部104から受け取ったユーザ入力情報の操作内容に関して1つの操作として解釈可能な操作を統合し、さらに各操作の特徴を表す属性を抽出する。そして、アプリケーションの画面情報とアプリケーションの応答結果を時系列として同期がとれるように統合し操作履歴データ111に格納する。図6は、ユーザ入力情報とアプリケーションの画面情報、アプリケーションの応答結果を統合した結果の一例である。ユーザ入力情報の操作内容において、「マウスの左ボタンを押した」と「マウスの左ボタンを離した」という操作を統合し「左クリック」としている。また、操作内容「停止」の属性として秒単位の停止時間を次の操作内容の開始時間との差分から求め、属性605として取得している。さらに、操作内容「移動」の属性として画素単位の移動距離と1秒当たりの移動画素数をマウス座標位置から求め属性605及び属性606として取得している。ここで図6の「−」は、特定のデータがないことを意味する。ステップ502では、操作履歴データ111からユーザの戸惑い度を算出するため、ユーザ戸惑い度検出部106を呼び出す。ユーザ戸惑い度検出部106の実行結果を待たずに続けてステップ503へ進み、操作履歴データ111からユーザの誤操作度を算出するため、誤操作度検出部107を呼び出す。本実施例では、ユーザ戸惑い度検出部106と誤操作度検出部107を並行して実行するようになっているが、必ずしも並行して実行する必要はない。また、ユーザ戸惑い度検出部106と誤操作度検出部107の実行順が逆になっても構わない。   FIG. 5 is a flowchart of processing in the user operation behavior acquisition unit 105. In step 501, operations that can be interpreted as one operation are integrated with respect to the operation content of the user input information received from the information processing unit 104, and attributes representing the characteristics of each operation are extracted. Then, the screen information of the application and the response result of the application are integrated so as to be synchronized in time series and stored in the operation history data 111. FIG. 6 is an example of a result of integrating user input information, application screen information, and application response results. In the operation contents of the user input information, the operations “press the left mouse button” and “release the left mouse button” are integrated into “left click”. Further, a stop time in seconds is obtained from the difference from the start time of the next operation content as the attribute of the operation content “stop”, and is acquired as the attribute 605. Further, as the attribute of the operation content “move”, the moving distance in units of pixels and the number of moving pixels per second are obtained from the mouse coordinate position and acquired as attributes 605 and 606. Here, “-” in FIG. 6 means that there is no specific data. In step 502, the user's confusion level detection unit 106 is called to calculate the user's confusion level from the operation history data 111. The process proceeds to step 503 without waiting for the execution result of the user confusion level detection unit 106, and the erroneous operation level detection unit 107 is called to calculate the user's erroneous operation level from the operation history data 111. In this embodiment, the user confusion level detection unit 106 and the erroneous operation level detection unit 107 are executed in parallel, but it is not always necessary to execute them in parallel. The execution order of the user confusion level detection unit 106 and the erroneous operation level detection unit 107 may be reversed.

図7は、ユーザ戸惑い度検出部106における処理の流れ図である。操作履歴データ111におけるアプリケーションの応答結果は、ユーザの操作意図を客観的に示しており、アプリケーションの応答結果を時系列に追うことでユーザがどのような操作フローで作業しているかが把握できる。したがって、アプリケーションの応答結果毎に戸惑い度を算出し、操作履歴データ111へ格納する。ステップ701では、操作履歴データ111からアプリケーションの応答結果が存在する最新のデータを読み込む。操作履歴データ111に最初に格納されるデータには、「初期画面を表示」のように必ずアプリケーションの応答結果が存在する。したがって、ユーザ戸惑い度検出部106では、常に最近のアプリケーションの応答結果にのみ注目して戸惑い度を求めればよい。   FIG. 7 is a flowchart of processing in the user confusion level detection unit 106. The response result of the application in the operation history data 111 objectively indicates the user's intention to operate, and it is possible to grasp what operation flow the user is working by following the response result of the application in time series. Therefore, the degree of confusion is calculated for each response result of the application and stored in the operation history data 111. In step 701, the latest data in which the response result of the application exists is read from the operation history data 111. Data that is initially stored in the operation history data 111 always includes a response result of the application such as “display initial screen”. Therefore, the user confusion level detection unit 106 may obtain the confusion level by always paying attention only to the response results of recent applications.

図8は操作履歴データ111の一例である。図8の最上部のデータに格納された戸惑い度0.6は、次のアプリケーションの応答結果が存在するデータまでの戸惑い度を示している。つまり、図8の開始時間801が1050ミリ秒の操作から開始時間801が10000ミリ秒までの操作の挙動から求めた値である。図8において、最近のユーザ操作履歴は開始時間801が16050ミリ秒の操作であり、ステップ701で読み込むべきアプリケーションの応答結果が存在する最新のデータは、開始時間801が16000ミリ秒のデータとなる。   FIG. 8 is an example of the operation history data 111. The degree of confusion 0.6 stored in the uppermost data in FIG. 8 indicates the degree of confusion up to the data in which the response result of the next application exists. That is, this is a value obtained from the behavior of the operation from the operation with a start time 801 of 1050 milliseconds to the start time 801 of 10000 milliseconds in FIG. In FIG. 8, the latest user operation history is an operation with a start time 801 of 16050 milliseconds, and the latest data having a response result of an application to be read in step 701 is data with a start time 801 of 16000 milliseconds. .

ステップ702では、ステップ701で読み込んだデータよりも最新のデータを全て読み込む。図8の例では、開始時間801が16050ミリ秒のデータのみが該当する。ステップ703では、ステップ702において読み込むデータが存在したかを確認する。図8の例のようにデータが存在する場合はステップ704へ進み、データが存在しない場合はステップ706へ進み、ステップ701で読み込んだデータの戸惑い度を0とし、ユーザ戸惑い度検出部106の処理を終了する。図8の例において、開始時間801が16000ミリ秒のデータの戸惑い度が0になっているのは、前回のユーザ戸惑い度検出部106での処理においてステップ701で読み込んだデータは開始時間801が16000ミリ秒のデータであり、ステップ702で読み込むデータは無いため、ステップ706の処理にてステップ701で読み込んだデータの戸惑い度を0としたからである。   In step 702, all the latest data from the data read in step 701 is read. In the example of FIG. 8, only data with a start time 801 of 16050 milliseconds is applicable. In step 703, it is confirmed whether there is data to be read in step 702. If the data exists as in the example of FIG. 8, the process proceeds to step 704, and if the data does not exist, the process proceeds to step 706, where the degree of confusion of the data read in step 701 is set to 0, and the process of the user confusion degree detection unit 106 Exit. In the example of FIG. 8, the confusion level of data whose start time 801 is 16000 milliseconds is 0 because the data read in step 701 in the previous processing by the user confusion level detection unit 106 has the start time 801. This is because the data is 16000 milliseconds and there is no data to be read in step 702, and therefore, the degree of confusion of the data read in step 701 is set to 0 in the processing in step 706.

ステップ704では、ステップ702で読み込んだデータと戸惑い操作ルール110を照合する。図9は戸惑い操作ルールの一例である。図9において、操作パターン901は、操作履歴データにおける操作内容の時系列パターンを示している。また条件902は、各操作パターン901における戸惑い度に影響を与える操作条件を示している。そして戸惑い度903は、操作パターン901と条件902の組合せ毎の戸惑い度を示している。   In step 704, the data read in step 702 is collated with the confusing operation rule 110. FIG. 9 is an example of a puzzle operation rule. In FIG. 9, an operation pattern 901 indicates a time series pattern of operation contents in the operation history data. A condition 902 indicates an operation condition that affects the degree of confusion in each operation pattern 901. The degree of confusion 903 indicates the degree of confusion for each combination of the operation pattern 901 and the condition 902.

ここで、各操作パターン901、条件902、戸惑い度903の求め方について説明する。別途事前に大量の操作履歴データと操作の様子を写した映像データを収集し、各映像データを1人の被験者に見せながら、操作内容単位に図10のような戸惑い度の5段階主観評価を行ってもらう。つまり、映像の中で操作しているユーザが戸惑っていると感じた場合は、その戸惑い度合を5段階で記入してもらう。図10は、0から1までの数字を5つに分けており、値が大きいほど戸惑い度が大きいことを意味する。この主観評価実験をできるだけ多くの被験者に行ってもらうことで、統計的にユーザの戸惑いに起因する操作パターンと条件及びその戸惑い度を求めることができる。   Here, how to obtain each operation pattern 901, condition 902, and confusion level 903 will be described. Separately, a large amount of operation history data and video data showing the state of the operation are collected in advance, and while showing each video data to one subject, a five-level subjective evaluation of the degree of confusion as shown in FIG. 10 is performed for each operation content. Have them go. That is, if the user operating in the video feels confused, he / she is asked to enter the degree of confusion in five stages. FIG. 10 divides the numbers from 0 to 1 into five, and the greater the value, the greater the degree of confusion. By having this subjective evaluation experiment performed by as many subjects as possible, it is possible to obtain the operation pattern and conditions and the degree of confusion that are statistically attributed to the user's confusion.

さて、ステップ704の処理を図8の操作履歴データの例で説明すると、ステップ702で読み込んだデータは操作内容が「停止」であり、停止時間は「12」秒である。このデータは、図9の戸惑い操作ルールの操作パターン「停止」、条件「8[s]以上」を満たす。ステップ705ではステップ704での照合の結果、ステップ702で読み込んだデータが戸惑い操作ルール110を満たさない場合はステップ706へ進み、満たす場合にはステップ707へ進む。ステップ707では、戸惑い操作ルール110に基づいて戸惑い度を求め、ステップ701で読み込んだデータに格納し、ユーザ戸惑い度検出部106の処理を終了する。ステップ704においてステップ702で読み込んだデータが戸惑い操作ルール110の複数のルールを満たした場合は、各戸惑い度の合計値をステップ701で読み込んだデータに格納する。   Now, the processing of step 704 will be described with an example of the operation history data in FIG. 8. The operation read in the data read in step 702 is “stop” and the stop time is “12” seconds. This data satisfies the operation pattern “stop” and the condition “8 [s] or more” of the confusion operation rule of FIG. In step 705, if the data read in step 702 does not satisfy the confusing operation rule 110 as a result of the collation in step 704, the process proceeds to step 706, and if satisfied, the process proceeds to step 707. In step 707, the degree of confusion is obtained based on the confusion operation rule 110, stored in the data read in step 701, and the process of the user confusion degree detection unit 106 is terminated. In step 704, when the data read in step 702 satisfies a plurality of rules of the puzzle operation rule 110, the total value of each puzzle level is stored in the data read in step 701.

図11は、誤操作度検出部107における処理の流れ図である。ステップ1101では、操作履歴データ111からアプリケーションの応答結果が存在する最新のデータを読み込む。ステップ1102では、ステップ1101で読み込んだアプリケーションの応答結果が前回の誤操作度検出部107の処理で読み込んだアプリケーションの応答結果と一致しているか確認し、一致していなければステップ1103に進み、一致していれば前回から客観的な操作が行われていないと解釈できるので誤操作度検出部107の処理を終了する。ステップ1103では、操作履歴データ111のアプリケーションの応答結果を時系列に並べた操作フローからアプリケーションの一般的な操作フローを確率で表現した操作フロー確率モデル112における現在の操作を把握することで、ステップ1101で読み込んだアプリケーションの応答結果に該当するユーザの操作の誤操作度を求める。   FIG. 11 is a flowchart of processing in the erroneous operation degree detection unit 107. In step 1101, the latest data in which an application response result exists is read from the operation history data 111. In step 1102, it is confirmed whether the response result of the application read in step 1101 matches the response result of the application read in the previous processing of the erroneous operation degree detection unit 107. If so, it can be interpreted that an objective operation has not been performed since the previous time, so the processing of the erroneous operation degree detection unit 107 is terminated. In step 1103, by grasping the current operation in the operation flow probability model 112 representing the general operation flow of the application with probability from the operation flow in which the response results of the application of the operation history data 111 are arranged in time series, In step 1101, the erroneous operation degree of the user operation corresponding to the response result of the application read is obtained.

図12は操作フロー確率モデル112の一例であり、丸はノード、矢印はアークと呼ばれ、矢印に添えた数値は矢印の始点にあるノードから終点にあるノードへの遷移確率を表している。操作フロー確率モデル112は、アプリケーションの応答を伴うユーザ操作をノードとするグラフ構造モデルであり、操作履歴データ111のアプリケーションの応答結果は操作フロー確率モデル112のノードと対応付けることができる。また、図12に示すように、操作フロー確率モデル112にはノード間の遷移確率が0から1の値で登録されている。このノード間遷移確率は、別途事前に収集した大量の操作履歴データから求まる操作フローの統計的確率によって決定できる。このノード間遷移確率は対象遷移に該当するユーザ操作の客観的正確さを表しているので、「1−遷移確率」により誤操作度を知ることができる。   FIG. 12 shows an example of the operation flow probability model 112, in which the circle is called a node and the arrow is called an arc, and the numerical value attached to the arrow represents the transition probability from the node at the start point of the arrow to the node at the end point. The operation flow probability model 112 is a graph structure model having a user operation accompanied by an application response as a node, and an application response result of the operation history data 111 can be associated with a node of the operation flow probability model 112. Also, as shown in FIG. 12, the transition probability between nodes is registered in the operation flow probability model 112 with a value from 0 to 1. This inter-node transition probability can be determined by a statistical probability of an operation flow obtained from a large amount of operation history data separately collected in advance. Since this inter-node transition probability represents the objective accuracy of the user operation corresponding to the target transition, the degree of erroneous operation can be known from “1-transition probability”.

図12の操作フロー確率モデル112を用い、図8に示す操作履歴データ111の誤操作度を求めると、図8においてアプリケーションの応答結果が「番組検索画面を表示」となっている操作は、図12におけるノード1201「初期画面を表示」からノード1203「番組検索画面を表示」に遷移した操作に該当する。このときのノード遷移確率が0.35であるので誤操作度は1−0.35=0.65となる。また、図8においてアプリケーションの応答結果が「地上デジタル放送の番組を選択」となっている操作は、図12におけるノード1203「番組検索画面を表示」からノード1205「地上デジタル放送の番組を選択」に遷移した操作に該当する。このときのノード遷移確率が0.2であるので誤操作度は1−0.2=0.8となる。こうして求めた誤操作度を操作履歴データ111へ格納する。そして誤操作度検出部107の処理を終了する。   When the operation flow probability model 112 of FIG. 12 is used and the error operation degree of the operation history data 111 shown in FIG. 8 is obtained, the operation whose response result of the application is “display program search screen” in FIG. This corresponds to the operation of transition from node 1201 “display initial screen” to node 1203 “display program search screen”. Since the node transition probability at this time is 0.35, the erroneous operation degree is 1−0.35 = 0.65. Further, in FIG. 8, the operation whose response result is “select terrestrial digital broadcast program” is selected from node 1203 “display program search screen” to node 1205 “select terrestrial digital broadcast program” in FIG. Corresponds to the operation transitioned to. Since the node transition probability at this time is 0.2, the degree of erroneous operation is 1−0.2 = 0.8. The degree of erroneous operation thus obtained is stored in the operation history data 111. Then, the processing of the erroneous operation degree detection unit 107 is ended.

ここで、操作フロー確率モデル112において、ユーザの操作履歴毎のノード間遷移確率を保持することで、操作履歴データ111に応じて動的にノード間遷移確率を変更し、より高精度な誤操作度検出を行うこともできる。図17に、ユーザの操作履歴毎のノード間遷移確率に関する一例を示す。図17(A)におけるノード1703「番組を選択」から伸びる4本のアークに登録された遷移確率は、ノード1701「外部入力番組の視聴画面を表示」からノード1703「番組を選択」に遷移する操作の一般的な操作履歴から算出した値である。また、図17(B)におけるノード1703「番組を選択」から伸びる4本のアークにある遷移確率は、ノード1702「録画番組視聴画面を表示」からノード1703「番組を選択」に遷移する操作の一般的な操作履歴から算出した値である。このように、ユーザの操作履歴毎に、異なる遷移確率となるような操作フロー確率モデル112を保持することで、ユーザの操作履歴111に対応した遷移確率へと動的に変更することができる。   Here, in the operation flow probability model 112, the inter-node transition probability is dynamically changed according to the operation history data 111 by holding the inter-node transition probability for each operation history of the user. Detection can also be performed. FIG. 17 shows an example of the internode transition probability for each user operation history. The transition probabilities registered in the four arcs extending from the node 1703 “select program” in FIG. 17A transition from the node 1701 “display externally viewed program viewing screen” to the node 1703 “select program”. This is a value calculated from a general operation history of the operation. In addition, the transition probability in the four arcs extending from the node 1703 “select program” in FIG. 17B is the operation of transition from the node 1702 “display recorded program viewing screen” to the node 1703 “select program”. This is a value calculated from a general operation history. As described above, by holding the operation flow probability model 112 having different transition probabilities for each user operation history, it is possible to dynamically change to a transition probability corresponding to the user operation history 111.

図13は、スコア統合部108における処理の流れ図である。ステップ1301では、スコア統合部108の処理の実行開始判断を行う。スコア統合部108の処理は、情報処理部104からユーザの処理実行要求を受け取った時、あるいはユーザ戸惑い度検出部106で求めた戸惑い度が既定の閾値を越えた時に処理が実行開始し、ステップ1302へ進む。それ以外の場合はスコア統合部108の処理を終了する。ステップ1302では、操作履歴データ111の各データにおける戸惑い度と、誤操作度と操作フロー確率モデル112の各ノードにおける均等な確率との差分値により正規化した値の加算値により確度の高い誤操作度である統合誤操作度を求める。   FIG. 13 is a flowchart of processing in the score integration unit 108. In step 1301, it is determined whether or not the score integration unit 108 has started processing. The processing of the score integration unit 108 starts when the user's processing execution request is received from the information processing unit 104 or when the degree of confusion obtained by the user confusion level detection unit 106 exceeds a predetermined threshold. Proceed to 1302. In other cases, the processing of the score integration unit 108 ends. In step 1302, the degree of erroneous operation with a high degree of accuracy is obtained by adding the values normalized by the difference between the degree of confusion in each data of the operation history data 111 and the degree of erroneous operation and the equal probability in each node of the operation flow probability model 112. Find a certain degree of integrated misoperation.

図14は、戸惑い度及び誤操作度を含めた操作履歴データ111の一例である。ここで、図14では操作履歴データ111の各要素のうち「画面の種類」「マウス下のオブジェクト名」を省略している。また図14に示す開始時間1401が16000ミリ秒のデータの誤操作度が格納されていないのは、アプリケーションの応答結果1405「地上デジタル放送の番組を選択」の次の応答結果が未だ不明であるため誤操作度が確定できないからである。   FIG. 14 is an example of the operation history data 111 including the degree of confusion and the degree of erroneous operation. In FIG. 14, “screen type” and “object name under the mouse” are omitted from the elements of the operation history data 111. Also, the reason why the erroneous operation degree of data having a start time 1401 of 16000 milliseconds shown in FIG. 14 is not stored is that the response result after the application response result 1405 “select terrestrial digital broadcast program” is still unknown. This is because the degree of erroneous operation cannot be determined.

図14の開始時間1401が1050ミリ秒のデータを用いて統合誤操作度の算出方法を説明する。統合誤操作度は、戸惑い度0.6と、誤操作度0.8と操作フロー確率モデル112のノード「番組検索画面を表示」における均等な確率0.5との差分値0.3の加算値0.9である。ここで、本実施例では統合誤操作度として戸惑い度と正規化した誤操作度の加算値を用いているが、戸惑い度と誤操作度を用いた計算方法であれば特に限定はしない。   A method for calculating the integrated erroneous operation degree will be described using data with a start time 1401 of 1050 milliseconds in FIG. The integrated error operation degree is an addition value 0.9 of the difference value 0.3 between the degree of confusion 0.6, the error operation degree 0.8, and the equal probability 0.5 in the node “display program search screen” of the operation flow probability model 112. Here, in the present embodiment, an added value of the degree of confusion and the normalized degree of operation error is used as the integrated operation error degree, but there is no particular limitation as long as it is a calculation method using the degree of confusion and the degree of operation error.

ステップ1303では、操作履歴データ111の各統合誤操作度のうち最大となるものを探索する。ステップ1304では、統合誤操作度の値が最大となるデータが複数存在するかを確認する。複数存在する場合はステップ1305に進み、複数存在しない場合は、ステップ1303にて最大の統合誤操作度となったデータに該当する操作が誤操作であると推測し、ステップ1306へ進む。ステップ1305では、統合誤操作度が同値となるデータの戸惑い度が大きい方を優先することで1つに絞り込み、誤操作を起こした操作を推測する。ここで、同値の統合誤操作度からの絞込み方法については、現在の操作から時間的に最も近い操作履歴データの優先度を高くするなど、様々あり限定はしない。ステップ1306では、ユーザに誤操作箇所と推薦操作を提示するため訂正情報提示部109を呼び出す。   In step 1303, a search is made for the maximum degree of each integrated erroneous operation in the operation history data 111. In step 1304, it is confirmed whether or not there is a plurality of pieces of data having the maximum integrated erroneous operation value. If there are a plurality of data, the process proceeds to step 1305. If there are not a plurality of data, it is estimated that the operation corresponding to the data having the maximum integrated error operation degree in step 1303 is an operation error, and the process proceeds to step 1306. In step 1305, priority is given to the data with the same degree of integrated operation error, which has a higher degree of confusion, to narrow down to one, and the operation that caused the operation error is estimated. Here, the narrowing-down method from the same integrated error operation degree is variously limited, such as increasing the priority of the operation history data closest in time from the current operation. In step 1306, the correction information presenting unit 109 is called to present the erroneous operation location and the recommended operation to the user.

図15は、訂正情報提示部109における処理の流れ図である。ステップ1501では、操作フロー確率モデル112からスコア統合部108にて求めた誤操作に対応するノードを見つけ、そのノードから遷移可能な次ノードのうち誤操作のノードを除いて最も遷移確率が高い次ノードに該当する操作を、このノードにおける正しい操作とする。図12を例に説明すると、スコア統合部108にて求めた誤操作に対応するノードがノード1201「初期画面を表示」であり、誤操作のノードはノード1202「録画番組視聴画面を表示」であった時、残り2つの遷移可能ノードのうち正しい操作に該当するノードは遷移確率の高いノード1203「番組検索画面を表示」となる。ここで、ユーザ戸惑い度検出部106で求めた戸惑い度と操作フロー確率モデル112のノード間遷移確率への重み付け量を定義したデータを用いることで、操作フロー確率モデル112におけるノード間遷移確率を変化させ、より正確な操作を求めることもできる。ステップ1502では、操作フロー確率モデル112から現在の操作画面に対応するノードを見つけ、そのノードから遷移可能な次ノードのうち最も遷移確率が高い次ノードに該当する操作を正しい操作とする。ステップ1503では、操作履歴データ111と現在の操作画面における正しい操作、誤操作のあった操作画面における正しい操作をヘルプ情報としてユーザに提示する。ここで、操作履歴データ111において最新の操作及び誤操作を示す部分を強調した表示にすることもできる。また、操作履歴データ111の履歴操作数が多い場合は戸惑い度の大きな操作のみを表示するなどの絞込み方法により表示数を減らすこともできる。さらに、ユーザの選択により、現在提示している正しい操作の次に遷移確率が高い操作を提示することもできる。同様にユーザの選択により、現在提示している誤操作の次に統合誤操作度が大きい操作を提示することもできる。この場合、ステップ1501にて正しい操作を再度求める必要がある。提示した正しい操作をユーザが選択すると、システムの状態を該当する操作画面に遷移させ、その画面上にて正しい操作を強調表示する。正しい操作の強調手段は、ボタンを大きくしたり、該当ボタンを矢印で指し示したりと様々に考えられるが、目立つ表示方法であれば限定するものではない。   FIG. 15 is a flowchart of processing in the correction information presenting unit 109. In step 1501, a node corresponding to the erroneous operation obtained by the score integration unit 108 is found from the operation flow probability model 112, and the next node having the highest transition probability is excluded from the next nodes that can be transitioned from that node. The corresponding operation is the correct operation at this node. Referring to FIG. 12 as an example, the node corresponding to the erroneous operation obtained by the score integration unit 108 is the node 1201 “display initial screen”, and the erroneous operation node is node 1202 “display recorded program viewing screen”. At this time, the node corresponding to the correct operation among the remaining two transitionable nodes becomes the node 1203 “display program search screen” having a high transition probability. Here, the transition probability between nodes in the operation flow probability model 112 is changed by using data defining the degree of confusion obtained by the user confusion degree detection unit 106 and the weighting amount to the transition probability between nodes of the operation flow probability model 112. And more accurate operation can be obtained. In step 1502, a node corresponding to the current operation screen is found from the operation flow probability model 112, and an operation corresponding to the next node with the highest transition probability among the next nodes that can be transitioned from that node is set as a correct operation. In step 1503, the operation history data 111, the correct operation on the current operation screen, and the correct operation on the operation screen with an erroneous operation are presented to the user as help information. Here, the operation history data 111 can be displayed with an emphasis on the part indicating the latest operation or erroneous operation. Further, when the number of history operations in the operation history data 111 is large, the number of displays can be reduced by a narrowing method such as displaying only operations with a high degree of confusion. Furthermore, an operation having the highest transition probability after the correct operation currently presented can be presented by the user's selection. Similarly, by the user's selection, an operation with the highest integrated erroneous operation level can be presented after the currently present erroneous operation. In this case, it is necessary to obtain the correct operation again in step 1501. When the user selects the correct operation presented, the system state is changed to the corresponding operation screen, and the correct operation is highlighted on the screen. The correct operation highlighting means can be variously considered to enlarge the button or point to the corresponding button with an arrow, but is not limited as long as it is a conspicuous display method.

図16にヘルプ情報提示の一例を示す。図16のユーザの操作履歴1601は、ユーザ操作履歴111のうちアプリケーションの応答結果があるものを上から時系列に並べており、誤操作のあった操作と最新の操作を太字で強調している。また、図16の正しい操作1602には、ユーザの操作履歴1601で強調表示した操作に対する正しい操作を提示している。また、ボタン1603をユーザが実行することでユーザの操作履歴1601における誤操作のあった操作の強調表示を止め、次候補の誤操作のあった操作を強調表示する。また、ボタン1604をユーザが実行することで正しい操作1602における正しい操作を次候補の正しい操作に変える。   FIG. 16 shows an example of help information presentation. The user operation history 1601 in FIG. 16 arranges the user operation history 111 that has an application response result in time series from the top, and highlights the operation with the erroneous operation and the latest operation in bold. Also, the correct operation 1602 in FIG. 16 presents the correct operation for the operation highlighted in the user operation history 1601. In addition, when the user executes the button 1603, highlighting of an operation with an erroneous operation in the user operation history 1601 is stopped, and an operation with an erroneous operation of the next candidate is highlighted. Further, when the user executes the button 1604, the correct operation in the correct operation 1602 is changed to the correct operation of the next candidate.

本発明を適用した情報処理装置の概念構成図である。It is a conceptual lineblock diagram of an information processor to which the present invention is applied. 本発明を適用した情報処理装置のハードウェア構成図である。It is a hardware block diagram of the information processing apparatus to which this invention is applied. 情報処理部における処理の流れ図である。It is a flowchart of the process in an information processing part. 情報処理部の入力情報の一例を示すデータテーブルである。It is a data table which shows an example of the input information of an information processing part. ユーザ操作挙動取得部における処理の流れ図である。It is a flowchart of the process in a user operation behavior acquisition part. 操作履歴データの一例を示すデータテーブルである。It is a data table which shows an example of operation history data. ユーザ戸惑い度検出部における処理の流れ図である。It is a flowchart of the process in a user confusion degree detection part. 操作履歴データの一例を示すデータテーブルである。It is a data table which shows an example of operation history data. 戸惑い操作ルールの一例を示すデータテーブルである。It is a data table which shows an example of a puzzle operation rule. 戸惑い操作ルールを決定するための5段階主観評価に用いる評価フォーマットの一例である。It is an example of the evaluation format used for 5 step | paragraph subjective evaluation for determining a puzzle operation rule. 誤操作度検出部における処理の流れ図である。It is a flowchart of the process in a misoperation degree detection part. 操作フロー確率モデルの一例を示すグラフ構造図である。It is a graph structure figure which shows an example of an operation flow probability model. スコア統合部における処理の流れ図である。It is a flowchart of the process in a score integration part. 操作履歴データの一例を示すデータテーブルである。It is a data table which shows an example of operation history data. 訂正情報提示部における処理の流れ図である。It is a flowchart of the process in a correction information presentation part. 訂正情報提示部におけるユーザ提示画面の一例である。It is an example of the user presentation screen in a correction information presentation part. ユーザの操作履歴毎のノード間遷移確率の一例を示す図である。It is a figure which shows an example of the transition probability between nodes for every operation history of a user.

符号の説明Explanation of symbols

101 入力部
102 出力部
103 UI処理部
104 情報処理部
105 ユーザ操作挙動取得部
106 ユーザ戸惑い度検出部
107 誤操作度検出部
108 スコア統合部
109 訂正情報提示部
110 戸惑い操作ルール
111 操作履歴データ
112 操作フロー確率モデル
DESCRIPTION OF SYMBOLS 101 Input part 102 Output part 103 UI process part 104 Information processing part 105 User operation behavior acquisition part 106 User confusion degree detection part 107 Error operation degree detection part 108 Score integration part 109 Correction information presentation part 110 Confusion operation rule 111 Operation history data 112 Operation Flow probability model

Claims (5)

入力装置と、
前記入力装置による操作に対するアプリケーションの応答結果を表示する出力装置と、
前記入力装置による操作履歴を蓄積するユーザ操作挙動取得部と、
ユーザが操作にどのくらいの度合で戸惑っているかを表す戸惑い度を求める戸惑い度検出部と、
ユーザの操作にどのくらいの度合で操作誤りがあるかを表す誤操作度を求める誤操作度検出部と、
前記戸惑い度と前記誤操作度を統合し、前記入力装置による操作履歴から誤操作の箇所を推測するスコア統合部と、
前記入力装置による操作履歴及び前記推測した誤操作の箇所を前記出力装置に表示する訂正情報提示部とを有し、
前記ユーザ操作挙動取得部は、前記入力装置からの入力情報とアプリケーションの画面情報及び前記入力情報に対する応答結果を取得し、それら取得した情報を操作履歴として保持し、
前記戸惑い度検出部は、操作パターンと戸惑い度との関係を示したルールと、現在の操作履歴とを照合することにより戸惑い度を求め、
前記誤操作度検出部は、アプリケーションの一般的な操作フローを確率で表現したモデルと、現在の操作履歴とを照合することにより誤操作度を求め、
前記スコア統合部は、前記操作履歴における操作毎に前記戸惑い度と前記誤操作度を統合した値を算出し、それが最大値をとる操作箇所を誤操作箇所とすることを特徴とする情報処理装置。
An input device;
An output device for displaying a response result of an application to the operation by the input device;
A user operation behavior acquisition unit that accumulates an operation history by the input device;
A confusion level detection unit that calculates a degree of confusion that indicates how much the user is confused with the operation,
An erroneous operation degree detection unit for obtaining an erroneous operation degree indicating the degree of operation error in the user's operation;
A score integration unit that integrates the degree of confusion and the degree of erroneous operation, and estimates an erroneous operation location from an operation history by the input device;
A correction information presenting unit for displaying the operation history by the input device and the location of the estimated erroneous operation on the output device;
The user operation behavior acquisition unit acquires the input information from the input device, the screen information of the application, and a response result to the input information, holds the acquired information as an operation history,
The confusion level detection unit obtains the degree of confusion by checking the rule indicating the relationship between the operation pattern and the degree of confusion and the current operation history,
The erroneous operation degree detection unit obtains an erroneous operation degree by comparing a model expressing a general operation flow of an application with a probability and a current operation history,
The said score integration part calculates the value which integrated the said confusion degree and the said erroneous operation degree for every operation in the said operation history, and makes the operation location where it takes the maximum value be an erroneous operation location, The information processing apparatus characterized by the above-mentioned.
請求項1記載の情報処理装置において、前記アプリケーションの一般的な操作フローを確率で表現したモデルから前記誤操作箇所における確からしい操作を推測することを特徴とする情報処理装置。   The information processing apparatus according to claim 1, wherein a probable operation at the erroneous operation location is estimated from a model expressing a general operation flow of the application with a probability. 請求項2記載の情報処理装置において、前記操作履歴と前記誤操作箇所における確からしい操作を前記出力装置に表示し、前記入力装置によって当該確からしい操作が選択されると、アプリケーションの状態を前記誤操作箇所の状態に戻すことを特徴とする情報処理装置。   The information processing apparatus according to claim 2, wherein the operation history and a likely operation at the erroneous operation location are displayed on the output device, and when the reliable operation is selected by the input device, the application state is changed to the erroneous operation location. An information processing apparatus characterized by being returned to the state. 請求項1記載の情報処理装置において、前記誤操作度検出部はアプリケーションの操作フローと操作履歴との依存関係を示したデータを有し、前記入力装置による操作履歴から前記アプリケーションの一般的な操作フローを確率で表現したモデルの各確率値を変えることを特徴とする情報処理装置。   The information processing apparatus according to claim 1, wherein the erroneous operation degree detection unit includes data indicating a dependency relationship between an operation flow of an application and an operation history, and a general operation flow of the application from an operation history by the input device. An information processing apparatus characterized by changing each probability value of a model in which is expressed by probability. 請求項1記載の情報処理装置において、前記スコア統合部は複数の誤操作箇所が得られた場合、前記戸惑い度を比較することで優先順位をつけることを特徴とする情報処理装置。   The information processing apparatus according to claim 1, wherein the score integration unit assigns a priority by comparing the degree of confusion when a plurality of erroneous operation locations are obtained.
JP2007108828A 2007-04-18 2007-04-18 Information processor Pending JP2008269119A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007108828A JP2008269119A (en) 2007-04-18 2007-04-18 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007108828A JP2008269119A (en) 2007-04-18 2007-04-18 Information processor

Publications (1)

Publication Number Publication Date
JP2008269119A true JP2008269119A (en) 2008-11-06

Family

ID=40048563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007108828A Pending JP2008269119A (en) 2007-04-18 2007-04-18 Information processor

Country Status (1)

Country Link
JP (1) JP2008269119A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012220994A (en) * 2011-04-04 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Erroneous operation estimation method, erroneous operation estimation device, and erroneous operation estimation program
US8438479B2 (en) 2008-11-25 2013-05-07 Panasonic Corporation Operation support apparatus and method of the same
CN110162361A (en) * 2019-04-12 2019-08-23 平安普惠企业管理有限公司 Intelligent prompt method, device, terminal and storage medium based on user behavior
JP2021135697A (en) * 2020-02-26 2021-09-13 キヤノン株式会社 Information processing system, information processor and control method thereof, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8438479B2 (en) 2008-11-25 2013-05-07 Panasonic Corporation Operation support apparatus and method of the same
JP2012220994A (en) * 2011-04-04 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Erroneous operation estimation method, erroneous operation estimation device, and erroneous operation estimation program
CN110162361A (en) * 2019-04-12 2019-08-23 平安普惠企业管理有限公司 Intelligent prompt method, device, terminal and storage medium based on user behavior
CN110162361B (en) * 2019-04-12 2022-12-09 平安普惠企业管理有限公司 Intelligent prompting method and device based on user behavior, terminal and storage medium
JP2021135697A (en) * 2020-02-26 2021-09-13 キヤノン株式会社 Information processing system, information processor and control method thereof, and program
JP7386726B2 (en) 2020-02-26 2023-11-27 キヤノン株式会社 Job processing device, job processing device control method, and program

Similar Documents

Publication Publication Date Title
JP4921374B2 (en) User support device and puzzle state determination device
US9158432B2 (en) Region recommendation device, region recommendation method and recording medium
JP4703480B2 (en) Moving object detection method in video, abnormality cause analysis support method and support system for video system
JP4847300B2 (en) Memory leak detection method, memory leak detection device, and memory leak detection program
JP2009098774A (en) Person tracking system, person tracking method and person tracking program
JP5347949B2 (en) Troubleshooting program and troubleshooting method
US10380172B2 (en) Presentation support system, presentation support apparatus, and presentation support method
JP2019149154A (en) Information processor, information processing method, and program
JP2009223767A (en) Information presentation system
JP2008269119A (en) Information processor
JP2019040536A (en) Index selection device and method for selecting index
US20120041946A1 (en) Data search apparatus, control method thereof and computer readable storage medium
US20200242356A1 (en) Information processing system, terminal apparatus, client apparatus, control method thereof, and storage medium
JP4879782B2 (en) Program profiling method and program
JP2006338233A (en) State detector and state detecting method
JPWO2011148719A1 (en) Information processing apparatus, GUI operation support method, and GUI operation support program
JP4788841B2 (en) GUI evaluation system, GUI evaluation method, and GUI evaluation program
US20180313676A1 (en) Information processing apparatus, information processing method, and program
WO2019167775A1 (en) Information processing device, information processing method, and program
JP5519565B2 (en) Error operation estimation method, error operation estimation device, and error operation estimation program
JPH0535383A (en) Operation guide device
WO2012056569A1 (en) Performance measurement method, performance measurement device, and performance measurement program
JP2016057854A (en) Operation support system, and operation support method
US20230267727A1 (en) Image analysis apparatus, image analysis method, and storage medium
JP7452553B2 (en) Input display system, auxiliary information display method, and program