JP2015153325A - information processing apparatus, operation support method and operation support program - Google Patents

information processing apparatus, operation support method and operation support program Download PDF

Info

Publication number
JP2015153325A
JP2015153325A JP2014028877A JP2014028877A JP2015153325A JP 2015153325 A JP2015153325 A JP 2015153325A JP 2014028877 A JP2014028877 A JP 2014028877A JP 2014028877 A JP2014028877 A JP 2014028877A JP 2015153325 A JP2015153325 A JP 2015153325A
Authority
JP
Japan
Prior art keywords
user
state
confused
detection signal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014028877A
Other languages
Japanese (ja)
Inventor
英輔 ▲柳▼澤
英輔 ▲柳▼澤
Hidesuke Yanagisawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Frontech Ltd filed Critical Fujitsu Frontech Ltd
Priority to JP2014028877A priority Critical patent/JP2015153325A/en
Publication of JP2015153325A publication Critical patent/JP2015153325A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To shorten time until detection of a state where a user has trouble with an operation to increase reliability of detection.SOLUTION: A storage unit 3 stores troubled state information 3a indicating a state where it is assumed that a user has trouble with an operation. A detection signal analysis unit 2 analyzes a detection signal detecting the motion and look of the user to detect a user operation state at the time when the user performs an operation. An operation state determination unit 4 collates the user operation state with the troubled state information 3a to determine whether or not the user has trouble with the operation. When the operation state determination unit 4 determines that the user has trouble with the operation, an operation support unit 5 performs operation support for the user.

Description

本発明は、情報処理装置、操作支援方法及び操作支援プログラムに関する。   The present invention relates to an information processing apparatus, an operation support method, and an operation support program.

近年、携帯電話機、携帯型オーディオ機器、ディジタルカメラ、車載ナビゲーションなどは、高機能化と多機能化が図られており、マイクロプロセッサを搭載した情報処理装置として位置付けることができる。   In recent years, cellular phones, portable audio devices, digital cameras, in-vehicle navigations, and the like have been improved in functionality and multifunction, and can be positioned as information processing apparatuses equipped with a microprocessor.

このような情報処理装置では、所望の機能を利用する際に、ユーザは予め決められた所定の操作を行う必要がある。しかしながら、ユーザには、その操作を熟知している者もいれば、操作に不慣れな者もいる。また、同じユーザでも利用する機能が異なればその操作に不慣れな場合もあり、単にユーザに対応して操作不慣れを判定することはできない。ユーザは、不慣れな操作を行うとき、操作方法がわからずに同じ操作を繰り返したり、操作が止まってしまったりするなど、操作に困惑し、不快な思いをする。   In such an information processing apparatus, the user needs to perform a predetermined operation when using a desired function. However, some users are familiar with the operation and others are unfamiliar with the operation. In addition, even if the same user uses different functions, there are cases where the user is unfamiliar with the operation, and it is not possible to simply determine whether the user is unfamiliar with the operation. When an unfamiliar operation is performed, the user feels uncomfortable and uncomfortable, such as repeating the same operation without knowing the operation method, or stopping the operation.

そこで、ユーザの操作履歴を取得して操作に困惑している可能性の高い操作パターンと照合し、ユーザが操作に困惑しているかどうかを判断する監視支援方法がある(例えば、特許文献1参照)。   Therefore, there is a monitoring support method for acquiring a user's operation history and collating it with an operation pattern that is likely to be confused with the operation, and determining whether the user is confused with the operation (for example, see Patent Document 1). ).

また、複写機のユーザをカメラで撮影し、困惑の表情をしていることが検出されたとき、ヘルプガイダンス画面を表示するものがある(例えば、特許文献2参照)。   In addition, there is a case where a help guidance screen is displayed when it is detected that a user of a copying machine is photographed with a camera and is looking confused (see, for example, Patent Document 2).

特開平10−222467号公報JP-A-10-222467 特開2002−258682号公報JP 2002-258682 A

情報処理装置を利用するユーザにとって、操作に困惑しているときは、できるだけ早く操作支援が行われることが好ましい。一方、操作に困惑していないときに操作支援が行われると、それまでの作業が中断されるため好ましくない。   When a user who uses the information processing apparatus is confused about the operation, it is preferable that the operation support is performed as soon as possible. On the other hand, if the operation support is performed when the operation is not confused, the work up to that point is interrupted, which is not preferable.

しかしながら、操作履歴と操作パターンとを照合する方法では、少なくともユーザが操作を行ったことが認識されないと操作に困惑しているかどうかの判定ができない。例えば、タッチパネル操作の場合、操作に困惑してイライラしたユーザがキーに対応しない領域にタッチしても、操作として認識されない場合がある。また、操作と認識されても、1回の操作では単なる間違いか、操作に不慣れであるのかを判断できない。したがって、ユーザがこの操作を繰り返し行った後でなければ確度の高い判定を行うことができない。このため、ユーザが操作に困惑していることを検出するまでに時間がかかり、操作支援が遅れてしまう。   However, in the method of collating the operation history with the operation pattern, it is impossible to determine whether or not the operation is confused unless it is recognized that at least the user has performed the operation. For example, in the case of a touch panel operation, even if a user who is confused by the operation touches an area that does not correspond to a key, the operation may not be recognized. Moreover, even if it is recognized as an operation, it cannot be determined whether the operation is simple or unfamiliar with the operation. Therefore, a highly accurate determination can be made only after the user repeatedly performs this operation. For this reason, it takes time until it is detected that the user is troubled by the operation, and the operation support is delayed.

また、単に困惑の表情を検出して操作支援を行う方法では、ユーザが困惑している原因が操作の不慣れにあるのかどうかわからない。他の原因で困惑の表情となっていた場合、必要のない操作支援が行われ、かえってユーザに不快感を与えてしまう場合がある。   Further, in the method of simply detecting a confused expression and performing operation support, it is not known whether the user is confused because of the unfamiliar operation. If the expression is confused due to other causes, unnecessary operation support is performed, which may cause discomfort to the user.

1つの側面では、本発明は、ユーザが操作に困惑している状態を検出するまでの時間を短縮し、かつ検出の確度を上げ、適切な操作支援を行うことが可能な情報処理装置、操作支援方法及び操作支援プログラムを提供することを目的とする。   In one aspect, the present invention provides an information processing apparatus capable of shortening the time until a user detects a state of being confused by an operation, increasing the accuracy of detection, and performing appropriate operation support. An object is to provide a support method and an operation support program.

上記目的を達成するために、以下に示すような情報処理装置が提供される。情報処理装置は、記憶部と、検知信号解析部と、操作状態判定部と、操作支援部と、を有する。記憶部は、ユーザが操作に困惑していると想定される状態を示す困惑状態情報を記憶する。検知信号解析部は、ユーザの動きや様子を検知した検知信号を解析し、当該ユーザが操作を行っているときのユーザ操作状態を検出する。操作状態判定部は、ユーザ操作状態を困惑状態情報と照合し、ユーザが操作に困惑しているか否かを判定する。操作支援部は、操作状態判定部によってユーザが操作に困惑していると判定されたときは、ユーザに対して操作支援を行う。   In order to achieve the above object, an information processing apparatus as shown below is provided. The information processing apparatus includes a storage unit, a detection signal analysis unit, an operation state determination unit, and an operation support unit. The storage unit stores confusion state information indicating a state in which the user is assumed to be confused with the operation. The detection signal analysis unit analyzes a detection signal that detects a user's movement and state, and detects a user operation state when the user is performing an operation. The operation state determination unit compares the user operation state with the puzzle state information and determines whether or not the user is puzzled by the operation. The operation support unit provides operation support to the user when the operation state determination unit determines that the user is confused about the operation.

1態様によれば、ユーザが操作に困惑している状態の検出までの時間を短縮し、かつ検出の確度を上げ、適切な操作支援を行うことが可能となる。   According to one aspect, it is possible to shorten the time until detection of a state in which the user is troubled by the operation, increase the accuracy of detection, and perform appropriate operation support.

第1の実施形態の情報処理装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the information processing apparatus of 1st Embodiment. 第2の実施の形態の携帯電話機の構成の一例を示す図である。It is a figure which shows an example of a structure of the mobile telephone of 2nd Embodiment. 第2の実施の形態の携帯電話機のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the mobile telephone of 2nd Embodiment. 第2の実施の形態の携帯電話機の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the mobile telephone of 2nd Embodiment. 第2の実施の形態の操作履歴情報の一例を示す図である。It is a figure which shows an example of the operation history information of 2nd Embodiment. 第2の実施の形態のユーザ表情情報の一例を示す図である。It is a figure which shows an example of the user facial expression information of 2nd Embodiment. 第2の実施の形態の音声キーワード情報の一例を示す図である。It is a figure which shows an example of the audio | voice keyword information of 2nd Embodiment. 第2の実施の形態の操作不慣れ支援処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the operation unfamiliarization assistance process of 2nd Embodiment. 第2の実施の形態の操作不慣れ判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the operation unfamiliarity determination process of 2nd Embodiment. 第2の実施の形態のユーザサポート処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the user support process of 2nd Embodiment. 第3の実施の形態の携帯電話機の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the mobile telephone of 3rd Embodiment. 第3の実施の形態の除外項目情報の一例を示す図である。It is a figure which shows an example of the exclusion item information of 3rd Embodiment. 第3の実施の形態の除外操作判定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the exclusion operation determination process of 3rd Embodiment.

以下、本実施の形態について図面を参照して説明する。
[第1の実施の形態]
まず、第1の実施形態の情報処理装置について図1を用いて説明する。図1は、第1の実施形態の情報処理装置の構成の一例を示す図である。
Hereinafter, the present embodiment will be described with reference to the drawings.
[First Embodiment]
First, the information processing apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of the configuration of the information processing apparatus according to the first embodiment.

図1に示した情報処理装置は、検知部1、検知信号解析部2、記憶部3、操作状態判定部4、操作支援部5、操作判定部6及びアプリ制御部7を有する。
検知部1は、ユーザの動きや様子を検知する手段として、タッチ検知部1a、カメラ撮影部1b、角速度検知部1c、音声検知部1dを備える。各検知手段は、検知したユーザの動きや様子を検知信号として出力する。タッチ検知部1aは、タッチパネルの一部を構成し、ユーザの指などがタッチパネルを押したことをタッチとして認識し、押された位置座標(以下、タッチ位置と表記する)と、押した圧力の大きさ(以下、タッチ圧と表記する)と、を検知する。カメラ撮影部1bは、ユーザの顔を撮影し、イメージ画像信号を生成する。角速度検知部1cは、情報処理装置の向きの変化や角速度を検知する。音声検知部1dは、ユーザの声を検知する。なお、図1のタッチ検知部1a、カメラ撮影部1b、角速度検知部1c及び音声検知部1dは検知部1の構成の一例であり、検知部1は、このうちの一部からなる構成、または他の検知手段を備える構成としてもよい。
The information processing apparatus illustrated in FIG. 1 includes a detection unit 1, a detection signal analysis unit 2, a storage unit 3, an operation state determination unit 4, an operation support unit 5, an operation determination unit 6, and an application control unit 7.
The detection unit 1 includes a touch detection unit 1a, a camera photographing unit 1b, an angular velocity detection unit 1c, and a voice detection unit 1d as means for detecting a user's movement and appearance. Each detection means outputs the detected movement and state of the user as a detection signal. The touch detection unit 1a constitutes a part of the touch panel, recognizes that a user's finger or the like has pressed the touch panel as a touch, the position coordinates of the pressed (hereinafter referred to as touch position), and the pressure of the pressed pressure. The size (hereinafter referred to as touch pressure) is detected. The camera photographing unit 1b photographs the user's face and generates an image signal. The angular velocity detection unit 1c detects a change in the direction of the information processing apparatus and an angular velocity. The voice detector 1d detects the user's voice. Note that the touch detection unit 1a, the camera photographing unit 1b, the angular velocity detection unit 1c, and the voice detection unit 1d in FIG. 1 are examples of the configuration of the detection unit 1, and the detection unit 1 includes a part of the configuration, or It is good also as a structure provided with another detection means.

検知信号解析部2は、検知部1から取得した検知信号を解析し、このユーザが操作を行っているときのユーザ操作状態を検出する。検知信号解析部2は、検知部1から取得した検知信号によって「操作中」の条件が成立したとき、情報処理装置の動作状態を「操作中」とする。例えば、タッチ検知部1aによって、予め決められた領域内がタッチされたことを「操作中」の条件とすることができる。また、所定の音声入力があったときでもよい。「操作中」は、少なくとも条件が成立してから一定時間、または有効な操作が続いている間は保持される。また、ユーザ操作状態とは、ユーザが操作中に検知信号から得られる操作を含むユーザの動作、及び表情や声の様子である。   The detection signal analysis unit 2 analyzes the detection signal acquired from the detection unit 1 and detects a user operation state when the user is performing an operation. The detection signal analysis unit 2 sets the operation state of the information processing apparatus to “in operation” when the “in operation” condition is satisfied by the detection signal acquired from the detection unit 1. For example, it is possible to set the “operating” condition that a predetermined area is touched by the touch detection unit 1a. Further, it may be when there is a predetermined voice input. “In operation” is held for at least a certain period of time after the condition is satisfied, or while an effective operation continues. The user operation state is a user operation including an operation obtained from a detection signal during the operation by the user, and a facial expression or voice.

タッチ検知部1aから取得した検知信号を解析し、ユーザがタッチパネルを操作したタッチ位置及びタッチ圧を検出する。カメラ撮影部1bから取得したらユーザの顔のイメージ画像信号を解析し、ユーザの表情の種別を検出する。例えば、イメージ画像信号に捉えられた顔の特徴と、困っている表情、哀しんでいる表情など、各表情に表れる特徴とを照合し、それぞれの表情との類似度によって表情の種別を特定する。角速度検知部1cから取得した検知信号を解析し、情報処理装置に加わった衝撃の大きさを検出する。音声検知部1dから取得した音声信号を解析し、ユーザが発した言葉と、声の音量とを検出する。これら検出されたユーザの状態と、「操作中」が成立する条件とを照合してユーザが操作中であるか否かを判定する。また、「操作中」であるときは、検出したユーザの状態をユーザ操作状態として操作状態判定部4に出力する。さらに、検知したタッチ位置及びタッチ圧は、操作情報として操作判定部6にも出力する。音声による操作が行われているときは、ユーザの発した言葉を操作情報として操作判定部6に出力する。   The detection signal acquired from the touch detection part 1a is analyzed, and the touch position and the touch pressure which the user operated the touch panel are detected. Once acquired from the camera photographing unit 1b, the image signal of the user's face is analyzed to detect the type of facial expression of the user. For example, the facial features captured in the image signal are compared with features appearing in each facial expression such as a troubled facial expression and a sad facial expression, and the type of facial expression is specified based on the similarity to each facial expression. The detection signal acquired from the angular velocity detection unit 1c is analyzed, and the magnitude of impact applied to the information processing apparatus is detected. The voice signal acquired from the voice detection unit 1d is analyzed, and the words uttered by the user and the volume of the voice are detected. It is determined whether or not the user is operating by comparing these detected user states with the conditions for satisfying “in operation”. When “in operation”, the detected user state is output to the operation state determination unit 4 as a user operation state. Further, the detected touch position and touch pressure are also output to the operation determination unit 6 as operation information. When a voice operation is performed, the words uttered by the user are output to the operation determination unit 6 as operation information.

記憶部3は、操作状態判定部4が参照する困惑状態情報3aを予め記憶している。困惑状態情報3aには、ユーザが操作に困惑していると想定される状態であって、検知信号解析部2によって検出可能なユーザ操作状態が登録されている。操作に困惑している状態とは、操作がまったくわからない、操作がうろ覚え、あるいは、間違った操作を覚えているなど、操作がうまくいかず困っている状態をいう。このようなとき、人は、例えば、タッチ圧が強くなる、タッチ頻度が増す、キー以外の箇所を繰り返しタッチする、情報処理装置を振って衝撃を与える、表情が険しくなる、ため息や「わからない」などの言葉を口にする、声が大きくなるなど、困惑していない通常の状態と動作や様子が異なることが知られている。困惑状態情報3aには、このような困惑時の特徴的なユーザ操作状態を示す情報が設定されている。なお、タッチ圧が強くなる、声が大きくなるなど、個人差が大きい特徴は、予め通常の状態において測定した値から閾値を求め、困惑状態情報3aに設定しておくようにしてもよい。   The storage unit 3 stores in advance confusion state information 3 a that is referred to by the operation state determination unit 4. In the puzzle state information 3a, a user operation state that is assumed to be confused by the user and that can be detected by the detection signal analysis unit 2 is registered. The state in which the operation is confused means a state in which the operation is not successful or is in trouble, for example, the user does not know the operation at all, remembers the operation, or remembers the wrong operation. In such a case, for example, the person increases the touch pressure, increases the touch frequency, repeatedly touches a part other than the key, shakes the information processing device, gives an impact, makes the expression steep, sighs, and “don't know” It is known that the behavior and appearance are different from the normal state that is not confused, such as uttering the words such as, or having a loud voice. In the puzzle state information 3a, information indicating a characteristic user operation state at the time of such a puzzle is set. Note that features with large individual differences, such as increased touch pressure and louder voices, may be obtained by previously obtaining a threshold value from a value measured in a normal state and setting it in the trouble state information 3a.

操作状態判定部4は、検知信号解析部2が検出したユーザ操作状態を取得し、取得したユーザ操作状態を、困惑状態情報3aと照合する。検出したユーザ操作状態が困惑状態情報3aに示された状態と合致するときは、ユーザが操作に困惑していると判定する。合致していなければユーザは操作に困惑していないと判定する。判定結果は、操作支援部5に出力する。   The operation state determination unit 4 acquires the user operation state detected by the detection signal analysis unit 2, and collates the acquired user operation state with the puzzle state information 3a. When the detected user operation state matches the state indicated in the puzzle state information 3a, it is determined that the user is troubled by the operation. If they do not match, it is determined that the user is not confused with the operation. The determination result is output to the operation support unit 5.

操作支援部5は、操作状態判定部4からユーザが操作に困惑しているか否かの判定結果を取得する。ユーザが操作に困惑していることが検出されたときは、操作案内を提供して操作支援を行う。また、操作案内を行う前に、ユーザを操作案内に誘導する操作案内誘導画面を表示して、操作案内が必要かどうかを問い合わせるとしてもよい。例えば、「ヘルプ」キーを表示し、ユーザがこれを操作すれば操作案内を提供し、操作されなければ操作案内は行わないようにする。操作案内は、操作判定部6が保持するこれまでの操作履歴や、アプリ制御部7が保持する現在動作中のアプリケーション(以下、アプリとする)に関する情報などに基づいて、適切なメッセージを出して行う。   The operation support unit 5 acquires a determination result as to whether or not the user is confused by the operation from the operation state determination unit 4. When it is detected that the user is confused with the operation, operation guidance is provided to assist the operation. Further, before performing the operation guidance, an operation guidance guidance screen for guiding the user to the operation guidance may be displayed to inquire whether the operation guidance is necessary. For example, a “help” key is displayed, and operation guidance is provided if the user operates it, and operation guidance is not performed if the user does not operate it. The operation guidance outputs an appropriate message based on the operation history so far held by the operation determination unit 6 and information on the currently operating application (hereinafter referred to as an application) held by the application control unit 7. Do.

操作判定部6は、検知信号解析部2から取得した操作情報に基づき、ユーザが行った操作を操作履歴として保持するとともに、操作に応じた指示をアプリ制御部7に出力する。
アプリ制御部7は、操作判定部6から取得した指示に基づき、指示されたアプリの開始や終了処理、アプリの動作状態の変更などのアプリ制御処理を行う。情報処理装置には、所定の機能を実現するためのアプリが複数搭載されており、ユーザは任意のアプリを起動して動作させることができる。アプリ制御部7は、動作中のアプリに関するアプリ情報も保持している。
The operation determination unit 6 holds the operation performed by the user as an operation history based on the operation information acquired from the detection signal analysis unit 2 and outputs an instruction corresponding to the operation to the application control unit 7.
Based on the instruction acquired from the operation determination unit 6, the application control unit 7 performs application control processing such as start and end processing of the instructed application and change of the operation state of the application. The information processing apparatus is equipped with a plurality of applications for realizing a predetermined function, and the user can activate and operate an arbitrary application. The application control unit 7 also holds application information related to the running application.

このように、第1の実施の形態の情報処理装置では、検知部1をなすタッチ検知部1a、カメラ撮影部1b、角速度検知部1c及び音声検知部1dが、ユーザの動きや様子を検知する。例えば、操作に困惑したユーザのタッチ圧やタッチ間隔が短くなったときは、タッチ検知部1aがこれを検出する。ユーザが困惑の表情を浮かべれば、カメラ撮影部1bがこれを捉える。情報処理装置を振ったりたたいたりすれば、角速度検知部1cがこれを検知する。そして、困惑を表す言葉を発したり、声が大きくなったりすれば音声検知部1dが検知する。このように、ユーザが操作に困惑したときに行うと想定される動作や様子を検知部1により検知する。検知信号解析部2は、検知部1から取得したそれぞれの検知信号を解析し、ユーザが操作中であるか否かを判定するとともに、操作中であれば、そのときのユーザ操作状態を検出する。タッチ検知部1aの検知信号からタッチ位置とタッチ圧、カメラ撮影部1bの検知信号からユーザの表情の種別、角速度検知部1cの検知信号から情報処理装置に加わった衝撃の大きさ、音声検知部1dの検知信号からユーザの発した言葉と音量をそれぞれユーザ操作状態として検出する。検出したユーザ操作状態は、操作状態判定部4に出力する。操作状態判定部4は、検出されたユーザ操作状態と、記憶部3に記憶される困惑状態情報3aに設定されるユーザが操作に困惑したと想定される状態とを照合し、ユーザが操作に困惑しているか否かを判定する。操作支援部5は、ユーザが操作に困惑していると判定されたとき、ユーザに対して操作支援を行う。   As described above, in the information processing apparatus according to the first embodiment, the touch detection unit 1a, the camera photographing unit 1b, the angular velocity detection unit 1c, and the voice detection unit 1d that form the detection unit 1 detect the movement and state of the user. . For example, when the touch pressure or the touch interval of the user who is troubled by the operation is shortened, the touch detection unit 1a detects this. If the user has a confused expression, the camera photographing unit 1b catches this. If the information processing apparatus is shaken, the angular velocity detection unit 1c detects this. And if the word which expresses confusion or a voice becomes loud, the audio | voice detection part 1d will detect. As described above, the detection unit 1 detects an operation or a state assumed to be performed when the user is confused by the operation. The detection signal analysis unit 2 analyzes each detection signal acquired from the detection unit 1 to determine whether or not the user is operating, and if the user is operating, detects the user operation state at that time. . Touch position and pressure from the detection signal of the touch detection unit 1a, type of facial expression of the user from the detection signal of the camera photographing unit 1b, magnitude of impact applied to the information processing device from the detection signal of the angular velocity detection unit 1c, and voice detection unit The words and the volume produced by the user are detected as user operation states from the 1d detection signal. The detected user operation state is output to the operation state determination unit 4. The operation state determination unit 4 collates the detected user operation state with the state assumed to be confused by the user set in the confusion state information 3a stored in the storage unit 3, and the user performs the operation. Determine if you are confused. The operation support unit 5 provides operation support to the user when it is determined that the user is confused about the operation.

このように、第1の実施の形態の情報処理装置では、操作履歴を用いた方法では「キー操作」という通常状態でも発生する動作に基づき判定を行わなければならないのに対し、操作に困惑している状態という通常状態とは異なるユーザ操作状態を検知して判定する。これにより、ユーザが操作に困惑している状態をいち早く検知し、かつ検知の確度を上げることができる。したがって、ユーザが困惑しながら操作を繰り返さなくても、より早いタイミングで適切な操作支援を行うことが可能となる。   As described above, in the information processing apparatus according to the first embodiment, in the method using the operation history, the determination must be performed based on the operation that occurs even in the normal state of “key operation”. It is determined by detecting a user operation state that is different from the normal state. Thereby, it is possible to quickly detect a state in which the user is troubled by the operation, and to increase the detection accuracy. Therefore, it is possible to perform appropriate operation support at an earlier timing without repeating the operation while the user is confused.

[第2の実施の形態]
次に、第2の実施の形態として、第1の実施の形態の情報処理装置を携帯電話機に適用した場合について説明する。図2は、第2の実施の形態の携帯電話機の構成の一例を示す図である。
[Second Embodiment]
Next, a case where the information processing apparatus according to the first embodiment is applied to a mobile phone will be described as a second embodiment. FIG. 2 is a diagram illustrating an example of the configuration of the mobile phone according to the second embodiment.

携帯電話機100は、タッチパネル対応ディスプレイ101、近接センサ102、照度センサ103、受話口104、インカメラ105、ワンセグ・FMトランスミッタアンテナ106、ジャイロ・加速度センサ107及び送話口108を有する。   The mobile phone 100 includes a touch panel compatible display 101, a proximity sensor 102, an illuminance sensor 103, an earpiece 104, an in-camera 105, a one-segment FM transmitter antenna 106, a gyro / acceleration sensor 107, and a mouthpiece 108.

タッチパネル対応ディスプレイ101は、タッチパネルとしての機能を兼ね備えたディスプレイである。ディスプレイとして、起動されたアプリに応じて動画や静止画を表示する。また、タッチパネルとして、所定の領域にタッチ用のキーを表示するとともに、ユーザが押したタッチ位置とタッチ圧とを検出する、タッチ検知部1aの一形態である。近接センサ102は、物体が近接したことを検知し、照度センサ103は、周囲の明るさを検知する。受話口104は、電話として動作するとき、相手の音声を再生する。インカメラ105は、ユーザ側の撮影を行うカメラであり、カメラ撮影部1bの一形態である。ワンセグ・FMトランスミッタアンテナ106は、放送信号を受信するアンテナである。ジャイロ・加速度センサ107は、角速度に加え加速度を検知するセンサであり、携帯電話機100の動き、すなわち、ユーザが携帯電話機100に動かしたことを検知する、角速度検知部1cの一形態である。送話口108は、ユーザの音声を入力する、音声検知部1dの一形態である。   The touch panel compatible display 101 is a display having a function as a touch panel. As a display, a moving image or a still image is displayed according to the activated application. Moreover, it is one form of the touch detection part 1a which detects the touch position and touch pressure which the user pressed while displaying the key for a touch in a predetermined area | region as a touch panel. The proximity sensor 102 detects that an object has approached, and the illuminance sensor 103 detects ambient brightness. When the earpiece 104 operates as a telephone, it reproduces the other party's voice. The in-camera 105 is a camera that performs shooting on the user side, and is a form of the camera shooting unit 1b. The one-segment FM transmitter antenna 106 is an antenna that receives broadcast signals. The gyro / acceleration sensor 107 is a sensor that detects acceleration in addition to angular velocity, and is a form of the angular velocity detector 1 c that detects the movement of the mobile phone 100, that is, the movement of the user to the mobile phone 100. The mouthpiece 108 is one form of a voice detection unit 1d that inputs a user's voice.

このように、携帯電話機100は、第1の実施の形態の検知部1を構成するタッチ検知部1a、カメラ撮影部1b、角速度検知部1c及び音声検知部1dに対応するセンサを備える。なお、インカメラ105及び送話口108も画像及び音声を検知するセンサとして位置付ける。   As described above, the mobile phone 100 includes sensors corresponding to the touch detection unit 1a, the camera photographing unit 1b, the angular velocity detection unit 1c, and the voice detection unit 1d that constitute the detection unit 1 of the first embodiment. The in-camera 105 and the mouthpiece 108 are also positioned as sensors for detecting images and sounds.

次に、携帯電話機100のハードウェア構成について図3を用いて説明する。図3は、第2の実施の形態の携帯電話機のハードウェア構成の一例を示す図である。図2と同じものには同じ番号を付し、説明は省略する。   Next, the hardware configuration of the mobile phone 100 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a hardware configuration of the mobile phone according to the second embodiment. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.

携帯電話機100は、制御部110と、ディスプレイ101a、タッチパネル101b、近接センサ102、照度センサ103、受話口104、インカメラ105、ワンセグ・FMトランスミッタアンテナ106、ジャイロ・加速度センサ107及び送話口108を備える。なお、図3では、図2に示したタッチパネル対応ディスプレイ101を便宜的にディスプレイ101aとタッチパネル101bとに分けている。   The cellular phone 100 includes a control unit 110, a display 101a, a touch panel 101b, a proximity sensor 102, an illuminance sensor 103, an earpiece 104, an in-camera 105, a one-segment FM transmitter antenna 106, a gyro / acceleration sensor 107, and a mouthpiece 108. Prepare. In FIG. 3, the touch panel compatible display 101 shown in FIG. 2 is divided into a display 101a and a touch panel 101b for convenience.

制御部110は、携帯電話機100を統括的に制御する。制御部110は、CPU(Central Processing Unit)111によって全体が制御されている。CPU111には、バス116を介してROM(Read Only Memory)112と、RAM(Random Access Memory)113と、通信インタフェース114及び入出力インタフェース115が接続されている。   The control unit 110 comprehensively controls the mobile phone 100. The control unit 110 is entirely controlled by a CPU (Central Processing Unit) 111. A ROM (Read Only Memory) 112, a RAM (Random Access Memory) 113, a communication interface 114, and an input / output interface 115 are connected to the CPU 111 via a bus 116.

ROM112は、制御部110の電源遮断時においても記憶内容を保持する。ROM112は、たとえば、EEPROM(Electrically Erasable Programmable Read-Only Memory)やフラッシュメモリなどの半導体記憶装置や、HDD(Hard Disk Drive)などである。また、ROM112は、制御部110の補助記憶装置として使用される。ROM112には、OS(Operating System)のプログラムやファームウェア、アプリケーションプログラム、および各種データが格納される。   The ROM 112 retains the stored contents even when the control unit 110 is powered off. The ROM 112 is, for example, a semiconductor storage device such as an EEPROM (Electrically Erasable Programmable Read-Only Memory) or a flash memory, an HDD (Hard Disk Drive), or the like. The ROM 112 is used as an auxiliary storage device for the control unit 110. The ROM 112 stores an OS (Operating System) program, firmware, application programs, and various data.

RAM113は、制御部110の主記憶装置として使用される。RAM113には、CPU111に実行させるOSのプログラムやファームウェア、アプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM113には、CPU111による処理に必要な各種データが格納される。また、RAM113は、各種データの格納に用いるメモリと別体にキャッシュメモリを含むものであってもよい。   The RAM 113 is used as a main storage device of the control unit 110. The RAM 113 temporarily stores at least a part of an OS program, firmware, and application programs to be executed by the CPU 111. The RAM 113 stores various data necessary for processing by the CPU 111. The RAM 113 may include a cache memory separately from a memory used for storing various data.

通信インタフェース114は、ネットワーク200に接続し、ネットワーク200を経由して外部装置との間で情報を交換する。
入出力インタフェース115は、ディスプレイ101a、タッチパネル101b、近接センサ102、照度センサ103、受話口104、インカメラ105、ワンセグ・FMトランスミッタアンテナ106、ジャイロ・加速度センサ107及び送話口108と接続し、これらの各部からの入力信号をバス116経由で制御部110内に取り込む。また、CPU111に従って、各部へ出力信号を出力する。
The communication interface 114 is connected to the network 200 and exchanges information with an external device via the network 200.
The input / output interface 115 is connected to the display 101a, the touch panel 101b, the proximity sensor 102, the illuminance sensor 103, the earpiece 104, the in-camera 105, the one-segment / FM transmitter antenna 106, the gyro / acceleration sensor 107, and the mouthpiece 108. The input signals from these units are taken into the control unit 110 via the bus 116. Moreover, according to CPU111, an output signal is output to each part.

以上のようなハードウェア構成によって、第2の実施形態の携帯電話機100の処理機能を実現することができる。
次に、携帯電話機100が有する機能について図4を用いて説明する。図4は、第2の実施の形態の携帯電話機の機能構成の一例を示す図である。なお、図4では、操作支援に関係しない機能部の図示は省略している。
With the hardware configuration described above, the processing functions of the mobile phone 100 of the second embodiment can be realized.
Next, functions of the mobile phone 100 will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a functional configuration of the mobile phone according to the second embodiment. In FIG. 4, illustration of functional units not related to operation support is omitted.

携帯電話機100は、検知部10、検知信号解析部20、記憶部30、操作不慣れ判定部40及びユーザサポート実施部50を有する。操作不慣れ判定部40は、操作状態判定部4の一形態である。なお、以下の説明では、操作は、ユーザがタッチパネル101bに有効なタッチを行ったときに開始されるとする。   The mobile phone 100 includes a detection unit 10, a detection signal analysis unit 20, a storage unit 30, an operation unfamiliarity determination unit 40, and a user support implementation unit 50. The operation unfamiliarity determination unit 40 is one form of the operation state determination unit 4. In the following description, it is assumed that the operation is started when the user performs an effective touch on the touch panel 101b.

検知部10は、ユーザの動きや様子を検知するため、タッチパネル101b、インカメラ105、ジャイロ・加速度センサ107及び送話口108を備える。タッチパネル101bは、ユーザが指などによって押圧したタッチ位置とタッチ圧とに応じた検知信号を生成する。インカメラ105は、ユーザ側の撮影を行うカメラで、ユーザの顔を撮影した画像信号を生成する。ジャイロ・加速度センサ107は、携帯電話機100に加わった加速度及び角速度に応じた検知信号を生成する。送話口108は、ユーザの声を検知し、音声信号を生成する。検知部10の各センサの検知信号は、検知信号解析部20の対応する解析部に出力される。タッチパネル101bの検知信号は、タッチ操作解析部21に出力される。インカメラ105の画像信号は、ユーザ表情解析部22に出力される。ジャイロ・加速度センサ107の検知信号は、衝撃解析部23に出力される。送話口108の音声信号は、音声解析部24に出力される。検知部10の各部は、所定の周期、近接センサ102がユーザの接近を検知したとき、あるいはタッチパネル101bが有効なタッチを検知したときなどのタイミングで起動する。そして、少なくとも携帯電話機100の動作状態が操作中の間は、ユーザの動きや様子が検知可能な状態にある。なお、常時検知可能な状態にあるとすることもできる。   The detection unit 10 includes a touch panel 101b, an in-camera 105, a gyro / acceleration sensor 107, and a mouthpiece 108 in order to detect a user's movement and appearance. The touch panel 101b generates a detection signal corresponding to the touch position and the touch pressure pressed by the user with a finger or the like. The in-camera 105 is a camera that performs shooting on the user side, and generates an image signal obtained by shooting the user's face. The gyro / acceleration sensor 107 generates a detection signal corresponding to the acceleration and angular velocity applied to the mobile phone 100. The mouthpiece 108 detects a user's voice and generates an audio signal. The detection signal of each sensor of the detection unit 10 is output to a corresponding analysis unit of the detection signal analysis unit 20. The detection signal of the touch panel 101b is output to the touch operation analysis unit 21. The image signal of the in-camera 105 is output to the user facial expression analysis unit 22. The detection signal of the gyro / acceleration sensor 107 is output to the impact analysis unit 23. The voice signal from the mouthpiece 108 is output to the voice analysis unit 24. Each unit of the detection unit 10 is activated at a predetermined cycle, for example, when the proximity sensor 102 detects the approach of the user or when the touch panel 101b detects a valid touch. And at least while the operation state of the mobile phone 100 is being operated, the user's movement and state can be detected. In addition, it can also be in the state which can always be detected.

検知信号解析部20は、ユーザが操作中に検知された検知信号を解析してユーザ操作状態を検出し、検出したユーザ操作状態を操作不慣れ判定部40に出力する。タッチ操作解析部21、ユーザ表情解析部22、衝撃解析部23及び音声解析部24を有し、それぞれ検知信号からユーザ操作状態を検出する。それぞれ検知の対象が異なっており、少なくとも1つのセンサがユーザの動作や様子を検知し、対応する検知信号解析部20の各部がその検知信号を解析する。タッチ操作解析部21は、タッチパネル101bから取得した検知信号を解析し、ユーザが押圧したタッチ位置とタッチ圧とを検出する。タッチ位置が所定の領域内に含まれ、タッチ圧が一定値以上であるとき、有効なタッチであると判定する。そして、現在の携帯電話機100の状態が操作中であれば、操作中を継続させる。操作中でなければ、操作が開始されたとして携帯電話機100の動作状態を操作中にする。検出したタッチ位置とタッチ圧とは、ユーザ操作判定部41と、タッチ圧判定部42に出力する。ユーザ表情解析部22は、インカメラ105から取得した画像信号を解析し、ユーザの表情の種別を検出する。表情の種別の検出は、例えば、顔構成要素である眉、目、口の特徴点の座標変化に基づく方法などが知られているが、実施の形態ではこれら公知の方法を用いるとする。なお、ユーザ表情解析部22では、困惑時に表れると想定される表情の特徴に基づき、該当するかどうかのみを判定するとしてもよい。検出された表情の種別あるいは、困惑の表情であるか否かの判定結果は、ユーザ表情判定部43に出力する。衝撃解析部23は、ジャイロ・加速度センサ107から取得した検知信号を解析し、携帯電話機100に加わった加速度あるいは角速度に応じた衝撃の大きさを検出する。検出した衝撃の大きさは、衝撃操作判定部44に出力する。音声解析部24は、送話口108から取得した音声信号を解析し、ユーザが発した言葉と、声の大きさとを検出する。ユーザが発した言葉は、よく知られている音声認識処理を用いて検出する。また、ため息など語として認識できない音声は、例えば、感嘆詞として分類しておくとしてもよい。検出した言葉と音量は、音声キーワード判定部45と音量判定部46に出力する。   The detection signal analysis unit 20 analyzes a detection signal detected during operation by the user to detect the user operation state, and outputs the detected user operation state to the operation unfamiliarity determination unit 40. The touch operation analysis unit 21, the user facial expression analysis unit 22, the impact analysis unit 23, and the voice analysis unit 24 each detect a user operation state from a detection signal. The detection targets are different from each other, and at least one sensor detects a user's operation and state, and each unit of the corresponding detection signal analysis unit 20 analyzes the detection signal. The touch operation analysis unit 21 analyzes the detection signal acquired from the touch panel 101b, and detects the touch position and the touch pressure pressed by the user. When the touch position is included in a predetermined area and the touch pressure is a certain value or more, it is determined that the touch is valid. If the current state of the mobile phone 100 is in operation, the operation is continued. If the operation is not in progress, the operation state of the mobile phone 100 is set to the operation state because the operation is started. The detected touch position and touch pressure are output to the user operation determination unit 41 and the touch pressure determination unit 42. The user facial expression analysis unit 22 analyzes the image signal acquired from the in-camera 105 and detects the type of user facial expression. For example, a method based on coordinate changes of feature points of eyebrows, eyes, and mouth, which are facial components, is known for detection of the type of facial expression. In the embodiment, these known methods are used. Note that the user facial expression analysis unit 22 may determine only whether or not the facial expression is assumed based on the facial expression characteristic that is expected to appear in the confusion. The type of the detected facial expression or the determination result of whether or not it is a confused facial expression is output to the user facial expression determination unit 43. The impact analysis unit 23 analyzes the detection signal acquired from the gyro / acceleration sensor 107 and detects the magnitude of impact according to the acceleration or angular velocity applied to the mobile phone 100. The magnitude of the detected impact is output to the impact operation determination unit 44. The voice analysis unit 24 analyzes the voice signal acquired from the mouthpiece 108, and detects the words uttered by the user and the volume of the voice. The words uttered by the user are detected using a well-known voice recognition process. In addition, speech that cannot be recognized as a word such as sigh may be classified as an exclamation, for example. The detected word and volume are output to the voice keyword determination unit 45 and the volume determination unit 46.

記憶部30は、操作履歴情報31、タッチ圧情報32、ユーザ表情情報33、衝撃操作情報34、音声キーワード情報35及び音量情報36を記憶領域に格納する。これらの各情報は、困惑状態情報3aの一例であり、操作不慣れ判定部40の各部に対応して用意される。それぞれについて説明する。   The storage unit 30 stores operation history information 31, touch pressure information 32, user facial expression information 33, impact operation information 34, voice keyword information 35, and volume information 36 in a storage area. Each of these pieces of information is an example of the puzzle state information 3a, and is prepared corresponding to each unit of the operation unfamiliarity determination unit 40. Each will be described.

操作履歴情報31は、ユーザ操作判定部41に対応して記憶部30に格納される情報であり、ユーザの操作の履歴から操作不慣れによる困惑を検出するために参照される。図5は、第2の実施の形態の操作履歴情報の一例を示す図である。操作履歴テーブル310には、ユーザが操作に困惑しているときによく行われる操作が「操作不慣れと判定する操作」として設定されている。例えば、次の操作がわからないため操作を中断する「長時間放置」がある。また、操作がうろ覚え、あるいは、操作を誤って覚えているため同じ操作を繰り返す「操作繰り返し」、操作がわからないため最初の設定画面に頻繁に戻る「設定画面の高頻度呼び出し」といった操作が設定されている。   The operation history information 31 is information stored in the storage unit 30 corresponding to the user operation determination unit 41, and is referred to in order to detect confusion due to unfamiliar operation from the user operation history. FIG. 5 is a diagram illustrating an example of operation history information according to the second embodiment. In the operation history table 310, an operation that is often performed when the user is confused about the operation is set as an “operation for determining that the user is unfamiliar with the operation”. For example, there is “long-time leaving” in which an operation is interrupted because the next operation is unknown. In addition, operations such as “Repeat operation” that repeats the same operation because the operation is remembered or mistakenly remembered, and “Frequent call of setting screen” that returns frequently to the first setting screen because the operation is unknown are set. ing.

タッチ圧情報32は、タッチ圧判定部42に対応して記憶部30に格納される情報であり、タッチ圧からユーザが操作に困惑していることを検出するために参照される。ユーザが操作に困惑しているとき、イライラしてタッチパネル1bをタッチする力が大きくなることがある。タッチ圧情報32には、ユーザが操作に困惑しているか否かを判定するための閾値が登録されている。なお、ユーザが操作に困惑していると推定されるタッチ圧の大きさを閾値として予め設定しておくとしてもよいが、測定値に基づいて設定することもできる。例えば、初期設定時あるいは所定のタイミングで通常時のタッチ圧を測定し、測定されたタッチ圧からユーザが操作に困惑していることを検出するための閾値を求め、設定しておく。なお、ここではタッチ圧で検出するとしたが、タッチ圧ばかりでなく、ユーザが操作に困惑しているときのタッチ位置や、タッチ間隔などが設定されていてもよい。   The touch pressure information 32 is information stored in the storage unit 30 corresponding to the touch pressure determination unit 42, and is referred to in order to detect that the user is confused by the operation from the touch pressure. When the user is confused about the operation, the force to touch the touch panel 1b may become frustrated. In the touch pressure information 32, a threshold value for determining whether or not the user is confused about the operation is registered. In addition, although the magnitude | size of the touch pressure estimated that the user is confused with operation may be preset as a threshold value, it can also be set based on a measured value. For example, the normal touch pressure is measured at the initial setting or at a predetermined timing, and a threshold value for detecting that the user is troubled by the operation is obtained and set from the measured touch pressure. Although the detection is performed using the touch pressure here, not only the touch pressure but also a touch position when the user is confused about the operation, a touch interval, and the like may be set.

ユーザ表情情報33は、ユーザ表情判定部43に対応して記憶部30に格納される情報であり、ユーザの困惑の表情を検出するために参照される。図6は、第2の実施の形態のユーザ表情情報の一例を示す図である。ユーザ表情テーブル330には、操作不慣れによってユーザが困惑しているときに多い表情の種別が「操作不慣れと判定する表情」として設定されている。図6の例では、操作に困惑している状態では、ユーザは「怒り」や「哀しみ」の表情となることが設定されている。   The user facial expression information 33 is information stored in the storage unit 30 corresponding to the user facial expression determination unit 43, and is referred to in order to detect a user's confused facial expression. FIG. 6 is a diagram illustrating an example of user facial expression information according to the second embodiment. In the user facial expression table 330, the type of facial expression that is often used when the user is confused by the inexperienced operation is set as “an expression that is determined to be inexperienced in the operation”. In the example of FIG. 6, it is set that the user becomes an expression of “anger” or “sadness” in a state where the operation is confused.

衝撃操作情報34は、衝撃操作判定部44に対応して記憶部30に格納される情報であり、ユーザが携帯電話機100に加えた衝撃の大きさを検出するために参照される設定情報である。ユーザが操作不慣れによって困惑しているとき、イライラして携帯電話機100を振ったり、たたいたりすることがあり、その際、携帯電話機100は通常の使用状態よりも大きく動く。衝撃操作情報34には、携帯電話機100に衝撃が加えられて動いたとき、その衝撃が、ユーザが操作に困惑していることによるのか否かの判定に用いる閾値が設定されている。なお、ユーザが操作に困惑していると推定される衝撃の大きさ(角速度と加速度)を閾値として予め設定しておいてもよいが、測定値に基づいて設定することもできる。例えば、初期設定時あるいは所定のタイミングで通常の使用時に検出される角速度や加速度を測定し、測定された値からユーザが困惑状態にあることを検出するための閾値を求め、設定しておく。   The impact operation information 34 is information stored in the storage unit 30 corresponding to the impact operation determination unit 44, and is setting information that is referred to in order to detect the magnitude of the impact applied to the mobile phone 100 by the user. . When the user is confused by the unfamiliar operation, the mobile phone 100 may be frustrated and hit or hit, and at that time, the mobile phone 100 moves more than the normal use state. In the impact operation information 34, when the mobile phone 100 is moved with an impact, a threshold value used for determining whether or not the impact is caused by the user being confused by the operation is set. Note that the magnitude of impact (angular velocity and acceleration) that is estimated to be confused by the user may be set in advance as a threshold value, but may be set based on measured values. For example, the angular velocity and acceleration detected at the time of initial setting or normal use at a predetermined timing are measured, and a threshold value for detecting that the user is in a confused state is obtained from the measured value and set.

音声キーワード情報35は、音声キーワード判定部45に対応して記憶部30に格納される情報であり、ユーザが操作に困惑しているときの言葉を検出するために参照される。図7は、第2の実施の形態の音声キーワード情報の一例を示す図である。音声キーワードテーブル350は、ユーザが操作に困惑しているときによく口にする言葉が「操作不慣れと判定する音声キーワード」として設定されている。例えば、操作がわからないときや、携帯電話機100が期待通りに動作しないとき、「解らない」、「使い辛い」、「壊れた」といった音声キーワードを検出することが設定されている。   The voice keyword information 35 is information stored in the storage unit 30 corresponding to the voice keyword determination unit 45, and is referred to in order to detect words when the user is confused about the operation. FIG. 7 is a diagram illustrating an example of voice keyword information according to the second embodiment. In the speech keyword table 350, words often spoken when the user is confused about the operation are set as “speech keywords determined to be unfamiliar with the operation”. For example, when the operation is not known or when the mobile phone 100 does not operate as expected, it is set to detect a voice keyword such as “I don't understand”, “Unusable”, “Broken”.

音量情報36は、音量判定部46に対応して記憶部30に格納される情報であり、ユーザが困惑し、大きな声をあげたことを検出するために参照される。ユーザが操作に困惑しているとき、奇声をあげたり、叫んだりして声の音量が通常状態よりも大きくなることがある。音量情報36には、ユーザが操作に困惑しているか否かの判定に用いる閾値が設定されている。なお、閾値は予め設定しておくほか、例えば、初期設定時あるいは所定のタイミングで通常の使用時に検出されるユーザの音量を測定し、測定された音量値からユーザが困惑状態にあることを検出するための閾値を求め、設定しておいてもよい。   The volume information 36 is information stored in the storage unit 30 corresponding to the volume determination unit 46, and is referred to in order to detect that the user is confused and makes a loud voice. When the user is confused by the operation, the volume of the voice may be higher than the normal state by making a strange voice or yelling. In the volume information 36, a threshold value used for determining whether or not the user is confused about the operation is set. In addition to setting the threshold in advance, for example, the user's volume detected during normal use at the initial setting or at a predetermined timing is measured, and the user is in a confused state from the measured volume value. A threshold value for this may be obtained and set.

なお、タッチ圧、角速度、加速度、音量などの閾値は、記憶部30に格納するのではなく、予めプログラムに組み込んでおくとしてもよい。
図4に戻って説明する。
Note that threshold values such as touch pressure, angular velocity, acceleration, and volume may not be stored in the storage unit 30, but may be incorporated in the program in advance.
Returning to FIG.

操作不慣れ判定部40は、ユーザ操作判定部41、タッチ圧判定部42、ユーザ表情判定部43、衝撃操作判定部44、音声キーワード判定部45及び音量判定部46を有する。検知信号解析部20が検出したユーザ操作状態と、記憶部30に格納される困惑状態情報3aと、に基づき、ユーザが不慣れな操作に困惑しているか否かを判定する。判定結果は、ユーザサポート実施部50に出力する。   The operation unfamiliarity determination unit 40 includes a user operation determination unit 41, a touch pressure determination unit 42, a user facial expression determination unit 43, an impact operation determination unit 44, a voice keyword determination unit 45, and a volume determination unit 46. Based on the user operation state detected by the detection signal analysis unit 20 and the trouble state information 3a stored in the storage unit 30, it is determined whether or not the user is troubled by an unfamiliar operation. The determination result is output to the user support execution unit 50.

ユーザ操作判定部41は、タッチ操作解析部21が検出したタッチ位置及びタッチ圧に基づき、有効な操作であるかどうかを判定する。有効な操作であれば、「操作中」を設定するとともに、タッチ位置に対応する操作を特定し、この操作を操作履歴に保存しておく。得られた操作履歴を記憶部30に格納される操作履歴情報31と照合する。一致するものがあれば、ユーザが不慣れな操作に困惑していると判定する。一致するものがなければ、困惑していないと判定する。また、所定の機能の動作に必要な一連の操作入力が終了した時点で「操作中」を解除し、対応する機能を実現するアプリを実行させる。また、タッチパネル101b以外の箇所に操作ボタンが配置されている装置では、このような操作ボタンが操作されたときも有効な操作と見なし、「操作中」とする。   The user operation determination unit 41 determines whether the operation is an effective operation based on the touch position and the touch pressure detected by the touch operation analysis unit 21. If the operation is valid, “in operation” is set, an operation corresponding to the touch position is specified, and the operation is stored in the operation history. The obtained operation history is collated with the operation history information 31 stored in the storage unit 30. If there is a match, it is determined that the user is confused by an unfamiliar operation. If there is no match, it is determined that the user is not confused. Further, when a series of operation inputs necessary for the operation of a predetermined function is completed, “in operation” is canceled, and an application that realizes the corresponding function is executed. In addition, in an apparatus in which operation buttons are arranged at locations other than the touch panel 101b, it is regarded as an effective operation when such an operation button is operated, and is “in operation”.

なお、ユーザ操作判定部41は、操作不慣れ判定部40の他の判定部と異なり、ユーザが操作を繰り返した後でなければ操作に困惑していることを検出することができない。しかしながら、操作に困惑しているものの他の判定部で検出されるような動作や様子をユーザが行わない場合も考えられる。携帯電話機100では、このような場合にも、ユーザ操作判定部41によってユーザが操作に困惑していることを検出できる。   Note that, unlike the other determination units of the operation unfamiliarity determination unit 40, the user operation determination unit 41 cannot detect that the user is confused by the operation until the user repeats the operation. However, there may be a case where the user does not perform an operation or a state that is detected by another determination unit that is troubled by the operation. In such a case, the mobile phone 100 can detect that the user is confused by the operation by the user operation determination unit 41.

タッチ圧判定部42は、「操作中」であれば、タッチ操作解析部21が検出したタッチ位置及びタッチ圧を記憶部30に格納されるタッチ圧情報32の閾値と比較する。検出されたタッチ圧が閾値を超えていれば、ユーザが不慣れな操作に困惑していると判定する。閾値を超えていなければ、困惑していないと判定する。なお、タッチ圧の閾値に加え、タッチ圧情報32にタッチ位置やタッチ間隔の閾値が設定され、タッチ操作解析部21からタッチ間隔が得られるときは、これも判定に用いることができる。例えば、タッチ位置が操作キーの表示領域ではないとき、あるいは、タッチ間隔が短いとき、ユーザはイライラしているとし、この状態を困惑の判定に用いる。このように、操作に困って通常状態より強くタッチするなど、通常時と異なるタッチ操作が行われたときは、タッチ圧判定部42によってユーザが操作に困惑していることを検出できる。   If it is “in operation”, the touch pressure determination unit 42 compares the touch position and the touch pressure detected by the touch operation analysis unit 21 with the threshold value of the touch pressure information 32 stored in the storage unit 30. If the detected touch pressure exceeds the threshold value, it is determined that the user is confused by an unfamiliar operation. If the threshold is not exceeded, it is determined that the user is not confused. In addition to the threshold value of the touch pressure, when the threshold value of the touch position or the touch interval is set in the touch pressure information 32 and the touch interval is obtained from the touch operation analysis unit 21, this can also be used for the determination. For example, when the touch position is not the operation key display area or when the touch interval is short, it is assumed that the user is frustrated, and this state is used for determination of confusion. As described above, when a touch operation different from the normal operation is performed, such as when the user is troubled by the operation and touches more strongly than the normal state, the touch pressure determination unit 42 can detect that the user is troubled by the operation.

ユーザ表情判定部43は、「操作中」であれば、ユーザ表情解析部22が検出したユーザの表情を記憶部30に格納されるユーザ表情情報33の設定と照合する。一致する表情があれば、ユーザが不慣れな操作に困惑していると判定する。一致する表情がなければ、困惑していないと判定する。なお、ユーザ表情解析部22においてユーザが操作に困惑している表情であるか否かを検出していたときは、照合は行わず、結果を利用するとしてもよい。このように、操作に困ってユーザの表情が険しくなるなど、通常状態とは異なる困惑の表情となったときは、ユーザ表情判定部43によってユーザが操作に困惑していることを検出できる。   If it is “in operation”, the user facial expression determination unit 43 collates the user facial expression detected by the user facial expression analysis unit 22 with the setting of the user facial expression information 33 stored in the storage unit 30. If there is a matching facial expression, it is determined that the user is confused by an unfamiliar operation. If there is no matching facial expression, it is determined that the user is not confused. Note that when the user facial expression analysis unit 22 detects whether or not the facial expression is confused by the user, the result may be used without matching. In this way, when the user's facial expression becomes confused, such as when the user's facial expression becomes steep due to the operation, the user facial expression determination unit 43 can detect that the user is confused by the operation.

衝撃操作判定部44は、「操作中」であれば、衝撃解析部23が検出した携帯電話機100が外部から加わった力によって動いたときの加速度及び角速度を、記憶部30に格納される衝撃操作情報34の閾値と比較する。検出された加速度あるいは角速度が閾値を超えていれば、ユーザが不慣れな操作に困惑していると判定する。閾値を超えていなければ、困惑していないと判定する。このように、操作に困っているユーザがイライラして携帯電話機100をたたいたり振ったりして通常状態では生じないような衝撃が携帯電話機100に加えられたときは、衝撃操作判定部44によってユーザが操作に困惑していることを検出できる。   If the impact operation determination unit 44 is “in operation”, the impact operation stored in the storage unit 30 is the acceleration and angular velocity when the mobile phone 100 detected by the impact analysis unit 23 is moved by the force applied from the outside. Compare with the threshold value of information 34. If the detected acceleration or angular velocity exceeds the threshold, it is determined that the user is confused by an unfamiliar operation. If the threshold is not exceeded, it is determined that the user is not confused. In this way, when a user who is troubled by the operation is frustrated and hits or shakes the mobile phone 100 and an impact that does not occur in the normal state is applied to the mobile phone 100, the impact operation determination unit 44 It is possible to detect that the user is confused with the operation.

音声キーワード判定部45は、「操作中」であれば、音声解析部24が検出したユーザの発した言葉を記憶部30に格納される音声キーワード情報35に設定される音声キーワードと照合する。検出されたユーザの言葉の中に音声キーワードが含まれていれば、ユーザが不慣れな操作に困惑していると判定する。音声キーワードが含まれていなければ、困惑していないと判定する。このように、操作に困っているユーザが困惑を表す言葉を発したときは、音声キーワード判定部45によってユーザが操作に困惑していることを検出できる。   If the speech keyword determination unit 45 is “in operation”, the speech utterance detected by the speech analysis unit 24 is collated with the speech keyword set in the speech keyword information 35 stored in the storage unit 30. If the detected keyword of the user includes a voice keyword, it is determined that the user is confused by an unfamiliar operation. If the voice keyword is not included, it is determined that the user is not confused. As described above, when the user who is troubled by the operation utters a word indicating the trouble, the voice keyword determination unit 45 can detect that the user is troubled by the operation.

音量判定部46は、「操作中」であれば、音声解析部24が検出したユーザの声の音量を記憶部30に格納される音量情報36の閾値と比較する。検出された音量が閾値を超えていれば、ユーザが不慣れな操作に困惑していると判定する。閾値を超えていなければ、困惑していないと判定する。このように、操作に困っているユーザがイライラして通常状態より大きな声を出したときは、音量判定部46によってユーザが操作に困惑していることを検出できる。   If the volume determination unit 46 is “in operation”, the volume of the user's voice detected by the voice analysis unit 24 is compared with the threshold value of the volume information 36 stored in the storage unit 30. If the detected volume exceeds the threshold, it is determined that the user is confused by an unfamiliar operation. If the threshold is not exceeded, it is determined that the user is not confused. As described above, when the user who is troubled by the operation is frustrated and makes a louder voice than the normal state, the sound volume determination unit 46 can detect that the user is troubled by the operation.

ユーザサポート実施部50は、操作不慣れ判定部40からユーザが不慣れな操作に困惑しているか否かの判定結果を取得し、ユーザが困惑していると判定されたときは、ユーザの操作をサポートするユーザサポート処理を実施する。ユーザサポート処理では、最初に、ユーザに対してサポートが必要であるかどうかを問い合わせる。例えば、「ヘルプ」キーを画面の一部に表示し、サポートが必要であれば「ヘルプ」を操作するようにメッセージを出す。メッセージは、画面上に表示されても音声で出力されてもよい。そして、ユーザが「ヘルプ」を操作し、サポートを要求したときに、サポート画面を表示する。このように、サポート処理の開始前にサポートの要否を問い合わせることにより、不必要なサポート画面が表示されたときのユーザの不快感をさらに低減することができる。   The user support execution unit 50 obtains a determination result as to whether or not the user is confused by an unfamiliar operation from the operation unfamiliarity determination unit 40, and supports the user's operation when it is determined that the user is confused. Implement user support processing. In the user support process, first, the user is inquired whether support is necessary. For example, a “help” key is displayed on a part of the screen, and a message is issued to operate “help” if support is necessary. The message may be displayed on the screen or output by voice. When the user operates “Help” and requests support, a support screen is displayed. In this way, by making an inquiry about the necessity of support before the start of the support process, it is possible to further reduce the user's discomfort when an unnecessary support screen is displayed.

上記の携帯電話機100では、操作中のユーザが操作に困ったときに観察される通常時とは異なる動作や様子を検知部10の各センサが捉える。検知信号解析部20が検知部10の検知信号を解析し、ユーザが操作を行っているときの動作や様子を含むユーザ操作状態を検出する。操作不慣れ判定部40は、検知信号解析部20が検出したユーザ操作状態と、記憶部30に格納される操作不慣れのユーザが困惑している状態を設定した情報と、を照合し、ユーザが不慣れな操作に困惑しているか否かを判定する。携帯電話機100では、ユーザのタッチ圧、表情、発した言葉、声の大きさや、自装置に加わった衝撃の大きさによって、ユーザが操作に困惑している状態を検出することができる。ユーザが不慣れな操作に困惑していると判定されたときは、ユーザサポート実施部50がサポートの要否を問い合わせるメッセージを提示し、要求されたときはサポートを行う。   In the mobile phone 100 described above, each sensor of the detection unit 10 captures an operation and a state different from the normal time observed when the user who is operating is troubled by the operation. The detection signal analysis unit 20 analyzes the detection signal of the detection unit 10 and detects a user operation state including an operation and a state when the user is performing an operation. The operation unfamiliarity determination unit 40 collates the user operation state detected by the detection signal analysis unit 20 with the information set in the state in which the user unfamiliar with the operation stored in the storage unit 30 is confused, and the user is unfamiliar with it. Whether or not he / she is confused by the correct operation. The mobile phone 100 can detect a state in which the user is confused by the operation based on the user's touch pressure, facial expression, spoken words, loudness of voice, and the magnitude of impact applied to the device. When it is determined that the user is confused by an unfamiliar operation, the user support execution unit 50 presents a message inquiring whether support is necessary, and provides support when requested.

次に、携帯電話機100が実行する操作不慣れ支援処理について図8を用いて説明する。図8は、第2の実施の形態の操作不慣れ支援処理の手順を示すフローチャートである。
操作不慣れ支援処理は、検知部10を構成するタッチパネル101b、ジャイロ・加速度センサ107、送話口108がユーザの動作を検知したとき、あるいはインカメラ105がユーザの顔を撮影したとき、開始される。
Next, the unfamiliar operation support process executed by the mobile phone 100 will be described with reference to FIG. FIG. 8 is a flowchart illustrating a procedure of operation unfamiliarity support processing according to the second embodiment.
The unfamiliar operation support process is started when the touch panel 101b, the gyro / acceleration sensor 107, and the mouthpiece 108 constituting the detection unit 10 detect the user's operation, or when the in-camera 105 captures the user's face. .

[ステップS11]検知信号解析部20は、検知部10が検知した検知信号を解析し、ユーザ操作状態を検出する。タッチ操作解析部21は、タッチパネル101bの検知信号を解析し、少なくともタッチ位置とタッチ圧とを検出する。ユーザ表情解析部22は、インカメラ105の画像信号を解析し、ユーザの表情を検出する。衝撃解析部23は、ジャイロ・加速度センサ107の検知信号を解析し、携帯電話機100に加わった衝撃の大きさを検出する。音声解析部24は、送話口108の音声信号を解析し、ユーザが発した言葉と、声の音量を検出する。各解析部における解析処理は、検知部10から対応する検知信号が得られたときに実行される。   [Step S11] The detection signal analysis unit 20 analyzes the detection signal detected by the detection unit 10 and detects a user operation state. The touch operation analysis unit 21 analyzes a detection signal of the touch panel 101b and detects at least a touch position and a touch pressure. The user facial expression analysis unit 22 analyzes the image signal of the in-camera 105 and detects the user's facial expression. The impact analysis unit 23 analyzes the detection signal of the gyro / acceleration sensor 107 and detects the magnitude of the impact applied to the mobile phone 100. The voice analysis unit 24 analyzes the voice signal of the mouthpiece 108 and detects the words uttered by the user and the volume of the voice. Analysis processing in each analysis unit is executed when a corresponding detection signal is obtained from the detection unit 10.

[ステップS12]操作不慣れ判定部40は、検知信号解析部20が解析したユーザ操作状態が、操作に困惑している状態であるか否かを判定する。操作不慣れ判定処理については、図9を用いて後で説明する。   [Step S12] The operation unfamiliarity determination unit 40 determines whether or not the user operation state analyzed by the detection signal analysis unit 20 is in a state of being confused with the operation. The operation unfamiliarity determination process will be described later with reference to FIG.

[ステップS13]操作不慣れ判定部40は、操作不慣れによってユーザが操作に困惑しているか否かを判定する。ユーザが不慣れな操作に困惑している状態が検出されたときは、ステップS14に進み、不慣れな操作に困惑している状態が検出されなかったときは、処理を終了する。   [Step S13] The operation unfamiliarity determination unit 40 determines whether or not the user is confused by the operation due to the operation unfamiliarity. When a state in which the user is confused by an unfamiliar operation is detected, the process proceeds to step S14. When a state in which the user is confused by an unfamiliar operation is not detected, the process ends.

[ステップS14]ユーザの操作不慣れによる困惑が検出されたとき、ユーザサポート実施部50は、ユーザの操作をサポートするための処理を実行する。ユーザサポート処理については、図10を用いて後で説明する。   [Step S14] When the user's unfamiliarity with the operation is detected, the user support execution unit 50 executes a process for supporting the user's operation. The user support process will be described later with reference to FIG.

次に、操作不慣れ判定処理について、図9を用いて説明する。図9は、第2の実施の形態の操作不慣れ判定処理の手順を示すフローチャートである。操作不慣れ支援処理において、検知信号が解析され、ユーザ操作状態が検出された後に起動される。   Next, the operation unfamiliarity determination process will be described with reference to FIG. FIG. 9 is a flowchart illustrating a procedure of an operation unfamiliarity determination process according to the second embodiment. In the unfamiliar operation support process, the detection signal is analyzed and activated after the user operation state is detected.

[ステップS121]ユーザ操作判定部41は、ユーザの操作履歴を取得し、得られた操作履歴を操作履歴情報31と照合し、ユーザが操作に困惑している状態に該当する操作が検出されるか否かを判定する。該当操作が検出されていればステップS127に進み、検出されていなければステップS122に進む。   [Step S121] The user operation determination unit 41 acquires a user's operation history, compares the obtained operation history with the operation history information 31, and detects an operation corresponding to a state in which the user is confused about the operation. It is determined whether or not. If the operation is detected, the process proceeds to step S127, and if not detected, the process proceeds to step S122.

[ステップS122]タッチ圧判定部42は、検出されたユーザのタッチ圧と、タッチ圧情報32の閾値とを比較し、タッチ圧が閾値を超える該当タッチ圧であるか否かを判定する。タッチ圧が閾値を超えていればステップS127に進み、閾値を超えていなければステップS123に進む。   [Step S122] The touch pressure determination unit 42 compares the detected touch pressure of the user with the threshold value of the touch pressure information 32, and determines whether the touch pressure is a corresponding touch pressure exceeding the threshold value. If the touch pressure exceeds the threshold value, the process proceeds to step S127. If the touch pressure does not exceed the threshold value, the process proceeds to step S123.

[ステップS123]ユーザ表情判定部43は、検出されたユーザの表情をユーザ表情情報33と照合して困惑表情が検出されるか否かを判定する。困惑表情が検出されればステップS127に進み、検出されなければステップS124に進む。   [Step S123] The user facial expression determination unit 43 compares the detected facial expression of the user with the user facial expression information 33 to determine whether or not a confused facial expression is detected. If a confused expression is detected, the process proceeds to step S127, and if not detected, the process proceeds to step S124.

[ステップS124]衝撃操作判定部44は、検出された携帯電話機100が受けた衝撃の大きさ(加速度及び角速度)と、衝撃操作情報34の閾値とを比較し、衝撃の大きさが閾値を超えたか否かを判定する。衝撃の大きさが閾値を超えていればステップS127に進み、閾値を超えていなければステップS125に進む。   [Step S124] The impact operation determination unit 44 compares the detected magnitude (acceleration and angular velocity) of the impact received by the mobile phone 100 with the threshold value of the impact operation information 34, and the magnitude of the impact exceeds the threshold value. It is determined whether or not. If the magnitude of the impact exceeds the threshold value, the process proceeds to step S127, and if not, the process proceeds to step S125.

[ステップS125]音声キーワード判定部45は、検出されたユーザの発した言葉を音声キーワード情報35と照合して、ユーザが操作に困惑しているときに口にすると想定される音声キーワードを発したか否かを判定する。ユーザが音声キーワードを発していればステップS127に進み、発していなければステップS126に進む。   [Step S125] The speech keyword determination unit 45 collates the detected words uttered by the user with the speech keyword information 35 and issues a speech keyword that is assumed to be spoken when the user is confused about the operation. It is determined whether or not. If the user has issued a voice keyword, the process proceeds to step S127, and if not, the process proceeds to step S126.

[ステップS126]音量判定部46は、検出されたユーザの声の音量と、音量情報36の閾値とを比較し、ユーザが大きな声を出したか否かを判定する。音量が閾値を超えていればステップS127に進み、閾値を超えていなければステップS128に進む。   [Step S126] The volume determination unit 46 compares the detected volume of the user's voice with the threshold value of the volume information 36, and determines whether or not the user has produced a loud voice. If the volume exceeds the threshold, the process proceeds to step S127. If the volume does not exceed the threshold, the process proceeds to step S128.

[ステップS127]ユーザが不慣れな操作に困惑していると想定される動作や様子が少なくとも1つ検出されたので、ユーザが不慣れな操作に困惑している状態であると判定する。   [Step S127] Since at least one operation or state assumed to be confused by an unfamiliar operation is detected, it is determined that the user is confused by an unfamiliar operation.

[ステップS128]ユーザが不慣れな操作に困惑していると想定される動作や様子が全く検出されなかったので、ユーザが不慣れな操作に困惑している状態でないと判定する。   [Step S128] Since no operation or state assumed to be confused by an unfamiliar operation is detected, it is determined that the user is not confused by an unfamiliar operation.

なお、上記の操作不慣れ判定処理では、検知信号ごとに判定処理を順次行って、いずれかの判定処理で操作不慣れを検出したときは、それ以降の判定処理を行わないようになっている。しかし、検知信号ごとの判定処理をすべて行った後、それぞれの判定処理で得られた結果の論理和を算出して判定を行うとしてもよい。   In the operation unfamiliarity determination process described above, the determination process is sequentially performed for each detection signal, and when an operation unfamiliarity is detected in any of the determination processes, the subsequent determination process is not performed. However, after all the determination processing for each detection signal is performed, the determination may be performed by calculating the logical sum of the results obtained by the respective determination processing.

次に、ユーザサポート処理について、図10を用いて説明する。図10は、第2の実施の形態のユーザサポート処理の手順を示すフローチャートである。操作不慣れ支援処理において、ユーザの操作不慣れが検出されたときに起動される。   Next, user support processing will be described with reference to FIG. FIG. 10 is a flowchart illustrating a procedure of user support processing according to the second embodiment. In the operation unfamiliarity support process, it is activated when user's operation unfamiliarity is detected.

[ステップS141]ユーザサポート実施部50は、ユーザに対してヘルプ誘導通知を実行し、ユーザに操作をサポートする必要があるか否かを問い合わせる。例えば、操作をサポートするヘルプ処理を起動させる開始ボタンと、サポートが必要であるか否かを問い合わせるメッセージを表示画面に表示する。   [Step S141] The user support execution unit 50 performs a help guidance notification to the user and inquires whether the user needs to support the operation. For example, a start button for starting a help process that supports the operation and a message for inquiring whether support is necessary are displayed on the display screen.

[ステップS142]ユーザサポート実施部50は、ヘルプ誘導通知を受けたユーザがヘルプを要求したか否かを判定する。例えば、開始ボタンが押されたか否かを判定する。ヘルプが要求されれば処理をステップS143に進め、ヘルプが要求されなければヘルプ誘導通知を消し、処理を終了する。   [Step S142] The user support execution unit 50 determines whether the user who has received the help guidance notification has requested help. For example, it is determined whether or not the start button has been pressed. If help is requested, the process proceeds to step S143. If help is not requested, the help guidance notification is deleted, and the process ends.

[ステップS143]ユーザサポート実施部50は、ユーザがヘルプを要求したので、サポート情報を提供する。例えば、表示画面をサポート用の表示画面に切り替え、サポート情報を表示する。   [Step S143] The user support implementation unit 50 provides support information because the user requested help. For example, the display screen is switched to a support display screen and the support information is displayed.

このような携帯電話機100の操作支援処理によれば、ユーザが操作に困惑していると想定される動作や様子が検知されると、ユーザサポート処理が開始される。これらの動作及び様子は、通常状態における動作及び様子とは異なるため、ユーザの操作不慣れによる困惑状態を高い確度で検出することができる。また、困惑した状態のユーザが操作を繰り返し行う前にユーザサポートを行うことができるため、より早くユーザサポート処理を行うことができる。   According to the operation support process of the mobile phone 100 as described above, the user support process is started when an operation or state assumed to be confused by the user is detected. Since these operations and states are different from the operations and states in the normal state, it is possible to detect the troubled state due to the user's unfamiliar operation with high accuracy. Moreover, since the user in a confused state can perform user support before repeatedly performing an operation, user support processing can be performed more quickly.

[第3の実施の形態]
次に、第3の実施の形態として、第2の実施の形態の構成に対象操作状態判定部を設け、ユーザが操作に困惑している状態の検出の確度をより高めることが可能な構成について説明する。
[Third Embodiment]
Next, as a third embodiment, a configuration in which a target operation state determination unit is provided in the configuration of the second embodiment, and the accuracy of detection of a state in which the user is troubled by the operation can be further increased. explain.

携帯電話機100の多機能化及び高機能化は著しく、本来の通話機能に加え、カメラ機能、動画像の再生機能、ブラウザ機能、ナビゲーション機能などを備えている。このように多機能化された携帯電話機100では、動作中のアプリによっては、ユーザが操作に困惑していると想定されるユーザの動作や様子が、操作に困惑していなくても検出される場合が考えられる。第3の実施の形態は、このようなケースを除外することによって、ユーザが操作に困惑している状態の検出確度を上げることを可能にするものである。   The mobile phone 100 is remarkably multifunctional and highly functional, and has a camera function, a moving image playback function, a browser function, a navigation function, and the like in addition to the original call function. In such a multifunctional mobile phone 100, depending on the application being operated, the user's operation and state that the user is assumed to be confused with the operation are detected even if the operation is not confused. There are cases. In the third embodiment, by excluding such a case, the detection accuracy of a state in which the user is confused by the operation can be increased.

第3の実施の形態の構成について図11を用いて説明する。図11は、第3の実施の形態の携帯電話機の機能構成の一例を示す図である。図4と同じものには同じ番号を付し、説明は省略する。   The configuration of the third embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of a functional configuration of the mobile phone according to the third embodiment. The same components as those in FIG. 4 are denoted by the same reference numerals, and description thereof is omitted.

携帯電話機300は、検知部10、検知信号解析部20、操作不慣れ判定部40、ユーザサポート実施部50及び対象操作状態判定部80を有する。検知部10、検知信号解析部20、操作不慣れ判定部40及びユーザサポート実施部50は、第2の実施の形態の携帯電話機100と同じである。なお、図11では、図4に示した記憶部30は省略している。   The mobile phone 300 includes a detection unit 10, a detection signal analysis unit 20, an operation unfamiliarity determination unit 40, a user support execution unit 50, and a target operation state determination unit 80. The detection unit 10, the detection signal analysis unit 20, the operation unfamiliarity determination unit 40, and the user support execution unit 50 are the same as the mobile phone 100 according to the second embodiment. In FIG. 11, the storage unit 30 shown in FIG. 4 is omitted.

第3の実施の形態の携帯電話機300は、第2の実施の形態の携帯電話機100に対象操作状態判定部80を加えた構成である。よって、以下では、対象操作状態判定部80について説明する。   A mobile phone 300 according to the third embodiment has a configuration in which a target operation state determination unit 80 is added to the mobile phone 100 according to the second embodiment. Therefore, the target operation state determination unit 80 will be described below.

対象操作状態判定部80は、動作アプリ判定部81、除外項目情報記憶部82及び除外操作状態判定部83を有し、検知信号解析部20と操作不慣れ判定部40との間に配置される。そして、検知信号解析部20が検出したユーザ操作状態から指定されたものを除外し、ユーザが操作に困惑しているか否かを判定する操作不慣れ判定部40に出力する。動作アプリ判定部81は、ユーザが操作を行っているときに動作しているアプリを判定する。除外項目情報記憶部82は、除外項目テーブル82aを格納する記憶部である。   The target operation state determination unit 80 includes an operation application determination unit 81, an excluded item information storage unit 82, and an exclusion operation state determination unit 83, and is disposed between the detection signal analysis unit 20 and the operation unfamiliarity determination unit 40. And it excludes what was specified from the user operation state which detection signal analysis part 20 detected, and outputs to operation unfamiliarity judgment part 40 which judges whether a user is perplexed by operation. The operation application determination unit 81 determines an application that is operating when the user is performing an operation. The excluded item information storage unit 82 is a storage unit that stores an excluded item table 82a.

ここで、除外項目テーブル82aは、ユーザが操作に困惑している状態を検出する際の参照項目から除外するものを設定した情報である。図12は、第3の実施の形態の除外項目情報の一例を示す図である。除外項目テーブル82aには、操作不慣れ判定部40によるユーザが操作に困惑しているか否かの判定の対象から除外する項目が「操作不慣れ判定から除外される項目」として、動作アプリに対応付けて設定されている。例えば、動作アプリがカメラであるときは、検出された操作がファインダー画面での操作であれば、判定の対象から除外することが設定されている。また、動作アプリがマップであるときは、地図画面上で操作が行われているとき、この操作を判定の対象から除外することが設定されている。操作ばかりでなく、動作アプリが動画再生であるとき、ユーザの表情を判定の対象から除外することが設定されている。視聴する動画の内容によっては、操作に困惑しているわけではないのにユーザの顔が険しくなることが想定されるためである。   Here, the excluded item table 82a is information in which items to be excluded from the reference items when detecting a state in which the user is confused by the operation are set. FIG. 12 is a diagram illustrating an example of exclusion item information according to the third embodiment. In the excluded item table 82a, items to be excluded from the determination target whether or not the user is confused by the operation by the operation unfamiliarity determination unit 40 are associated with the action application as “items excluded from the operation unfamiliarity determination”. Is set. For example, when the operation application is a camera, if the detected operation is an operation on the finder screen, it is set to be excluded from the determination target. Further, when the operation application is a map, it is set to exclude the operation from the determination target when the operation is performed on the map screen. In addition to the operation, when the motion application is a video playback, it is set to exclude the user's facial expression from the determination target. This is because, depending on the content of the moving image to be viewed, it is assumed that the user's face becomes steep even though the operation is not confused.

図11に戻って説明する。除外操作状態判定部83は、検知信号解析部20からユーザ操作状態(ユーザの動作及び様子)を取得するとともに、動作アプリ判定部81から動作中の動作アプリに関する情報を取得する。そして、取得した動作アプリ及びユーザ操作状態を除外項目情報記憶部82に格納される除外項目テーブル82aと照合し、一致する項目の有無を判定する。一致する項目があるときは、該当するユーザ操作状態を削除する。操作不慣れ判定部40には、除外操作状態判定部83によって除外項目を除去したユーザ操作状態を出力する。   Returning to FIG. The exclusion operation state determination unit 83 acquires a user operation state (user's operation and state) from the detection signal analysis unit 20 and also acquires information on the operation application being operated from the operation application determination unit 81. Then, the acquired operation application and user operation state are checked against the excluded item table 82a stored in the excluded item information storage unit 82, and the presence or absence of a matching item is determined. When there is a matching item, the corresponding user operation state is deleted. To the operation unfamiliarity determination unit 40, the user operation state in which the excluded item is removed by the exclusion operation state determination unit 83 is output.

このように、携帯電話機300では、対象操作状態判定部80は、検知信号解析部20が検出したユーザ操作状態のうち、除外項目テーブル82aに設定された除外項目を除外し、残ったユーザ情報のみを操作不慣れ判定部40に出力する。操作不慣れ判定部40は、対象操作状態判定部80によって除外された項目を除くユーザ操作状態に基づき、ユーザが操作に困惑しているか否かを判定する。例えば、動画の視聴中に音量の調整などの操作を行ったユーザが、視聴している動画の内容によって険しい表情となっていたとしても、検知信号解析部20によって検出された険しい表情は対象操作状態判定部80によって判定処理の参照項目から除外される。操作不慣れ判定部40は、判定時にユーザの表情を参照しないので、このようなケースでユーザサポート処理が行われることはない。これにより、ユーザが操作に困惑していることをより正確に検出できるようになる。   Thus, in the mobile phone 300, the target operation state determination unit 80 excludes the exclusion items set in the exclusion item table 82a from the user operation states detected by the detection signal analysis unit 20, and only the remaining user information. Is output to the operation unfamiliarity determination unit 40. The operation unfamiliarity determination unit 40 determines whether the user is perplexed by the operation based on the user operation state excluding the items excluded by the target operation state determination unit 80. For example, even if a user who has performed an operation such as adjusting the volume while watching a video has a steep expression depending on the content of the video being viewed, the steep expression detected by the detection signal analysis unit 20 It is excluded from the reference items of the determination process by the state determination unit 80. Since the operation unfamiliarity determination unit 40 does not refer to the user's facial expression at the time of determination, the user support process is not performed in such a case. Thereby, it becomes possible to detect more accurately that the user is confused with the operation.

次に、除外操作判定処理について、図13を用いて説明する。なお、除外操作判定処理は、図8に示した操作不慣れ支援処理において、検知信号解析処理(ステップS11)が行われた後であって、操作不慣れ判定処理(ステップS12)の前に実行される。図13は、第3の実施の形態の除外操作判定処理の手順を示すフローチャートである。除外操作判定処理は、検知信号解析処理によってユーザ操作状態が検出された後に起動される。   Next, the exclusion operation determination process will be described with reference to FIG. The exclusion operation determination process is performed after the detection signal analysis process (step S11) is performed and before the operation unfamiliarity determination process (step S12) in the operation unfamiliarity support process illustrated in FIG. . FIG. 13 is a flowchart illustrating a procedure of exclusion operation determination processing according to the third embodiment. The exclusion operation determination process is started after the user operation state is detected by the detection signal analysis process.

[ステップS181]動作アプリ判定部81は、現在どのアプリを使用しているのかを示すアプリ情報を取得し、動作しているアプリに除外項目が設定されているか否かを判定する。判定は、動作アプリと、除外項目情報記憶部82に格納される除外項目テーブル82aの「動作アプリ」とを照合して実行する。動作アプリに除外項目が設定されていればステップS182に進み、除外項目が設定されていなければ処理を終了する。   [Step S181] The operation application determination unit 81 acquires application information indicating which application is currently used, and determines whether or not an exclusion item is set for the operation application. The determination is performed by comparing the operation application with the “operation application” in the exclusion item table 82 a stored in the exclusion item information storage unit 82. If an exclusion item is set in the operation application, the process proceeds to step S182. If an exclusion item is not set, the process ends.

[ステップS182]除外操作状態判定部83は、検知信号解析部20から取得したユーザ操作状態と、除外項目情報記憶部82に格納される除外項目テーブル82aの該当する「動作アプリ」に設定されている「操作不慣れ判定から除外される項目」と、を照合する。検知信号解析部20が検出したユーザ操作状態が「操作不慣れ判定から除外される項目」と一致していれば、ステップS183に進み、一致していなければステップS184に進む。   [Step S182] The exclusion operation state determination unit 83 is set to the user operation state acquired from the detection signal analysis unit 20 and the corresponding “operation application” in the exclusion item table 82a stored in the exclusion item information storage unit 82. Compared with “items excluded from operation unfamiliarity determination”. If the user operation state detected by the detection signal analysis unit 20 matches the “item excluded from operation unfamiliarity determination”, the process proceeds to step S183, and if not, the process proceeds to step S184.

[ステップS183]除外操作状態判定部83は、検出されたユーザ操作状態が「操作不慣れ判定から除外される項目」と一致しているので、検出されたユーザ操作状態を操作不慣れ判定処理の対象から除外する。   [Step S183] Since the detected user operation state matches the “item excluded from the operation unfamiliarity determination”, the excluded operation state determination unit 83 determines the detected user operation state from the target of the operation unfamiliarity determination process. exclude.

[ステップS184]除外操作状態判定部83は、検出されたすべての「ユーザ操作状態」について、「操作不慣れ判定から除外される項目」との照合が終了したかどうかを判定する。検出されたすべての「ユーザ操作状態」について照合が終了していなければ、ステップS182に戻り、照合が終了していれば処理を終了する。   [Step S184] The excluded operation state determination unit 83 determines whether or not all detected “user operation states” are collated with “items excluded from the operation unfamiliarity determination”. If collation has not been completed for all detected “user operation states”, the process returns to step S182, and if collation has been completed, the process is terminated.

このように、除外操作判定処理により、検出された「ユーザ操作状態」が使用しているアプリに対応して設定された操作不慣れの判定の対象から除外される項目であれば、この「ユーザ操作状態」は操作不慣れ判定処理の対象から除外される。これにより、操作不慣れ判定処理における判定をより正確に行うことができる。   In this manner, if the detected “user operation state” is an item excluded from the operation unfamiliarity determination target set for the application used by the excluded operation determination process, the “user operation” The “state” is excluded from the target of the operation unfamiliarity determination process. Thereby, the determination in the operation unfamiliarity determination process can be performed more accurately.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、情報処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the information processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic storage device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Optical disks include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc Read Only Memory), CD-R (Recordable) / RW (ReWritable), and the like. Magneto-optical recording media include MO (Magneto-Optical disk).

プログラムを流通させる場合には、たとえば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, portable recording media such as a DVD and a CD-ROM in which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、たとえば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムにしたがった処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムにしたがった処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムにしたがった処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.

また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現することもできる。   In addition, at least a part of the above processing functions can be realized by an electronic circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device).

1 検知部
1a タッチ検知部
1b カメラ撮影部
1c 角速度検知部
1d 音声検知部
2 検知信号解析部
3 記憶部
3a 困惑状態情報
4 操作状態判定部
5 操作支援部
6 操作判定部
7 アプリ制御部
10 検知部
20 検知信号解析部
30 記憶部
40 操作不慣れ判定部
50 ユーザサポート実施部
80 対象操作状態判定部
DESCRIPTION OF SYMBOLS 1 Detection part 1a Touch detection part 1b Camera imaging part 1c Angular velocity detection part 1d Audio | voice detection part 2 Detection signal analysis part 3 Memory | storage part 3a Confusion state information 4 Operation state determination part 5 Operation support part 6 Operation determination part 7 Application control part 10 Detection Unit 20 detection signal analysis unit 30 storage unit 40 operation unfamiliarity determination unit 50 user support execution unit 80 target operation state determination unit

Claims (10)

ユーザが操作に困惑していると想定される状態を示す困惑状態情報を記憶する記憶部と、
前記ユーザの動きや様子を検知した検知信号を解析し、当該ユーザが操作を行っているときのユーザ操作状態を検出する検知信号解析部と、
前記ユーザ操作状態を前記困惑状態情報と照合し、前記ユーザが操作に困惑しているか否かを判定する操作状態判定部と、
前記操作状態判定部によって前記ユーザが操作に困惑していると判定されたときは、前記ユーザに対して操作支援を行う操作支援部と、
を有する情報処理装置。
A storage unit for storing confusion state information indicating a state assumed to be confused by the user;
A detection signal analysis unit that detects a user operation state when the user is performing an operation by analyzing a detection signal that detects the user's movement and appearance;
An operation state determination unit that compares the user operation state with the puzzle state information and determines whether or not the user is puzzled by the operation,
When the operation state determination unit determines that the user is confused by the operation, an operation support unit that provides operation support to the user;
An information processing apparatus.
前記検知信号は、前記ユーザがタッチパネルにタッチした圧力を検知した信号であって、前記検知信号解析部は、前記ユーザ操作状態を前記ユーザのタッチ圧として検出し、
前記操作状態判定部は、検出した前記ユーザのタッチ圧と、前記困惑状態情報が示す前記ユーザが操作に困惑していると想定されるタッチ圧の閾値と、を比較し、検出した前記ユーザのタッチ圧が前記困惑状態情報の示すタッチ圧の閾値を超えているときは、前記ユーザが操作に困惑していると判定する、
請求項1に記載の情報処理装置。
The detection signal is a signal detected by the user touching the touch panel, and the detection signal analysis unit detects the user operation state as the touch pressure of the user,
The operation state determination unit compares the detected touch pressure of the user with a threshold value of the touch pressure that is assumed to be confused by the user indicated by the confusion state information. When the touch pressure exceeds the threshold of the touch pressure indicated by the puzzle state information, it is determined that the user is troubled by the operation.
The information processing apparatus according to claim 1.
前記検知信号は、前記情報処理装置が動いたときの角速度と加速度のうちの少なくとも一つを検知した信号であって、前記検知信号解析部は、前記ユーザ操作状態を前記情報処理装置に加えられた衝撃の大きさとして検出し、
前記操作状態判定部は、検出した前記衝撃の大きさと、前記困惑状態情報が示す前記ユーザが操作に困惑していると想定される衝撃の大きさの閾値と、を比較し、検出した前記情報処理装置に加えられた衝撃の大きさが前記困惑状態情報の示す衝撃の大きさの閾値を超えているときは、前記ユーザが操作に困惑していると判定する、
請求項1に記載の情報処理装置。
The detection signal is a signal obtained by detecting at least one of an angular velocity and an acceleration when the information processing apparatus moves, and the detection signal analysis unit adds the user operation state to the information processing apparatus. Detected as the magnitude of the impact
The operation state determination unit compares the detected magnitude of the impact with a threshold value of the magnitude of the impact that is assumed that the user is perplexed by the operation indicated by the confusion state information, and detects the detected information. When the magnitude of impact applied to the processing device exceeds a threshold of magnitude of impact indicated by the perplexed state information, it is determined that the user is perplexed with the operation,
The information processing apparatus according to claim 1.
前記検知信号は、ユーザの声を入力した音声信号であって、前記検知信号解析部は、前記ユーザ操作状態を前記ユーザが発した言葉として検出し、
前記操作状態判定部は、検出した前記ユーザの言葉と、前記困惑状態情報が示す前記ユーザが操作に困惑しているときに発すると想定される音声キーワードと、を照合し、検出した前記ユーザの言葉に前記困惑状態情報の示す音声キーワードが含まれるときは、前記ユーザが操作に困惑していると判定する、
請求項1に記載の情報処理装置。
The detection signal is a voice signal input from a user's voice, and the detection signal analysis unit detects the user operation state as a word uttered by the user,
The operation state determination unit collates the detected user's words with a speech keyword assumed to be issued when the user is confused in the operation indicated by the confusion state information, and detects the user's detected When the speech keyword indicated by the puzzle state information is included in a word, it is determined that the user is puzzled in operation.
The information processing apparatus according to claim 1.
前記検知信号は、ユーザの声を入力した音声信号であって、前記検知信号解析部は、前記ユーザ操作状態を前記ユーザの声の音量として検出し、
前記操作状態判定部は、検出した前記ユーザの声の音量と、前記困惑状態情報が示す前記ユーザが操作に困惑していると想定される声の音量の閾値と、を比較し、検出した前記ユーザの声の音量が前記困惑状態情報の示す声の音量の閾値を超えているときは、前記ユーザが操作に困惑していると判定する、
請求項1に記載の情報処理装置。
The detection signal is a voice signal inputted with a user's voice, and the detection signal analysis unit detects the user operation state as a volume of the user's voice,
The operation state determination unit compares the detected volume of the voice of the user with a threshold of the volume of the voice that is assumed to be confused by the user indicated by the puzzle state information. When the volume of the voice of the user exceeds the threshold of the volume of the voice indicated by the puzzle state information, it is determined that the user is confused with the operation.
The information processing apparatus according to claim 1.
前記検知信号は、ユーザの顔を撮像した画像信号であって、前記検知信号解析部は、前記ユーザ操作状態を前記ユーザの顔の表情の種別として検出し、
前記操作状態判定部は、検出した前記ユーザの顔の表情の種別と、前記困惑状態情報が示す前記ユーザが操作に困惑している想定される顔の表情の種別と、を照合し、検出した前記ユーザの表情の種別が前記困惑状態情報の示す顔の表情の種別に含まれているときは、前記ユーザが操作に困惑していると判定する、
請求項1に記載の情報処理装置。
The detection signal is an image signal obtained by imaging a user's face, and the detection signal analysis unit detects the user operation state as a type of facial expression of the user,
The operation state determination unit collates and detects the detected facial expression type of the user and the assumed facial expression type that the user is confused about the operation indicated by the confusing state information. When the type of facial expression of the user is included in the type of facial expression indicated by the puzzle state information, it is determined that the user is confused with the operation,
The information processing apparatus according to claim 1.
前記操作状態判定部における判定処理の対象から除外する前記ユーザ操作状態の項目を使用しているアプリケーションに対応付けて示した除外項目情報を参照し、前記検知信号解析部が検出した前記ユーザ操作状態が、動作しているアプリケーションに対応する除外項目と一致するときは、当該ユーザ操作状態を前記判定処理の対象から除外する対象操作状態判定部を有し、
前記操作状態判定部は、前記対象操作状態判定部において前記判定処理の対象として残った前記ユーザ操作状態を前記困惑状態情報と照合し、前記ユーザが操作に困惑しているか否かを判定する、
請求項1から請求項6のいずれか一項に記載の情報処理装置。
The user operation state detected by the detection signal analysis unit with reference to exclusion item information shown in association with an application using the user operation state item to be excluded from the determination processing target in the operation state determination unit Has a target operation state determination unit that excludes the user operation state from the target of the determination process when it matches the exclusion item corresponding to the running application,
The operation state determination unit compares the user operation state remaining as a target of the determination process in the target operation state determination unit with the confusion state information, and determines whether or not the user is troubled by the operation.
The information processing apparatus according to any one of claims 1 to 6.
前記操作支援部は、前記ユーザが操作に困惑していると判定されたときは、前記ユーザを操作案内へ誘導する操作案内誘導画面を表示し、前記操作案内誘導画面において前記ユーザから前記操作案内の提供を指示されたとき、前記操作案内を提供する処理を開始する、
請求項1から請求項7のいずれか一項に記載の情報処理装置。
When it is determined that the user is confused by the operation, the operation support unit displays an operation guide guidance screen that guides the user to the operation guide, and the operation guide is displayed from the user on the operation guide guide screen. Start providing the operation guidance when instructed to provide
The information processing apparatus according to any one of claims 1 to 7.
コンピュータが、
ユーザの動きや様子を検知した検知信号を解析して当該ユーザが操作を行っているときのユーザ操作状態を検出し、
前記ユーザ操作状態と、記憶部に記憶される前記ユーザが操作に困惑していると想定される状態を示す困惑状態情報と、を照合して前記ユーザが操作に困惑しているか否かを判定し、
前記ユーザが操作に困惑していると判定されたときは、前記ユーザに対して操作支援を行う、
操作支援方法。
Computer
Analyzing the detection signal that detects the user's movement and appearance to detect the user operation state when the user is operating,
It is determined whether or not the user is confused with the operation by comparing the user operation state with the confused state information indicating the state assumed to be confused with the operation stored in the storage unit. And
When it is determined that the user is confused by the operation, operation support is provided to the user.
Operation support method.
コンピュータに、
ユーザの動きや様子を検知した検知信号を解析して当該ユーザが操作を行っているときのユーザ操作状態を検出し、
前記ユーザ操作状態と、記憶部に記憶される前記ユーザが操作に困惑していると想定される状態を示す困惑状態情報と、を照合して前記ユーザが操作に困惑しているか否かを判定し、
前記ユーザが操作に困惑していると判定されたときは、前記ユーザに対して操作支援を行う、
処理を実行させる操作支援プログラム。
On the computer,
Analyzing the detection signal that detects the user's movement and appearance to detect the user operation state when the user is operating,
It is determined whether or not the user is confused with the operation by comparing the user operation state with the confused state information indicating the state assumed to be confused with the operation stored in the storage unit. And
When it is determined that the user is confused by the operation, operation support is provided to the user.
An operation support program that executes processing.
JP2014028877A 2014-02-18 2014-02-18 information processing apparatus, operation support method and operation support program Pending JP2015153325A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014028877A JP2015153325A (en) 2014-02-18 2014-02-18 information processing apparatus, operation support method and operation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014028877A JP2015153325A (en) 2014-02-18 2014-02-18 information processing apparatus, operation support method and operation support program

Publications (1)

Publication Number Publication Date
JP2015153325A true JP2015153325A (en) 2015-08-24

Family

ID=53895449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014028877A Pending JP2015153325A (en) 2014-02-18 2014-02-18 information processing apparatus, operation support method and operation support program

Country Status (1)

Country Link
JP (1) JP2015153325A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091154A (en) * 2015-11-09 2017-05-25 日本電気株式会社 Virtual base host, method for controlling virtual base host, virtual base host program, and communication system
WO2018150961A1 (en) * 2017-02-14 2018-08-23 富士フイルム株式会社 Photography device, method for controlling same, and activation program
JP2019016067A (en) * 2017-07-04 2019-01-31 富士ゼロックス株式会社 Information processing apparatus and program
JP2019049486A (en) * 2017-09-11 2019-03-28 沖電気工業株式会社 Display control device, display control method, and program
JP2019144829A (en) * 2018-02-20 2019-08-29 沖電気工業株式会社 User assisting device, user assisting method, program, and information processing system
JP2019219835A (en) * 2018-06-19 2019-12-26 本田技研工業株式会社 Control device and control method
US10750035B2 (en) 2018-03-19 2020-08-18 Ricoh Company, Ltd. Electronic device, system, method for processing information, and recording medium
CN111736937A (en) * 2020-06-19 2020-10-02 中国银行股份有限公司 Service processing method and device
JP2021026528A (en) * 2019-08-06 2021-02-22 Kddi株式会社 Program, information processing method and information processing device
US10931869B2 (en) 2016-11-30 2021-02-23 Fujifilm Corporation Imaging apparatus and control method therefor
JP7358956B2 (en) 2019-12-10 2023-10-11 沖電気工業株式会社 automatic transaction device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091154A (en) * 2015-11-09 2017-05-25 日本電気株式会社 Virtual base host, method for controlling virtual base host, virtual base host program, and communication system
US10931869B2 (en) 2016-11-30 2021-02-23 Fujifilm Corporation Imaging apparatus and control method therefor
WO2018150961A1 (en) * 2017-02-14 2018-08-23 富士フイルム株式会社 Photography device, method for controlling same, and activation program
CN110291779A (en) * 2017-02-14 2019-09-27 富士胶片株式会社 Camera and its control method and working procedure
CN110291779B (en) * 2017-02-14 2022-07-08 富士胶片株式会社 Photographing apparatus, control method thereof, and non-volatile computer-readable medium
JPWO2018150961A1 (en) * 2017-02-14 2020-01-16 富士フイルム株式会社 Imaging apparatus, control method thereof, and operation program
US11012615B2 (en) 2017-02-14 2021-05-18 Fujifilm Corporation Imaging apparatus, control method and non-transitory computer readable medium that determines a confused state
JP2019016067A (en) * 2017-07-04 2019-01-31 富士ゼロックス株式会社 Information processing apparatus and program
JP2019049486A (en) * 2017-09-11 2019-03-28 沖電気工業株式会社 Display control device, display control method, and program
JP6992336B2 (en) 2017-09-11 2022-02-03 沖電気工業株式会社 Display control device, display control method and program
JP2019144829A (en) * 2018-02-20 2019-08-29 沖電気工業株式会社 User assisting device, user assisting method, program, and information processing system
US10750035B2 (en) 2018-03-19 2020-08-18 Ricoh Company, Ltd. Electronic device, system, method for processing information, and recording medium
JP7066541B2 (en) 2018-06-19 2022-05-13 本田技研工業株式会社 Control device and control method
CN110688885A (en) * 2018-06-19 2020-01-14 本田技研工业株式会社 Control device and control method
JP2019219835A (en) * 2018-06-19 2019-12-26 本田技研工業株式会社 Control device and control method
CN110688885B (en) * 2018-06-19 2022-12-06 本田技研工业株式会社 Control device and control method
JP2021026528A (en) * 2019-08-06 2021-02-22 Kddi株式会社 Program, information processing method and information processing device
JP7358956B2 (en) 2019-12-10 2023-10-11 沖電気工業株式会社 automatic transaction device
CN111736937A (en) * 2020-06-19 2020-10-02 中国银行股份有限公司 Service processing method and device
CN111736937B (en) * 2020-06-19 2024-02-27 中国银行股份有限公司 Service processing method and device

Similar Documents

Publication Publication Date Title
JP2015153325A (en) information processing apparatus, operation support method and operation support program
US11762494B2 (en) Systems and methods for identifying users of devices and customizing devices to users
JP6635049B2 (en) Information processing apparatus, information processing method and program
JP7000268B2 (en) Information processing equipment, information processing methods, and programs
TWI506619B (en) Methods, apparatuses and non-transitory computer readable media for contextual voice commands
JP5601045B2 (en) Gesture recognition device, gesture recognition method and program
KR102022318B1 (en) Method and apparatus for performing user function by voice recognition
KR20180012055A (en) Electronic device and method for operating the same
US20160247520A1 (en) Electronic apparatus, method, and program
KR102657519B1 (en) Electronic device for providing graphic data based on voice and operating method thereof
EP3641285B1 (en) Method and device for starting application program
CN110572716B (en) Multimedia data playing method, device and storage medium
CN107430856B (en) Information processing system and information processing method
TWI703492B (en) Method, program and device for controlling user interface
JP2003233452A (en) Gesture command input device
WO2020038108A1 (en) Dynamic motion detection method and dynamic motion control method and device
US20180217985A1 (en) Control method of translation device, translation device, and non-transitory computer-readable recording medium storing a program
CN112236767A (en) Electronic device and method for providing information related to an image to an application through an input unit
CN110544473A (en) Voice interaction method and device
US9772815B1 (en) Personalized operation of a mobile device using acoustic and non-acoustic information
US20220408164A1 (en) Method for editing image on basis of gesture recognition, and electronic device supporting same
JP2008145693A (en) Information processing device and information processing method
WO2017215615A1 (en) Sound effect processing method and mobile terminal
CN110019936A (en) A kind of annotation method and apparatus during playback of media files
KR102496617B1 (en) Image display apparatus and method for displaying image