JP2005149329A - Intended extraction support apparatus, operability evaluation system using the same, and program for use in them - Google Patents
Intended extraction support apparatus, operability evaluation system using the same, and program for use in them Download PDFInfo
- Publication number
- JP2005149329A JP2005149329A JP2003388506A JP2003388506A JP2005149329A JP 2005149329 A JP2005149329 A JP 2005149329A JP 2003388506 A JP2003388506 A JP 2003388506A JP 2003388506 A JP2003388506 A JP 2003388506A JP 2005149329 A JP2005149329 A JP 2005149329A
- Authority
- JP
- Japan
- Prior art keywords
- information
- intention
- operator
- extraction support
- solid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理システムのユーザインタフェース開発や操作対象を含む環境開発において、操作性の評価や設計の支援を行う操作性評価支援に関する。 The present invention relates to operability evaluation support for performing operability evaluation and design support in user interface development of an information processing system and environment development including operation targets.
コンピュータ等を含む電子機器において、ユーザ(操作者)にとって利便性の高いユーザインタフェースのソフトウエアの開発が求められている。現在市場に提供されるソフトウエアは技術先行型であり、人間の処理機能を十分に議論し、その上で処理機能を支援する形には未だ至っていない。例えば、ユーザ工学の視点では、ISO13407において反復的開発サイクルの上流工程での利用文脈の理解を目的としたユーザ分析や設計後の対策に対するユーザを中心としたユーザビリティ(操作性)評価を重要視している。 In an electronic device including a computer or the like, development of user interface software that is highly convenient for a user (operator) is required. Currently, the software provided in the market is a technology-first type, and has not yet been fully discussed about human processing functions and then supports the processing functions. For example, from the viewpoint of user engineering, ISO 13407 emphasizes user analysis for the purpose of understanding the usage context in the upstream process of the iterative development cycle and usability (operability) evaluation centered on users for measures after design. ing.
コンピュータなどの使いやすさを評価する方法の一つに、操作状況の映像と音声を記録しておき、この映像および音声を再生して操作性を評価するものがある。例えば特許文献1は、発話内容の抽出を容易にするため、操作中の操作者の発話内容から操作者がある特定の操作を行っていたときの発話内容を選択的に抽出することができる発話内容抽出装置について開示している。 One of the methods for evaluating the ease of use of a computer or the like is to record the video and audio of the operation situation and reproduce the video and audio to evaluate the operability. For example, in Patent Document 1, in order to facilitate the extraction of utterance contents, the utterance contents that can selectively extract the utterance contents when the operator is performing a specific operation from the utterance contents of the operating operator. A content extraction device is disclosed.
特許文献2は、発話データ処理装置に関し、作業時の発話内容、発話が開始された時間、作業者の作業時における注視位置および注視位置が変化した時間を記憶し、発話データを表示するときに注視位置に対応する表示を表示させ、発話データ中に注視位置の情報を含ませるものである。 Patent Document 2 relates to an utterance data processing device, and stores utterance contents at the time of work, a time when the utterance is started, a gaze position at the time of an operator's work, and a time when the gaze position changes, and displays utterance data. A display corresponding to the gaze position is displayed, and the gaze position information is included in the utterance data.
特許文献3は、インタビュ時に顧客の嗜好性を引き出す手法として、過去の質問項目を蓄積したデータベースを利用し、顧客に対して迅速にかつばらつきの少ない質問事項を自動的に提案することが可能な技術を開示する。 Japanese Patent Laid-Open No. 2004-228867 can automatically propose prompt questions with little variation to a customer by using a database in which past question items are accumulated as a method for extracting customer preference during an interview. Disclose technology.
さらに、従来技術には、操作中に観察者が逐次インタビュ形式で操作者に質問をする手法や、操作中の思考を逐次操作者に発話させる思考発話法などの手法がある。 Furthermore, in the prior art, there are a method such as a method in which an observer sequentially asks an operator a question during an operation, and a method of thinking utterance in which the operator thinks the utterance during operation.
しかしながら、特許文献1や2に開示される技術は、発話データを取得した後の処理や記録に関するものであり、その前段で重要となる、如何にしてユーザの認知過程に接近した発話内容を取得するかに関しては考慮されていなかった。 However, the techniques disclosed in Patent Documents 1 and 2 relate to processing and recording after acquiring utterance data, and acquire the utterance contents that are important in the previous stage, how close to the user's cognitive process. It was not considered as to what to do.
また、特許文献3に開示されるような過去に顕在化された質問項目から新たな質問項目を生成する手法もあるが、個別のユーザ毎の認知過程に接近した発話内容を取得するかに関しては考慮していなかった。 In addition, there is a method of generating a new question item from the question items that have been revealed in the past as disclosed in Patent Document 3, but regarding whether to acquire the utterance content that is close to the recognition process for each individual user Did not consider.
さらに、操作中に観察者が逐次インタビュ形式で操作者に質問していく手法や、操作中の思考を逐次操作者に発話させる思考発話法などの手法では、操作者の操作が遮断され、自然な操作状況での発話抽出が困難であった。また、操作中に逐次インタビュを行う場合には、操作時間など操作に関する定量的計測との併用が困難であった。 Furthermore, methods such as a method in which the observer asks the operator questions in an interview format during operation and a method of thinking utterance that causes the operator to utter the thoughts being operated are interrupted, and the operation of the operator is blocked. It was difficult to extract utterances in various operating situations. In addition, when interviews are performed sequentially during operation, it is difficult to use in combination with quantitative measurement related to the operation such as operation time.
本発明は、上記従来技術の課題を解決し、情報処理システムを操作するユーザから得られる情報に基づいて、操作終了後、操作対象に対して実行されたユーザの意図等の抽出を行う意図抽出支援装置およびこれを用いた操作性評価システムならびにこれらに用いられる方法及びプログラムを提供することを目的とする。 The present invention solves the above-described problems of the prior art, and extracts the intention of the user executed on the operation target after the operation based on the information obtained from the user who operates the information processing system. An object of the present invention is to provide a support device, an operability evaluation system using the same, and a method and a program used therefor.
本発明に係る操作対象について実行された操作者の意図を抽出する意図抽出支援装置は、操作対象について実行された操作者の操作状況を検出し、その検出結果を示す操作状況情報を出力する状況検出手段と、操作対象を実行するときの操作者の固体情報を検出し、その検出結果を示す固体情報を出力する固体情報検出手段と、操作状況情報および前記固体情報を合成し、これを意図抽出用データとして記憶する記憶手段と、記憶手段に記憶された意図抽出用データに基づき操作状況および固体情報を再生する再生手段と、意図抽出用データの再生時に、操作者によって提示された意図情報を記憶する意図情報記憶手段とを含んで構成される。 The intention extraction support apparatus for extracting the intention of the operator executed for the operation target according to the present invention detects the operation status of the operator executed for the operation target and outputs operation status information indicating the detection result The detection means, the solid information detection means for detecting the solid information of the operator when executing the operation target, and outputting the solid information indicating the detection result, the operation status information and the solid information are synthesized, and this is intended Storage means for storing as extraction data, reproduction means for reproducing operation status and solid information based on intention extraction data stored in the storage means, and intention information presented by the operator when reproducing intention extraction data And intention information storage means for storing.
好ましくは、操作状況情報は、操作対象について実行された操作者の行動についての映像情報および音声情報等を含む。状況検出手段は、例えば、ユーザ視野からみた操作状況を映し出す撮像装置や、操作環境の音声を入力する音声入力装置等を含む。 Preferably, the operation status information includes video information, audio information, and the like regarding the action of the operator executed for the operation target. The situation detection unit includes, for example, an imaging device that displays an operation situation viewed from the user's field of view, a voice input device that inputs voice of the operation environment, and the like.
好ましくは、固体情報は、操作者の生体情報や操作者の行動に関する情報を含む。生体情報は、好ましくは操作者の視線移動に関する情報を含む。生体情報は、これ以外にも、操作時の操作者の脳波などの情報を含むものでもよい。また、固体情報は、生体情報以外に、例えば操作中の操作者のうなずきや発話などの行動に関する情報等を含むものでもよい。 Preferably, the solid information includes information on the biological information of the operator and information on the behavior of the operator. The biological information preferably includes information related to the eye movement of the operator. In addition to this, the biological information may include information such as the brain wave of the operator at the time of operation. In addition to the biological information, the solid information may include, for example, information related to actions such as a nod and an utterance of the operator who is operating.
好ましくは再生手段は、意図抽出用データをディスプレイ上に再生させる。このとき、ディスプレイ上には、操作対象について実行された操車者の操作状況が再現され、同時に固体情報(例えば視線情報)も表示される。 Preferably, the reproduction means reproduces the intention extraction data on the display. At this time, on the display, the operation state of the operator executed for the operation target is reproduced, and at the same time, solid information (for example, line-of-sight information) is also displayed.
好ましくは意図情報は、操作者の発話データが含まれる。つまり、操作者は、自己の再現された操作状況および固体情報を見ることで、認知過程に接近した状態で、その操作を行おうとしたときの意図や考えを発話する。発話は、操作者が自発的に行うことができるが、インタビュ形式で発話をさせても良い。 Preferably, the intention information includes utterance data of the operator. That is, the operator speaks the intention and idea when he / she tried to perform the operation in a state close to the cognitive process by viewing his / her reproduced operation state and solid information. The utterance can be performed voluntarily by the operator, but may be uttered in an interview format.
さらに本発明の操作評価システムは、上記した意図抽出支援装置と、意図情報記憶手段に記憶された意図情報を分析し、操作対象の操作性を評価する評価手段とを有するものである。 Furthermore, the operation evaluation system of the present invention includes the above-described intention extraction support device and evaluation means for analyzing intention information stored in the intention information storage means and evaluating the operability of the operation target.
好ましくは評価手段は、意図情報から問題点の分類を行う分類部と、操作性の問題点に関する警告情報を予め登録したデータベースと、分類部によって分類された問題点と前記データベースの警告情報とを比較し該当する警告情報の有無を判定する判定手段とを有する。 Preferably, the evaluation unit includes a classification unit that classifies the problem from the intention information, a database in which warning information about the problem of operability is registered in advance, the problem classified by the classification unit, and the warning information of the database. Determining means for comparing and determining presence / absence of corresponding warning information.
さらに本発明に係る操作対象について実行された操作者の意図を抽出する意図抽出支援方法は、以下のステップを有する。操作対象について実行された操作者の操作状況および操作者の固体情報を記憶するステップと、操作終了後に、記憶された操作状況および操作者の固体情報を再生するステップと、再生された操作状況および固体情報に対して操作者から提示された意図情報を記憶するステップとを有している。この場合、好ましくは意図情報は、再生された操作状況および操作者の固体情報を見ながら操作者によって提示された発話データを含む。 Furthermore, the intention extraction support method for extracting the operator's intention executed on the operation target according to the present invention includes the following steps. A step of storing the operator's operation status and the operator's individual information executed for the operation target; a step of reproducing the stored operation status and the operator's individual information after the operation is completed; and the reproduced operation status and Storing the intention information presented by the operator for the solid information. In this case, the intention information preferably includes utterance data presented by the operator while viewing the reproduced operation status and the operator's individual information.
さらに上記した意図抽出支援方法を用いて、そこで記憶された意図情報を分析し操作対象の操作性を評価するステップを用いた操作性評価方法を実現することも可能である。 Furthermore, by using the above-described intention extraction support method, it is possible to realize an operability evaluation method using steps of analyzing intention information stored therein and evaluating the operability of the operation target.
さらに操作対象について実行された操作者の意図を抽出する意図抽出支援用プログラムは、操作対象について実行された操作者の操作状況情報と当該操作対象についての操作者の固体情報を合成して意図抽出用データを作成し、意図抽出用データに基づき操作状況および固体情報を再生させ、意図抽出用データの再生時に操作者によって提示された意図情報を記憶させる。 Further, the intention extraction support program for extracting the operator's intention executed for the operation target is intended to extract the intention by synthesizing the operation status information of the operator executed for the operation target and the operator's solid information about the operation target. Data is generated, the operation status and the solid information are reproduced based on the intention extraction data, and the intention information presented by the operator when the intention extraction data is reproduced is stored.
本発明によれば、操作対象についての操作後に、操作状況に加えて固体情報を併せて再生させることで、操作者の操作対象に対する認知過程に接近した、より深い多くの意図情報(例えば発話データ)を取得することができる。さらに、操作者からの意図情報を分析することで、操作者が意図していたことと設計者が意図していたことが一致しているか否かを判定することが容易となり、一致していない場合にはその問題点を解決させることで、今まで以上に操作性の改善を図ることができる。 According to the present invention, after the operation on the operation target, by reproducing solid information together with the operation status, much deeper intention information (for example, utterance data) that approaches the recognition process for the operation target of the operator is obtained. ) Can be obtained. Furthermore, by analyzing the intention information from the operator, it becomes easy to determine whether the intention intended by the operator and the intention intended by the designer are the same. In some cases, the operability can be improved more than ever by solving the problem.
以下、本発明を実施するための最良の形態を図面を参照して詳細に説明する。本実施の形態に係る意図抽出支援装置は、好ましくは情報処理システムやコンピュータ等の電子装置におけるユーザインタフェースの操作の認知度の判定に用いられる。つまり、ユーザは、その操作を完全に理解しているのか、全く理解していないのか、あるいはどのような意図若しくは考えで操作を行ったのかを事後的なインタビュによって抽出する。さらに好ましくは、意図抽出支援装置によって抽出された意図が実際のユーザインタフェースの設計の考えに一致するかどうかの評価に適用することができる。 The best mode for carrying out the present invention will be described below in detail with reference to the drawings. The intention extraction support apparatus according to the present embodiment is preferably used to determine the degree of recognition of user interface operations in an electronic apparatus such as an information processing system or a computer. That is, the user extracts whether the operation is completely understood, not understood at all, or what kind of intention or idea the operation is performed by a subsequent interview. More preferably, the present invention can be applied to the evaluation of whether or not the intention extracted by the intention extraction support apparatus matches an actual user interface design idea.
図1は、本発明の実施例に係る意図抽出支援装置の構成を示すブロック図である。意図抽出支援装置10は、ユーザの操作状況を検出する状況検出部20と、ユーザの固体情報を検出する固体情報検出部30と、ディスプレイやスピーカ等の出力装置を含む再生部40と、種々のデータを記憶する記憶部50と、意図抽出支援の動作を規定するプログラム等を記憶するプログラムメモリ60と、一時的にデータを記憶するデータメモリ70と、音圧センサ80と、プログラムメモリ60のプログラムに従いこれら各部を制御する中央処理部90とを含んで構成される。
FIG. 1 is a block diagram showing a configuration of an intention extraction support apparatus according to an embodiment of the present invention. The intention
状況検出部20は、操作対象物および操作環境に関するユーザの視野からの映像情報やその環境において聞こえてくる音声情報などを検出する。状況検出部20には、例えばCCDカメラや、ディスプレイ表示画面からの信号分岐による検出手段などの一般的な映像検出装置、集音マイクなど一般的な音情報検出装置などを適宜選択して用いることができる。
The
個体情報検出部30は、ユーザの行った操作に関する情報や、操作時のユーザの視線移動や脳波などの生体情報や、操作中のうなずきや発話などの行動に関する情報など、ユーザの個体情報を検出する。個体情報検出部30には、ボタンや、キーボード、タッチパネル、マウス等のポインティングデバイスなどの一般的な操作デバイスや、既存の生体情報測定装置、集音マイクなどの一般的な音情報検出装置、位置情報検出装置、モーションキャプチャ、CCDカメラ、ディスプレイ表示画面からの信号分岐による検出手段など一般的な映像検出装置及び検出手段などを適宜選択して用いることができる。
The individual
ここで生体情報とは、例えば、操作中のユーザの視線軌跡、表示された情報を注視する時間、ユーザの瞳孔の開き具合及びユーザの脳波等のユーザの生体の情報を意味する。但し、情報処理システムを使用する際のユーザの生体に関する情報であればこれに限られるものではない。 Here, the biological information means, for example, information on the user's biological body such as the user's line of sight trajectory during the operation, the time for gazing at the displayed information, the degree of opening of the user's pupil, and the user's brain wave. However, the information is not limited to this as long as it is information about a user's living body when using the information processing system.
記憶部50は、VTR、半導体メモリ、ハードディスク、フレキシブルディスクなどの一般的な記録装置を適宜選択して用いることができる。再生部40は、記憶部50で記録された情報を出力するもので、ディスプレイ、タッチパネルなどの一般的な表示装置や音声出力機能が付いた表示装置を適宜選択して用いることができる。
As the
図2は本実施例の意図抽出支援装置の動作を示すフローチャートである。意図抽出支援動作は、ステップS101からS105までのユーザによる所定の操作対象についての操作と、ステップS106からS112までの操作後に行われるユーザへのインタビュに大別される。図3は、ステップS101からS105までの前者の動作を機能的に表現したブロック図、図4はステップS106からS112までの後者の動作を機能的に表現したブロック図である。 FIG. 2 is a flowchart showing the operation of the intention extraction support apparatus of this embodiment. The intention extraction support operation is roughly divided into an operation on a predetermined operation target by the user from steps S101 to S105 and an interview to the user performed after the operations from step S106 to S112. FIG. 3 is a block diagram functionally representing the former operation from steps S101 to S105, and FIG. 4 is a block diagram functionally representing the latter operation from steps S106 to S112.
まず、所定の操作対象についてユーザによる操作が開始される(ステップS101)。ここで対象となる作業は、例えば、ワードプロセッサシステムにおいて、ユーザが1つの文書を完成させるまでのような一連の処理全てを含むものであっても良いし、一連の処理の中の文字入力、編集又はファイル操作などの個々の処理であっても良い。また、さらに細かいカット&ペースト等の処理であっても良い。あるいは、ディスプレイ上の作業に限らず、複写機において、文書を複数部コピーして、各々を閉じて冊子を完成させるような作業であっても良い。 First, an operation by a user for a predetermined operation target is started (step S101). The target work here may include, for example, all of a series of processes until a user completes one document in a word processor system, or character input and editing in a series of processes. Alternatively, individual processing such as file operation may be performed. Further, processing such as finer cut and paste may be performed. Alternatively, the operation is not limited to the operation on the display, and may be an operation of copying a plurality of copies of a document and closing each of them to complete a booklet in a copying machine.
操作の開始に伴い、状況検出部20によってユーザによる操作状況が検出される。検出する操作状況報は、例えば、ワードプロセッサシステムを対象と場合、作業を行っているディスプレイ等の表示映像や、周りから聞こえてくる音情報等である。同時に、固体情報検出部30によってユーザの固体情報が検出される(ステップS102)。例えば、作業を行っている際のマウスの動きや、作業を行っている際の視線の動き、脳波、ユーザのうなずきや発話等を検出する。視線の動きは、例えば視線追尾装置よって検出することができる。
Along with the start of the operation, the
次に、中央処理部90は、検出された操作状況に関する情報と固体情報とを合成する(ステップS103)。これらの情報は、互いに同期するようにして合成される。例えば、ワードプロセッサシステムを対象とした作業において、その作業中のマウスの動き、視線の動き等が付加された作業中のディスプレイ等に表示される画像をVTR等の記録媒体に記録しておく。
Next, the
例えば、図5に示すようなディスプレイ画面上の操作において、時刻T1においてユーザがカーソルP1をディスプレイ上のボタンBを操作し、次に時刻T2においてカーソルP2を移動させ、時刻T3においてカーソルP3をボタンDへ移動させる操作をしたとする。他方、ユーザの視線位置(図中、黒丸で示す)が、時刻T1においてボタンB上にあり、時刻T2においてボタンC上にあり、時刻T3においてボタンD上にあるとする。ユーザによる操作開始時刻を基準とし、各時刻T1、T2、T3のユーザの操作とユーザの視線位置E1、E2、E3とが時間的に一致するように合成される。こうして同期して合成された情報は、意図抽出用データとして記憶部50に格納される(ステップS104)。
For example, in the operation on the display screen as shown in FIG. 5, the user operates the cursor B1 on the display B at time T1, then moves the cursor P2 at time T2, and moves the cursor P3 to the button at time T3. It is assumed that an operation of moving to D is performed. On the other hand, it is assumed that the user's line-of-sight position (indicated by a black circle in the figure) is on button B at time T1, is on button C at time T2, and is on button D at time T3. Using the operation start time by the user as a reference, the user's operation at each time T1, T2, and T3 and the user's line-of-sight positions E1, E2, and E3 are combined in time. The information thus synthesized in synchronism is stored in the
操作対象物あるいは対象環境を対象としたユーザによる操作が終了すると、次に、操作中のユーザの意図等に関するインタビュが開始される(ステップS106)。インタビュは、例えば、操作中のユーザの行動に関して、何をしたいと思って何を行ったか、その操作を行った結果は予想したものであったか、予想と異なる場合はどのように異なっていたか等を聞いていく。 When the user's operation for the operation target or target environment is completed, an interview regarding the intention of the user who is operating is started (step S106). The interview, for example, describes what the user wants to do and what he / she did about the user's behavior during the operation, whether the result of the operation was an expected one, how it was different if it was different from the expected one, etc. I will listen.
中央処理部90は、記憶部50に記憶された意図抽出用データを読み出し、これを再生部40において再生させる(ステップS107)。再生部40は、ディスプレイおよびスピーカから、ユーザが実行した操作およびユーザの固体情報を併せて再生する。例えば、図5に示したように、ユーザがカーソルをP1からP3へ移動させたとき、それに同期してユーザの視線位置が表示される。視線位置の変化を、黒丸によって表示することも可能であるが、これ以外にどのような形態で表示してもよい。
The
次に、ユーザは再生されたディスプレイを見ながら、その操作を行ったときの状況を発話する(ステップS108)。例えば、図5を例にすると、時刻T1において「ボタンBの操作を完了し次の操作へ移る」、時刻T2において「次の操作がボタンCかボタンDか迷う」、時刻T3において「ボタンDと判断する」等と発話する。ユーザは、自分の過去に行った操作を説明しようとするとき、視線がどのような位置変化をしているのかを参照することで、そのときの認知過程に接近した状態で操作の背景にある意図をより深く提示することができる。 Next, the user speaks the situation when the operation is performed while viewing the reproduced display (step S108). For example, taking FIG. 5 as an example, “the operation of button B is completed and the operation proceeds to the next operation” at time T1, “the next operation is lost as button C or button D” at time T2, and “button D at time T3”. ” When a user tries to explain an operation performed in the past, the user is in the background of the operation in a state close to the cognitive process at that time by referring to the position change of the line of sight. The intention can be presented more deeply.
例えば、図5の操作を例にすると、ボタンDへカーソルを移動する前に、自分の視線位置E2がボタンCで止まったということから、そのときに、ボタンCを選択するのかボタンDを選択するのか迷ったという意図が提示されるかもしれない。もし、視線位置E2を参照できなければ、そのような意図の提示がなされることはずっと少なくなるはずである。 For example, taking the operation in FIG. 5 as an example, before moving the cursor to the button D, the line-of-sight position E2 stops at the button C, and at that time, the button C is selected or the button D is selected. You may be presented with the intention of wondering what to do. If the line-of-sight position E2 cannot be referred to, there will be much less presentation of such intention.
再生部40で再生される意図抽出用データは、インタビュの進行状況に合わせて適宜、停止、早送り、巻戻し等の操作を行うことができる。好ましくは音圧センサ80を用い、ユーザから発話があったときに記憶部50からのデータの読み出しを一時停止し、ユーザの発話が終了したときに読み出しを再開するようにする。これにより再生部40による動作を、ユーザの発話に併せて自動化することができる。
The intention extraction data reproduced by the reproducing
インタビュ時にユーザから得られる発話情報を個体情報検出部30およびユーザの視野情報等を状況検出部20によって検出する(ステップS110)。それら映像情報に同期した状態での音声検出が必要となるため、状況検出部20と個体情報検出部30とによって検出した情報が同期して合成され(ステップS111)、記憶部50に記録される(ステップS112)。本実施例では、操作後のインタビュとしてユーザによる発話を例示したが、これ以外にも意図を提示する手段として、キーボードを使用したり、手による合図を行ったり、他の生体情報を提示するようにしてもよい。また、操作中に操作時間などの定量的計測などを併用することもできる。
The individual
図6は本実施例による意図抽出支援装置により実験を行ったときの発話効果を示す図である。実験条件は、インタビュ時に再生するビデオ画像に「視線あり」のものと「視線なし」のものを用意し、これらを複数の被験者に対して提示した。横軸は、ノーマンの行為の7段階のモデルに従い分類された項目を示し、縦軸は発話量を示し、「視線情報あり」はハッチングあり、「視線情報なし」がハッチングなしである。これらの図からも明らかなように、視線情報を併せて表示したときの発話量が視線情報がないときに比べて多く、ユーザの認知過程により近づいた発話内容を得ることができる。 FIG. 6 is a diagram showing an utterance effect when an experiment is performed by the intention extraction support apparatus according to the present embodiment. As experimental conditions, video images to be reproduced at the time of interview were prepared with “with gaze” and “without gaze” and presented to a plurality of subjects. The horizontal axis indicates items classified according to the seven-stage model of Norman's action, the vertical axis indicates the amount of speech, “with gaze information” indicates hatching, and “without gaze information” indicates no hatching. As is clear from these figures, the amount of utterance when the line-of-sight information is displayed together is larger than when there is no line-of-sight information, and the utterance content closer to the user's cognitive process can be obtained.
ノーマンの行為の7段階モデルは、例えば黒須他、ユーザ工学入門、共立出版株式会社、p103に紹介されている。図7は、ユーザの発話内容を行為の7段階モデルに従いに分類した例を示すものである。従来例(視線なし)と比較して視線ありの実験状態では、まんべんなく情報の抽出を行うことが出来たが、特に、実行過程(意図、選択、実行)に比べて評価課程(知覚、解釈、評価)における情報の増加が顕著であった。 A seven-stage model of Norman's action is introduced in, for example, Kurosu et al., Introduction to User Engineering, Kyoritsu Publishing Co., Ltd., p103. FIG. 7 shows an example in which user's utterance contents are classified according to a seven-stage model of action. Compared with the conventional example (no line of sight), in the experimental state with the line of sight, it was possible to extract information evenly, but in particular, the evaluation process (perception, interpretation, The increase in information in (Evaluation) was remarkable.
次に、本発明の第2の実施例について説明する。第2の実施例に係る操作性評価システムは、第1の実施例に係る意図抽出支援装置を用いて構成され、その機能的構成を図8に示す。操作性評価システム100は、意図抽出支援装置10と、意図抽出支援装置10の記憶部に記憶された意図抽出データに基づき問題点の分類を行う分類部110と、操作対象についての問題点毎の警告文等を記憶する記憶部120と、分類部110によって分類された結果と記憶部120の内容とを対比し警告の有無を判定する判定部130と、判定部130の結果に応じて警告を表示する警告表示部140とを含んで構成される。
Next, a second embodiment of the present invention will be described. The operability evaluation system according to the second embodiment is configured using the intention extraction support apparatus according to the first embodiment, and its functional configuration is shown in FIG. The operability evaluation system 100 includes an intention
図9は分類部110の動作を説明するためのフローチャートである。先ず、意図抽出支援装置10の記憶部からインタビュによって得られた発話データが読み出される(ステップS201)。次に、読み出された発話データが自然言語処理(ステップS202)および生体情報処理(ステップS203)によって処理される。自然言語処理によって、例えば発話データに含まれるラベリングに関する単語、文末表現(分からない、迷う等)を抽出する(ステップS202)。また、生体情報処理において、例えば注視量などによって停留時間が長い箇所、視線パターン(比較行動など)を抽出する(ステップS203)。
FIG. 9 is a flowchart for explaining the operation of the
次に、これらの抽出結果を同期させる(ステップS204)。自然言語処理および生体情報処理の抽出結果に基づき問題点の分類を行う(ステップS205)。問題点の分類は、例えば図7に示すような発話内容があったとき、図10に示すように、それらがデザイン上の問題か実行プロセス上の問題かに大分類され、さらに中項目に細分類される。例えば、「“余白”と“とじしろ”の違いが分からない」という発言は、デザインの問題であり、かつそのラベリングの問題に分類される。あるいは「縮小すればよいとやり方を勘違いして」という発言は、実行プロセスの問題であると分類されさらにまとめて一枚に印刷するという問題に分類される。 Next, these extraction results are synchronized (step S204). Based on the extraction results of natural language processing and biological information processing, problem classification is performed (step S205). For example, when there is an utterance content as shown in FIG. 7, the problem is classified roughly into a design problem or an execution process problem as shown in FIG. being classified. For example, the statement “I don't know the difference between“ margin ”and“ margin ”” is a design issue and is classified as a labeling issue. Or, the statement “Miss the way if it should be reduced” is classified as a problem of the execution process, and further classified as a problem of printing together on a single sheet.
判定部130は、分類された問題点と記憶部120に記憶された問題を対比し、該当する場合にはその警告等を読み出し、これが警告表示部140に表示される。設計者は、警告表示部140に表示された警告により操作対象の評価を認識することができる。
The
本実施例によれば、ユーザが実際に行った行動以外にもユーザの認知プロセスに基づいたより深い情報を得ることができ、これを利用して操作対象の操作性を評価することができる。また、そのような評価結果を操作性に反映することでユーザにとって本質的に必要とされる人間の処理機能にあった利便性の高い操作性の開発を行うことができる。 According to the present embodiment, it is possible to obtain deeper information based on the user's cognitive process in addition to the action actually performed by the user, and use this to evaluate the operability of the operation target. Also, by reflecting such evaluation results on operability, it is possible to develop highly convenient operability that is suitable for human processing functions that are essentially required for the user.
以上、本発明の好ましい実施の形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.
第1の実施例において、状況検出部および固体情報検出部からの検出結果を合成してから記憶部に記憶するようにしたが、これに限らず、状況検出部および固体情報検出部からの検出結果を記憶部に記憶し、その記憶された情報を合成するようにしてもよい。また、本発明において用いられる装置は限定的に解釈されるべきものではなく、複数の装置が結合されたシステムを包含する概念であり、同様に、本発明において用いられるシステムは限定的に解釈されるべきではなく単一もしくは複数の装置が結合されたものを包含する概念である。 In the first embodiment, the detection results from the situation detection unit and the solid information detection unit are combined and stored in the storage unit. However, the present invention is not limited to this, and detection from the situation detection unit and the solid information detection unit is performed. The result may be stored in the storage unit, and the stored information may be synthesized. Further, the device used in the present invention should not be interpreted in a limited manner, but is a concept including a system in which a plurality of devices are combined. Similarly, the system used in the present invention is interpreted in a limited manner. It is a concept that encompasses a combination of single or multiple devices.
本発明に係る意図抽出支援装置およびこれを用いた操作性評価システムは、人間の認知処理の視点に立った評価/分析をするための手法として利用することができ、特に、情報処理システム、電子機器等のユーザインタフェースのソフトウエアの評価/開発等に利用することができる。 The intention extraction support apparatus and the operability evaluation system using the same according to the present invention can be used as a technique for performing evaluation / analysis from the viewpoint of human cognitive processing, and in particular, an information processing system, electronic It can be used for evaluation / development of user interface software for devices and the like.
10:意図抽出支援装置 20:状況検出部
30:固体情報検出部 40:再生部
50:記憶部 60:プログラムメモリ
70:データメモリ 80:音圧センサ
90:中央処理部 100:操作性評価システム
110分類部 120:記憶部
130:判定部 140:警告表示部
10: intention extraction support device 20: situation detection unit 30: solid state information detection unit 40: reproduction unit 50: storage unit 60: program memory 70: data memory 80: sound pressure sensor 90: central processing unit 100:
Claims (17)
操作対象について実行された操作者の操作状況を検出し、その検出結果を示す操作状況情報を出力する状況検出手段と、
前記操作対象を実行するときの操作者の固体情報を検出し、その検出結果を示す固体情報を出力する固体情報検出手段と、
前記操作状況情報および前記固体情報を合成し、これを意図抽出用データとして記憶する記憶手段と、
前記記憶手段に記憶された意図抽出用データに基づき操作状況および固体情報を再生する再生手段と、
前記意図抽出用データの再生時に、操作者によって提示された意図情報を記憶する意図情報記憶手段と、
を有する意図抽出支援装置。 An intention extraction support device that extracts an operator's intention executed on an operation target,
A situation detection unit that detects an operation situation of the operator executed on the operation target and outputs operation situation information indicating the detection result;
Solid information detecting means for detecting solid information of an operator when executing the operation target and outputting solid information indicating the detection result;
Storage means for synthesizing the operation status information and the solid information and storing this as intention extraction data;
Reproducing means for reproducing the operation status and the solid information based on the intention extraction data stored in the storage means;
Intention information storage means for storing intention information presented by an operator when reproducing the intention extraction data;
An intention extraction support apparatus.
前記意図情報記憶手段に記憶された意図情報を分析し、操作対象の操作性を評価する評価手段と、
を有する操作性評価システム。 The intention extraction support apparatus according to any one of claims 1 to 8,
Analyzing the intention information stored in the intention information storage means and evaluating the operability of the operation target;
An operability evaluation system.
操作対象について実行された操作者の操作状況および操作者の固体情報を記憶し、
操作終了後に、記憶された操作状況および操作者の固体情報を再生し、
再生された操作状況および固体情報に対して操作者から提示された意図情報を記憶する、意図抽出支援方法。 An intention extraction support method for extracting an intention of an operator executed on an operation target,
Stores the operation status of the operator executed on the operation target and the individual information of the operator,
After the operation is completed, the stored operation status and the operator's individual information are reproduced,
An intention extraction support method for storing intention information presented by an operator for reproduced operation status and solid information.
記憶された意図情報を分析し操作対象の操作性を評価するステップを有する、操作性評価方法。 The steps of claim 12;
An operability evaluation method comprising analyzing the stored intention information and evaluating the operability of an operation target.
操作対象について実行された操作者の操作状況情報と当該操作対象についての操作者の固体情報を合成して意図抽出用データを作成し、
意図抽出用データに基づき操作状況および固体情報を再生させ、
意図抽出用データの再生時に操作者によって提示された意図情報を記憶させる、
意図抽出支援用プログラム。 An intention extraction support program for extracting an operator's intention executed on an operation target,
Create the intention extraction data by combining the operation status information of the operator executed for the operation target and the operator's solid information about the operation target,
Based on the data for intention extraction, reproduce the operation status and solid information,
Storing intention information presented by the operator when reproducing the data for intention extraction;
Intention extraction support program.
The intention extraction support program according to claim 16, further comprising a program for evaluating operability of an operation target based on intention information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003388506A JP2005149329A (en) | 2003-11-18 | 2003-11-18 | Intended extraction support apparatus, operability evaluation system using the same, and program for use in them |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003388506A JP2005149329A (en) | 2003-11-18 | 2003-11-18 | Intended extraction support apparatus, operability evaluation system using the same, and program for use in them |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005149329A true JP2005149329A (en) | 2005-06-09 |
Family
ID=34695548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003388506A Withdrawn JP2005149329A (en) | 2003-11-18 | 2003-11-18 | Intended extraction support apparatus, operability evaluation system using the same, and program for use in them |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005149329A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101707827B1 (en) * | 2015-12-16 | 2017-02-17 | 현대자동차주식회사 | User interface design apparatus and data processing method thereof |
KR101707862B1 (en) * | 2015-12-16 | 2017-02-17 | 현대자동차주식회사 | User interface design apparatus and data processing method thereof |
US10360903B2 (en) | 2015-03-20 | 2019-07-23 | Kabushiki Kaisha Toshiba | Spoken language understanding apparatus, method, and program |
US10490184B2 (en) | 2016-11-10 | 2019-11-26 | Samsung Electronics Co., Ltd. | Voice recognition apparatus and method |
-
2003
- 2003-11-18 JP JP2003388506A patent/JP2005149329A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10360903B2 (en) | 2015-03-20 | 2019-07-23 | Kabushiki Kaisha Toshiba | Spoken language understanding apparatus, method, and program |
KR101707827B1 (en) * | 2015-12-16 | 2017-02-17 | 현대자동차주식회사 | User interface design apparatus and data processing method thereof |
KR101707862B1 (en) * | 2015-12-16 | 2017-02-17 | 현대자동차주식회사 | User interface design apparatus and data processing method thereof |
US10490184B2 (en) | 2016-11-10 | 2019-11-26 | Samsung Electronics Co., Ltd. | Voice recognition apparatus and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Avots et al. | Audiovisual emotion recognition in wild | |
CN110517689B (en) | Voice data processing method, device and storage medium | |
US7797261B2 (en) | Consultative system | |
Schiel et al. | The SmartKom Multimodal Corpus at BAS. | |
US20110205148A1 (en) | Facial Tracking Electronic Reader | |
CN106971723A (en) | Method of speech processing and device, the device for speech processes | |
US11848968B2 (en) | System and method for augmented reality video conferencing | |
US11341331B2 (en) | Speaking technique improvement assistant | |
WO2022037600A1 (en) | Abstract recording method and apparatus, and computer device and storage medium | |
CN114095782A (en) | Video processing method and device, computer equipment and storage medium | |
JP2005149329A (en) | Intended extraction support apparatus, operability evaluation system using the same, and program for use in them | |
CN111711865A (en) | Method, apparatus and storage medium for outputting data | |
CN111726693A (en) | Audio and video playing method, device, equipment and medium | |
CN111147914A (en) | Video processing method, storage medium and electronic equipment | |
JP2005197883A (en) | Writing analysis apparatus | |
CN110890095A (en) | Voice detection method, recommendation method, device, storage medium and electronic equipment | |
JP4282343B2 (en) | Information management apparatus, information management system, and program | |
WO2022180860A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program | |
JP2019105751A (en) | Display control apparatus, program, display system, display control method and display data | |
WO2022047516A1 (en) | System and method for audio annotation | |
JP4787875B2 (en) | Information management apparatus and program | |
JP7288491B2 (en) | Information processing device and control method | |
WO2022180856A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program | |
WO2022180857A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program | |
WO2022180824A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061020 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080220 |