JP2005149329A - Intended extraction support apparatus, operability evaluation system using the same, and program for use in them - Google Patents

Intended extraction support apparatus, operability evaluation system using the same, and program for use in them Download PDF

Info

Publication number
JP2005149329A
JP2005149329A JP2003388506A JP2003388506A JP2005149329A JP 2005149329 A JP2005149329 A JP 2005149329A JP 2003388506 A JP2003388506 A JP 2003388506A JP 2003388506 A JP2003388506 A JP 2003388506A JP 2005149329 A JP2005149329 A JP 2005149329A
Authority
JP
Japan
Prior art keywords
information
intention
operator
extraction support
solid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003388506A
Other languages
Japanese (ja)
Inventor
Hideto Yuzawa
秀人 湯澤
Mikio Tozaki
幹夫 戸崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2003388506A priority Critical patent/JP2005149329A/en
Publication of JP2005149329A publication Critical patent/JP2005149329A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an intended extraction support apparatus which extracts a user's intention or the like executed on an operation object, after the end of operation on the basis of information obtained from the user operating an information processing system. <P>SOLUTION: An intended extraction support apparatus 10 which extracts an operator's intention executed on the operation object comprises; a condition detection means 20 which detects the operation condition of the operator executed on the operation object and outputs operation condition information showing a detection result; a solid information detection means 30 which detects solid information of the operator when executing the operation object and outputs solid information showing a detection result; a storage means 50 which combines the operation condition information and the solid information and stores the result as data for intention extraction; a reproducing means 40 which reproduces the operation condition and solid information on the basis of data for intention extraction stored in the storage means; and an intention information storage means 50 wherein intention information presented by the operator is stored when reproducing data for intention extraction. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、情報処理システムのユーザインタフェース開発や操作対象を含む環境開発において、操作性の評価や設計の支援を行う操作性評価支援に関する。   The present invention relates to operability evaluation support for performing operability evaluation and design support in user interface development of an information processing system and environment development including operation targets.

コンピュータ等を含む電子機器において、ユーザ(操作者)にとって利便性の高いユーザインタフェースのソフトウエアの開発が求められている。現在市場に提供されるソフトウエアは技術先行型であり、人間の処理機能を十分に議論し、その上で処理機能を支援する形には未だ至っていない。例えば、ユーザ工学の視点では、ISO13407において反復的開発サイクルの上流工程での利用文脈の理解を目的としたユーザ分析や設計後の対策に対するユーザを中心としたユーザビリティ(操作性)評価を重要視している。   In an electronic device including a computer or the like, development of user interface software that is highly convenient for a user (operator) is required. Currently, the software provided in the market is a technology-first type, and has not yet been fully discussed about human processing functions and then supports the processing functions. For example, from the viewpoint of user engineering, ISO 13407 emphasizes user analysis for the purpose of understanding the usage context in the upstream process of the iterative development cycle and usability (operability) evaluation centered on users for measures after design. ing.

コンピュータなどの使いやすさを評価する方法の一つに、操作状況の映像と音声を記録しておき、この映像および音声を再生して操作性を評価するものがある。例えば特許文献1は、発話内容の抽出を容易にするため、操作中の操作者の発話内容から操作者がある特定の操作を行っていたときの発話内容を選択的に抽出することができる発話内容抽出装置について開示している。   One of the methods for evaluating the ease of use of a computer or the like is to record the video and audio of the operation situation and reproduce the video and audio to evaluate the operability. For example, in Patent Document 1, in order to facilitate the extraction of utterance contents, the utterance contents that can selectively extract the utterance contents when the operator is performing a specific operation from the utterance contents of the operating operator. A content extraction device is disclosed.

特許文献2は、発話データ処理装置に関し、作業時の発話内容、発話が開始された時間、作業者の作業時における注視位置および注視位置が変化した時間を記憶し、発話データを表示するときに注視位置に対応する表示を表示させ、発話データ中に注視位置の情報を含ませるものである。   Patent Document 2 relates to an utterance data processing device, and stores utterance contents at the time of work, a time when the utterance is started, a gaze position at the time of an operator's work, and a time when the gaze position changes, and displays utterance data. A display corresponding to the gaze position is displayed, and the gaze position information is included in the utterance data.

特許文献3は、インタビュ時に顧客の嗜好性を引き出す手法として、過去の質問項目を蓄積したデータベースを利用し、顧客に対して迅速にかつばらつきの少ない質問事項を自動的に提案することが可能な技術を開示する。   Japanese Patent Laid-Open No. 2004-228867 can automatically propose prompt questions with little variation to a customer by using a database in which past question items are accumulated as a method for extracting customer preference during an interview. Disclose technology.

さらに、従来技術には、操作中に観察者が逐次インタビュ形式で操作者に質問をする手法や、操作中の思考を逐次操作者に発話させる思考発話法などの手法がある。   Furthermore, in the prior art, there are a method such as a method in which an observer sequentially asks an operator a question during an operation, and a method of thinking utterance in which the operator thinks the utterance during operation.

特開平2−131298号JP-A-2-131298 特開平2−39230号JP-A-2-39230 特開2002−197255号JP 2002-197255 A

しかしながら、特許文献1や2に開示される技術は、発話データを取得した後の処理や記録に関するものであり、その前段で重要となる、如何にしてユーザの認知過程に接近した発話内容を取得するかに関しては考慮されていなかった。   However, the techniques disclosed in Patent Documents 1 and 2 relate to processing and recording after acquiring utterance data, and acquire the utterance contents that are important in the previous stage, how close to the user's cognitive process. It was not considered as to what to do.

また、特許文献3に開示されるような過去に顕在化された質問項目から新たな質問項目を生成する手法もあるが、個別のユーザ毎の認知過程に接近した発話内容を取得するかに関しては考慮していなかった。   In addition, there is a method of generating a new question item from the question items that have been revealed in the past as disclosed in Patent Document 3, but regarding whether to acquire the utterance content that is close to the recognition process for each individual user Did not consider.

さらに、操作中に観察者が逐次インタビュ形式で操作者に質問していく手法や、操作中の思考を逐次操作者に発話させる思考発話法などの手法では、操作者の操作が遮断され、自然な操作状況での発話抽出が困難であった。また、操作中に逐次インタビュを行う場合には、操作時間など操作に関する定量的計測との併用が困難であった。   Furthermore, methods such as a method in which the observer asks the operator questions in an interview format during operation and a method of thinking utterance that causes the operator to utter the thoughts being operated are interrupted, and the operation of the operator is blocked. It was difficult to extract utterances in various operating situations. In addition, when interviews are performed sequentially during operation, it is difficult to use in combination with quantitative measurement related to the operation such as operation time.

本発明は、上記従来技術の課題を解決し、情報処理システムを操作するユーザから得られる情報に基づいて、操作終了後、操作対象に対して実行されたユーザの意図等の抽出を行う意図抽出支援装置およびこれを用いた操作性評価システムならびにこれらに用いられる方法及びプログラムを提供することを目的とする。   The present invention solves the above-described problems of the prior art, and extracts the intention of the user executed on the operation target after the operation based on the information obtained from the user who operates the information processing system. An object of the present invention is to provide a support device, an operability evaluation system using the same, and a method and a program used therefor.

本発明に係る操作対象について実行された操作者の意図を抽出する意図抽出支援装置は、操作対象について実行された操作者の操作状況を検出し、その検出結果を示す操作状況情報を出力する状況検出手段と、操作対象を実行するときの操作者の固体情報を検出し、その検出結果を示す固体情報を出力する固体情報検出手段と、操作状況情報および前記固体情報を合成し、これを意図抽出用データとして記憶する記憶手段と、記憶手段に記憶された意図抽出用データに基づき操作状況および固体情報を再生する再生手段と、意図抽出用データの再生時に、操作者によって提示された意図情報を記憶する意図情報記憶手段とを含んで構成される。   The intention extraction support apparatus for extracting the intention of the operator executed for the operation target according to the present invention detects the operation status of the operator executed for the operation target and outputs operation status information indicating the detection result The detection means, the solid information detection means for detecting the solid information of the operator when executing the operation target, and outputting the solid information indicating the detection result, the operation status information and the solid information are synthesized, and this is intended Storage means for storing as extraction data, reproduction means for reproducing operation status and solid information based on intention extraction data stored in the storage means, and intention information presented by the operator when reproducing intention extraction data And intention information storage means for storing.

好ましくは、操作状況情報は、操作対象について実行された操作者の行動についての映像情報および音声情報等を含む。状況検出手段は、例えば、ユーザ視野からみた操作状況を映し出す撮像装置や、操作環境の音声を入力する音声入力装置等を含む。   Preferably, the operation status information includes video information, audio information, and the like regarding the action of the operator executed for the operation target. The situation detection unit includes, for example, an imaging device that displays an operation situation viewed from the user's field of view, a voice input device that inputs voice of the operation environment, and the like.

好ましくは、固体情報は、操作者の生体情報や操作者の行動に関する情報を含む。生体情報は、好ましくは操作者の視線移動に関する情報を含む。生体情報は、これ以外にも、操作時の操作者の脳波などの情報を含むものでもよい。また、固体情報は、生体情報以外に、例えば操作中の操作者のうなずきや発話などの行動に関する情報等を含むものでもよい。   Preferably, the solid information includes information on the biological information of the operator and information on the behavior of the operator. The biological information preferably includes information related to the eye movement of the operator. In addition to this, the biological information may include information such as the brain wave of the operator at the time of operation. In addition to the biological information, the solid information may include, for example, information related to actions such as a nod and an utterance of the operator who is operating.

好ましくは再生手段は、意図抽出用データをディスプレイ上に再生させる。このとき、ディスプレイ上には、操作対象について実行された操車者の操作状況が再現され、同時に固体情報(例えば視線情報)も表示される。   Preferably, the reproduction means reproduces the intention extraction data on the display. At this time, on the display, the operation state of the operator executed for the operation target is reproduced, and at the same time, solid information (for example, line-of-sight information) is also displayed.

好ましくは意図情報は、操作者の発話データが含まれる。つまり、操作者は、自己の再現された操作状況および固体情報を見ることで、認知過程に接近した状態で、その操作を行おうとしたときの意図や考えを発話する。発話は、操作者が自発的に行うことができるが、インタビュ形式で発話をさせても良い。   Preferably, the intention information includes utterance data of the operator. That is, the operator speaks the intention and idea when he / she tried to perform the operation in a state close to the cognitive process by viewing his / her reproduced operation state and solid information. The utterance can be performed voluntarily by the operator, but may be uttered in an interview format.

さらに本発明の操作評価システムは、上記した意図抽出支援装置と、意図情報記憶手段に記憶された意図情報を分析し、操作対象の操作性を評価する評価手段とを有するものである。   Furthermore, the operation evaluation system of the present invention includes the above-described intention extraction support device and evaluation means for analyzing intention information stored in the intention information storage means and evaluating the operability of the operation target.

好ましくは評価手段は、意図情報から問題点の分類を行う分類部と、操作性の問題点に関する警告情報を予め登録したデータベースと、分類部によって分類された問題点と前記データベースの警告情報とを比較し該当する警告情報の有無を判定する判定手段とを有する。   Preferably, the evaluation unit includes a classification unit that classifies the problem from the intention information, a database in which warning information about the problem of operability is registered in advance, the problem classified by the classification unit, and the warning information of the database. Determining means for comparing and determining presence / absence of corresponding warning information.

さらに本発明に係る操作対象について実行された操作者の意図を抽出する意図抽出支援方法は、以下のステップを有する。操作対象について実行された操作者の操作状況および操作者の固体情報を記憶するステップと、操作終了後に、記憶された操作状況および操作者の固体情報を再生するステップと、再生された操作状況および固体情報に対して操作者から提示された意図情報を記憶するステップとを有している。この場合、好ましくは意図情報は、再生された操作状況および操作者の固体情報を見ながら操作者によって提示された発話データを含む。   Furthermore, the intention extraction support method for extracting the operator's intention executed on the operation target according to the present invention includes the following steps. A step of storing the operator's operation status and the operator's individual information executed for the operation target; a step of reproducing the stored operation status and the operator's individual information after the operation is completed; and the reproduced operation status and Storing the intention information presented by the operator for the solid information. In this case, the intention information preferably includes utterance data presented by the operator while viewing the reproduced operation status and the operator's individual information.

さらに上記した意図抽出支援方法を用いて、そこで記憶された意図情報を分析し操作対象の操作性を評価するステップを用いた操作性評価方法を実現することも可能である。   Furthermore, by using the above-described intention extraction support method, it is possible to realize an operability evaluation method using steps of analyzing intention information stored therein and evaluating the operability of the operation target.

さらに操作対象について実行された操作者の意図を抽出する意図抽出支援用プログラムは、操作対象について実行された操作者の操作状況情報と当該操作対象についての操作者の固体情報を合成して意図抽出用データを作成し、意図抽出用データに基づき操作状況および固体情報を再生させ、意図抽出用データの再生時に操作者によって提示された意図情報を記憶させる。   Further, the intention extraction support program for extracting the operator's intention executed for the operation target is intended to extract the intention by synthesizing the operation status information of the operator executed for the operation target and the operator's solid information about the operation target. Data is generated, the operation status and the solid information are reproduced based on the intention extraction data, and the intention information presented by the operator when the intention extraction data is reproduced is stored.

本発明によれば、操作対象についての操作後に、操作状況に加えて固体情報を併せて再生させることで、操作者の操作対象に対する認知過程に接近した、より深い多くの意図情報(例えば発話データ)を取得することができる。さらに、操作者からの意図情報を分析することで、操作者が意図していたことと設計者が意図していたことが一致しているか否かを判定することが容易となり、一致していない場合にはその問題点を解決させることで、今まで以上に操作性の改善を図ることができる。   According to the present invention, after the operation on the operation target, by reproducing solid information together with the operation status, much deeper intention information (for example, utterance data) that approaches the recognition process for the operation target of the operator is obtained. ) Can be obtained. Furthermore, by analyzing the intention information from the operator, it becomes easy to determine whether the intention intended by the operator and the intention intended by the designer are the same. In some cases, the operability can be improved more than ever by solving the problem.

以下、本発明を実施するための最良の形態を図面を参照して詳細に説明する。本実施の形態に係る意図抽出支援装置は、好ましくは情報処理システムやコンピュータ等の電子装置におけるユーザインタフェースの操作の認知度の判定に用いられる。つまり、ユーザは、その操作を完全に理解しているのか、全く理解していないのか、あるいはどのような意図若しくは考えで操作を行ったのかを事後的なインタビュによって抽出する。さらに好ましくは、意図抽出支援装置によって抽出された意図が実際のユーザインタフェースの設計の考えに一致するかどうかの評価に適用することができる。   The best mode for carrying out the present invention will be described below in detail with reference to the drawings. The intention extraction support apparatus according to the present embodiment is preferably used to determine the degree of recognition of user interface operations in an electronic apparatus such as an information processing system or a computer. That is, the user extracts whether the operation is completely understood, not understood at all, or what kind of intention or idea the operation is performed by a subsequent interview. More preferably, the present invention can be applied to the evaluation of whether or not the intention extracted by the intention extraction support apparatus matches an actual user interface design idea.

図1は、本発明の実施例に係る意図抽出支援装置の構成を示すブロック図である。意図抽出支援装置10は、ユーザの操作状況を検出する状況検出部20と、ユーザの固体情報を検出する固体情報検出部30と、ディスプレイやスピーカ等の出力装置を含む再生部40と、種々のデータを記憶する記憶部50と、意図抽出支援の動作を規定するプログラム等を記憶するプログラムメモリ60と、一時的にデータを記憶するデータメモリ70と、音圧センサ80と、プログラムメモリ60のプログラムに従いこれら各部を制御する中央処理部90とを含んで構成される。   FIG. 1 is a block diagram showing a configuration of an intention extraction support apparatus according to an embodiment of the present invention. The intention extraction support apparatus 10 includes a status detection unit 20 that detects a user's operation status, a solid information detection unit 30 that detects user's solid information, a playback unit 40 including an output device such as a display and a speaker, A storage unit 50 for storing data, a program memory 60 for storing a program for defining an operation of intention extraction support, a data memory 70 for temporarily storing data, a sound pressure sensor 80, and a program for the program memory 60 And a central processing unit 90 that controls these units.

状況検出部20は、操作対象物および操作環境に関するユーザの視野からの映像情報やその環境において聞こえてくる音声情報などを検出する。状況検出部20には、例えばCCDカメラや、ディスプレイ表示画面からの信号分岐による検出手段などの一般的な映像検出装置、集音マイクなど一般的な音情報検出装置などを適宜選択して用いることができる。   The situation detection unit 20 detects video information from the user's field of view regarding the operation target and the operation environment, audio information heard in the environment, and the like. For the situation detection unit 20, for example, a general video detection device such as a CCD camera, a detection means by signal branching from a display display screen, a general sound information detection device such as a sound collecting microphone, and the like are appropriately selected and used. Can do.

個体情報検出部30は、ユーザの行った操作に関する情報や、操作時のユーザの視線移動や脳波などの生体情報や、操作中のうなずきや発話などの行動に関する情報など、ユーザの個体情報を検出する。個体情報検出部30には、ボタンや、キーボード、タッチパネル、マウス等のポインティングデバイスなどの一般的な操作デバイスや、既存の生体情報測定装置、集音マイクなどの一般的な音情報検出装置、位置情報検出装置、モーションキャプチャ、CCDカメラ、ディスプレイ表示画面からの信号分岐による検出手段など一般的な映像検出装置及び検出手段などを適宜選択して用いることができる。   The individual information detection unit 30 detects the individual information of the user such as information related to the operation performed by the user, biological information such as movement of the user's line of sight and brain waves during the operation, and information related to actions such as nodding and speech during the operation. To do. The individual information detection unit 30 includes a general operation device such as a button, a pointing device such as a keyboard, a touch panel, and a mouse, a general sound information detection device such as an existing biological information measurement device and a sound collection microphone, and a position. A general video detection device and detection means such as an information detection device, a motion capture, a CCD camera, and detection means by signal branching from a display display screen can be appropriately selected and used.

ここで生体情報とは、例えば、操作中のユーザの視線軌跡、表示された情報を注視する時間、ユーザの瞳孔の開き具合及びユーザの脳波等のユーザの生体の情報を意味する。但し、情報処理システムを使用する際のユーザの生体に関する情報であればこれに限られるものではない。   Here, the biological information means, for example, information on the user's biological body such as the user's line of sight trajectory during the operation, the time for gazing at the displayed information, the degree of opening of the user's pupil, and the user's brain wave. However, the information is not limited to this as long as it is information about a user's living body when using the information processing system.

記憶部50は、VTR、半導体メモリ、ハードディスク、フレキシブルディスクなどの一般的な記録装置を適宜選択して用いることができる。再生部40は、記憶部50で記録された情報を出力するもので、ディスプレイ、タッチパネルなどの一般的な表示装置や音声出力機能が付いた表示装置を適宜選択して用いることができる。   As the storage unit 50, a general recording device such as a VTR, a semiconductor memory, a hard disk, or a flexible disk can be appropriately selected and used. The reproduction unit 40 outputs information recorded in the storage unit 50, and a general display device such as a display or a touch panel or a display device with an audio output function can be appropriately selected and used.

図2は本実施例の意図抽出支援装置の動作を示すフローチャートである。意図抽出支援動作は、ステップS101からS105までのユーザによる所定の操作対象についての操作と、ステップS106からS112までの操作後に行われるユーザへのインタビュに大別される。図3は、ステップS101からS105までの前者の動作を機能的に表現したブロック図、図4はステップS106からS112までの後者の動作を機能的に表現したブロック図である。   FIG. 2 is a flowchart showing the operation of the intention extraction support apparatus of this embodiment. The intention extraction support operation is roughly divided into an operation on a predetermined operation target by the user from steps S101 to S105 and an interview to the user performed after the operations from step S106 to S112. FIG. 3 is a block diagram functionally representing the former operation from steps S101 to S105, and FIG. 4 is a block diagram functionally representing the latter operation from steps S106 to S112.

まず、所定の操作対象についてユーザによる操作が開始される(ステップS101)。ここで対象となる作業は、例えば、ワードプロセッサシステムにおいて、ユーザが1つの文書を完成させるまでのような一連の処理全てを含むものであっても良いし、一連の処理の中の文字入力、編集又はファイル操作などの個々の処理であっても良い。また、さらに細かいカット&ペースト等の処理であっても良い。あるいは、ディスプレイ上の作業に限らず、複写機において、文書を複数部コピーして、各々を閉じて冊子を完成させるような作業であっても良い。   First, an operation by a user for a predetermined operation target is started (step S101). The target work here may include, for example, all of a series of processes until a user completes one document in a word processor system, or character input and editing in a series of processes. Alternatively, individual processing such as file operation may be performed. Further, processing such as finer cut and paste may be performed. Alternatively, the operation is not limited to the operation on the display, and may be an operation of copying a plurality of copies of a document and closing each of them to complete a booklet in a copying machine.

操作の開始に伴い、状況検出部20によってユーザによる操作状況が検出される。検出する操作状況報は、例えば、ワードプロセッサシステムを対象と場合、作業を行っているディスプレイ等の表示映像や、周りから聞こえてくる音情報等である。同時に、固体情報検出部30によってユーザの固体情報が検出される(ステップS102)。例えば、作業を行っている際のマウスの動きや、作業を行っている際の視線の動き、脳波、ユーザのうなずきや発話等を検出する。視線の動きは、例えば視線追尾装置よって検出することができる。   Along with the start of the operation, the status detection unit 20 detects the operation status by the user. For example, in the case of a word processor system, the operation status report to be detected is a display image of a display or the like on which work is performed, sound information heard from the surroundings, and the like. At the same time, the solid information of the user is detected by the solid information detection unit 30 (step S102). For example, the movement of the mouse during the work, the movement of the line of sight during the work, the electroencephalogram, the user's nodding and speech, and the like are detected. The movement of the line of sight can be detected by, for example, a line-of-sight tracking device.

次に、中央処理部90は、検出された操作状況に関する情報と固体情報とを合成する(ステップS103)。これらの情報は、互いに同期するようにして合成される。例えば、ワードプロセッサシステムを対象とした作業において、その作業中のマウスの動き、視線の動き等が付加された作業中のディスプレイ等に表示される画像をVTR等の記録媒体に記録しておく。   Next, the central processing unit 90 synthesizes the information related to the detected operation status and the solid information (step S103). These pieces of information are synthesized so as to be synchronized with each other. For example, in a work for a word processor system, an image displayed on a working display or the like to which the movement of the mouse or the movement of the line of sight is added is recorded on a recording medium such as a VTR.

例えば、図5に示すようなディスプレイ画面上の操作において、時刻T1においてユーザがカーソルP1をディスプレイ上のボタンBを操作し、次に時刻T2においてカーソルP2を移動させ、時刻T3においてカーソルP3をボタンDへ移動させる操作をしたとする。他方、ユーザの視線位置(図中、黒丸で示す)が、時刻T1においてボタンB上にあり、時刻T2においてボタンC上にあり、時刻T3においてボタンD上にあるとする。ユーザによる操作開始時刻を基準とし、各時刻T1、T2、T3のユーザの操作とユーザの視線位置E1、E2、E3とが時間的に一致するように合成される。こうして同期して合成された情報は、意図抽出用データとして記憶部50に格納される(ステップS104)。   For example, in the operation on the display screen as shown in FIG. 5, the user operates the cursor B1 on the display B at time T1, then moves the cursor P2 at time T2, and moves the cursor P3 to the button at time T3. It is assumed that an operation of moving to D is performed. On the other hand, it is assumed that the user's line-of-sight position (indicated by a black circle in the figure) is on button B at time T1, is on button C at time T2, and is on button D at time T3. Using the operation start time by the user as a reference, the user's operation at each time T1, T2, and T3 and the user's line-of-sight positions E1, E2, and E3 are combined in time. The information thus synthesized in synchronism is stored in the storage unit 50 as intention extraction data (step S104).

操作対象物あるいは対象環境を対象としたユーザによる操作が終了すると、次に、操作中のユーザの意図等に関するインタビュが開始される(ステップS106)。インタビュは、例えば、操作中のユーザの行動に関して、何をしたいと思って何を行ったか、その操作を行った結果は予想したものであったか、予想と異なる場合はどのように異なっていたか等を聞いていく。   When the user's operation for the operation target or target environment is completed, an interview regarding the intention of the user who is operating is started (step S106). The interview, for example, describes what the user wants to do and what he / she did about the user's behavior during the operation, whether the result of the operation was an expected one, how it was different if it was different from the expected one, etc. I will listen.

中央処理部90は、記憶部50に記憶された意図抽出用データを読み出し、これを再生部40において再生させる(ステップS107)。再生部40は、ディスプレイおよびスピーカから、ユーザが実行した操作およびユーザの固体情報を併せて再生する。例えば、図5に示したように、ユーザがカーソルをP1からP3へ移動させたとき、それに同期してユーザの視線位置が表示される。視線位置の変化を、黒丸によって表示することも可能であるが、これ以外にどのような形態で表示してもよい。   The central processing unit 90 reads the intention extraction data stored in the storage unit 50, and causes the reproduction unit 40 to reproduce it (step S107). The reproduction unit 40 reproduces the operation performed by the user and the user's individual information from the display and the speaker. For example, as shown in FIG. 5, when the user moves the cursor from P1 to P3, the user's line-of-sight position is displayed in synchronization therewith. The change in the line-of-sight position can be displayed by a black circle, but may be displayed in any form other than this.

次に、ユーザは再生されたディスプレイを見ながら、その操作を行ったときの状況を発話する(ステップS108)。例えば、図5を例にすると、時刻T1において「ボタンBの操作を完了し次の操作へ移る」、時刻T2において「次の操作がボタンCかボタンDか迷う」、時刻T3において「ボタンDと判断する」等と発話する。ユーザは、自分の過去に行った操作を説明しようとするとき、視線がどのような位置変化をしているのかを参照することで、そのときの認知過程に接近した状態で操作の背景にある意図をより深く提示することができる。   Next, the user speaks the situation when the operation is performed while viewing the reproduced display (step S108). For example, taking FIG. 5 as an example, “the operation of button B is completed and the operation proceeds to the next operation” at time T1, “the next operation is lost as button C or button D” at time T2, and “button D at time T3”. ” When a user tries to explain an operation performed in the past, the user is in the background of the operation in a state close to the cognitive process at that time by referring to the position change of the line of sight. The intention can be presented more deeply.

例えば、図5の操作を例にすると、ボタンDへカーソルを移動する前に、自分の視線位置E2がボタンCで止まったということから、そのときに、ボタンCを選択するのかボタンDを選択するのか迷ったという意図が提示されるかもしれない。もし、視線位置E2を参照できなければ、そのような意図の提示がなされることはずっと少なくなるはずである。   For example, taking the operation in FIG. 5 as an example, before moving the cursor to the button D, the line-of-sight position E2 stops at the button C, and at that time, the button C is selected or the button D is selected. You may be presented with the intention of wondering what to do. If the line-of-sight position E2 cannot be referred to, there will be much less presentation of such intention.

再生部40で再生される意図抽出用データは、インタビュの進行状況に合わせて適宜、停止、早送り、巻戻し等の操作を行うことができる。好ましくは音圧センサ80を用い、ユーザから発話があったときに記憶部50からのデータの読み出しを一時停止し、ユーザの発話が終了したときに読み出しを再開するようにする。これにより再生部40による動作を、ユーザの発話に併せて自動化することができる。   The intention extraction data reproduced by the reproducing unit 40 can be appropriately operated in accordance with the progress of the interview, such as stop, fast forward, and rewind. Preferably, the sound pressure sensor 80 is used so that the reading of data from the storage unit 50 is temporarily stopped when the user speaks, and the reading is resumed when the user's speech ends. Thereby, the operation | movement by the reproducing part 40 can be automated according to a user's utterance.

インタビュ時にユーザから得られる発話情報を個体情報検出部30およびユーザの視野情報等を状況検出部20によって検出する(ステップS110)。それら映像情報に同期した状態での音声検出が必要となるため、状況検出部20と個体情報検出部30とによって検出した情報が同期して合成され(ステップS111)、記憶部50に記録される(ステップS112)。本実施例では、操作後のインタビュとしてユーザによる発話を例示したが、これ以外にも意図を提示する手段として、キーボードを使用したり、手による合図を行ったり、他の生体情報を提示するようにしてもよい。また、操作中に操作時間などの定量的計測などを併用することもできる。   The individual information detection unit 30 and the user's visual field information and the like are detected by the situation detection unit 20 from the utterance information obtained from the user during the interview (step S110). Since it is necessary to detect the sound in synchronization with the video information, the information detected by the situation detection unit 20 and the individual information detection unit 30 is synthesized in synchronism (step S111) and recorded in the storage unit 50. (Step S112). In the present embodiment, the user's utterance is exemplified as an interview after the operation. However, as a means for presenting the intention other than this, a keyboard is used, a hand signal is given, or other biological information is presented. It may be. Further, it is possible to use quantitative measurement such as operation time during operation.

図6は本実施例による意図抽出支援装置により実験を行ったときの発話効果を示す図である。実験条件は、インタビュ時に再生するビデオ画像に「視線あり」のものと「視線なし」のものを用意し、これらを複数の被験者に対して提示した。横軸は、ノーマンの行為の7段階のモデルに従い分類された項目を示し、縦軸は発話量を示し、「視線情報あり」はハッチングあり、「視線情報なし」がハッチングなしである。これらの図からも明らかなように、視線情報を併せて表示したときの発話量が視線情報がないときに比べて多く、ユーザの認知過程により近づいた発話内容を得ることができる。   FIG. 6 is a diagram showing an utterance effect when an experiment is performed by the intention extraction support apparatus according to the present embodiment. As experimental conditions, video images to be reproduced at the time of interview were prepared with “with gaze” and “without gaze” and presented to a plurality of subjects. The horizontal axis indicates items classified according to the seven-stage model of Norman's action, the vertical axis indicates the amount of speech, “with gaze information” indicates hatching, and “without gaze information” indicates no hatching. As is clear from these figures, the amount of utterance when the line-of-sight information is displayed together is larger than when there is no line-of-sight information, and the utterance content closer to the user's cognitive process can be obtained.

ノーマンの行為の7段階モデルは、例えば黒須他、ユーザ工学入門、共立出版株式会社、p103に紹介されている。図7は、ユーザの発話内容を行為の7段階モデルに従いに分類した例を示すものである。従来例(視線なし)と比較して視線ありの実験状態では、まんべんなく情報の抽出を行うことが出来たが、特に、実行過程(意図、選択、実行)に比べて評価課程(知覚、解釈、評価)における情報の増加が顕著であった。   A seven-stage model of Norman's action is introduced in, for example, Kurosu et al., Introduction to User Engineering, Kyoritsu Publishing Co., Ltd., p103. FIG. 7 shows an example in which user's utterance contents are classified according to a seven-stage model of action. Compared with the conventional example (no line of sight), in the experimental state with the line of sight, it was possible to extract information evenly, but in particular, the evaluation process (perception, interpretation, The increase in information in (Evaluation) was remarkable.

次に、本発明の第2の実施例について説明する。第2の実施例に係る操作性評価システムは、第1の実施例に係る意図抽出支援装置を用いて構成され、その機能的構成を図8に示す。操作性評価システム100は、意図抽出支援装置10と、意図抽出支援装置10の記憶部に記憶された意図抽出データに基づき問題点の分類を行う分類部110と、操作対象についての問題点毎の警告文等を記憶する記憶部120と、分類部110によって分類された結果と記憶部120の内容とを対比し警告の有無を判定する判定部130と、判定部130の結果に応じて警告を表示する警告表示部140とを含んで構成される。   Next, a second embodiment of the present invention will be described. The operability evaluation system according to the second embodiment is configured using the intention extraction support apparatus according to the first embodiment, and its functional configuration is shown in FIG. The operability evaluation system 100 includes an intention extraction support device 10, a classification unit 110 that classifies problems based on intention extraction data stored in a storage unit of the intention extraction support device 10, and each problem for an operation target. A storage unit 120 that stores warning texts, a determination unit 130 that determines the presence or absence of a warning by comparing the result of classification by the classification unit 110 and the contents of the storage unit 120, and a warning according to the result of the determination unit 130 And a warning display unit 140 to be displayed.

図9は分類部110の動作を説明するためのフローチャートである。先ず、意図抽出支援装置10の記憶部からインタビュによって得られた発話データが読み出される(ステップS201)。次に、読み出された発話データが自然言語処理(ステップS202)および生体情報処理(ステップS203)によって処理される。自然言語処理によって、例えば発話データに含まれるラベリングに関する単語、文末表現(分からない、迷う等)を抽出する(ステップS202)。また、生体情報処理において、例えば注視量などによって停留時間が長い箇所、視線パターン(比較行動など)を抽出する(ステップS203)。   FIG. 9 is a flowchart for explaining the operation of the classification unit 110. First, the utterance data obtained by the interview is read from the storage unit of the intention extraction support apparatus 10 (step S201). Next, the read utterance data is processed by natural language processing (step S202) and biometric information processing (step S203). By natural language processing, for example, a word related to labeling included in the utterance data and a sentence end expression (not understood, lost, etc.) are extracted (step S202). Further, in the biometric information processing, for example, a portion having a long retention time, a line-of-sight pattern (comparison action, etc.) is extracted based on the amount of gaze (step S203).

次に、これらの抽出結果を同期させる(ステップS204)。自然言語処理および生体情報処理の抽出結果に基づき問題点の分類を行う(ステップS205)。問題点の分類は、例えば図7に示すような発話内容があったとき、図10に示すように、それらがデザイン上の問題か実行プロセス上の問題かに大分類され、さらに中項目に細分類される。例えば、「“余白”と“とじしろ”の違いが分からない」という発言は、デザインの問題であり、かつそのラベリングの問題に分類される。あるいは「縮小すればよいとやり方を勘違いして」という発言は、実行プロセスの問題であると分類されさらにまとめて一枚に印刷するという問題に分類される。   Next, these extraction results are synchronized (step S204). Based on the extraction results of natural language processing and biological information processing, problem classification is performed (step S205). For example, when there is an utterance content as shown in FIG. 7, the problem is classified roughly into a design problem or an execution process problem as shown in FIG. being classified. For example, the statement “I don't know the difference between“ margin ”and“ margin ”” is a design issue and is classified as a labeling issue. Or, the statement “Miss the way if it should be reduced” is classified as a problem of the execution process, and further classified as a problem of printing together on a single sheet.

判定部130は、分類された問題点と記憶部120に記憶された問題を対比し、該当する場合にはその警告等を読み出し、これが警告表示部140に表示される。設計者は、警告表示部140に表示された警告により操作対象の評価を認識することができる。   The determination unit 130 compares the classified problem with the problem stored in the storage unit 120, reads out a warning or the like if applicable, and displays the warning on the warning display unit 140. The designer can recognize the evaluation of the operation target from the warning displayed on the warning display unit 140.

本実施例によれば、ユーザが実際に行った行動以外にもユーザの認知プロセスに基づいたより深い情報を得ることができ、これを利用して操作対象の操作性を評価することができる。また、そのような評価結果を操作性に反映することでユーザにとって本質的に必要とされる人間の処理機能にあった利便性の高い操作性の開発を行うことができる。   According to the present embodiment, it is possible to obtain deeper information based on the user's cognitive process in addition to the action actually performed by the user, and use this to evaluate the operability of the operation target. Also, by reflecting such evaluation results on operability, it is possible to develop highly convenient operability that is suitable for human processing functions that are essentially required for the user.

以上、本発明の好ましい実施の形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.

第1の実施例において、状況検出部および固体情報検出部からの検出結果を合成してから記憶部に記憶するようにしたが、これに限らず、状況検出部および固体情報検出部からの検出結果を記憶部に記憶し、その記憶された情報を合成するようにしてもよい。また、本発明において用いられる装置は限定的に解釈されるべきものではなく、複数の装置が結合されたシステムを包含する概念であり、同様に、本発明において用いられるシステムは限定的に解釈されるべきではなく単一もしくは複数の装置が結合されたものを包含する概念である。   In the first embodiment, the detection results from the situation detection unit and the solid information detection unit are combined and stored in the storage unit. However, the present invention is not limited to this, and detection from the situation detection unit and the solid information detection unit is performed. The result may be stored in the storage unit, and the stored information may be synthesized. Further, the device used in the present invention should not be interpreted in a limited manner, but is a concept including a system in which a plurality of devices are combined. Similarly, the system used in the present invention is interpreted in a limited manner. It is a concept that encompasses a combination of single or multiple devices.

本発明に係る意図抽出支援装置およびこれを用いた操作性評価システムは、人間の認知処理の視点に立った評価/分析をするための手法として利用することができ、特に、情報処理システム、電子機器等のユーザインタフェースのソフトウエアの評価/開発等に利用することができる。   The intention extraction support apparatus and the operability evaluation system using the same according to the present invention can be used as a technique for performing evaluation / analysis from the viewpoint of human cognitive processing, and in particular, an information processing system, electronic It can be used for evaluation / development of user interface software for devices and the like.

本発明の実施例に係る意図抽出支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the intention extraction assistance apparatus which concerns on the Example of this invention. 本発明の実施例に係る意図抽出支援装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the intention extraction assistance apparatus which concerns on the Example of this invention. 本実施例における意図抽出支援装置の機能ブロック図である。It is a functional block diagram of the intention extraction assistance apparatus in a present Example. 本実施例における意図抽出支援装置の機能ブロック図である。It is a functional block diagram of the intention extraction assistance apparatus in a present Example. ユーザの操作状況と視線位置の例を説明する図である。It is a figure explaining the example of a user's operation condition and a look position. 本実施例における認知過程に基づく発話効果を示す図である。It is a figure which shows the speech effect based on the recognition process in a present Example. 発話内容を行為の7段階に分類した例を示す図である。It is a figure which shows the example which classified the utterance content into seven steps of action. 本発明の第2の実施例に係る操作性評価システムの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the operativity evaluation system which concerns on 2nd Example of this invention. 図8の分類部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the classification | category part of FIG. 発話内容と問題点の分類の関係を示す図である。It is a figure which shows the relationship between utterance content and a classification of a problem.

符号の説明Explanation of symbols

10:意図抽出支援装置 20:状況検出部
30:固体情報検出部 40:再生部
50:記憶部 60:プログラムメモリ
70:データメモリ 80:音圧センサ
90:中央処理部 100:操作性評価システム
110分類部 120:記憶部
130:判定部 140:警告表示部
10: intention extraction support device 20: situation detection unit 30: solid state information detection unit 40: reproduction unit 50: storage unit 60: program memory 70: data memory 80: sound pressure sensor 90: central processing unit 100: operability evaluation system 110 Classification unit 120: storage unit 130: determination unit 140: warning display unit

Claims (17)

操作対象について実行された操作者の意図を抽出する意図抽出支援装置であって、
操作対象について実行された操作者の操作状況を検出し、その検出結果を示す操作状況情報を出力する状況検出手段と、
前記操作対象を実行するときの操作者の固体情報を検出し、その検出結果を示す固体情報を出力する固体情報検出手段と、
前記操作状況情報および前記固体情報を合成し、これを意図抽出用データとして記憶する記憶手段と、
前記記憶手段に記憶された意図抽出用データに基づき操作状況および固体情報を再生する再生手段と、
前記意図抽出用データの再生時に、操作者によって提示された意図情報を記憶する意図情報記憶手段と、
を有する意図抽出支援装置。
An intention extraction support device that extracts an operator's intention executed on an operation target,
A situation detection unit that detects an operation situation of the operator executed on the operation target and outputs operation situation information indicating the detection result;
Solid information detecting means for detecting solid information of an operator when executing the operation target and outputting solid information indicating the detection result;
Storage means for synthesizing the operation status information and the solid information and storing this as intention extraction data;
Reproducing means for reproducing the operation status and the solid information based on the intention extraction data stored in the storage means;
Intention information storage means for storing intention information presented by an operator when reproducing the intention extraction data;
An intention extraction support apparatus.
前記操作状況情報は、操作対象および操作環境についての映像情報および音声情報を含む、請求項1に記載の意図抽出支援装置。 The intention extraction support apparatus according to claim 1, wherein the operation status information includes video information and audio information about an operation target and an operation environment. 前記固体情報は、操作対象についての操作者の生体情報を含む、請求項1に記載の意図抽出支援装置。 The intention extraction support device according to claim 1, wherein the solid information includes biological information of an operator regarding an operation target. 前記生体情報は、操作者の視線移動を含む、請求項3に記載の意図抽出支援装置。 The intention extraction support apparatus according to claim 3, wherein the biological information includes an eye movement of an operator. 前記再生手段は、意図抽出用データに基づき操作状況およびこれに同期した固体情報をディスプレイ上に再生させる、請求項3に記載の意図抽出支援装置。 The intention extraction support apparatus according to claim 3, wherein the reproduction unit reproduces an operation state and solid information synchronized with the operation state on the display based on the data for intention extraction. 前記固体情報は、操作者の視線位置を含む、請求項5に記載の意図抽出支援装置。 The intention extraction support apparatus according to claim 5, wherein the solid information includes an operator's line-of-sight position. 前記意図情報は、操作者の発話データを含む、請求項1に記載の意図抽出支援装置。 The intention extraction support apparatus according to claim 1, wherein the intention information includes utterance data of an operator. 前記意図情報は、インタビュ形式によって操作者から提示される、請求項1または7に記載の意図抽出支援装置。 The intention extraction support apparatus according to claim 1 or 7, wherein the intention information is presented by an operator in an interview format. 請求項1ないし8いずれか1に記載の意図抽出支援装置と、
前記意図情報記憶手段に記憶された意図情報を分析し、操作対象の操作性を評価する評価手段と、
を有する操作性評価システム。
The intention extraction support apparatus according to any one of claims 1 to 8,
Analyzing the intention information stored in the intention information storage means and evaluating the operability of the operation target;
An operability evaluation system.
前記評価手段は、意図情報から問題点の分類を行う分類部と、操作性の問題点に関する警告情報を予め登録したデータベースと、分類部によって分類された問題点と前記データベースの警告情報とを比較し該当する警告情報の有無を判定する判定手段とを有する、請求項7に記載の操作性評価システム。 The evaluation means compares a classification unit that classifies problems from intention information, a database in which warning information related to operability problems is registered in advance, and problems classified by the classification unit and warning information in the database The operability evaluation system according to claim 7, further comprising determination means for determining the presence or absence of corresponding warning information. 操作性評価システムはさらに、前記判定手段によって警告情報があると判定されたとき、当該判定結果を警告する警告手段を有する、請求項9に記載の操作性評価システム。 The operability evaluation system according to claim 9, further comprising warning means for warning the determination result when the determination means determines that there is warning information. 操作対象について実行された操作者の意図を抽出する意図抽出支援方法であって、
操作対象について実行された操作者の操作状況および操作者の固体情報を記憶し、
操作終了後に、記憶された操作状況および操作者の固体情報を再生し、
再生された操作状況および固体情報に対して操作者から提示された意図情報を記憶する、意図抽出支援方法。
An intention extraction support method for extracting an intention of an operator executed on an operation target,
Stores the operation status of the operator executed on the operation target and the individual information of the operator,
After the operation is completed, the stored operation status and the operator's individual information are reproduced,
An intention extraction support method for storing intention information presented by an operator for reproduced operation status and solid information.
前記意図情報は、再生された操作状況および操作者の固体情報を見ながら操作者によって提示された発話データを含む、請求項12に記載の意図抽出支援方法。 The intention extraction support method according to claim 12, wherein the intention information includes utterance data presented by an operator while viewing the reproduced operation status and the individual information of the operator. 前記固体情報は、操作者の視線移動である、請求項12に記載の意図抽出支援方法。 The intention extraction support method according to claim 12, wherein the solid information is an eye movement of an operator. 請求項12に記載のステップと、
記憶された意図情報を分析し操作対象の操作性を評価するステップを有する、操作性評価方法。
The steps of claim 12;
An operability evaluation method comprising analyzing the stored intention information and evaluating the operability of an operation target.
操作対象について実行された操作者の意図を抽出する意図抽出支援用プログラムであって、
操作対象について実行された操作者の操作状況情報と当該操作対象についての操作者の固体情報を合成して意図抽出用データを作成し、
意図抽出用データに基づき操作状況および固体情報を再生させ、
意図抽出用データの再生時に操作者によって提示された意図情報を記憶させる、
意図抽出支援用プログラム。
An intention extraction support program for extracting an operator's intention executed on an operation target,
Create the intention extraction data by combining the operation status information of the operator executed for the operation target and the operator's solid information about the operation target,
Based on the data for intention extraction, reproduce the operation status and solid information,
Storing intention information presented by the operator when reproducing the data for intention extraction;
Intention extraction support program.
前記意図抽出支援用プログラムはさらに、意図情報に基づき操作対象の操作性を評価するプログラムを含む、請求項16に記載の意図抽出支援用プログラム。
The intention extraction support program according to claim 16, further comprising a program for evaluating operability of an operation target based on intention information.
JP2003388506A 2003-11-18 2003-11-18 Intended extraction support apparatus, operability evaluation system using the same, and program for use in them Withdrawn JP2005149329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003388506A JP2005149329A (en) 2003-11-18 2003-11-18 Intended extraction support apparatus, operability evaluation system using the same, and program for use in them

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003388506A JP2005149329A (en) 2003-11-18 2003-11-18 Intended extraction support apparatus, operability evaluation system using the same, and program for use in them

Publications (1)

Publication Number Publication Date
JP2005149329A true JP2005149329A (en) 2005-06-09

Family

ID=34695548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003388506A Withdrawn JP2005149329A (en) 2003-11-18 2003-11-18 Intended extraction support apparatus, operability evaluation system using the same, and program for use in them

Country Status (1)

Country Link
JP (1) JP2005149329A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101707827B1 (en) * 2015-12-16 2017-02-17 현대자동차주식회사 User interface design apparatus and data processing method thereof
KR101707862B1 (en) * 2015-12-16 2017-02-17 현대자동차주식회사 User interface design apparatus and data processing method thereof
US10360903B2 (en) 2015-03-20 2019-07-23 Kabushiki Kaisha Toshiba Spoken language understanding apparatus, method, and program
US10490184B2 (en) 2016-11-10 2019-11-26 Samsung Electronics Co., Ltd. Voice recognition apparatus and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10360903B2 (en) 2015-03-20 2019-07-23 Kabushiki Kaisha Toshiba Spoken language understanding apparatus, method, and program
KR101707827B1 (en) * 2015-12-16 2017-02-17 현대자동차주식회사 User interface design apparatus and data processing method thereof
KR101707862B1 (en) * 2015-12-16 2017-02-17 현대자동차주식회사 User interface design apparatus and data processing method thereof
US10490184B2 (en) 2016-11-10 2019-11-26 Samsung Electronics Co., Ltd. Voice recognition apparatus and method

Similar Documents

Publication Publication Date Title
Avots et al. Audiovisual emotion recognition in wild
CN110517689B (en) Voice data processing method, device and storage medium
US7797261B2 (en) Consultative system
Schiel et al. The SmartKom Multimodal Corpus at BAS.
US20110205148A1 (en) Facial Tracking Electronic Reader
CN106971723A (en) Method of speech processing and device, the device for speech processes
US11848968B2 (en) System and method for augmented reality video conferencing
US11341331B2 (en) Speaking technique improvement assistant
WO2022037600A1 (en) Abstract recording method and apparatus, and computer device and storage medium
CN114095782A (en) Video processing method and device, computer equipment and storage medium
JP2005149329A (en) Intended extraction support apparatus, operability evaluation system using the same, and program for use in them
CN111711865A (en) Method, apparatus and storage medium for outputting data
CN111726693A (en) Audio and video playing method, device, equipment and medium
CN111147914A (en) Video processing method, storage medium and electronic equipment
JP2005197883A (en) Writing analysis apparatus
CN110890095A (en) Voice detection method, recommendation method, device, storage medium and electronic equipment
JP4282343B2 (en) Information management apparatus, information management system, and program
WO2022180860A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
JP2019105751A (en) Display control apparatus, program, display system, display control method and display data
WO2022047516A1 (en) System and method for audio annotation
JP4787875B2 (en) Information management apparatus and program
JP7288491B2 (en) Information processing device and control method
WO2022180856A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022180857A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022180824A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061020

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080220