JP2019159690A - Information processing program, information processing method, and information processor - Google Patents
Information processing program, information processing method, and information processor Download PDFInfo
- Publication number
- JP2019159690A JP2019159690A JP2018044444A JP2018044444A JP2019159690A JP 2019159690 A JP2019159690 A JP 2019159690A JP 2018044444 A JP2018044444 A JP 2018044444A JP 2018044444 A JP2018044444 A JP 2018044444A JP 2019159690 A JP2019159690 A JP 2019159690A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- call
- information processing
- question
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、情報処理プログラム、情報処理方法及び情報処理装置に関する。 The present invention relates to an information processing program, an information processing method, and an information processing apparatus.
職場に導入されている業務用のコンピュータシステムを利用するユーザは、当該コンピュータシステムの操作方法が分からない場合、マニュアルを参照したり、他のユーザ(例えば、隣の席の同僚)に口頭で質問したりすることで、正しい操作方法を知ることができる。 Users who use a business computer system installed in the workplace can refer to the manual or ask other users (for example, a colleague next door) a verbal question if they do not know how to operate the computer system. By doing so, you can know the correct operation method.
しかしながら、他のユーザに対して口頭で質問が行われた場合、当該質問に対する回答は、業務システムの操作の習熟に関して有益な情報であるにも関わらず、基本的には記録として残らない。したがって、当該回答に関する事項がマニュアルに記載されていない場合。他のユーザ間においても同様の質問が繰り返される可能性が有ある。 However, when an oral question is made to another user, the answer to the question is basically not recorded, although it is useful information regarding proficiency in the operation of the business system. Therefore, when the matter concerning the answer is not described in the manual. The same question may be repeated among other users.
そこで、一側面では、本発明は、口頭での質問に関する情報を効率良く蓄積することを目的とする。 Therefore, in one aspect, an object of the present invention is to efficiently accumulate information related to verbal questions.
一つの態様では、情報処理プログラムは、所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定する処理と、前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、をコンピュータに実行させる。 In one aspect, the information processing program includes a process of determining whether the expression of the question is included in the voice input from the microphone during a period in which any one of the predetermined screen groups is displayed. When the speech includes the expression, the computer causes the computer to execute processing for associating information indicating the content of the speech with the identification information of the screen and storing the information in a storage unit.
一側面として、口頭での質問に関する情報を効率良く蓄積することができる。 As one aspect, it is possible to efficiently accumulate information related to verbal questions.
以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における情報処理システム1の構成例を示す図である。図1において、情報処理システム1は、解析装置10と1以上のユーザ端末20とを含む。解析装置10と各ユーザ端末20とは、LAN(Local Area Network)又はインターネット等のネットワークを介して接続される。例えば、情報処理システム1は、企業、病院、自治体の役所等の組織(以下、「組織A」という。)において運用される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of an
ユーザ端末20は、組織Aの職員に対して、組織Aにおける業務に関するコンピュータシステム(以下、「業務システム」という。)のユーザインタフェース(以下、「業務システムUI」という。)を提供する端末である。業務システムUIは、複数の画面(以下、それぞれを「業務画面」という。)の集合である。例えば、PC(Personal Computer)、タブレット端末、又はスマートフォン等が、ユーザ端末20として利用されてもよい。なお、ユーザ端末20のユーザは、業務システムに対するコールセンタにおけるオペレータであってもよい。
The
解析装置10は、ユーザ端末20のユーザの会話の内容を収集し、収集した会話の内容から業務システムに関する質問及び回答に関する会話の内容を抽出し、抽出した会話の内容の蓄積等を行う1以上のコンピュータである。解析装置10は、また、ユーザ端末20における業務システムUIの操作の履歴情報である操作ログに基づいて、業務システムに対する操作に関して、所定の操作手順(業務システムにおいて予定されている正しい操作手順)から逸脱している操作を検出する。
The
図2は、本発明の実施の形態における解析装置10のハードウェア構成例を示す図である。図2の解析装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。
FIG. 2 is a diagram illustrating a hardware configuration example of the
解析装置10での処理を実現するプログラムは、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
A program that realizes processing in the
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って解析装置10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。
The
なお、記録媒体101の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。
An example of the
なお、ユーザ端末20も図2に示されるようなハードウェア構成を有していてもよい。但し、ユーザ端末20は、キーボード、マウス、タッチパネル等の入力装置や表示装置等を有する。
The
図3は、本発明の実施の形態における情報処理システム1の機能構成例を示す図である。図3において、ユーザ端末20は、録音制御部21、音声認識部22、会話データ送信部23、システムUI部24及び操作ログ送信部25等を有する。これら各部は、ユーザ端末20にインストールされた1以上のプログラムが、ユーザ端末20のCPUに実行させる処理により実現される。ユーザ端末20は、また、音声データ記憶部211及び操作ログ記憶部212等を利用する。これら各記憶部は、例えば、ユーザ端末20の補助記憶装置、又はユーザ端末20にネットワークを介して接続可能な記憶装置等を用いて実現可能である。
FIG. 3 is a diagram illustrating a functional configuration example of the
録音制御部21は、業務システムを利用中のユーザの会話が録音された音声データの生成を制御する。会話の音声は、例えば、ユーザ端末20に接続されたマイクから入力されてもよい。又は、ユーザ端末20のユーザが、コールセンタのオペレータであれば、電話機とユーザ端末20とを接続し、電話機から会話(通話)の音声が入力されるようにしてもよいし、オペレータが装着するヘッドセットとユーザ端末20とを接続することで、ヘッドセットから会話の音声が入力されるようにしてもよい。
The
なお、会話とは、ユーザ端末20のユーザが組織Aの職員である場合であれば、職員同士の会話(例えば、ユーザと、当該ユーザの周囲に存在する職員との会話)である。本実施の形態では、業務システムのユーザが、業務システムの操作が分からない場合や疑問が有る場合等に、当該ユーザが他の職員に質問をすることを想定する。
In addition, if the user of the
また、ユーザ端末20のユーザがコールセンタのオペレータである場合において、会話とは、コールセンタへ電話をかけてきた者(例えば、組織Aの職員等、以下「質問者」という。)とオペレータとの間での会話である。又は、質問者から質問を受けたオペレータが、例えば、業務システムの開発者等に当該質問に関する問い合わせを行ってもよい。この場合、オペレータは、質問者との通話の開始後、当該通話を保留状態(すなわち、マイクに入力される音声が、質問者に送信されない状態)とし、当該開発者等と通話することで、当該開発者等に対して質問を行うと共に、当該開発者等から回答を得る。このようなオペレータと開発者等との電話での会話の内容が、例えば、オペレータの電話機から録音制御部21に入力されるようにしてもよい。
Further, when the user of the
なお、音声データは、会話の際にユーザ端末20に表示されていた業務画面の識別情報(以下、「画面ID」という。)等に関連付けられて音声データ記憶部211に記憶される。すなわち、音声データは、表示された業務画面ごとに生成される。
The voice data is stored in the voice
音声認識部22は、各音声データについて音声認識を行い、音声データを文字列に変換することで、音声データごとに、音声認識の結果である文字列と、当該音声データに関連付けられている画面ID等とを含むデータ(以下「会話データ」という。)を生成する。
The
会話データ送信部23は、会話データ群を解析サーバへ送信する。
The conversation
システムUI部24は、業務画面の表示を制御する。システムUI部24は、表示対象の業務画面が遷移(変化)するごとに、業務画面に対する操作の履歴情報を示す操作ログを操作ログ記憶部212に記憶する。したがって、各操作ログは、いずれか1つの業務画面に対応し、当該業務画面の画面IDや当該業務画面が表示されていた期間を示す情報等を含む。
The
操作ログ送信部25は、操作ログ群を解析装置10へ送信する。
The operation
一方、解析装置10は、会話データ受信部11、QA抽出部12、検索部13、操作ログ受信部14及び操作ログ解析部15等を有する。これら各部は、解析装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。解析装置10は、また、キーワード記憶部111、QA記憶部112、操作時間記憶部113、遷移情報記憶部114及び判定結果記憶部115等を利用する。これら各記憶部は、例えば、補助記憶装置102、又は解析装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。
On the other hand, the
会話データ受信部11は、ユーザ端末20から送信される会話データ群を受信する。QA抽出部12は、会話データ受信部11が受信した会話データ群の中から、キーワード記憶部111を参照して、業務システムの操作に関する質問又は疑問(以下「質問」で統一する。)、及び当該質問に対する回答を含む可能性の高い会話データ(以下、「QAデータ」という。)を抽出する。抽出されたQAデータは、QA記憶部112に記憶される。キーワード記憶部111には、質問に含まれる可能性の高い文字列(以下、「キーワード」という。)の一覧が記憶されている。
The conversation data receiving unit 11 receives a conversation data group transmitted from the
検索部13は、ユーザ端末20のシステムUI部24からのQAデータの取得要求に応じ、当該取得要求に含まれている業務画面の画面IDを含むQAデータをQA記憶部112から検索し、検索されたQAデータをシステムUI部24へ返信する。なお、システムUI部24は、画面遷移が発生するたびに、遷移先の業務画面の画面IDを含む、QAデータの取得要求を検索部13に送信する。システムUI部24は、遷移先の業務画面と共に、検索部13から返信されたQAデータを含むポップアップ画面を表示する。そうすることで、ユーザは、当該遷移先の業務画面の操作についてのヒントを事前に(操作前に)得ることができる。
In response to the QA data acquisition request from the
操作ログ受信部14は、ユーザ端末20の操作ログ送信部25から送信される操作ログ群を受信する。
The operation
操作ログ解析部15は、操作ログ受信部14によって受信された操作ログ群に基づいて、ユーザによる操作が所定の操作手順から逸脱しているか否かを判定し、判定結果を各操作ログに付与する。判定結果が付与された操作ログは、判定結果記憶部115に記憶される。
The operation
以下、情報処理システム1において実行される処理手順について説明する。図4は、ユーザ端末20が実行する会話データの生成処理の処理手順の一例を説明するためのフローチャートである。
Hereinafter, a processing procedure executed in the
録音制御部21は、画面遷移の発生を待機している(S101)。画面遷移とは、システムUI部24の起動直後に表示される業務画面であるメニュー画面の表示、又は業務画面から他の業務画面への画面の遷移をいう。斯かる画面遷移は、例えば、ユーザ端末20のOS(Operating System)からのイベントに基づいて検知されてもよい。
The
画面遷移が発生すると、録音制御部21は、現時点においてユーザの会話を録音中であるか否かを判定する(S102)。録音中でない場合(S102でNo)、録音制御部21は、録音を開始する(S103)。続いて、録音制御部21は、現在表示中(操作対象)の業務画面の画面情報をシステムUI部24から取得する(S104)。画面情報は、業務画面の画面ID及び画面名等を含む情報である。
When the screen transition occurs, the
なお、質問者とオペレータとの通話の開始後、当該通話が保留状態とされ、オペレータと開発者等との会話の内容が録音対象とされる場合、初めてステップS103が実行される際において、録音制御部21は、質問者とオペレータとの通話(すなわち、最初の通話)の開始後にオペレータの電話機に対して保留の指示が入力されるのを待機してもよい。すなわち、録音制御部21は、質問者とオペレータとの通話が保留状態へ移行するのを検出した場合に、オペレータと開発者等との通話(すなわち、2番目の通話)について録音を開始するようにしてもよい。
Note that after the call between the questioner and the operator is started, the call is put on hold, and when the content of the conversation between the operator and the developer is to be recorded, the recording is performed when step S103 is executed for the first time. The
また、録音制御部21は、オペレータの電話機に対して保留の指示が入力され、かつ、オペレータの電話機と開発者等の電話機との通話が接続されるまで、録音の開始を待機してもよい。すなわち、録音制御部21は、質問者との通話が保留状態であって、かつ、開発者等との間で通話中である場合に、録音を行うようにしてもよい。
The
更に、録音制御部21は、オペレータと質問者との通話中において、オペレータによるいずれかの業務画面に対する操作の入力が所定期間以上実行されない場合(すなわち、オペレータの操作が中断された期間が所定期間を超えた場合)、又はオペレータによる操作が、所定の操作手順から逸脱したこと検出した場合に限って、質問者からのコールセンタへの電話が保留状態とされた場合にオペレータと開発者等との通話の内容の録音を開始するようにしてもよい。この場合、当該オペレータが、質問者からの質問に対する回答に手間取っていることが推定される。したがって、このような場合の2番目の通話の内容は、質問者からの質問に対する回答を開発者等から得るための会話である可能性が高いと考えられる。
Furthermore, the
なお、所定の操作手順からの逸脱の検出方法は、後述の図12のステップS404における判定方法と同じでもよい。すなわち、想定されている画面遷移と異なる画面遷移が発生した場合に、所定の操作手順から逸脱した操作が検出されてもよい。 Note that a method for detecting deviation from a predetermined operation procedure may be the same as the determination method in step S404 of FIG. That is, when a screen transition different from the assumed screen transition occurs, an operation deviating from a predetermined operation procedure may be detected.
一方、録音中である場合(すなわち、録音が開始されている場合)(S102でYes)、録音制御部21は、録音を終了する(S105)。続いて、録音制御部21は、録音の開始から終了までに録音された音声データを、画面情報に関連付けて音声データ記憶部211に記憶する(S106)。
On the other hand, when recording is in progress (that is, when recording is started) (Yes in S102), the
続いて、録音制御部21は、ステップS103及びS104を実行して、画面の遷移を待機する(S101)。したがって、音声データ記憶部211には、例えば、図5に示されるように音声データが記憶される。
Subsequently, the
図5は、音声データ記憶部211の構成例を示す図である。図5に示されるように、音声データ記憶部211には、業務画面ごとに、当該業務画面の画面ID及び画面名と、当該業務画面が表示されている期間において行われた会話が録音された音声データとが関連付けられて記憶される。なお、図5において、音声データにおける会話の内容は、便宜上、文字列によって表現されているが、この時点では、会話の内容は音声データの形式で記憶されている。
FIG. 5 is a diagram illustrating a configuration example of the audio
その後、ユーザによる業務システムの利用が終了すると(S107でYes)、録音制御部21は、ステップS105及びS106と同様の処理を実行することで、最後に表示されていた業務画面に関する音声データを音声データ記憶部211に記憶する(S108、S109)。
Thereafter, when the use of the business system by the user ends (Yes in S107), the
続いて、音声認識部22は、音声データ記憶部211に記憶されている各音声データから、音声認識によって文字列を認識する(すなわち、音声データが文字列に変換される)(S110)。その結果、図5におけるレコードごとに、音声データが文字列(以下、「会話文字列」という。)に置き換わった会話データが生成される。
Subsequently, the
続いて、会話データ送信部23は、音声認識部22によって生成された会話データ群を解析装置10へ送信する(S110)。当該会話データ群は、会話データ受信部11によって受信される。
Subsequently, the conversation
図6は、解析装置10が実行する会話データ群からのQAデータの抽出処理の処理手順の一例を説明するためのフローチャートである。
FIG. 6 is a flowchart for explaining an example of a processing procedure of QA data extraction processing from the conversation data group executed by the
ステップS201において、QA抽出部12は、会話データ受信部11によって受信された会話データ群から1つの会話データを処理対象として取得する。以下、取得された会話データを「対象会話データ」という。
In step S <b> 201, the
続いて、QA抽出部12は、対象会話データ内の会話文字列(音声データから変換された文字列)に、キーワード記憶部111に記憶されているいずれかのキーワードが含まれているか否かを判定する(S202)。
Subsequently, the
図7は、キーワード記憶部111の構成例を示す図である。図7に示されるように、キーワード記憶部111には、口頭での質問に含まれる頻度が高いであろうと推定される表現を示す文字列がキーワードとして記憶されている。
FIG. 7 is a diagram illustrating a configuration example of the
対象会話データ内の会話文字列がいずれかのキーワードを含む場合(S202でYes)、QA抽出部12は、対象会話データをQAデータとしてQA記憶部112に記憶する(S203)。
When the conversation character string in the target conversation data includes any keyword (Yes in S202), the
図8は、QA記憶部112の構成例を示す図である。図8に示されるように、QA記憶部112に記憶されるQAデータの構成は、会話データの構成と同じである。図8では、図5に示した音声データ記憶部211におけるレコードのうち、項番3のレコードに係る会話データが、QAデータには該当しないと判定された例を示す。
FIG. 8 is a diagram illustrating a configuration example of the
なお、業務画面の表示中に、業務画面の操作とは無関係な質問が行われる可能性も考えられる。このような可能性を考慮して、ステップS202における判定条件を、「会話文字列にいずれかのキーワードが含まれ、かつ、会話文字列に対象会話データの画面名が含まれること」としてもよい。隣の同僚等に業務画面の操作に関する質問を行う場合、当該業務画面の画面名等が当該質問に含まれる可能性が有ると考えられるからである。 It is possible that a question unrelated to the operation of the business screen may be asked during the display of the business screen. In consideration of such a possibility, the determination condition in step S202 may be “any one keyword is included in the conversation character string and the screen name of the target conversation data is included in the conversation character string”. . This is because when a question about operation of a business screen is given to a neighboring colleague or the like, the screen name of the business screen may be included in the question.
ステップS201以降が、会話データ受信部11によって受信された会話データ群に含まれる全ての会話データについて実行されると(S204でYes)、図6の処理は終了する。 When step S201 and subsequent steps are executed for all conversation data included in the conversation data group received by the conversation data receiving unit 11 (Yes in S204), the processing in FIG. 6 ends.
図9は、ユーザ端末20が業務画面の遷移に応じて実行する処理手順の一例を説明するためのフローチャートである。ユーザ端末20においてシステムUI部24(業務システムのクライアント)が起動されると、システムUI部24は、図9の処理を開始する。
FIG. 9 is a flowchart for explaining an example of a processing procedure executed by the
システムUI部24は、起動に応じ、業務画面群のうち最初に表示される画面であるメニュー画面を表示装置106へ表示する(S301)。メニュー画面は、業務のメニューを選択する画面である。
In response to the activation, the
続いて、システムUI部24は、変数tsに現在日時を代入する(S302)。変数tsは、表示中の業務画面の表示の開始日時を記憶しておくための変数である。続いて、システムUI部24は、表示中の業務画面(この段階ではメニュー画面)に対応するQAデータの取得要求を、解析装置10の検索部13へ送信する(S303)。当該取得要求には、表示中の業務画面の画面IDが含まれる。
Subsequently, the
当該取得要求を受信した検索部13は、当該取得要求に含まれている画面IDを含むQAデータをQA記憶部112(図8)から検索する。該当するQAデータが検索された場合、検索部13は、該当するQAデータを出力対象としてQA記憶部112から取得し、当該QAデータを含む応答を返信する。該当するQAデータが検索されない場合、検索部13は、該当するQAデータが無いことを示す応答を返信する。
The
検索部13からの応答にQAデータが含まれていない場合(S304でNo)、システムUI部24は、表示中の業務画面(以下、「表示画面」という。)に対するユーザによる操作を待機する(S306)。検索部13からの応答にQAデータが含まれている場合(S304でYes)、システムUI部24は、当該QAデータを表示装置106に表示して(S305)、ステップS306へ進む。
When QA data is not included in the response from the search unit 13 (No in S304), the
表示画面がユーザによって操作され(S306でYes)、当該操作が業務画面の遷移を発生させる操作である場合(S307でYes)、システムUI部24は、遷移元の業務画面(現在の表示画面)がメニュー画面であるか否かを判定する(S308)。遷移元がメニュー画面である場合(S308でYes)、システムUI部24は、メニュー画面において選択されたメニューのメニュー情報を、対象メニュー情報としてメモリ装置103に記憶する(S309)。ここで、メニュー情報とは、メニューID及びメニュー名を含む情報である。
When the display screen is operated by the user (Yes in S306) and the operation is an operation that causes a transition of the business screen (Yes in S307), the
続いて、システムUI部24は、変数teに現在日時を代入する(S310)。変数teは、遷移元の業務画面の表示が終了した日時を記憶するための変数である。続いて、システムUI部24は、操作ログを生成し、生成した操作ログを操作ログ記憶部212へ記憶する(S311)。
Subsequently, the
図10は、操作ログ記憶部212の構成例を示す図である。図10に示される1行が1つの操作ログに相当する。各操作ログは、項番、年月日、開始時刻、終了時刻、ユーザID、メニューID、メニュー名、画面ID、画面名及び遷移先画面名等を含む。
FIG. 10 is a diagram illustrating a configuration example of the operation
項番は、操作ログの順番を示す情報である。年月日は、操作ログが生成された年月日である。開始時刻は、操作ログに対応する業務画面の表示が開始された時刻である。終了時刻は、当該業務画面の表示が終了した時刻である。ユーザIDは、業務システムを利用するユーザのユーザIDである。例えば、ユーザIDは、業務システムへのログイン時等に入力されてもよい。メニューID及びメニュー名は、当該業務画面の表示の前に最後に選択されたメニューのメニューID及びメニュー名である。画面IDは、当該業務画面の画面IDである。画面名は、当該業務画面の画面名である。遷移先画面名は、当該業務画面からの遷移先の業務画面の画面名である。 The item number is information indicating the order of operation logs. The date is the date when the operation log was generated. The start time is the time when the display of the business screen corresponding to the operation log is started. The end time is the time when the display of the business screen is ended. The user ID is a user ID of a user who uses the business system. For example, the user ID may be input when logging into the business system. The menu ID and menu name are the menu ID and menu name of the menu last selected before the business screen is displayed. The screen ID is the screen ID of the business screen. The screen name is the screen name of the business screen. The transition destination screen name is the screen name of the transition destination business screen from the business screen.
開始時刻は、変数tsの値に基づいて特定される。終了時刻は、変数teの値に基づいて特定される。メニューID及びメニュー名は、メモリ装置103に記憶されている対象メニュー情報に基づいて特定される。画面ID及び画面名は、表示画面の画面ID及び画面名を取得することで特定される。遷移先画面名は、これから表示される業務画面の画面名によって特定される。
The start time is specified based on the value of the variable ts. The end time is specified based on the value of the variable te. The menu ID and menu name are specified based on the target menu information stored in the
続いて、システムUI部24は、遷移先の業務画面(以下、「遷移先画面」という。)を表示装置106に表示することで、業務画面の遷移を発生させる(S312)。この際、遷移元の業務画面がメニュー画面以外であれば、当該業務画面が非表示とされてもよい。
Subsequently, the
ステップS312に続いてステップS302以降が実行される。この際、遷移先画面についてQAデータが取得されれば(S304でYes)、システムUI部24は、当該QAデータを表示装置106に表示する(S305)。
Subsequent to step S312, step S302 and subsequent steps are executed. At this time, if QA data is acquired for the transition destination screen (Yes in S304), the
図11は、QAデータの表示例を示す図である。図11には、業務画面の一つであるA画面w1に重畳させてポップアップ画面p1が表示される例が示されている。ポップアップ画面p1には、QA内容として、取得されたQAデータが列記される。 FIG. 11 is a diagram illustrating a display example of QA data. FIG. 11 shows an example in which the pop-up screen p1 is displayed superimposed on the A screen w1 which is one of the business screens. The acquired QA data is listed on the pop-up screen p1 as the QA content.
また、表示画面に対するユーザによる操作が、業務システムの終了指示である場合(S313でYes)、システムUI部24は、ステップS310及びS311と同様の処理を実行して操作ログを生成し、当該操作ログを操作ログ記憶部212へ記憶する(S314、S315)。
If the operation on the display screen by the user is an instruction to end the business system (Yes in S313), the
続いて、操作ログ送信部25は、ステップS301以降に操作ログ記憶部212に記憶された操作ログ群を解析装置10へ送信する(S316)。当該操作ログ群は、解析装置10の操作ログ受信部14によって受信される。
Subsequently, the operation
図12は、解析装置10が実行する操作ログの解析処理の処理手順の一例を説明するためのフローチャートである。
FIG. 12 is a flowchart for explaining an example of a processing procedure of operation log analysis processing executed by the
ステップS401において、操作ログ解析部15は、操作ログ受信部14によって受信された操作ログ群から1つの操作ログを処理対象として取得する。以下、取得された操作ログを「対象ログ」という。
In step S <b> 401, the operation
続いて、操作ログ解析部15は、対象ログに対応する業務画面に(以下、「対象画面」という。)対する操作時間が正常であるか否かを判定する(S402)。当該操作時間は、対象ログの開始時刻から終了時刻までの経過時間である。また、当該操作時間が正常であるか否かは、操作時間記憶部113を参照して判定される。
Subsequently, the operation
図13は、操作時間記憶部113の構成例を示す図である。図13に示されるように、操作時間記憶部113には、各業務画面の画面IDに対応付けられて標準操作時間が閾値として記憶されている。標準操作時間は、画面IDに係る業務画面に関して標準的な操作時間である。標準操作時間は、経験的に定められてもよいし、他の方法によって定められてもよい。また、経験的に最大の操作時間が標準操作時間とされてもよい。
FIG. 13 is a diagram illustrating a configuration example of the operation
したがって、ステップS402において、操作ログ解析部15は、対象ログに関する操作時間が、対象画面の画面IDに対応付けられている標準操作時間以下であるか否かを判定する。当該操作時間が当該標準操作時間を超える場合(S402でNo)、操作ログ解析部15は、対象ログに対して、「操作時間異常」を判定結果として付与する(S403)。この場合、ユーザによる操作が中断されている状態又は滞っている状態が推定されるからである。すなわち、操作ログ解析部15は、表示されている時間が所定時間を超える業務画面を検出する。なお、「操作時間異常」は、操作時間が異常であることを示すラベルである。
Therefore, in step S402, the operation
ステップS402でYesの場合、又はステップS403に続いて、操作ログ解析部15は、対象ログにおける画面遷移が正常であるか否かを判定する(S404)。対象ログにおける画面遷移とは、対象ログに含まれる画面名及び遷移先画面名によって特定される画面遷移をいう。すなわち、対象ログにおける画面遷移とは、当該画面名に係る業務画面から当該遷移先画面名に係る業務画面への画面遷移をいう。画面遷移の正否は、遷移情報記憶部114を参照して判定される。
In the case of Yes in step S402, or following step S403, the operation
図14は、遷移情報記憶部114の構成例を示す図である。図14に示されるように、遷移情報記憶部114の各レコードは、項番、メニューID、1以上の遷移N(Nは1以上の整数)等を含む。
FIG. 14 is a diagram illustrating a configuration example of the transition
メニューIDは、メニュー画面において選択されたメニューのメニューIDである。遷移Nは、当該メニューに係る業務に関して、操作が正常に行われた場合に発生するはずである画面遷移を示す情報である。例えば、項番1のレコードには、遷移1として「画面A→画面B」、遷移2として「画面B→画面C」を含む。これは、メニューIDが「111」である業務では、画面A→画面B→画面Cの順で業務画面が遷移するはずであることを示す。
The menu ID is the menu ID of the menu selected on the menu screen. The transition N is information indicating a screen transition that should occur when an operation is normally performed for a task related to the menu. For example, the record of
なお、項番5のレコードと、項番6のレコードとは、同じメニューIDに対する画面遷移を示している。すなわち、項番5のレコードは、メニューIDが「555」である業務では、画面M→画面N→画面O→画面Pの順で業務画面が遷移するはずであることを示す。項番6のレコードは、メニューIDが「555」である業務では、画面M→画面N→画面O→画面Qの順で業務画面が遷移するはずであることを示す。これは、画面Oに対する操作に応じて、遷移先の業務画面が画面P又は画面Qに分岐することを意味する。
Note that the record of
したがって、ステップS404において、操作ログ解析部15は、対象ログのメニューIDを含むレコードを遷移情報記憶部114から取得し、対象ログの画面名から遷移先画面名への遷移が、当該レコードに含まれるいずれかの遷移Nに一致するか否かを判定する。対象ログの画面名から遷移先画面名への遷移が、いずれの当該遷移Nにも一致しない場合(S404でNo)、操作ログ解析部15は、対象ログに「画面遷移異常」を判定結果として付与する(S405)。「画面遷移異常」は、画面遷移が異常であることを示すラベルである。すなわち、本実施の形態において、操作ログ解析部15は、操作ログが示す画面遷移に基づいて、ユーザによる操作が、所定の操作手順(遷移情報記憶部114に記憶されている画面遷移)から逸脱している業務画面を検出する。
Therefore, in step S404, the operation
ステップS404でYesの場合、又はステップS405に続いて、操作ログ解析部15は、対象ログに判定結果が付与されたか否かを判定する(S406)。対象ログに判定結果が付与されていない場合(S406でNo)、操作ログ解析部15は、対象ログに「正常」を判定結果として付与する(S407)。「正常」は、対象ログが示す操作が正常であることを示すラベルである。
In the case of Yes in step S404 or following step S405, the operation
ステップS406でYesの場合、又はステップS407に続いて、操作ログ解析部15は、判定結果が付与された対象ログを判定結果記憶部115に記憶する(S408)。
In the case of Yes in step S406 or subsequent to step S407, the operation
ステップS401以降が、操作ログ受信部14によって受信された操作ログ群に含まれる全ての操作ログについて実行されると(S409でYes)、図12の処理は終了する。その結果、判定結果記憶部115には、以下のような操作ログが記憶される。
When step S401 and subsequent steps are executed for all operation logs included in the operation log group received by the operation log receiving unit 14 (Yes in S409), the processing in FIG. 12 ends. As a result, the following operation log is stored in the determination
図15は、判定結果記憶部115の構成例を示す図である。図15に示されるように、判定結果記憶部115には、図10に示した操作ログに対して判定結果が付与された操作ログが記憶される。
FIG. 15 is a diagram illustrating a configuration example of the determination
業務システムの開発者等は、判定結果記憶部115の内容を参照することで、例えば、業務システムのユーザが高い頻度で操作を誤ったり、操作が滞ったりする業務画面を特定し、当該業務画面において操作の誤りが発生する原因、操作が滞る原因を分析する。分析の結果、当該業務画面についてレイアウトの変更等を行うことで、当該業務画面の操作性の改善が図られてもよい。
By referring to the contents of the determination
なお、各ユーザ端末20が、解析装置10の各機能を有してもよい。この場合、解析装置10は、設置されなくてもよい。
Each
また、質問及び回答の抽出は、録音された音声データではなく、音声がマイクに入力されるのと並行して実行されてもよい。 In addition, the extraction of the question and the answer may be performed in parallel with the voice input to the microphone instead of the recorded voice data.
上述したように、本実施の形態によれば、業務システムUIを構成する業務画面群のうち、いずれかの業務画面がユーザ端末20に表示されている期間において録音されたユーザの会話に、質問の表現が含まれている場合には、当該会話の内容を含むQAデータが当該業務画面の画面IDに関連付けられて記憶される。ここで、当該会話に質問の表現が含まれている場合は、当該会話には、当該質問に対する回答が含まれている可能性が高い。したがって、本実施の形態によれば、口頭での質問に関する情報を効率良く蓄積することができる。
As described above, according to the present embodiment, the user conversation recorded during the period in which any one of the business screens constituting the business system UI is displayed on the
また、ユーザ端末20からのQAデータの取得要求に対し、当該取得要求に含まれている画面IDに関連付けられているQAデータがユーザ端末20に送信される。したがって、ユーザ端末20において当該画面IDに係る業務画面が表示される際に、過去の質問とその回答とをユーザ端末20に表示させることができ、当該業務画面の操作に関する有益な情報をユーザに提供することができる。
Further, in response to a QA data acquisition request from the
また、本実施の形態によれば、業務画面群のうち、ユーザの操作が滞った業務画面や、所定の操作手順から逸脱した業務画面を判定ことができる。したがって、斯かる判定結果に基づいて、業務システムの改善を図ることができる。 Further, according to the present embodiment, it is possible to determine a business screen in which a user operation is delayed or a business screen deviating from a predetermined operation procedure in the business screen group. Therefore, the business system can be improved based on the determination result.
なお、本実施の形態において、解析装置10又はユーザ端末20は、コンピュータ又は情報処理装置の一例である。QA抽出部12は、判定部、記憶処理部及び抽出部の一例である。検索部13は、取得部の一例である。QA記憶部112は、記憶部の一例である。操作ログ解析部15は、第1の検出部及び第2の検出部の一例である。録音制御部21は、検出部及び音声取得部の一例である。質問者は、第1の通話相手の一例である。開発者等は、第2の通話相手の一例である。
In the present embodiment, the
以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.
以上の説明に関し、更に以下の項を開示する。
(付記1)
所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定する処理と、
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
(付記2)
表示される画面の識別情報に関連付けられて前記記憶部に記憶されている前記情報を出力対象として取得する処理、
を前記コンピュータに実行させる付記1記載の情報処理プログラム。
(付記3)
前記判定する処理は、前記音声を含む音声データから認識された第1の文字列に、前記質問の表現を示す第2文字列群のうちいずれかの第2の文字列が含まれているかを判定し、
前記記憶する処理は、前記第1の文字列に前記第2の文字列が含まれている場合に、前記第1の文字列を前記画面の識別情報に関連付けて前記記憶部に記憶し、
前記取得する処理は、表示される画面の識別情報に関連付けられて前記記憶部に記憶されている文字列を出力対象として取得する、
ことを特徴とする付記2記載の情報処理プログラム。
(付記4)
前記所定の画面群に関する操作の履歴情報に基づいて、表示されている時間が所定時間を超える画面を検出する、
処理を前記コンピュータに実行させることを特徴とする付記1乃至3いずれか一項記載の情報処理プログラム。
(付記5)
前記所定の画面群に関する操作の履歴情報に基づいて、ユーザによる操作が所定の操作手順から逸脱したことを検出する、
処理を前記コンピュータに実行させることを特徴とする付記1乃至4いずれか一項記載の情報処理プログラム。
(付記6)
マイクを用いた第1の通話相手との間の通話開始後、前記マイクから入力された音声が前記第1の通話相手に送信されない、通話の保留状態への移行を検出し、
前記保留状態において前記マイクから入力された音声の取得を行い、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(付記7)
前記音声の取得は、前記第1の通話相手との間が保留状態であって、かつ、第2の通話相手との間が通話中である場合に実行する、
ことを特徴とする付記6記載の情報処理プログラム。
(付記8)
前記取得又は前記抽出は、前記第1の通話相手との通話中における操作が中断された期間が所定期間を超えた場合、又は前記第1の通話相手との通話中における操作が、所定の操作手順から逸脱したことが検出された場合に実行する、ことを特徴とする付記6又は7記載の情報処理プログラム。
(付記9)
前記マイクが装着されたオペレータの操作端末の表示装置に前記保留状態において表示された表示画面を、前記質問と前記回答とに対応づけて記憶部に記憶し、
前記オペレータ又は他のオペレータに対し前記表示画面を出力する際に、前記質問と前記回答とを表示する、
処理をコンピュータに実行させることを特徴とする付記6乃至8のいずれか一項記載の情報処理プログラム。
(付記10)
所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定する処理と、
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、
をコンピュータが実行することを特徴とする情報処理方法。
(付記11)
表示される画面の識別情報に関連付けられて前記記憶部に記憶されている前記情報を出力対象として取得する処理、
を前記コンピュータが実行する付記10記載の情報処理方法。
(付記12)
前記判定する処理は、前記音声を含む音声データから認識された第1の文字列に、前記質問の表現を示す第2文字列群のうちいずれかの第2の文字列が含まれているかを判定し、
前記記憶する処理は、前記第1の文字列に前記第2の文字列が含まれている場合に、前記第1の文字列を前記画面の識別情報に関連付けて前記記憶部に記憶し、
前記取得する処理は、表示される画面の識別情報に関連付けられて前記記憶部に記憶されている文字列を出力対象として取得する、
ことを特徴とする付記11記載の情報処理方法。
(付記13)
前記所定の画面群に関する操作の履歴情報に基づいて、表示されている時間が所定時間を超える画面を検出する、
処理を前記コンピュータが実行することを特徴とする付記10乃至12いずれか一項記載の情報処理方法。
(付記14)
前記所定の画面群に関する操作の履歴情報に基づいて、ユーザによる操作が所定の操作手順から逸脱したことを検出する、
処理を前記コンピュータが実行することを特徴とする付記10乃至13いずれか一項記載の情報処理方法。
(付記15)
マイクを用いた第1の通話相手との間の通話開始後、前記マイクから入力された音声が前記第1の通話相手に送信されない、通話の保留状態への移行を検出し、
前記保留状態において前記マイクから入力された音声の取得を行い、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う、
処理をコンピュータが実行することを特徴とする情報処理方法。
(付記16)
前記音声の取得は、前記第1の通話相手との間が保留状態であって、かつ、第2の通話相手との間が通話中である場合に実行する、
ことを特徴とする付記15記載の情報処理方法。
(付記17)
前記取得又は前記抽出は、前記第1の通話相手との通話中における操作が中断された期間が所定期間を超えた場合、又は前記第1の通話相手との通話中における操作が、所定の操作手順から逸脱したことが検出された場合に実行する、ことを特徴とする付記15又は16記載の情報処理方法。
(付記18)
前記マイクが装着されたオペレータの操作端末の表示装置に前記保留状態において表示された表示画面を、前記質問と前記回答とに対応づけて記憶部に記憶し、
前記オペレータ又は他のオペレータに対し前記表示画面を出力する際に、前記質問と前記回答とを表示する、
処理をコンピュータが実行することを特徴とする請求項15乃至17のいずれか一項記載の情報処理方法。
(付記19)
所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定部と、
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する記憶処理部と、
を有することを特徴とする情報処理装置。
(付記20)
表示される画面の識別情報に関連付けられて前記記憶部に記憶されている前記情報を出力対象として取得する取得部、
を有する付記19記載の情報処理装置。
(付記21)
前記判定部は、前記音声を含む音声データから認識された第1の文字列に、前記質問の表現を示す第2文字列群のうちいずれかの第2の文字列が含まれているかを判定し、
前記記憶処理部は、前記第1の文字列に前記第2の文字列が含まれている場合に、前記第1の文字列を前記画面の識別情報に関連付けて前記記憶部に記憶し、
前記取得部は、表示される画面の識別情報に関連付けられて前記記憶部に記憶されている文字列を出力対象として取得する、
ことを特徴とする付記20記載の情報処理装置。
(付記22)
前記所定の画面群に関する操作の履歴情報に基づいて、表示されている時間が所定時間を超える画面を検出する第1の検出部、
を有することを特徴とする付記19乃至21いずれか一項記載の情報処理装置。
(付記23)
前記所定の画面群に関する操作の履歴情報に基づいて、ユーザによる操作が所定の操作手順から逸脱したことを検出する第2の検出部、
を有することを特徴とする付記19乃至22いずれか一項記載の情報処理装置。
(付記24)
マイクを用いた第1の通話相手との間の通話開始後、前記マイクから入力された音声が前記第1の通話相手に送信されない、通話の保留状態への移行を検出する検出部と、
前記保留状態において前記マイクから入力された音声の取得を行う音声取得部と、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う抽出部と、
有することを特徴とする情報処理装置。
(付記25)
前記音声取得部は、前記第1の通話相手との間が保留状態であって、かつ、第2の通話相手との間が通話中である場合に前記音声の取得を実行する、
ことを特徴とする付記24記載の情報処理装置。
(付記26)
前記取得又は前記抽出は、前記第1の通話相手との通話中における操作が中断された期間が所定期間を超えた場合、又は前記第1の通話相手との通話中における操作が、所定の操作手順から逸脱したことが検出された場合に実行する、ことを特徴とする付記24又は25記載の情報処理装置。
(付記27)
前記マイクが装着されたオペレータの操作端末の表示装置に前記保留状態において表示された表示画面を、前記質問と前記回答とに対応づけて記憶部に記憶する記憶処理部と、
前記オペレータ又は他のオペレータに対し前記表示画面を出力する際に、前記質問と前記回答とを表示する表示制御部と、
を有することを特徴とする請求項24乃至26のいずれか一項記載の情報処理装置。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
A process for determining whether the voice input from the microphone during the period in which any one of the predetermined screen groups is displayed includes an expression of a question;
When the expression is included in the sound, a process of storing information indicating the content of the sound in the storage unit in association with the identification information of the screen;
An information processing program for causing a computer to execute.
(Appendix 2)
Processing for acquiring the information stored in the storage unit in association with the identification information of the screen to be displayed as an output target;
The information processing program according to
(Appendix 3)
In the determination process, it is determined whether any second character string in the second character string group indicating the expression of the question is included in the first character string recognized from the sound data including the sound. Judgment,
In the storing process, when the second character string is included in the first character string, the first character string is stored in the storage unit in association with the identification information of the screen,
The acquisition process acquires, as an output target, a character string stored in the storage unit in association with identification information of a screen to be displayed.
The information processing program according to
(Appendix 4)
Based on the history information of operations related to the predetermined screen group, a screen for which the displayed time exceeds a predetermined time is detected.
The information processing program according to any one of
(Appendix 5)
Detecting that the operation by the user deviates from the predetermined operation procedure based on the history information of the operation related to the predetermined screen group;
The information processing program according to any one of
(Appendix 6)
Detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
Obtaining voice input from the microphone in the hold state,
Analyzing the acquired voice and extracting a question and an answer to the question,
An information processing program for causing a computer to execute processing.
(Appendix 7)
The acquisition of the voice is executed when the communication with the first call partner is on hold and the call with the second call partner is in progress.
The information processing program according to
(Appendix 8)
The acquisition or the extraction is performed when a period during which the operation during the call with the first call partner is interrupted exceeds a predetermined period, or when the operation during the call with the first call partner is a predetermined operation. The information processing program according to
(Appendix 9)
The display screen displayed in the hold state on the display device of the operator's operation terminal equipped with the microphone is stored in the storage unit in association with the question and the answer,
When outputting the display screen to the operator or another operator, the question and the answer are displayed.
The information processing program according to any one of
(Appendix 10)
A process for determining whether the voice input from the microphone during the period in which any one of the predetermined screen groups is displayed includes an expression of a question;
When the expression is included in the sound, a process of storing information indicating the content of the sound in the storage unit in association with the identification information of the screen;
An information processing method characterized in that a computer executes.
(Appendix 11)
Processing for acquiring the information stored in the storage unit in association with the identification information of the screen to be displayed as an output target;
The information processing method according to
(Appendix 12)
In the determination process, it is determined whether any second character string in the second character string group indicating the expression of the question is included in the first character string recognized from the sound data including the sound. Judgment,
In the storing process, when the second character string is included in the first character string, the first character string is stored in the storage unit in association with the identification information of the screen,
The acquisition process acquires, as an output target, a character string stored in the storage unit in association with identification information of a screen to be displayed.
The information processing method according to supplementary note 11, characterized in that:
(Appendix 13)
Based on the history information of operations related to the predetermined screen group, a screen for which the displayed time exceeds a predetermined time is detected.
The information processing method according to any one of
(Appendix 14)
Detecting that the operation by the user deviates from the predetermined operation procedure based on the history information of the operation related to the predetermined screen group;
14. The information processing method according to any one of
(Appendix 15)
Detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
Obtaining voice input from the microphone in the hold state,
Analyzing the acquired voice and extracting a question and an answer to the question,
An information processing method, wherein a computer executes a process.
(Appendix 16)
The acquisition of the voice is executed when the communication with the first call partner is on hold and the call with the second call partner is in progress.
The information processing method according to
(Appendix 17)
The acquisition or the extraction is performed when a period during which the operation during the call with the first call partner is interrupted exceeds a predetermined period, or when the operation during the call with the first call partner is a predetermined operation. 17. The information processing method according to
(Appendix 18)
The display screen displayed in the hold state on the display device of the operator's operation terminal equipped with the microphone is stored in the storage unit in association with the question and the answer,
When outputting the display screen to the operator or another operator, the question and the answer are displayed.
The information processing method according to
(Appendix 19)
A determination unit that determines whether the voice input from the microphone during a period in which any one of the predetermined screen groups is displayed includes an expression of a question;
A storage processing unit that stores information indicating the content of the voice in the storage unit in association with the identification information of the screen when the voice includes the expression;
An information processing apparatus comprising:
(Appendix 20)
An acquisition unit that acquires, as an output target, the information stored in the storage unit in association with identification information of a screen to be displayed;
(Appendix 21)
The determination unit determines whether the first character string recognized from the voice data including the voice includes any second character string in the second character string group indicating the expression of the question. And
The storage processing unit stores the first character string in the storage unit in association with the identification information of the screen when the first character string includes the second character string,
The acquisition unit acquires, as an output target, a character string stored in the storage unit in association with identification information of a screen to be displayed.
The information processing apparatus according to
(Appendix 22)
A first detection unit for detecting a screen whose displayed time exceeds a predetermined time based on history information of an operation related to the predetermined screen group;
The information processing apparatus according to any one of appendices 19 to 21, wherein the information processing apparatus includes:
(Appendix 23)
A second detection unit that detects that an operation by the user deviates from a predetermined operation procedure based on operation history information regarding the predetermined screen group;
The information processing apparatus according to any one of appendices 19 to 22, wherein the information processing apparatus includes:
(Appendix 24)
A detection unit for detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
An audio acquisition unit that acquires audio input from the microphone in the hold state;
An analysis unit that analyzes the acquired voice and extracts a question and an answer to the question;
An information processing apparatus comprising:
(Appendix 25)
The voice acquisition unit executes the acquisition of the voice when the communication with the first call partner is on hold and the call with the second call partner is in progress.
The information processing apparatus according to
(Appendix 26)
The acquisition or the extraction is performed when a period during which the operation during the call with the first call partner is interrupted exceeds a predetermined period, or when the operation during the call with the first call partner is a predetermined operation. 26. The information processing apparatus according to
(Appendix 27)
A storage processing unit that stores a display screen displayed in the hold state on a display device of an operator's operation terminal equipped with the microphone in a storage unit in association with the question and the answer;
A display control unit for displaying the question and the answer when outputting the display screen to the operator or another operator;
27. The information processing apparatus according to
1 情報処理システム
10 解析装置
11 会話データ受信部
12 QA抽出部
13 検索部
14 操作ログ受信部
15 操作ログ解析部
20 ユーザ端末
21 録音制御部
22 音声認識部
23 会話データ送信部
24 システムUI部
25 操作ログ送信部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
111 キーワード記憶部
112 QA記憶部
113 操作時間記憶部
114 遷移情報記憶部
115 判定結果記憶部
211 音声データ記憶部
212 操作ログ記憶部
B バス
DESCRIPTION OF
105
Claims (13)
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 A process for determining whether the voice input from the microphone during the period in which any one of the predetermined screen groups is displayed includes an expression of a question;
When the expression is included in the sound, a process of storing information indicating the content of the sound in the storage unit in association with the identification information of the screen;
An information processing program for causing a computer to execute.
を前記コンピュータに実行させる請求項1記載の情報処理プログラム。 Processing for acquiring the information stored in the storage unit in association with the identification information of the screen to be displayed as an output target;
The information processing program according to claim 1, wherein the computer is executed.
前記記憶する処理は、前記第1の文字列に前記第2の文字列が含まれている場合に、前記第1の文字列を前記画面の識別情報に関連付けて前記記憶部に記憶し、
前記取得する処理は、表示される画面の識別情報に関連付けられて前記記憶部に記憶されている文字列を出力対象として取得する、
ことを特徴とする請求項2記載の情報処理プログラム。 In the determination process, it is determined whether any second character string in the second character string group indicating the expression of the question is included in the first character string recognized from the sound data including the sound. Judgment,
In the storing process, when the second character string is included in the first character string, the first character string is stored in the storage unit in association with the identification information of the screen,
The acquisition process acquires, as an output target, a character string stored in the storage unit in association with identification information of a screen to be displayed.
The information processing program according to claim 2.
処理を前記コンピュータに実行させることを特徴とする請求項1乃至3いずれか一項記載の情報処理プログラム。 Based on the history information of operations related to the predetermined screen group, a screen for which the displayed time exceeds a predetermined time is detected.
The information processing program according to claim 1, wherein the computer causes the computer to execute processing.
処理を前記コンピュータに実行させることを特徴とする請求項1乃至4いずれか一項記載の情報処理プログラム。 Detecting that the operation by the user deviates from the predetermined operation procedure based on the history information of the operation related to the predetermined screen group;
The information processing program according to claim 1, wherein the computer causes the computer to execute processing.
前記保留状態において前記マイクから入力された音声の取得を行い、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。 Detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
Obtaining voice input from the microphone in the hold state,
Analyzing the acquired voice and extracting a question and an answer to the question,
An information processing program for causing a computer to execute processing.
ことを特徴とする請求項6記載の情報処理プログラム。 The acquisition of the voice is executed when the communication with the first call partner is on hold and the call with the second call partner is in progress.
The information processing program according to claim 6.
前記オペレータ又は他のオペレータに対し前記表示画面を出力する際に、前記質問と前記回答とを表示する、
処理をコンピュータに実行させることを特徴とする請求項6乃至8のいずれか一項記載の情報処理プログラム。 The display screen displayed in the hold state on the display device of the operator's operation terminal equipped with the microphone is stored in the storage unit in association with the question and the answer,
When outputting the display screen to the operator or another operator, the question and the answer are displayed.
The information processing program according to any one of claims 6 to 8, which causes a computer to execute processing.
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、
をコンピュータが実行することを特徴とする情報処理方法。 A process for determining whether the voice input from the microphone during the period in which any one of the predetermined screen groups is displayed includes an expression of a question;
When the expression is included in the sound, a process of storing information indicating the content of the sound in the storage unit in association with the identification information of the screen;
An information processing method characterized in that a computer executes.
前記保留状態において前記マイクから入力された音声の取得を行い、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う、
処理をコンピュータが実行することを特徴とする情報処理方法。 Detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
Obtaining voice input from the microphone in the hold state,
Analyzing the acquired voice and extracting a question and an answer to the question,
An information processing method, wherein a computer executes a process.
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶処理部と、
を有することを特徴とする情報処理装置。 A determination unit that determines whether the voice input from the microphone during a period in which any one of the predetermined screen groups is displayed includes an expression of a question;
In the case where the expression is included in the sound, a storage processing unit is associated with the identification information of the screen in association with information indicating the content of the sound;
An information processing apparatus comprising:
前記保留状態において前記マイクから入力された音声の取得を行う音声取得部と、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う抽出部と、
有することを特徴とする情報処理装置。 A detection unit for detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
An audio acquisition unit that acquires audio input from the microphone in the hold state;
An analysis unit that analyzes the acquired voice and extracts a question and an answer to the question;
An information processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018044444A JP7073797B2 (en) | 2018-03-12 | 2018-03-12 | Information processing program, information processing method and information processing equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018044444A JP7073797B2 (en) | 2018-03-12 | 2018-03-12 | Information processing program, information processing method and information processing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159690A true JP2019159690A (en) | 2019-09-19 |
JP7073797B2 JP7073797B2 (en) | 2022-05-24 |
Family
ID=67993627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018044444A Active JP7073797B2 (en) | 2018-03-12 | 2018-03-12 | Information processing program, information processing method and information processing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7073797B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021205589A1 (en) * | 2020-04-09 | 2021-10-14 | 日本電信電話株式会社 | Test script generation device, test script generation method, and program |
WO2021234850A1 (en) * | 2020-05-20 | 2021-11-25 | 日本電気株式会社 | Information processing device, information processing method, and storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004015763A (en) * | 2002-06-11 | 2004-01-15 | Ntt Data Corp | Call center support device and program thereof |
JP2013117842A (en) * | 2011-12-02 | 2013-06-13 | Nippon Telegr & Teleph Corp <Ntt> | Knowledge amount estimation information generating device, knowledge amount estimating device, method, and program |
-
2018
- 2018-03-12 JP JP2018044444A patent/JP7073797B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004015763A (en) * | 2002-06-11 | 2004-01-15 | Ntt Data Corp | Call center support device and program thereof |
JP2013117842A (en) * | 2011-12-02 | 2013-06-13 | Nippon Telegr & Teleph Corp <Ntt> | Knowledge amount estimation information generating device, knowledge amount estimating device, method, and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021205589A1 (en) * | 2020-04-09 | 2021-10-14 | 日本電信電話株式会社 | Test script generation device, test script generation method, and program |
JPWO2021205589A1 (en) * | 2020-04-09 | 2021-10-14 | ||
JP7380851B2 (en) | 2020-04-09 | 2023-11-15 | 日本電信電話株式会社 | Test script generation device, test script generation method and program |
WO2021234850A1 (en) * | 2020-05-20 | 2021-11-25 | 日本電気株式会社 | Information processing device, information processing method, and storage medium |
JPWO2021234850A1 (en) * | 2020-05-20 | 2021-11-25 | ||
JP7396475B2 (en) | 2020-05-20 | 2023-12-12 | 日本電気株式会社 | Information processing device, information processing method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP7073797B2 (en) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108153800B (en) | Information processing method, information processing apparatus, and recording medium | |
US8625773B2 (en) | System and method for analyzing automatic speech recognition performance data | |
US10083686B2 (en) | Analysis object determination device, analysis object determination method and computer-readable medium | |
US20120330662A1 (en) | Input supporting system, method and program | |
CN108447509B (en) | Method and device for generating multimedia file | |
US10108698B2 (en) | Common data repository for improving transactional efficiencies of user interactions with a computing device | |
KR102248843B1 (en) | Method for updating contact information in callee electronic device, and the electronic device | |
KR102198424B1 (en) | Method for managing information of voice call recording and computer program for the same | |
JP2020064493A (en) | Online communication review system, method, and computer program | |
CN112740159A (en) | Help information display system, help information display method, and help information display program | |
JP7073797B2 (en) | Information processing program, information processing method and information processing equipment | |
JP2007025497A (en) | Educational assistance program and educational assistant device | |
JP5947159B2 (en) | Information processing apparatus, information processing method, and program | |
WO2020020095A1 (en) | Method for configuring editing tool, and method for generating configuration parameter | |
JP2018081403A (en) | Incident management system, incident management method and computer program | |
JP6292223B2 (en) | Information processing apparatus, information processing system, and information processing method | |
CN116467202A (en) | Automated testing method, automated testing system, electronic device, and storage medium | |
US11418647B1 (en) | Presenting multiple customer contact channels in a browseable interface | |
JP7225082B2 (en) | Information processing device, information processing method and program | |
JP5184071B2 (en) | Transcription text creation support device, transcription text creation support program, and transcription text creation support method | |
KR20100080345A (en) | System and method for prompting an end user with a preferred sequence of commands which performs an activity in a least number of inputs | |
WO2020070906A1 (en) | Workshop assistance system and workshop assistance method | |
JP2017134162A (en) | Voice recognition device, voice recognition method, and voice recognition program | |
CN112906358B (en) | Information processing apparatus, information processing method, and recording medium | |
JP6725859B1 (en) | Information processing device and log management program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7073797 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |