JP2019159690A - Information processing program, information processing method, and information processor - Google Patents

Information processing program, information processing method, and information processor Download PDF

Info

Publication number
JP2019159690A
JP2019159690A JP2018044444A JP2018044444A JP2019159690A JP 2019159690 A JP2019159690 A JP 2019159690A JP 2018044444 A JP2018044444 A JP 2018044444A JP 2018044444 A JP2018044444 A JP 2018044444A JP 2019159690 A JP2019159690 A JP 2019159690A
Authority
JP
Japan
Prior art keywords
screen
call
information processing
question
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018044444A
Other languages
Japanese (ja)
Other versions
JP7073797B2 (en
Inventor
英貴 間山
Hidetaka Mayama
英貴 間山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018044444A priority Critical patent/JP7073797B2/en
Publication of JP2019159690A publication Critical patent/JP2019159690A/en
Application granted granted Critical
Publication of JP7073797B2 publication Critical patent/JP7073797B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To efficiently accumulate information regarding a verbal question.SOLUTION: An information processing program allows a computer to execute processing for determining whether voice input from a microphone during a period in which a screen is displayed from a predetermined screen group includes a question expression, and processing for storing information for indicating the voice contents in association with identification information on the screen when the voice includes the expression.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理プログラム、情報処理方法及び情報処理装置に関する。   The present invention relates to an information processing program, an information processing method, and an information processing apparatus.

職場に導入されている業務用のコンピュータシステムを利用するユーザは、当該コンピュータシステムの操作方法が分からない場合、マニュアルを参照したり、他のユーザ(例えば、隣の席の同僚)に口頭で質問したりすることで、正しい操作方法を知ることができる。   Users who use a business computer system installed in the workplace can refer to the manual or ask other users (for example, a colleague next door) a verbal question if they do not know how to operate the computer system. By doing so, you can know the correct operation method.

特開2012−123658号公報JP 2012-123658 A 特開2007−328504号公報JP 2007-328504 A

しかしながら、他のユーザに対して口頭で質問が行われた場合、当該質問に対する回答は、業務システムの操作の習熟に関して有益な情報であるにも関わらず、基本的には記録として残らない。したがって、当該回答に関する事項がマニュアルに記載されていない場合。他のユーザ間においても同様の質問が繰り返される可能性が有ある。   However, when an oral question is made to another user, the answer to the question is basically not recorded, although it is useful information regarding proficiency in the operation of the business system. Therefore, when the matter concerning the answer is not described in the manual. The same question may be repeated among other users.

そこで、一側面では、本発明は、口頭での質問に関する情報を効率良く蓄積することを目的とする。   Therefore, in one aspect, an object of the present invention is to efficiently accumulate information related to verbal questions.

一つの態様では、情報処理プログラムは、所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定する処理と、前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、をコンピュータに実行させる。   In one aspect, the information processing program includes a process of determining whether the expression of the question is included in the voice input from the microphone during a period in which any one of the predetermined screen groups is displayed. When the speech includes the expression, the computer causes the computer to execute processing for associating information indicating the content of the speech with the identification information of the screen and storing the information in a storage unit.

一側面として、口頭での質問に関する情報を効率良く蓄積することができる。   As one aspect, it is possible to efficiently accumulate information related to verbal questions.

本発明の実施の形態における情報処理システム1の構成例を示す図である。It is a figure which shows the structural example of the information processing system 1 in embodiment of this invention. 本発明の実施の形態における解析装置10のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the analyzer 10 in embodiment of this invention. 本発明の実施の形態における情報処理システム1の機能構成例を示す図である。It is a figure which shows the function structural example of the information processing system 1 in embodiment of this invention. ユーザ端末20が実行する会話データの生成処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence of the production | generation process of the conversation data which the user terminal 20 performs. 音声データ記憶部211の構成例を示す図である。3 is a diagram illustrating a configuration example of an audio data storage unit 211. FIG. 解析装置10が実行する会話データ群からのQAデータの抽出処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence of the extraction process of the QA data from the conversation data group which the analysis apparatus 10 performs. キーワード記憶部111の構成例を示す図である。3 is a diagram illustrating a configuration example of a keyword storage unit 111. FIG. QA記憶部112の構成例を示す図である。3 is a diagram illustrating a configuration example of a QA storage unit 112. FIG. ユーザ端末20が業務画面の遷移に応じて実行する処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence which the user terminal 20 performs according to the transition of a work screen. 操作ログ記憶部212の構成例を示す図である。3 is a diagram illustrating a configuration example of an operation log storage unit 212. FIG. QAデータの表示例を示す図である。It is a figure which shows the example of a display of QA data. 解析装置10が実行する操作ログの解析処理の処理手順の一例を説明するためのフローチャートである。5 is a flowchart for explaining an example of a processing procedure of operation log analysis processing executed by the analysis apparatus 10; 操作時間記憶部113の構成例を示す図である。3 is a diagram illustrating a configuration example of an operation time storage unit 113. FIG. 遷移情報記憶部114の構成例を示す図である。It is a figure which shows the structural example of the transition information storage part. 判定結果記憶部115の構成例を示す図である。It is a figure which shows the structural example of the determination result memory | storage part 115. FIG.

以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における情報処理システム1の構成例を示す図である。図1において、情報処理システム1は、解析装置10と1以上のユーザ端末20とを含む。解析装置10と各ユーザ端末20とは、LAN(Local Area Network)又はインターネット等のネットワークを介して接続される。例えば、情報処理システム1は、企業、病院、自治体の役所等の組織(以下、「組織A」という。)において運用される。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of an information processing system 1 according to an embodiment of the present invention. In FIG. 1, the information processing system 1 includes an analysis device 10 and one or more user terminals 20. The analysis apparatus 10 and each user terminal 20 are connected via a network such as a LAN (Local Area Network) or the Internet. For example, the information processing system 1 is operated in an organization (hereinafter referred to as “organization A”) such as a company, a hospital, or a local government office.

ユーザ端末20は、組織Aの職員に対して、組織Aにおける業務に関するコンピュータシステム(以下、「業務システム」という。)のユーザインタフェース(以下、「業務システムUI」という。)を提供する端末である。業務システムUIは、複数の画面(以下、それぞれを「業務画面」という。)の集合である。例えば、PC(Personal Computer)、タブレット端末、又はスマートフォン等が、ユーザ端末20として利用されてもよい。なお、ユーザ端末20のユーザは、業務システムに対するコールセンタにおけるオペレータであってもよい。   The user terminal 20 is a terminal that provides a user interface (hereinafter referred to as “business system UI”) of a computer system related to business in the organization A (hereinafter referred to as “business system UI”) to the staff of the organization A. . The business system UI is a set of a plurality of screens (hereinafter each referred to as “business screen”). For example, a PC (Personal Computer), a tablet terminal, a smartphone, or the like may be used as the user terminal 20. Note that the user of the user terminal 20 may be an operator at a call center for the business system.

解析装置10は、ユーザ端末20のユーザの会話の内容を収集し、収集した会話の内容から業務システムに関する質問及び回答に関する会話の内容を抽出し、抽出した会話の内容の蓄積等を行う1以上のコンピュータである。解析装置10は、また、ユーザ端末20における業務システムUIの操作の履歴情報である操作ログに基づいて、業務システムに対する操作に関して、所定の操作手順(業務システムにおいて予定されている正しい操作手順)から逸脱している操作を検出する。   The analysis device 10 collects the content of the user's conversation on the user terminal 20, extracts the content of the conversation related to the question and answer regarding the business system from the collected content of the conversation, and accumulates the extracted content of the conversation Computer. The analysis apparatus 10 also starts from a predetermined operation procedure (a correct operation procedure scheduled in the business system) with respect to the operation on the business system based on the operation log that is the operation history information of the business system UI in the user terminal 20. Detect deviating operations.

図2は、本発明の実施の形態における解析装置10のハードウェア構成例を示す図である。図2の解析装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。   FIG. 2 is a diagram illustrating a hardware configuration example of the analysis apparatus 10 according to the embodiment of the present invention. The analysis device 10 in FIG. 2 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, and the like that are mutually connected by a bus B.

解析装置10での処理を実現するプログラムは、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。   A program that realizes processing in the analysis apparatus 10 is provided by the recording medium 101. When the recording medium 101 on which the program is recorded is set in the drive device 100, the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100. However, the program need not be installed from the recording medium 101 and may be downloaded from another computer via a network. The auxiliary storage device 102 stores the installed program and also stores necessary files and data.

メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って解析装置10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。   The memory device 103 reads the program from the auxiliary storage device 102 and stores it when there is an instruction to start the program. The CPU 104 executes a function related to the analysis device 10 according to a program stored in the memory device 103. The interface device 105 is used as an interface for connecting to a network.

なお、記録媒体101の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。   An example of the recording medium 101 is a portable recording medium such as a CD-ROM, a DVD disk, or a USB memory. An example of the auxiliary storage device 102 is an HDD (Hard Disk Drive) or a flash memory. Both the recording medium 101 and the auxiliary storage device 102 correspond to computer-readable recording media.

なお、ユーザ端末20も図2に示されるようなハードウェア構成を有していてもよい。但し、ユーザ端末20は、キーボード、マウス、タッチパネル等の入力装置や表示装置等を有する。   The user terminal 20 may also have a hardware configuration as shown in FIG. However, the user terminal 20 includes an input device such as a keyboard, a mouse, and a touch panel, a display device, and the like.

図3は、本発明の実施の形態における情報処理システム1の機能構成例を示す図である。図3において、ユーザ端末20は、録音制御部21、音声認識部22、会話データ送信部23、システムUI部24及び操作ログ送信部25等を有する。これら各部は、ユーザ端末20にインストールされた1以上のプログラムが、ユーザ端末20のCPUに実行させる処理により実現される。ユーザ端末20は、また、音声データ記憶部211及び操作ログ記憶部212等を利用する。これら各記憶部は、例えば、ユーザ端末20の補助記憶装置、又はユーザ端末20にネットワークを介して接続可能な記憶装置等を用いて実現可能である。   FIG. 3 is a diagram illustrating a functional configuration example of the information processing system 1 according to the embodiment of the present invention. 3, the user terminal 20 includes a recording control unit 21, a voice recognition unit 22, a conversation data transmission unit 23, a system UI unit 24, an operation log transmission unit 25, and the like. Each of these units is realized by processing that one or more programs installed in the user terminal 20 cause the CPU of the user terminal 20 to execute. The user terminal 20 also uses an audio data storage unit 211, an operation log storage unit 212, and the like. Each of these storage units can be realized using, for example, an auxiliary storage device of the user terminal 20 or a storage device that can be connected to the user terminal 20 via a network.

録音制御部21は、業務システムを利用中のユーザの会話が録音された音声データの生成を制御する。会話の音声は、例えば、ユーザ端末20に接続されたマイクから入力されてもよい。又は、ユーザ端末20のユーザが、コールセンタのオペレータであれば、電話機とユーザ端末20とを接続し、電話機から会話(通話)の音声が入力されるようにしてもよいし、オペレータが装着するヘッドセットとユーザ端末20とを接続することで、ヘッドセットから会話の音声が入力されるようにしてもよい。   The recording control unit 21 controls generation of voice data in which a conversation of a user who is using the business system is recorded. The voice of the conversation may be input from a microphone connected to the user terminal 20, for example. Alternatively, if the user of the user terminal 20 is a call center operator, the telephone and the user terminal 20 may be connected so that voice of conversation (call) can be input from the telephone, or the head worn by the operator By connecting the set and the user terminal 20, a conversation voice may be input from the headset.

なお、会話とは、ユーザ端末20のユーザが組織Aの職員である場合であれば、職員同士の会話(例えば、ユーザと、当該ユーザの周囲に存在する職員との会話)である。本実施の形態では、業務システムのユーザが、業務システムの操作が分からない場合や疑問が有る場合等に、当該ユーザが他の職員に質問をすることを想定する。   In addition, if the user of the user terminal 20 is a staff member of the organization A, the conversation is a conversation between the staff members (for example, a conversation between the user and staff members around the user). In the present embodiment, it is assumed that the user of the business system asks another staff member when the user does not understand the operation of the business system or has a question.

また、ユーザ端末20のユーザがコールセンタのオペレータである場合において、会話とは、コールセンタへ電話をかけてきた者(例えば、組織Aの職員等、以下「質問者」という。)とオペレータとの間での会話である。又は、質問者から質問を受けたオペレータが、例えば、業務システムの開発者等に当該質問に関する問い合わせを行ってもよい。この場合、オペレータは、質問者との通話の開始後、当該通話を保留状態(すなわち、マイクに入力される音声が、質問者に送信されない状態)とし、当該開発者等と通話することで、当該開発者等に対して質問を行うと共に、当該開発者等から回答を得る。このようなオペレータと開発者等との電話での会話の内容が、例えば、オペレータの電話機から録音制御部21に入力されるようにしてもよい。   Further, when the user of the user terminal 20 is a call center operator, the conversation is between a person who calls the call center (for example, an employee of the organization A, hereinafter referred to as “questioner”) and the operator. It is a conversation. Alternatively, an operator who receives a question from a questioner may make an inquiry about the question to, for example, a business system developer. In this case, after the start of the call with the questioner, the operator places the call on hold (that is, the state where the voice input to the microphone is not transmitted to the questioner), and makes a call with the developer. Ask questions to the developer, etc. and get answers from the developer. The contents of the telephone conversation between the operator and the developer may be input to the recording control unit 21 from the operator's telephone, for example.

なお、音声データは、会話の際にユーザ端末20に表示されていた業務画面の識別情報(以下、「画面ID」という。)等に関連付けられて音声データ記憶部211に記憶される。すなわち、音声データは、表示された業務画面ごとに生成される。   The voice data is stored in the voice data storage unit 211 in association with business screen identification information (hereinafter referred to as “screen ID”) displayed on the user terminal 20 during the conversation. That is, the audio data is generated for each displayed business screen.

音声認識部22は、各音声データについて音声認識を行い、音声データを文字列に変換することで、音声データごとに、音声認識の結果である文字列と、当該音声データに関連付けられている画面ID等とを含むデータ(以下「会話データ」という。)を生成する。   The voice recognition unit 22 performs voice recognition on each voice data, and converts the voice data into a character string, so that for each voice data, a character string as a result of voice recognition and a screen associated with the voice data. Data including ID and the like (hereinafter referred to as “conversation data”) is generated.

会話データ送信部23は、会話データ群を解析サーバへ送信する。   The conversation data transmission unit 23 transmits the conversation data group to the analysis server.

システムUI部24は、業務画面の表示を制御する。システムUI部24は、表示対象の業務画面が遷移(変化)するごとに、業務画面に対する操作の履歴情報を示す操作ログを操作ログ記憶部212に記憶する。したがって、各操作ログは、いずれか1つの業務画面に対応し、当該業務画面の画面IDや当該業務画面が表示されていた期間を示す情報等を含む。   The system UI unit 24 controls display of the business screen. The system UI unit 24 stores, in the operation log storage unit 212, an operation log indicating history information of operations on the business screen every time the business screen to be displayed changes (changes). Therefore, each operation log corresponds to any one business screen, and includes the screen ID of the business screen, information indicating the period during which the business screen was displayed, and the like.

操作ログ送信部25は、操作ログ群を解析装置10へ送信する。   The operation log transmission unit 25 transmits an operation log group to the analysis device 10.

一方、解析装置10は、会話データ受信部11、QA抽出部12、検索部13、操作ログ受信部14及び操作ログ解析部15等を有する。これら各部は、解析装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。解析装置10は、また、キーワード記憶部111、QA記憶部112、操作時間記憶部113、遷移情報記憶部114及び判定結果記憶部115等を利用する。これら各記憶部は、例えば、補助記憶装置102、又は解析装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。   On the other hand, the analysis device 10 includes a conversation data reception unit 11, a QA extraction unit 12, a search unit 13, an operation log reception unit 14, an operation log analysis unit 15, and the like. Each of these units is realized by processing that one or more programs installed in the analysis apparatus 10 cause the CPU 104 to execute. The analysis apparatus 10 also uses a keyword storage unit 111, a QA storage unit 112, an operation time storage unit 113, a transition information storage unit 114, a determination result storage unit 115, and the like. Each of these storage units can be realized using, for example, a storage device that can be connected to the auxiliary storage device 102 or the analysis device 10 via a network.

会話データ受信部11は、ユーザ端末20から送信される会話データ群を受信する。QA抽出部12は、会話データ受信部11が受信した会話データ群の中から、キーワード記憶部111を参照して、業務システムの操作に関する質問又は疑問(以下「質問」で統一する。)、及び当該質問に対する回答を含む可能性の高い会話データ(以下、「QAデータ」という。)を抽出する。抽出されたQAデータは、QA記憶部112に記憶される。キーワード記憶部111には、質問に含まれる可能性の高い文字列(以下、「キーワード」という。)の一覧が記憶されている。   The conversation data receiving unit 11 receives a conversation data group transmitted from the user terminal 20. The QA extraction unit 12 refers to the keyword storage unit 111 from the conversation data group received by the conversation data reception unit 11, and questions or questions regarding the operation of the business system (hereinafter, unified as “questions”), and Conversation data (hereinafter referred to as “QA data”) that is likely to contain an answer to the question is extracted. The extracted QA data is stored in the QA storage unit 112. The keyword storage unit 111 stores a list of character strings (hereinafter referred to as “keywords”) that are likely to be included in the question.

検索部13は、ユーザ端末20のシステムUI部24からのQAデータの取得要求に応じ、当該取得要求に含まれている業務画面の画面IDを含むQAデータをQA記憶部112から検索し、検索されたQAデータをシステムUI部24へ返信する。なお、システムUI部24は、画面遷移が発生するたびに、遷移先の業務画面の画面IDを含む、QAデータの取得要求を検索部13に送信する。システムUI部24は、遷移先の業務画面と共に、検索部13から返信されたQAデータを含むポップアップ画面を表示する。そうすることで、ユーザは、当該遷移先の業務画面の操作についてのヒントを事前に(操作前に)得ることができる。   In response to the QA data acquisition request from the system UI unit 24 of the user terminal 20, the search unit 13 searches the QA storage unit 112 for QA data including the screen ID of the business screen included in the acquisition request. The sent QA data is returned to the system UI unit 24. The system UI unit 24 transmits a QA data acquisition request including the screen ID of the business screen as the transition destination to the search unit 13 every time a screen transition occurs. The system UI unit 24 displays a pop-up screen including the QA data returned from the search unit 13 together with the business screen of the transition destination. By doing so, the user can obtain in advance (before operation) a hint about the operation of the business screen at the transition destination.

操作ログ受信部14は、ユーザ端末20の操作ログ送信部25から送信される操作ログ群を受信する。   The operation log reception unit 14 receives an operation log group transmitted from the operation log transmission unit 25 of the user terminal 20.

操作ログ解析部15は、操作ログ受信部14によって受信された操作ログ群に基づいて、ユーザによる操作が所定の操作手順から逸脱しているか否かを判定し、判定結果を各操作ログに付与する。判定結果が付与された操作ログは、判定結果記憶部115に記憶される。   The operation log analysis unit 15 determines whether or not the operation by the user deviates from a predetermined operation procedure based on the operation log group received by the operation log reception unit 14, and assigns the determination result to each operation log. To do. The operation log to which the determination result is assigned is stored in the determination result storage unit 115.

以下、情報処理システム1において実行される処理手順について説明する。図4は、ユーザ端末20が実行する会話データの生成処理の処理手順の一例を説明するためのフローチャートである。   Hereinafter, a processing procedure executed in the information processing system 1 will be described. FIG. 4 is a flowchart for explaining an example of a processing procedure of conversation data generation processing executed by the user terminal 20.

録音制御部21は、画面遷移の発生を待機している(S101)。画面遷移とは、システムUI部24の起動直後に表示される業務画面であるメニュー画面の表示、又は業務画面から他の業務画面への画面の遷移をいう。斯かる画面遷移は、例えば、ユーザ端末20のOS(Operating System)からのイベントに基づいて検知されてもよい。   The recording control unit 21 waits for the occurrence of screen transition (S101). The screen transition refers to a menu screen display that is a business screen displayed immediately after the system UI unit 24 is activated, or a screen transition from the business screen to another business screen. Such a screen transition may be detected based on an event from the OS (Operating System) of the user terminal 20, for example.

画面遷移が発生すると、録音制御部21は、現時点においてユーザの会話を録音中であるか否かを判定する(S102)。録音中でない場合(S102でNo)、録音制御部21は、録音を開始する(S103)。続いて、録音制御部21は、現在表示中(操作対象)の業務画面の画面情報をシステムUI部24から取得する(S104)。画面情報は、業務画面の画面ID及び画面名等を含む情報である。   When the screen transition occurs, the recording control unit 21 determines whether or not the user's conversation is currently being recorded (S102). When recording is not in progress (No in S102), the recording control unit 21 starts recording (S103). Subsequently, the recording control unit 21 acquires screen information of the currently displayed (operation target) business screen from the system UI unit 24 (S104). The screen information is information including the screen ID and screen name of the business screen.

なお、質問者とオペレータとの通話の開始後、当該通話が保留状態とされ、オペレータと開発者等との会話の内容が録音対象とされる場合、初めてステップS103が実行される際において、録音制御部21は、質問者とオペレータとの通話(すなわち、最初の通話)の開始後にオペレータの電話機に対して保留の指示が入力されるのを待機してもよい。すなわち、録音制御部21は、質問者とオペレータとの通話が保留状態へ移行するのを検出した場合に、オペレータと開発者等との通話(すなわち、2番目の通話)について録音を開始するようにしてもよい。   Note that after the call between the questioner and the operator is started, the call is put on hold, and when the content of the conversation between the operator and the developer is to be recorded, the recording is performed when step S103 is executed for the first time. The control unit 21 may wait for a hold instruction to be input to the operator's telephone after the call between the questioner and the operator (that is, the first call) is started. That is, when the recording control unit 21 detects that the call between the questioner and the operator shifts to the hold state, the recording control unit 21 starts recording the call between the operator and the developer (that is, the second call). It may be.

また、録音制御部21は、オペレータの電話機に対して保留の指示が入力され、かつ、オペレータの電話機と開発者等の電話機との通話が接続されるまで、録音の開始を待機してもよい。すなわち、録音制御部21は、質問者との通話が保留状態であって、かつ、開発者等との間で通話中である場合に、録音を行うようにしてもよい。   The recording control unit 21 may wait for the start of recording until a hold instruction is input to the operator's telephone and a call between the operator's telephone and the developer's telephone is connected. . That is, the recording control unit 21 may perform recording when the call with the questioner is on hold and the call is being made with the developer or the like.

更に、録音制御部21は、オペレータと質問者との通話中において、オペレータによるいずれかの業務画面に対する操作の入力が所定期間以上実行されない場合(すなわち、オペレータの操作が中断された期間が所定期間を超えた場合)、又はオペレータによる操作が、所定の操作手順から逸脱したこと検出した場合に限って、質問者からのコールセンタへの電話が保留状態とされた場合にオペレータと開発者等との通話の内容の録音を開始するようにしてもよい。この場合、当該オペレータが、質問者からの質問に対する回答に手間取っていることが推定される。したがって、このような場合の2番目の通話の内容は、質問者からの質問に対する回答を開発者等から得るための会話である可能性が高いと考えられる。   Furthermore, the recording control unit 21 is configured such that, during a call between the operator and the interrogator, when the operator does not input an operation on any of the business screens for a predetermined period (that is, the period when the operator's operation is interrupted is a predetermined period) Only when it is detected that the operation by the operator deviates from the predetermined operation procedure, when the call from the questioner to the call center is put on hold, the operator and the developer Recording of the contents of the call may be started. In this case, it is estimated that the operator is taking time to answer the question from the questioner. Therefore, it is considered that the content of the second call in such a case is likely to be a conversation for obtaining an answer to the question from the questioner from the developer or the like.

なお、所定の操作手順からの逸脱の検出方法は、後述の図12のステップS404における判定方法と同じでもよい。すなわち、想定されている画面遷移と異なる画面遷移が発生した場合に、所定の操作手順から逸脱した操作が検出されてもよい。   Note that a method for detecting deviation from a predetermined operation procedure may be the same as the determination method in step S404 of FIG. That is, when a screen transition different from the assumed screen transition occurs, an operation deviating from a predetermined operation procedure may be detected.

一方、録音中である場合(すなわち、録音が開始されている場合)(S102でYes)、録音制御部21は、録音を終了する(S105)。続いて、録音制御部21は、録音の開始から終了までに録音された音声データを、画面情報に関連付けて音声データ記憶部211に記憶する(S106)。   On the other hand, when recording is in progress (that is, when recording is started) (Yes in S102), the recording control unit 21 ends the recording (S105). Subsequently, the recording control unit 21 stores the audio data recorded from the start to the end of the recording in the audio data storage unit 211 in association with the screen information (S106).

続いて、録音制御部21は、ステップS103及びS104を実行して、画面の遷移を待機する(S101)。したがって、音声データ記憶部211には、例えば、図5に示されるように音声データが記憶される。   Subsequently, the recording control unit 21 executes steps S103 and S104 and waits for a screen transition (S101). Therefore, the audio data storage unit 211 stores audio data, for example, as shown in FIG.

図5は、音声データ記憶部211の構成例を示す図である。図5に示されるように、音声データ記憶部211には、業務画面ごとに、当該業務画面の画面ID及び画面名と、当該業務画面が表示されている期間において行われた会話が録音された音声データとが関連付けられて記憶される。なお、図5において、音声データにおける会話の内容は、便宜上、文字列によって表現されているが、この時点では、会話の内容は音声データの形式で記憶されている。   FIG. 5 is a diagram illustrating a configuration example of the audio data storage unit 211. As shown in FIG. 5, the voice data storage unit 211 records, for each business screen, the screen ID and screen name of the business screen and the conversation performed during the period during which the business screen is displayed. Audio data is associated with each other and stored. In FIG. 5, the content of the conversation in the audio data is expressed by a character string for convenience, but at this time, the content of the conversation is stored in the format of the audio data.

その後、ユーザによる業務システムの利用が終了すると(S107でYes)、録音制御部21は、ステップS105及びS106と同様の処理を実行することで、最後に表示されていた業務画面に関する音声データを音声データ記憶部211に記憶する(S108、S109)。   Thereafter, when the use of the business system by the user ends (Yes in S107), the recording control unit 21 performs the same processing as in Steps S105 and S106, thereby obtaining the audio data regarding the business screen displayed last as audio. The data is stored in the data storage unit 211 (S108, S109).

続いて、音声認識部22は、音声データ記憶部211に記憶されている各音声データから、音声認識によって文字列を認識する(すなわち、音声データが文字列に変換される)(S110)。その結果、図5におけるレコードごとに、音声データが文字列(以下、「会話文字列」という。)に置き換わった会話データが生成される。   Subsequently, the voice recognition unit 22 recognizes a character string by voice recognition from each voice data stored in the voice data storage unit 211 (that is, the voice data is converted into a character string) (S110). As a result, conversation data in which the voice data is replaced with a character string (hereinafter referred to as “conversation character string”) is generated for each record in FIG.

続いて、会話データ送信部23は、音声認識部22によって生成された会話データ群を解析装置10へ送信する(S110)。当該会話データ群は、会話データ受信部11によって受信される。   Subsequently, the conversation data transmission unit 23 transmits the conversation data group generated by the voice recognition unit 22 to the analysis device 10 (S110). The conversation data group is received by the conversation data receiving unit 11.

図6は、解析装置10が実行する会話データ群からのQAデータの抽出処理の処理手順の一例を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining an example of a processing procedure of QA data extraction processing from the conversation data group executed by the analysis apparatus 10.

ステップS201において、QA抽出部12は、会話データ受信部11によって受信された会話データ群から1つの会話データを処理対象として取得する。以下、取得された会話データを「対象会話データ」という。   In step S <b> 201, the QA extraction unit 12 acquires one conversation data as a processing target from the conversation data group received by the conversation data reception unit 11. Hereinafter, the acquired conversation data is referred to as “target conversation data”.

続いて、QA抽出部12は、対象会話データ内の会話文字列(音声データから変換された文字列)に、キーワード記憶部111に記憶されているいずれかのキーワードが含まれているか否かを判定する(S202)。   Subsequently, the QA extraction unit 12 determines whether any keyword stored in the keyword storage unit 111 is included in the conversation character string (character string converted from the voice data) in the target conversation data. Determine (S202).

図7は、キーワード記憶部111の構成例を示す図である。図7に示されるように、キーワード記憶部111には、口頭での質問に含まれる頻度が高いであろうと推定される表現を示す文字列がキーワードとして記憶されている。   FIG. 7 is a diagram illustrating a configuration example of the keyword storage unit 111. As illustrated in FIG. 7, the keyword storage unit 111 stores a character string indicating an expression that is estimated to be frequently included in an oral question as a keyword.

対象会話データ内の会話文字列がいずれかのキーワードを含む場合(S202でYes)、QA抽出部12は、対象会話データをQAデータとしてQA記憶部112に記憶する(S203)。   When the conversation character string in the target conversation data includes any keyword (Yes in S202), the QA extraction unit 12 stores the target conversation data in the QA storage unit 112 as QA data (S203).

図8は、QA記憶部112の構成例を示す図である。図8に示されるように、QA記憶部112に記憶されるQAデータの構成は、会話データの構成と同じである。図8では、図5に示した音声データ記憶部211におけるレコードのうち、項番3のレコードに係る会話データが、QAデータには該当しないと判定された例を示す。   FIG. 8 is a diagram illustrating a configuration example of the QA storage unit 112. As shown in FIG. 8, the configuration of QA data stored in the QA storage unit 112 is the same as the configuration of conversation data. FIG. 8 shows an example in which it is determined that the conversation data related to the record of item number 3 among the records in the voice data storage unit 211 shown in FIG. 5 does not correspond to the QA data.

なお、業務画面の表示中に、業務画面の操作とは無関係な質問が行われる可能性も考えられる。このような可能性を考慮して、ステップS202における判定条件を、「会話文字列にいずれかのキーワードが含まれ、かつ、会話文字列に対象会話データの画面名が含まれること」としてもよい。隣の同僚等に業務画面の操作に関する質問を行う場合、当該業務画面の画面名等が当該質問に含まれる可能性が有ると考えられるからである。   It is possible that a question unrelated to the operation of the business screen may be asked during the display of the business screen. In consideration of such a possibility, the determination condition in step S202 may be “any one keyword is included in the conversation character string and the screen name of the target conversation data is included in the conversation character string”. . This is because when a question about operation of a business screen is given to a neighboring colleague or the like, the screen name of the business screen may be included in the question.

ステップS201以降が、会話データ受信部11によって受信された会話データ群に含まれる全ての会話データについて実行されると(S204でYes)、図6の処理は終了する。   When step S201 and subsequent steps are executed for all conversation data included in the conversation data group received by the conversation data receiving unit 11 (Yes in S204), the processing in FIG. 6 ends.

図9は、ユーザ端末20が業務画面の遷移に応じて実行する処理手順の一例を説明するためのフローチャートである。ユーザ端末20においてシステムUI部24(業務システムのクライアント)が起動されると、システムUI部24は、図9の処理を開始する。   FIG. 9 is a flowchart for explaining an example of a processing procedure executed by the user terminal 20 in response to the transition of the business screen. When the system UI unit 24 (client of the business system) is activated in the user terminal 20, the system UI unit 24 starts the process of FIG.

システムUI部24は、起動に応じ、業務画面群のうち最初に表示される画面であるメニュー画面を表示装置106へ表示する(S301)。メニュー画面は、業務のメニューを選択する画面である。   In response to the activation, the system UI unit 24 displays a menu screen, which is the first screen displayed in the business screen group, on the display device 106 (S301). The menu screen is a screen for selecting a business menu.

続いて、システムUI部24は、変数tsに現在日時を代入する(S302)。変数tsは、表示中の業務画面の表示の開始日時を記憶しておくための変数である。続いて、システムUI部24は、表示中の業務画面(この段階ではメニュー画面)に対応するQAデータの取得要求を、解析装置10の検索部13へ送信する(S303)。当該取得要求には、表示中の業務画面の画面IDが含まれる。   Subsequently, the system UI unit 24 substitutes the current date and time for the variable ts (S302). The variable ts is a variable for storing the display start date and time of the currently displayed business screen. Subsequently, the system UI unit 24 transmits an acquisition request for QA data corresponding to the displayed business screen (the menu screen at this stage) to the search unit 13 of the analysis apparatus 10 (S303). The acquisition request includes the screen ID of the business screen being displayed.

当該取得要求を受信した検索部13は、当該取得要求に含まれている画面IDを含むQAデータをQA記憶部112(図8)から検索する。該当するQAデータが検索された場合、検索部13は、該当するQAデータを出力対象としてQA記憶部112から取得し、当該QAデータを含む応答を返信する。該当するQAデータが検索されない場合、検索部13は、該当するQAデータが無いことを示す応答を返信する。   The search unit 13 that has received the acquisition request searches the QA storage unit 112 (FIG. 8) for QA data including the screen ID included in the acquisition request. When the corresponding QA data is searched, the search unit 13 acquires the corresponding QA data from the QA storage unit 112 as an output target, and returns a response including the QA data. When the corresponding QA data is not searched, the search unit 13 returns a response indicating that there is no corresponding QA data.

検索部13からの応答にQAデータが含まれていない場合(S304でNo)、システムUI部24は、表示中の業務画面(以下、「表示画面」という。)に対するユーザによる操作を待機する(S306)。検索部13からの応答にQAデータが含まれている場合(S304でYes)、システムUI部24は、当該QAデータを表示装置106に表示して(S305)、ステップS306へ進む。   When QA data is not included in the response from the search unit 13 (No in S304), the system UI unit 24 waits for an operation by the user on the displayed business screen (hereinafter referred to as “display screen”) ( S306). When QA data is included in the response from the search unit 13 (Yes in S304), the system UI unit 24 displays the QA data on the display device 106 (S305), and proceeds to step S306.

表示画面がユーザによって操作され(S306でYes)、当該操作が業務画面の遷移を発生させる操作である場合(S307でYes)、システムUI部24は、遷移元の業務画面(現在の表示画面)がメニュー画面であるか否かを判定する(S308)。遷移元がメニュー画面である場合(S308でYes)、システムUI部24は、メニュー画面において選択されたメニューのメニュー情報を、対象メニュー情報としてメモリ装置103に記憶する(S309)。ここで、メニュー情報とは、メニューID及びメニュー名を含む情報である。   When the display screen is operated by the user (Yes in S306) and the operation is an operation that causes a transition of the business screen (Yes in S307), the system UI unit 24 displays the business screen of the transition source (current display screen) It is determined whether or not is a menu screen (S308). When the transition source is the menu screen (Yes in S308), the system UI unit 24 stores the menu information of the menu selected on the menu screen as the target menu information in the memory device 103 (S309). Here, the menu information is information including a menu ID and a menu name.

続いて、システムUI部24は、変数teに現在日時を代入する(S310)。変数teは、遷移元の業務画面の表示が終了した日時を記憶するための変数である。続いて、システムUI部24は、操作ログを生成し、生成した操作ログを操作ログ記憶部212へ記憶する(S311)。   Subsequently, the system UI unit 24 substitutes the current date and time for the variable te (S310). The variable te is a variable for storing the date and time when the display of the transition source business screen is completed. Subsequently, the system UI unit 24 generates an operation log, and stores the generated operation log in the operation log storage unit 212 (S311).

図10は、操作ログ記憶部212の構成例を示す図である。図10に示される1行が1つの操作ログに相当する。各操作ログは、項番、年月日、開始時刻、終了時刻、ユーザID、メニューID、メニュー名、画面ID、画面名及び遷移先画面名等を含む。   FIG. 10 is a diagram illustrating a configuration example of the operation log storage unit 212. One line shown in FIG. 10 corresponds to one operation log. Each operation log includes an item number, date, start time, end time, user ID, menu ID, menu name, screen ID, screen name, transition destination screen name, and the like.

項番は、操作ログの順番を示す情報である。年月日は、操作ログが生成された年月日である。開始時刻は、操作ログに対応する業務画面の表示が開始された時刻である。終了時刻は、当該業務画面の表示が終了した時刻である。ユーザIDは、業務システムを利用するユーザのユーザIDである。例えば、ユーザIDは、業務システムへのログイン時等に入力されてもよい。メニューID及びメニュー名は、当該業務画面の表示の前に最後に選択されたメニューのメニューID及びメニュー名である。画面IDは、当該業務画面の画面IDである。画面名は、当該業務画面の画面名である。遷移先画面名は、当該業務画面からの遷移先の業務画面の画面名である。   The item number is information indicating the order of operation logs. The date is the date when the operation log was generated. The start time is the time when the display of the business screen corresponding to the operation log is started. The end time is the time when the display of the business screen is ended. The user ID is a user ID of a user who uses the business system. For example, the user ID may be input when logging into the business system. The menu ID and menu name are the menu ID and menu name of the menu last selected before the business screen is displayed. The screen ID is the screen ID of the business screen. The screen name is the screen name of the business screen. The transition destination screen name is the screen name of the transition destination business screen from the business screen.

開始時刻は、変数tsの値に基づいて特定される。終了時刻は、変数teの値に基づいて特定される。メニューID及びメニュー名は、メモリ装置103に記憶されている対象メニュー情報に基づいて特定される。画面ID及び画面名は、表示画面の画面ID及び画面名を取得することで特定される。遷移先画面名は、これから表示される業務画面の画面名によって特定される。   The start time is specified based on the value of the variable ts. The end time is specified based on the value of the variable te. The menu ID and menu name are specified based on the target menu information stored in the memory device 103. The screen ID and screen name are specified by acquiring the screen ID and screen name of the display screen. The transition destination screen name is specified by the screen name of the business screen to be displayed.

続いて、システムUI部24は、遷移先の業務画面(以下、「遷移先画面」という。)を表示装置106に表示することで、業務画面の遷移を発生させる(S312)。この際、遷移元の業務画面がメニュー画面以外であれば、当該業務画面が非表示とされてもよい。   Subsequently, the system UI unit 24 displays a transition destination business screen (hereinafter referred to as a “transition destination screen”) on the display device 106, thereby causing a transition of the business screen (S312). At this time, if the transition source business screen is other than the menu screen, the business screen may be hidden.

ステップS312に続いてステップS302以降が実行される。この際、遷移先画面についてQAデータが取得されれば(S304でYes)、システムUI部24は、当該QAデータを表示装置106に表示する(S305)。   Subsequent to step S312, step S302 and subsequent steps are executed. At this time, if QA data is acquired for the transition destination screen (Yes in S304), the system UI unit 24 displays the QA data on the display device 106 (S305).

図11は、QAデータの表示例を示す図である。図11には、業務画面の一つであるA画面w1に重畳させてポップアップ画面p1が表示される例が示されている。ポップアップ画面p1には、QA内容として、取得されたQAデータが列記される。   FIG. 11 is a diagram illustrating a display example of QA data. FIG. 11 shows an example in which the pop-up screen p1 is displayed superimposed on the A screen w1 which is one of the business screens. The acquired QA data is listed on the pop-up screen p1 as the QA content.

また、表示画面に対するユーザによる操作が、業務システムの終了指示である場合(S313でYes)、システムUI部24は、ステップS310及びS311と同様の処理を実行して操作ログを生成し、当該操作ログを操作ログ記憶部212へ記憶する(S314、S315)。   If the operation on the display screen by the user is an instruction to end the business system (Yes in S313), the system UI unit 24 executes the same processing as in steps S310 and S311 to generate an operation log, and The log is stored in the operation log storage unit 212 (S314, S315).

続いて、操作ログ送信部25は、ステップS301以降に操作ログ記憶部212に記憶された操作ログ群を解析装置10へ送信する(S316)。当該操作ログ群は、解析装置10の操作ログ受信部14によって受信される。   Subsequently, the operation log transmission unit 25 transmits the operation log group stored in the operation log storage unit 212 after step S301 to the analysis apparatus 10 (S316). The operation log group is received by the operation log receiving unit 14 of the analysis apparatus 10.

図12は、解析装置10が実行する操作ログの解析処理の処理手順の一例を説明するためのフローチャートである。   FIG. 12 is a flowchart for explaining an example of a processing procedure of operation log analysis processing executed by the analysis apparatus 10.

ステップS401において、操作ログ解析部15は、操作ログ受信部14によって受信された操作ログ群から1つの操作ログを処理対象として取得する。以下、取得された操作ログを「対象ログ」という。   In step S <b> 401, the operation log analysis unit 15 acquires one operation log as a processing target from the operation log group received by the operation log reception unit 14. Hereinafter, the acquired operation log is referred to as “target log”.

続いて、操作ログ解析部15は、対象ログに対応する業務画面に(以下、「対象画面」という。)対する操作時間が正常であるか否かを判定する(S402)。当該操作時間は、対象ログの開始時刻から終了時刻までの経過時間である。また、当該操作時間が正常であるか否かは、操作時間記憶部113を参照して判定される。   Subsequently, the operation log analysis unit 15 determines whether or not the operation time for the business screen corresponding to the target log (hereinafter referred to as “target screen”) is normal (S402). The operation time is an elapsed time from the start time to the end time of the target log. Whether or not the operation time is normal is determined with reference to the operation time storage unit 113.

図13は、操作時間記憶部113の構成例を示す図である。図13に示されるように、操作時間記憶部113には、各業務画面の画面IDに対応付けられて標準操作時間が閾値として記憶されている。標準操作時間は、画面IDに係る業務画面に関して標準的な操作時間である。標準操作時間は、経験的に定められてもよいし、他の方法によって定められてもよい。また、経験的に最大の操作時間が標準操作時間とされてもよい。   FIG. 13 is a diagram illustrating a configuration example of the operation time storage unit 113. As illustrated in FIG. 13, the operation time storage unit 113 stores a standard operation time as a threshold in association with the screen ID of each business screen. The standard operation time is a standard operation time for the business screen associated with the screen ID. The standard operation time may be determined empirically or may be determined by other methods. Also, the empirically maximum operation time may be the standard operation time.

したがって、ステップS402において、操作ログ解析部15は、対象ログに関する操作時間が、対象画面の画面IDに対応付けられている標準操作時間以下であるか否かを判定する。当該操作時間が当該標準操作時間を超える場合(S402でNo)、操作ログ解析部15は、対象ログに対して、「操作時間異常」を判定結果として付与する(S403)。この場合、ユーザによる操作が中断されている状態又は滞っている状態が推定されるからである。すなわち、操作ログ解析部15は、表示されている時間が所定時間を超える業務画面を検出する。なお、「操作時間異常」は、操作時間が異常であることを示すラベルである。   Therefore, in step S402, the operation log analysis unit 15 determines whether or not the operation time related to the target log is equal to or less than the standard operation time associated with the screen ID of the target screen. When the operation time exceeds the standard operation time (No in S402), the operation log analysis unit 15 assigns “operation time abnormality” as a determination result to the target log (S403). In this case, it is because the state where the operation by the user is interrupted or the state where it is stagnant is estimated. In other words, the operation log analysis unit 15 detects a business screen whose displayed time exceeds a predetermined time. The “operation time abnormality” is a label indicating that the operation time is abnormal.

ステップS402でYesの場合、又はステップS403に続いて、操作ログ解析部15は、対象ログにおける画面遷移が正常であるか否かを判定する(S404)。対象ログにおける画面遷移とは、対象ログに含まれる画面名及び遷移先画面名によって特定される画面遷移をいう。すなわち、対象ログにおける画面遷移とは、当該画面名に係る業務画面から当該遷移先画面名に係る業務画面への画面遷移をいう。画面遷移の正否は、遷移情報記憶部114を参照して判定される。   In the case of Yes in step S402, or following step S403, the operation log analysis unit 15 determines whether or not the screen transition in the target log is normal (S404). The screen transition in the target log refers to a screen transition specified by a screen name and a transition destination screen name included in the target log. That is, the screen transition in the target log refers to a screen transition from the business screen related to the screen name to the business screen related to the transition destination screen name. Whether the screen transition is correct or not is determined with reference to the transition information storage unit 114.

図14は、遷移情報記憶部114の構成例を示す図である。図14に示されるように、遷移情報記憶部114の各レコードは、項番、メニューID、1以上の遷移N(Nは1以上の整数)等を含む。   FIG. 14 is a diagram illustrating a configuration example of the transition information storage unit 114. As shown in FIG. 14, each record in the transition information storage unit 114 includes an item number, a menu ID, one or more transitions N (N is an integer of one or more), and the like.

メニューIDは、メニュー画面において選択されたメニューのメニューIDである。遷移Nは、当該メニューに係る業務に関して、操作が正常に行われた場合に発生するはずである画面遷移を示す情報である。例えば、項番1のレコードには、遷移1として「画面A→画面B」、遷移2として「画面B→画面C」を含む。これは、メニューIDが「111」である業務では、画面A→画面B→画面Cの順で業務画面が遷移するはずであることを示す。   The menu ID is the menu ID of the menu selected on the menu screen. The transition N is information indicating a screen transition that should occur when an operation is normally performed for a task related to the menu. For example, the record of item number 1 includes “screen A → screen B” as transition 1 and “screen B → screen C” as transition 2. This indicates that in the business whose menu ID is “111”, the business screen should transition in the order of screen A → screen B → screen C.

なお、項番5のレコードと、項番6のレコードとは、同じメニューIDに対する画面遷移を示している。すなわち、項番5のレコードは、メニューIDが「555」である業務では、画面M→画面N→画面O→画面Pの順で業務画面が遷移するはずであることを示す。項番6のレコードは、メニューIDが「555」である業務では、画面M→画面N→画面O→画面Qの順で業務画面が遷移するはずであることを示す。これは、画面Oに対する操作に応じて、遷移先の業務画面が画面P又は画面Qに分岐することを意味する。   Note that the record of item number 5 and the record of item number 6 indicate screen transitions for the same menu ID. That is, the record of item number 5 indicates that in the business with the menu ID “555”, the business screen should transition in the order of screen M → screen N → screen O → screen P. The record of item number 6 indicates that in the business with the menu ID “555”, the business screen should transition in the order of screen M → screen N → screen O → screen Q. This means that the destination business screen branches to the screen P or the screen Q in response to an operation on the screen O.

したがって、ステップS404において、操作ログ解析部15は、対象ログのメニューIDを含むレコードを遷移情報記憶部114から取得し、対象ログの画面名から遷移先画面名への遷移が、当該レコードに含まれるいずれかの遷移Nに一致するか否かを判定する。対象ログの画面名から遷移先画面名への遷移が、いずれの当該遷移Nにも一致しない場合(S404でNo)、操作ログ解析部15は、対象ログに「画面遷移異常」を判定結果として付与する(S405)。「画面遷移異常」は、画面遷移が異常であることを示すラベルである。すなわち、本実施の形態において、操作ログ解析部15は、操作ログが示す画面遷移に基づいて、ユーザによる操作が、所定の操作手順(遷移情報記憶部114に記憶されている画面遷移)から逸脱している業務画面を検出する。   Therefore, in step S404, the operation log analysis unit 15 acquires a record including the menu ID of the target log from the transition information storage unit 114, and the transition from the screen name of the target log to the transition destination screen name is included in the record. It is determined whether or not any one of the transitions N matches. When the transition from the screen name of the target log to the transition destination screen name does not match any of the transitions N (No in S404), the operation log analysis unit 15 sets “screen transition abnormality” as the determination result in the target log. (S405). “Screen transition abnormality” is a label indicating that the screen transition is abnormal. That is, in this embodiment, the operation log analysis unit 15 causes the user operation to deviate from a predetermined operation procedure (screen transition stored in the transition information storage unit 114) based on the screen transition indicated by the operation log. Detects the current business screen.

ステップS404でYesの場合、又はステップS405に続いて、操作ログ解析部15は、対象ログに判定結果が付与されたか否かを判定する(S406)。対象ログに判定結果が付与されていない場合(S406でNo)、操作ログ解析部15は、対象ログに「正常」を判定結果として付与する(S407)。「正常」は、対象ログが示す操作が正常であることを示すラベルである。   In the case of Yes in step S404 or following step S405, the operation log analysis unit 15 determines whether or not a determination result is given to the target log (S406). When the determination result is not given to the target log (No in S406), the operation log analysis unit 15 gives “normal” to the target log as a determination result (S407). “Normal” is a label indicating that the operation indicated by the target log is normal.

ステップS406でYesの場合、又はステップS407に続いて、操作ログ解析部15は、判定結果が付与された対象ログを判定結果記憶部115に記憶する(S408)。   In the case of Yes in step S406 or subsequent to step S407, the operation log analysis unit 15 stores the target log to which the determination result is given in the determination result storage unit 115 (S408).

ステップS401以降が、操作ログ受信部14によって受信された操作ログ群に含まれる全ての操作ログについて実行されると(S409でYes)、図12の処理は終了する。その結果、判定結果記憶部115には、以下のような操作ログが記憶される。   When step S401 and subsequent steps are executed for all operation logs included in the operation log group received by the operation log receiving unit 14 (Yes in S409), the processing in FIG. 12 ends. As a result, the following operation log is stored in the determination result storage unit 115.

図15は、判定結果記憶部115の構成例を示す図である。図15に示されるように、判定結果記憶部115には、図10に示した操作ログに対して判定結果が付与された操作ログが記憶される。   FIG. 15 is a diagram illustrating a configuration example of the determination result storage unit 115. As illustrated in FIG. 15, the determination result storage unit 115 stores an operation log in which a determination result is added to the operation log illustrated in FIG. 10.

業務システムの開発者等は、判定結果記憶部115の内容を参照することで、例えば、業務システムのユーザが高い頻度で操作を誤ったり、操作が滞ったりする業務画面を特定し、当該業務画面において操作の誤りが発生する原因、操作が滞る原因を分析する。分析の結果、当該業務画面についてレイアウトの変更等を行うことで、当該業務画面の操作性の改善が図られてもよい。   By referring to the contents of the determination result storage unit 115, for example, a business system developer identifies a business screen in which a user of the business system frequently performs an operation mistake or is delayed, and the business screen Analyze the cause of the operation error and the reason for the operation delay. As a result of the analysis, the operability of the business screen may be improved by changing the layout of the business screen.

なお、各ユーザ端末20が、解析装置10の各機能を有してもよい。この場合、解析装置10は、設置されなくてもよい。   Each user terminal 20 may have each function of the analysis device 10. In this case, the analysis device 10 may not be installed.

また、質問及び回答の抽出は、録音された音声データではなく、音声がマイクに入力されるのと並行して実行されてもよい。   In addition, the extraction of the question and the answer may be performed in parallel with the voice input to the microphone instead of the recorded voice data.

上述したように、本実施の形態によれば、業務システムUIを構成する業務画面群のうち、いずれかの業務画面がユーザ端末20に表示されている期間において録音されたユーザの会話に、質問の表現が含まれている場合には、当該会話の内容を含むQAデータが当該業務画面の画面IDに関連付けられて記憶される。ここで、当該会話に質問の表現が含まれている場合は、当該会話には、当該質問に対する回答が含まれている可能性が高い。したがって、本実施の形態によれば、口頭での質問に関する情報を効率良く蓄積することができる。   As described above, according to the present embodiment, the user conversation recorded during the period in which any one of the business screens constituting the business system UI is displayed on the user terminal 20 has a question. Is included, the QA data including the content of the conversation is stored in association with the screen ID of the business screen. Here, when the conversation includes an expression of a question, there is a high possibility that the conversation includes an answer to the question. Therefore, according to the present embodiment, it is possible to efficiently accumulate information related to oral questions.

また、ユーザ端末20からのQAデータの取得要求に対し、当該取得要求に含まれている画面IDに関連付けられているQAデータがユーザ端末20に送信される。したがって、ユーザ端末20において当該画面IDに係る業務画面が表示される際に、過去の質問とその回答とをユーザ端末20に表示させることができ、当該業務画面の操作に関する有益な情報をユーザに提供することができる。   Further, in response to a QA data acquisition request from the user terminal 20, QA data associated with the screen ID included in the acquisition request is transmitted to the user terminal 20. Therefore, when the business screen related to the screen ID is displayed on the user terminal 20, past questions and their answers can be displayed on the user terminal 20, and useful information regarding the operation of the business screen can be displayed to the user. Can be provided.

また、本実施の形態によれば、業務画面群のうち、ユーザの操作が滞った業務画面や、所定の操作手順から逸脱した業務画面を判定ことができる。したがって、斯かる判定結果に基づいて、業務システムの改善を図ることができる。   Further, according to the present embodiment, it is possible to determine a business screen in which a user operation is delayed or a business screen deviating from a predetermined operation procedure in the business screen group. Therefore, the business system can be improved based on the determination result.

なお、本実施の形態において、解析装置10又はユーザ端末20は、コンピュータ又は情報処理装置の一例である。QA抽出部12は、判定部、記憶処理部及び抽出部の一例である。検索部13は、取得部の一例である。QA記憶部112は、記憶部の一例である。操作ログ解析部15は、第1の検出部及び第2の検出部の一例である。録音制御部21は、検出部及び音声取得部の一例である。質問者は、第1の通話相手の一例である。開発者等は、第2の通話相手の一例である。   In the present embodiment, the analysis device 10 or the user terminal 20 is an example of a computer or an information processing device. The QA extraction unit 12 is an example of a determination unit, a storage processing unit, and an extraction unit. The search unit 13 is an example of an acquisition unit. The QA storage unit 112 is an example of a storage unit. The operation log analysis unit 15 is an example of a first detection unit and a second detection unit. The recording control unit 21 is an example of a detection unit and a voice acquisition unit. The questioner is an example of a first call partner. A developer or the like is an example of a second call partner.

以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.

以上の説明に関し、更に以下の項を開示する。
(付記1)
所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定する処理と、
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
(付記2)
表示される画面の識別情報に関連付けられて前記記憶部に記憶されている前記情報を出力対象として取得する処理、
を前記コンピュータに実行させる付記1記載の情報処理プログラム。
(付記3)
前記判定する処理は、前記音声を含む音声データから認識された第1の文字列に、前記質問の表現を示す第2文字列群のうちいずれかの第2の文字列が含まれているかを判定し、
前記記憶する処理は、前記第1の文字列に前記第2の文字列が含まれている場合に、前記第1の文字列を前記画面の識別情報に関連付けて前記記憶部に記憶し、
前記取得する処理は、表示される画面の識別情報に関連付けられて前記記憶部に記憶されている文字列を出力対象として取得する、
ことを特徴とする付記2記載の情報処理プログラム。
(付記4)
前記所定の画面群に関する操作の履歴情報に基づいて、表示されている時間が所定時間を超える画面を検出する、
処理を前記コンピュータに実行させることを特徴とする付記1乃至3いずれか一項記載の情報処理プログラム。
(付記5)
前記所定の画面群に関する操作の履歴情報に基づいて、ユーザによる操作が所定の操作手順から逸脱したことを検出する、
処理を前記コンピュータに実行させることを特徴とする付記1乃至4いずれか一項記載の情報処理プログラム。
(付記6)
マイクを用いた第1の通話相手との間の通話開始後、前記マイクから入力された音声が前記第1の通話相手に送信されない、通話の保留状態への移行を検出し、
前記保留状態において前記マイクから入力された音声の取得を行い、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(付記7)
前記音声の取得は、前記第1の通話相手との間が保留状態であって、かつ、第2の通話相手との間が通話中である場合に実行する、
ことを特徴とする付記6記載の情報処理プログラム。
(付記8)
前記取得又は前記抽出は、前記第1の通話相手との通話中における操作が中断された期間が所定期間を超えた場合、又は前記第1の通話相手との通話中における操作が、所定の操作手順から逸脱したことが検出された場合に実行する、ことを特徴とする付記6又は7記載の情報処理プログラム。
(付記9)
前記マイクが装着されたオペレータの操作端末の表示装置に前記保留状態において表示された表示画面を、前記質問と前記回答とに対応づけて記憶部に記憶し、
前記オペレータ又は他のオペレータに対し前記表示画面を出力する際に、前記質問と前記回答とを表示する、
処理をコンピュータに実行させることを特徴とする付記6乃至8のいずれか一項記載の情報処理プログラム。
(付記10)
所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定する処理と、
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、
をコンピュータが実行することを特徴とする情報処理方法。
(付記11)
表示される画面の識別情報に関連付けられて前記記憶部に記憶されている前記情報を出力対象として取得する処理、
を前記コンピュータが実行する付記10記載の情報処理方法。
(付記12)
前記判定する処理は、前記音声を含む音声データから認識された第1の文字列に、前記質問の表現を示す第2文字列群のうちいずれかの第2の文字列が含まれているかを判定し、
前記記憶する処理は、前記第1の文字列に前記第2の文字列が含まれている場合に、前記第1の文字列を前記画面の識別情報に関連付けて前記記憶部に記憶し、
前記取得する処理は、表示される画面の識別情報に関連付けられて前記記憶部に記憶されている文字列を出力対象として取得する、
ことを特徴とする付記11記載の情報処理方法。
(付記13)
前記所定の画面群に関する操作の履歴情報に基づいて、表示されている時間が所定時間を超える画面を検出する、
処理を前記コンピュータが実行することを特徴とする付記10乃至12いずれか一項記載の情報処理方法。
(付記14)
前記所定の画面群に関する操作の履歴情報に基づいて、ユーザによる操作が所定の操作手順から逸脱したことを検出する、
処理を前記コンピュータが実行することを特徴とする付記10乃至13いずれか一項記載の情報処理方法。
(付記15)
マイクを用いた第1の通話相手との間の通話開始後、前記マイクから入力された音声が前記第1の通話相手に送信されない、通話の保留状態への移行を検出し、
前記保留状態において前記マイクから入力された音声の取得を行い、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う、
処理をコンピュータが実行することを特徴とする情報処理方法。
(付記16)
前記音声の取得は、前記第1の通話相手との間が保留状態であって、かつ、第2の通話相手との間が通話中である場合に実行する、
ことを特徴とする付記15記載の情報処理方法。
(付記17)
前記取得又は前記抽出は、前記第1の通話相手との通話中における操作が中断された期間が所定期間を超えた場合、又は前記第1の通話相手との通話中における操作が、所定の操作手順から逸脱したことが検出された場合に実行する、ことを特徴とする付記15又は16記載の情報処理方法。
(付記18)
前記マイクが装着されたオペレータの操作端末の表示装置に前記保留状態において表示された表示画面を、前記質問と前記回答とに対応づけて記憶部に記憶し、
前記オペレータ又は他のオペレータに対し前記表示画面を出力する際に、前記質問と前記回答とを表示する、
処理をコンピュータが実行することを特徴とする請求項15乃至17のいずれか一項記載の情報処理方法。
(付記19)
所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定部と、
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する記憶処理部と、
を有することを特徴とする情報処理装置。
(付記20)
表示される画面の識別情報に関連付けられて前記記憶部に記憶されている前記情報を出力対象として取得する取得部、
を有する付記19記載の情報処理装置。
(付記21)
前記判定部は、前記音声を含む音声データから認識された第1の文字列に、前記質問の表現を示す第2文字列群のうちいずれかの第2の文字列が含まれているかを判定し、
前記記憶処理部は、前記第1の文字列に前記第2の文字列が含まれている場合に、前記第1の文字列を前記画面の識別情報に関連付けて前記記憶部に記憶し、
前記取得部は、表示される画面の識別情報に関連付けられて前記記憶部に記憶されている文字列を出力対象として取得する、
ことを特徴とする付記20記載の情報処理装置。
(付記22)
前記所定の画面群に関する操作の履歴情報に基づいて、表示されている時間が所定時間を超える画面を検出する第1の検出部、
を有することを特徴とする付記19乃至21いずれか一項記載の情報処理装置。
(付記23)
前記所定の画面群に関する操作の履歴情報に基づいて、ユーザによる操作が所定の操作手順から逸脱したことを検出する第2の検出部、
を有することを特徴とする付記19乃至22いずれか一項記載の情報処理装置。
(付記24)
マイクを用いた第1の通話相手との間の通話開始後、前記マイクから入力された音声が前記第1の通話相手に送信されない、通話の保留状態への移行を検出する検出部と、
前記保留状態において前記マイクから入力された音声の取得を行う音声取得部と、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う抽出部と、
有することを特徴とする情報処理装置。
(付記25)
前記音声取得部は、前記第1の通話相手との間が保留状態であって、かつ、第2の通話相手との間が通話中である場合に前記音声の取得を実行する、
ことを特徴とする付記24記載の情報処理装置。
(付記26)
前記取得又は前記抽出は、前記第1の通話相手との通話中における操作が中断された期間が所定期間を超えた場合、又は前記第1の通話相手との通話中における操作が、所定の操作手順から逸脱したことが検出された場合に実行する、ことを特徴とする付記24又は25記載の情報処理装置。
(付記27)
前記マイクが装着されたオペレータの操作端末の表示装置に前記保留状態において表示された表示画面を、前記質問と前記回答とに対応づけて記憶部に記憶する記憶処理部と、
前記オペレータ又は他のオペレータに対し前記表示画面を出力する際に、前記質問と前記回答とを表示する表示制御部と、
を有することを特徴とする請求項24乃至26のいずれか一項記載の情報処理装置。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
A process for determining whether the voice input from the microphone during the period in which any one of the predetermined screen groups is displayed includes an expression of a question;
When the expression is included in the sound, a process of storing information indicating the content of the sound in the storage unit in association with the identification information of the screen;
An information processing program for causing a computer to execute.
(Appendix 2)
Processing for acquiring the information stored in the storage unit in association with the identification information of the screen to be displayed as an output target;
The information processing program according to appendix 1, which causes the computer to execute
(Appendix 3)
In the determination process, it is determined whether any second character string in the second character string group indicating the expression of the question is included in the first character string recognized from the sound data including the sound. Judgment,
In the storing process, when the second character string is included in the first character string, the first character string is stored in the storage unit in association with the identification information of the screen,
The acquisition process acquires, as an output target, a character string stored in the storage unit in association with identification information of a screen to be displayed.
The information processing program according to supplementary note 2, characterized by:
(Appendix 4)
Based on the history information of operations related to the predetermined screen group, a screen for which the displayed time exceeds a predetermined time is detected.
The information processing program according to any one of appendices 1 to 3, which causes the computer to execute processing.
(Appendix 5)
Detecting that the operation by the user deviates from the predetermined operation procedure based on the history information of the operation related to the predetermined screen group;
The information processing program according to any one of supplementary notes 1 to 4, wherein the computer causes the computer to execute processing.
(Appendix 6)
Detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
Obtaining voice input from the microphone in the hold state,
Analyzing the acquired voice and extracting a question and an answer to the question,
An information processing program for causing a computer to execute processing.
(Appendix 7)
The acquisition of the voice is executed when the communication with the first call partner is on hold and the call with the second call partner is in progress.
The information processing program according to supplementary note 6, wherein
(Appendix 8)
The acquisition or the extraction is performed when a period during which the operation during the call with the first call partner is interrupted exceeds a predetermined period, or when the operation during the call with the first call partner is a predetermined operation. The information processing program according to appendix 6 or 7, which is executed when it is detected that a deviation from the procedure is detected.
(Appendix 9)
The display screen displayed in the hold state on the display device of the operator's operation terminal equipped with the microphone is stored in the storage unit in association with the question and the answer,
When outputting the display screen to the operator or another operator, the question and the answer are displayed.
The information processing program according to any one of appendices 6 to 8, wherein the program causes a computer to execute the process.
(Appendix 10)
A process for determining whether the voice input from the microphone during the period in which any one of the predetermined screen groups is displayed includes an expression of a question;
When the expression is included in the sound, a process of storing information indicating the content of the sound in the storage unit in association with the identification information of the screen;
An information processing method characterized in that a computer executes.
(Appendix 11)
Processing for acquiring the information stored in the storage unit in association with the identification information of the screen to be displayed as an output target;
The information processing method according to appendix 10, wherein the computer executes
(Appendix 12)
In the determination process, it is determined whether any second character string in the second character string group indicating the expression of the question is included in the first character string recognized from the sound data including the sound. Judgment,
In the storing process, when the second character string is included in the first character string, the first character string is stored in the storage unit in association with the identification information of the screen,
The acquisition process acquires, as an output target, a character string stored in the storage unit in association with identification information of a screen to be displayed.
The information processing method according to supplementary note 11, characterized in that:
(Appendix 13)
Based on the history information of operations related to the predetermined screen group, a screen for which the displayed time exceeds a predetermined time is detected.
The information processing method according to any one of appendices 10 to 12, wherein the computer executes processing.
(Appendix 14)
Detecting that the operation by the user deviates from the predetermined operation procedure based on the history information of the operation related to the predetermined screen group;
14. The information processing method according to any one of appendices 10 to 13, wherein the computer executes processing.
(Appendix 15)
Detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
Obtaining voice input from the microphone in the hold state,
Analyzing the acquired voice and extracting a question and an answer to the question,
An information processing method, wherein a computer executes a process.
(Appendix 16)
The acquisition of the voice is executed when the communication with the first call partner is on hold and the call with the second call partner is in progress.
The information processing method according to supplementary note 15, wherein
(Appendix 17)
The acquisition or the extraction is performed when a period during which the operation during the call with the first call partner is interrupted exceeds a predetermined period, or when the operation during the call with the first call partner is a predetermined operation. 17. The information processing method according to supplementary note 15 or 16, which is executed when it is detected that a deviation from the procedure is detected.
(Appendix 18)
The display screen displayed in the hold state on the display device of the operator's operation terminal equipped with the microphone is stored in the storage unit in association with the question and the answer,
When outputting the display screen to the operator or another operator, the question and the answer are displayed.
The information processing method according to claim 15, wherein the processing is executed by a computer.
(Appendix 19)
A determination unit that determines whether the voice input from the microphone during a period in which any one of the predetermined screen groups is displayed includes an expression of a question;
A storage processing unit that stores information indicating the content of the voice in the storage unit in association with the identification information of the screen when the voice includes the expression;
An information processing apparatus comprising:
(Appendix 20)
An acquisition unit that acquires, as an output target, the information stored in the storage unit in association with identification information of a screen to be displayed;
Item 20. The information processing apparatus according to appendix 19.
(Appendix 21)
The determination unit determines whether the first character string recognized from the voice data including the voice includes any second character string in the second character string group indicating the expression of the question. And
The storage processing unit stores the first character string in the storage unit in association with the identification information of the screen when the first character string includes the second character string,
The acquisition unit acquires, as an output target, a character string stored in the storage unit in association with identification information of a screen to be displayed.
The information processing apparatus according to appendix 20, characterized in that:
(Appendix 22)
A first detection unit for detecting a screen whose displayed time exceeds a predetermined time based on history information of an operation related to the predetermined screen group;
The information processing apparatus according to any one of appendices 19 to 21, wherein the information processing apparatus includes:
(Appendix 23)
A second detection unit that detects that an operation by the user deviates from a predetermined operation procedure based on operation history information regarding the predetermined screen group;
The information processing apparatus according to any one of appendices 19 to 22, wherein the information processing apparatus includes:
(Appendix 24)
A detection unit for detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
An audio acquisition unit that acquires audio input from the microphone in the hold state;
An analysis unit that analyzes the acquired voice and extracts a question and an answer to the question;
An information processing apparatus comprising:
(Appendix 25)
The voice acquisition unit executes the acquisition of the voice when the communication with the first call partner is on hold and the call with the second call partner is in progress.
The information processing apparatus according to appendix 24, wherein
(Appendix 26)
The acquisition or the extraction is performed when a period during which the operation during the call with the first call partner is interrupted exceeds a predetermined period, or when the operation during the call with the first call partner is a predetermined operation. 26. The information processing apparatus according to appendix 24 or 25, which is executed when it is detected that a deviation from the procedure is detected.
(Appendix 27)
A storage processing unit that stores a display screen displayed in the hold state on a display device of an operator's operation terminal equipped with the microphone in a storage unit in association with the question and the answer;
A display control unit for displaying the question and the answer when outputting the display screen to the operator or another operator;
27. The information processing apparatus according to claim 24, further comprising:

1 情報処理システム
10 解析装置
11 会話データ受信部
12 QA抽出部
13 検索部
14 操作ログ受信部
15 操作ログ解析部
20 ユーザ端末
21 録音制御部
22 音声認識部
23 会話データ送信部
24 システムUI部
25 操作ログ送信部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
111 キーワード記憶部
112 QA記憶部
113 操作時間記憶部
114 遷移情報記憶部
115 判定結果記憶部
211 音声データ記憶部
212 操作ログ記憶部
B バス
DESCRIPTION OF SYMBOLS 1 Information processing system 10 Analysis apparatus 11 Conversation data reception part 12 QA extraction part 13 Search part 14 Operation log reception part 15 Operation log analysis part 20 User terminal 21 Recording control part 22 Voice recognition part 23 Conversation data transmission part 24 System UI part 25 Operation log transmission unit 100 Drive device 101 Recording medium 102 Auxiliary storage device 103 Memory device 104 CPU
105 interface device 111 keyword storage unit 112 QA storage unit 113 operation time storage unit 114 transition information storage unit 115 determination result storage unit 211 voice data storage unit 212 operation log storage unit B bus

Claims (13)

所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定する処理と、
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
A process for determining whether the voice input from the microphone during the period in which any one of the predetermined screen groups is displayed includes an expression of a question;
When the expression is included in the sound, a process of storing information indicating the content of the sound in the storage unit in association with the identification information of the screen;
An information processing program for causing a computer to execute.
表示される画面の識別情報に関連付けられて前記記憶部に記憶されている前記情報を出力対象として取得する処理、
を前記コンピュータに実行させる請求項1記載の情報処理プログラム。
Processing for acquiring the information stored in the storage unit in association with the identification information of the screen to be displayed as an output target;
The information processing program according to claim 1, wherein the computer is executed.
前記判定する処理は、前記音声を含む音声データから認識された第1の文字列に、前記質問の表現を示す第2文字列群のうちいずれかの第2の文字列が含まれているかを判定し、
前記記憶する処理は、前記第1の文字列に前記第2の文字列が含まれている場合に、前記第1の文字列を前記画面の識別情報に関連付けて前記記憶部に記憶し、
前記取得する処理は、表示される画面の識別情報に関連付けられて前記記憶部に記憶されている文字列を出力対象として取得する、
ことを特徴とする請求項2記載の情報処理プログラム。
In the determination process, it is determined whether any second character string in the second character string group indicating the expression of the question is included in the first character string recognized from the sound data including the sound. Judgment,
In the storing process, when the second character string is included in the first character string, the first character string is stored in the storage unit in association with the identification information of the screen,
The acquisition process acquires, as an output target, a character string stored in the storage unit in association with identification information of a screen to be displayed.
The information processing program according to claim 2.
前記所定の画面群に関する操作の履歴情報に基づいて、表示されている時間が所定時間を超える画面を検出する、
処理を前記コンピュータに実行させることを特徴とする請求項1乃至3いずれか一項記載の情報処理プログラム。
Based on the history information of operations related to the predetermined screen group, a screen for which the displayed time exceeds a predetermined time is detected.
The information processing program according to claim 1, wherein the computer causes the computer to execute processing.
前記所定の画面群に関する操作の履歴情報に基づいて、ユーザによる操作が所定の操作手順から逸脱したことを検出する、
処理を前記コンピュータに実行させることを特徴とする請求項1乃至4いずれか一項記載の情報処理プログラム。
Detecting that the operation by the user deviates from the predetermined operation procedure based on the history information of the operation related to the predetermined screen group;
The information processing program according to claim 1, wherein the computer causes the computer to execute processing.
マイクを用いた第1の通話相手との間の通話開始後、前記マイクから入力された音声が前記第1の通話相手に送信されない、通話の保留状態への移行を検出し、
前記保留状態において前記マイクから入力された音声の取得を行い、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
Detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
Obtaining voice input from the microphone in the hold state,
Analyzing the acquired voice and extracting a question and an answer to the question,
An information processing program for causing a computer to execute processing.
前記音声の取得は、前記第1の通話相手との間が保留状態であって、かつ、第2の通話相手との間が通話中である場合に実行する、
ことを特徴とする請求項6記載の情報処理プログラム。
The acquisition of the voice is executed when the communication with the first call partner is on hold and the call with the second call partner is in progress.
The information processing program according to claim 6.
前記取得又は前記抽出は、前記第1の通話相手との通話中における操作が中断された期間が所定期間を超えた場合、又は前記第1の通話相手との通話中における操作が、所定の操作手順から逸脱したことが検出された場合に実行する、ことを特徴とする請求項6又は7記載の情報処理プログラム。   The acquisition or the extraction is performed when a period during which the operation during the call with the first call partner is interrupted exceeds a predetermined period, or when the operation during the call with the first call partner is a predetermined operation. 8. The information processing program according to claim 6, wherein the information processing program is executed when it is detected that a deviation from the procedure is detected. 前記マイクが装着されたオペレータの操作端末の表示装置に前記保留状態において表示された表示画面を、前記質問と前記回答とに対応づけて記憶部に記憶し、
前記オペレータ又は他のオペレータに対し前記表示画面を出力する際に、前記質問と前記回答とを表示する、
処理をコンピュータに実行させることを特徴とする請求項6乃至8のいずれか一項記載の情報処理プログラム。
The display screen displayed in the hold state on the display device of the operator's operation terminal equipped with the microphone is stored in the storage unit in association with the question and the answer,
When outputting the display screen to the operator or another operator, the question and the answer are displayed.
The information processing program according to any one of claims 6 to 8, which causes a computer to execute processing.
所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定する処理と、
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶する処理と、
をコンピュータが実行することを特徴とする情報処理方法。
A process for determining whether the voice input from the microphone during the period in which any one of the predetermined screen groups is displayed includes an expression of a question;
When the expression is included in the sound, a process of storing information indicating the content of the sound in the storage unit in association with the identification information of the screen;
An information processing method characterized in that a computer executes.
マイクを用いた第1の通話相手との間の通話開始後、前記マイクから入力された音声が前記第1の通話相手に送信されない、通話の保留状態への移行を検出し、
前記保留状態において前記マイクから入力された音声の取得を行い、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う、
処理をコンピュータが実行することを特徴とする情報処理方法。
Detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
Obtaining voice input from the microphone in the hold state,
Analyzing the acquired voice and extracting a question and an answer to the question,
An information processing method, wherein a computer executes a process.
所定の画面群のうちのいずれかの画面が表示されている期間においてマイクから入力された音声に、質問の表現が含まれているかを判定部と、
前記音声に前記表現が含まれている場合に、前記音声の内容を示す情報を前記画面の識別情報に関連付けて記憶部に記憶処理部と、
を有することを特徴とする情報処理装置。
A determination unit that determines whether the voice input from the microphone during a period in which any one of the predetermined screen groups is displayed includes an expression of a question;
In the case where the expression is included in the sound, a storage processing unit is associated with the identification information of the screen in association with information indicating the content of the sound;
An information processing apparatus comprising:
マイクを用いた第1の通話相手との間の通話開始後、前記マイクから入力された音声が前記第1の通話相手に送信されない、通話の保留状態への移行を検出する検出部と、
前記保留状態において前記マイクから入力された音声の取得を行う音声取得部と、
取得した前記音声を解析して、質問と該質問に対する回答との抽出を行う抽出部と、
有することを特徴とする情報処理装置。
A detection unit for detecting a transition to a call holding state in which a voice input from the microphone is not transmitted to the first call partner after the start of a call with the first call partner using a microphone;
An audio acquisition unit that acquires audio input from the microphone in the hold state;
An analysis unit that analyzes the acquired voice and extracts a question and an answer to the question;
An information processing apparatus comprising:
JP2018044444A 2018-03-12 2018-03-12 Information processing program, information processing method and information processing equipment Active JP7073797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018044444A JP7073797B2 (en) 2018-03-12 2018-03-12 Information processing program, information processing method and information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018044444A JP7073797B2 (en) 2018-03-12 2018-03-12 Information processing program, information processing method and information processing equipment

Publications (2)

Publication Number Publication Date
JP2019159690A true JP2019159690A (en) 2019-09-19
JP7073797B2 JP7073797B2 (en) 2022-05-24

Family

ID=67993627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018044444A Active JP7073797B2 (en) 2018-03-12 2018-03-12 Information processing program, information processing method and information processing equipment

Country Status (1)

Country Link
JP (1) JP7073797B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021205589A1 (en) * 2020-04-09 2021-10-14 日本電信電話株式会社 Test script generation device, test script generation method, and program
WO2021234850A1 (en) * 2020-05-20 2021-11-25 日本電気株式会社 Information processing device, information processing method, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015763A (en) * 2002-06-11 2004-01-15 Ntt Data Corp Call center support device and program thereof
JP2013117842A (en) * 2011-12-02 2013-06-13 Nippon Telegr & Teleph Corp <Ntt> Knowledge amount estimation information generating device, knowledge amount estimating device, method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015763A (en) * 2002-06-11 2004-01-15 Ntt Data Corp Call center support device and program thereof
JP2013117842A (en) * 2011-12-02 2013-06-13 Nippon Telegr & Teleph Corp <Ntt> Knowledge amount estimation information generating device, knowledge amount estimating device, method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021205589A1 (en) * 2020-04-09 2021-10-14 日本電信電話株式会社 Test script generation device, test script generation method, and program
JPWO2021205589A1 (en) * 2020-04-09 2021-10-14
JP7380851B2 (en) 2020-04-09 2023-11-15 日本電信電話株式会社 Test script generation device, test script generation method and program
WO2021234850A1 (en) * 2020-05-20 2021-11-25 日本電気株式会社 Information processing device, information processing method, and storage medium
JPWO2021234850A1 (en) * 2020-05-20 2021-11-25
JP7396475B2 (en) 2020-05-20 2023-12-12 日本電気株式会社 Information processing device, information processing method, and recording medium

Also Published As

Publication number Publication date
JP7073797B2 (en) 2022-05-24

Similar Documents

Publication Publication Date Title
CN108153800B (en) Information processing method, information processing apparatus, and recording medium
US8625773B2 (en) System and method for analyzing automatic speech recognition performance data
US10083686B2 (en) Analysis object determination device, analysis object determination method and computer-readable medium
US20120330662A1 (en) Input supporting system, method and program
CN108447509B (en) Method and device for generating multimedia file
US10108698B2 (en) Common data repository for improving transactional efficiencies of user interactions with a computing device
KR102248843B1 (en) Method for updating contact information in callee electronic device, and the electronic device
KR102198424B1 (en) Method for managing information of voice call recording and computer program for the same
JP2020064493A (en) Online communication review system, method, and computer program
CN112740159A (en) Help information display system, help information display method, and help information display program
JP7073797B2 (en) Information processing program, information processing method and information processing equipment
JP2007025497A (en) Educational assistance program and educational assistant device
JP5947159B2 (en) Information processing apparatus, information processing method, and program
WO2020020095A1 (en) Method for configuring editing tool, and method for generating configuration parameter
JP2018081403A (en) Incident management system, incident management method and computer program
JP6292223B2 (en) Information processing apparatus, information processing system, and information processing method
CN116467202A (en) Automated testing method, automated testing system, electronic device, and storage medium
US11418647B1 (en) Presenting multiple customer contact channels in a browseable interface
JP7225082B2 (en) Information processing device, information processing method and program
JP5184071B2 (en) Transcription text creation support device, transcription text creation support program, and transcription text creation support method
KR20100080345A (en) System and method for prompting an end user with a preferred sequence of commands which performs an activity in a least number of inputs
WO2020070906A1 (en) Workshop assistance system and workshop assistance method
JP2017134162A (en) Voice recognition device, voice recognition method, and voice recognition program
CN112906358B (en) Information processing apparatus, information processing method, and recording medium
JP6725859B1 (en) Information processing device and log management program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7073797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150