JP2018106551A - Conversation recording device, conversation recording method, and conversation recording program - Google Patents

Conversation recording device, conversation recording method, and conversation recording program Download PDF

Info

Publication number
JP2018106551A
JP2018106551A JP2016254163A JP2016254163A JP2018106551A JP 2018106551 A JP2018106551 A JP 2018106551A JP 2016254163 A JP2016254163 A JP 2016254163A JP 2016254163 A JP2016254163 A JP 2016254163A JP 2018106551 A JP2018106551 A JP 2018106551A
Authority
JP
Japan
Prior art keywords
data
item
conversation
processing unit
conversation recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016254163A
Other languages
Japanese (ja)
Other versions
JP6859702B2 (en
Inventor
山本 和明
Kazuaki Yamamoto
和明 山本
翔太 佐野
Shota Sano
翔太 佐野
真琴 竹村
Makoto Takemura
真琴 竹村
実 鷲北
Minoru Washikita
実 鷲北
陽一 山川
Yoichi Yamakawa
陽一 山川
淳 飯原
Atsushi Iihara
淳 飯原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016254163A priority Critical patent/JP6859702B2/en
Publication of JP2018106551A publication Critical patent/JP2018106551A/en
Application granted granted Critical
Publication of JP6859702B2 publication Critical patent/JP6859702B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a conversation recording device, a conversation recording method, and a conversation recording program that suppress a decrease in a service level caused by a system failure.SOLUTION: A conversation recording device 14 includes: an acquisition unit 32 that acquires voice data of a conversation transmitted and received via communication; and a data processing unit 34 that extracts extraction data from voice data on the basis of conditions prescribed for each item included in a system failure reporting scenario, and records the extraction data in associated with each item.SELECTED DRAWING: Figure 2

Description

本発明は、会話記録装置、会話記録方法及び会話記録プログラムに関する。   The present invention relates to a conversation recording apparatus, a conversation recording method, and a conversation recording program.

データセンタでは、複数の仮想マシン(Virtual Machines)が連携することにより、業務システムとして動作する。このようなデータセンタでは、1つの仮想基盤上に数十〜数百の仮想マシンが稼働することもある。   In a data center, a plurality of virtual machines (Virtual Machines) cooperate to operate as a business system. In such a data center, dozens to hundreds of virtual machines may operate on one virtual infrastructure.

データセンタは、物理マシンや仮想マシンなどのシステムが正常に稼働し続けられる状態を維持するサービスを行っている。データセンタが提供するサービスには、システムの異常、または、その兆候が発生していないかの監視、オペレーションシステムの更新などの保守作業、障害発生時の報告、復旧などの業務が含まれる。障害発生時の報告は、例えば、物理マシンに故障等のシステム障害が発生した場合に、電話による通話等を通じて利用者である顧客の担当者に障害報告を行う業務を含む。加えて、運用担当は、顧客の担当者に障害報告を行った内容を運用担当の上長、例えば上級SE等に報告する業務をさらに含む。   The data center provides a service that maintains a state in which a system such as a physical machine or a virtual machine can continue to operate normally. Services provided by the data center include operations such as monitoring whether a system abnormality or sign has occurred, maintenance work such as updating the operation system, reporting when a failure occurs, and recovery. The report when a failure occurs includes, for example, a task of reporting a failure to a person in charge of a customer through a telephone call or the like when a system failure such as a failure occurs in a physical machine. In addition, the operation staff further includes a task of reporting the contents of the failure report to the customer staff to the manager in charge of the operation, for example, an advanced SE.

特開2004−133527号公報JP 2004-133527 A 特開2010−282545号公報JP 2010-282545 A

しかしながら、以下に説明するように、システム障害が発生した場合に、運用担当の業務が維持できなくなる恐れがある。   However, as described below, when a system failure occurs, there is a possibility that the operations in charge of operations cannot be maintained.

すなわち、クラウドビジネスの発展に伴って仮想マシンの利用者である顧客が増加すると共にシステムの多重化および大規模化も進んでいる。これに伴って、単一の物理マシンで生じたシステム障害に起因して、報告先に大規模化に伴って増加した仮想マシンの利用者が含まれる場合が発生すると、全顧客への障害報告が終了するまでの期間が長期化する恐れがある。このように障害対応の業務が滞ると、システム障害から発生した問題に起因してデータセンタが提供するサービスが機能しなくなる恐れがある。   In other words, with the development of the cloud business, the number of customers who are users of virtual machines has increased, and the multiplexing and scale-up of systems has also progressed. Along with this, if there is a case in which the number of users of virtual machines that have increased as a result of the system increase due to a system failure that occurred on a single physical machine, a failure report to all customers There is a risk that the period until will end will be prolonged. In this way, if the failure handling operation is delayed, there is a risk that the service provided by the data center will not function due to a problem caused by the system failure.

1つの側面では、本発明は、システム障害に起因するサービスレベルの低下を抑制できる会話記録装置、会話記録方法及び会話記録プログラムを提供することを目的とする。   In one aspect, an object of the present invention is to provide a conversation recording apparatus, a conversation recording method, and a conversation recording program that can suppress a decrease in service level due to a system failure.

一態様では、会話記録装置は、通信を介して送受信される会話の音声データを取得する取得部と、前記音声データから、システム障害の報告シナリオに含まれる項目ごとに規定された条件に基づいて抽出データを抽出し、前記抽出データを前記項目毎に関連付けて記録するデータ処理部と、を有する。   In one aspect, the conversation recording device is based on a condition defined for each item included in a system failure report scenario from an acquisition unit that acquires voice data of a conversation transmitted and received via communication, and the voice data A data processing unit that extracts extracted data and records the extracted data in association with each item.

システム障害に起因するサービスレベルの低下を抑制できる。   Service level degradation due to system failures can be suppressed.

図1は、実施例の会話記録システムの全体構成を説明する図である。FIG. 1 is a diagram illustrating the overall configuration of a conversation recording system according to an embodiment. 図2は、会話記録装置の機能的構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the conversation recording apparatus. 図3は、会話記録処理の具体例を示す図である。FIG. 3 is a diagram showing a specific example of the conversation recording process. 図4は、異なる会話に基づく抽出データのパターンを説明する図である。FIG. 4 is a diagram for explaining extracted data patterns based on different conversations. 図5は、データ処理部による抽出データの編集処理を説明する図である。FIG. 5 is a diagram for explaining extraction data editing processing by the data processing unit. 図6は、編集後の報告シナリオの一例を示す図である。FIG. 6 is a diagram illustrating an example of a report scenario after editing. 図7は、音声取得処理の手順を示すフローチャートである。FIG. 7 is a flowchart showing the procedure of the voice acquisition process. 図8は、データ処理の手順を示すフローチャートである。FIG. 8 is a flowchart showing a data processing procedure. 図9は、編集処理の手順を示すフローチャートである。FIG. 9 is a flowchart showing the procedure of the editing process. 図10は、実施例に係る会話記録プログラムを実行するコンピュータのハードウェア構成を示す図である。FIG. 10 is a diagram illustrating a hardware configuration of a computer that executes the conversation recording program according to the embodiment.

以下に添付図面を参照して本願に係る会話記録装置、会話記録方法及び会話記録プログラムについて説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   A conversation recording device, a conversation recording method, and a conversation recording program according to the present application will be described below with reference to the accompanying drawings. Note that this embodiment does not limit the disclosed technology. Each embodiment can be appropriately combined within a range in which processing contents are not contradictory.

<実施例>
図1は、実施例の会話記録システム10の全体構成を説明する図である。図1に示す会話記録システム10は、担当SEと顧客SEとの通話の音声データをテキスト変換したテキストデータからシステム障害の報告シナリオに含まれる項目ごとに定められた条件にしたがって抽出データを抽出し、抽出データを項目毎に記録する会話記録サービスを提供する。
<Example>
FIG. 1 is a diagram illustrating the overall configuration of a conversation recording system 10 according to the embodiment. The conversation recording system 10 shown in FIG. 1 extracts extracted data from text data obtained by text-converting voice data of a call between a responsible SE and a customer SE according to conditions determined for each item included in a system failure report scenario. Provide a conversation recording service that records extracted data for each item.

ここで言う「担当SE」とは、クラウドサービスを提供するデータセンタを運用する関係者のうちクラウドサービスを利用する利用者(以下、顧客)に関する業務を担当する者を指す。さらに、「上級SE」とは、データセンタを運用する関係者の中でも1または複数の担当SEを管理する管理者を指す。また、「顧客SE」とは、顧客側の窓口となるシステムエンジニアを指す。   Here, “SE in charge” refers to a person in charge of a business related to a user (hereinafter referred to as a customer) who uses the cloud service among the parties operating the data center providing the cloud service. Further, “advanced SE” refers to an administrator who manages one or a plurality of responsible SEs among the parties operating the data center. Further, “customer SE” refers to a system engineer serving as a customer's contact.

図1に示すように、会話記録システム10は、上位端末12と、1または複数の会話記録装置14と、1または複数の顧客通信端末16とを備える。   As shown in FIG. 1, the conversation recording system 10 includes a host terminal 12, one or more conversation recording devices 14, and one or more customer communication terminals 16.

これらのうち、上位端末12および会話記録装置14は、所定のネットワーク18を介して、通信可能に接続される。このネットワーク18には、有線または無線を問わず、インターネット(Internet)を始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。また、会話記録装置14および顧客通信端末16は、図示しない公衆電話網、移動体通信網や専用回線などの各種の電話回線に接続可能である。   Among these, the upper terminal 12 and the conversation recording device 14 are communicably connected via a predetermined network 18. The network 18 may be any type of communication network such as the Internet (Internet), LAN (Local Area Network), and VPN (Virtual Private Network), regardless of wired or wireless. The conversation recording device 14 and the customer communication terminal 16 can be connected to various telephone lines such as a public telephone network, a mobile communication network, and a dedicated line (not shown).

上位端末12は、上級SEによって使用される。上位端末12には、一例として、各種のコンピュータ、例えばパーソナルコンピュータ等を採用できる。例えば、上位端末12は、システム障害、例えば顧客が利用するクラウドサービス、例えばWebサーバやメールサーバ等の仮想マシンの故障などの異常を検知することができる。例えば、上位端末12は、図示しないユーザインタフェース等を介して、障害報告に関する業務の実施を指示する入力を受け付ける。この指示入力にしたがって、一例として、会話記録装置14が有する表示部26等には、各担当SEが担当する顧客SEへの障害報告に関する業務の実施を促すメッセージ等が表示される。尚、上級SEは、上位端末12を介さずに、直接、会話記録装置14を使用する担当SEへ連絡指示を口頭で連絡してもよい。上位端末12は、会話記録装置14から担当SEと顧客SEとの会話の一部を抽出した抽出データを取得する。   The upper terminal 12 is used by the advanced SE. For example, various computers such as a personal computer can be adopted as the upper terminal 12. For example, the upper terminal 12 can detect an abnormality such as a system failure, for example, a cloud service used by a customer, for example, a failure of a virtual machine such as a Web server or a mail server. For example, the upper terminal 12 receives an input for instructing execution of a task related to a failure report via a user interface (not shown) or the like. In accordance with this instruction input, as an example, a message or the like that prompts the execution of a business related to a failure report to the customer SE in charge of each responsible SE is displayed on the display unit 26 or the like of the conversation recording device 14. Note that the advanced SE may orally communicate a contact instruction to the SE in charge who uses the conversation recording device 14 without using the upper terminal 12. The host terminal 12 acquires extracted data obtained by extracting a part of the conversation between the responsible SE and the customer SE from the conversation recording device 14.

会話記録装置14は、担当SEによって使用される。会話記録装置14は、情報処理装置20と、通信部22とを含む。   The conversation recording device 14 is used by the responsible SE. The conversation recording device 14 includes an information processing device 20 and a communication unit 22.

これら情報処理装置20及び通信部22は、有線または無線を問わず、互いが通信可能に接続される。このうち、情報処理装置20には、各種のコンピュータ、例えばパーソナルコンピュータ等を採用できる。また、通信部22には、公衆電話網に接続可能な固定電話機の他、移動体通信網に接続可能な移動体通信端末、例えばスマートフォンまたは携帯電話等の各種の電話機を採用できる。例えば、通信部22は、システム障害時に、障害報告を行う担当SEから顧客通信端末16に割り当てられた電話番号の指定を受け付ける。この電話番号の指定によって顧客通信端末16が呼び出された後、通信部22および顧客通信端末16の間で通話が開始されると、情報処理装置20は、担当SEと顧客SEとの通話の記録を併せて開始する。その後、情報処理装置20は、通信部22および顧客通信端末16の間で通話が終了すると、通話の記録により得られた音声データをテキストデータへ変換する。その上で、情報処理装置20は、システム障害の報告シナリオに含まれる項目ごとに定められた条件にしたがって抽出データを抽出し、抽出データを項目毎に記録する。   The information processing apparatus 20 and the communication unit 22 are connected so as to communicate with each other regardless of wired or wireless. Among these, the information processing apparatus 20 can employ various computers such as a personal computer. In addition to the fixed telephone that can be connected to the public telephone network, the communication unit 22 can be a mobile communication terminal that can be connected to the mobile communication network, such as various telephones such as a smartphone or a mobile phone. For example, the communication unit 22 accepts designation of a telephone number assigned to the customer communication terminal 16 from a responsible SE who performs a failure report in the event of a system failure. When a call is started between the communication unit 22 and the customer communication terminal 16 after the customer communication terminal 16 is called by specifying the telephone number, the information processing apparatus 20 records the call between the responsible SE and the customer SE. Start together. After that, when the call ends between the communication unit 22 and the customer communication terminal 16, the information processing apparatus 20 converts voice data obtained by recording the call into text data. Then, the information processing apparatus 20 extracts the extracted data according to the conditions defined for each item included in the system failure report scenario, and records the extracted data for each item.

顧客通信端末16は、顧客SEによって使用される。例えば、顧客通信端末16には、公衆電話網に接続可能な固定電話機の他、移動体通信網に接続可能な移動体通信端末、例えばスマートフォンまたは携帯電話等の各種の電話機を採用できる。この顧客通信端末16は、会話記録装置14の通信部22と電話回線等によって接続可能な性能を有する。これにより、顧客通信端末16は、通信部22との間で音声データを送受信し、担当SEと顧客SEとの通話を実現する。   The customer communication terminal 16 is used by the customer SE. For example, the customer communication terminal 16 may be a fixed telephone that can be connected to a public telephone network, or a mobile communication terminal that can be connected to a mobile communication network, such as a smartphone or a mobile phone. The customer communication terminal 16 has a performance capable of being connected to the communication unit 22 of the conversation recording device 14 through a telephone line or the like. Thereby, the customer communication terminal 16 transmits / receives voice data to / from the communication unit 22 and realizes a call between the responsible SE and the customer SE.

図2は、会話記録装置14の機能的構成を示す機能ブロック図である。図2に示すように、会話記録装置14の情報処理装置20は、入力部24と、表示部26と、記憶部28と、制御部30とを有する。   FIG. 2 is a functional block diagram showing a functional configuration of the conversation recording device 14. As illustrated in FIG. 2, the information processing apparatus 20 of the conversation recording apparatus 14 includes an input unit 24, a display unit 26, a storage unit 28, and a control unit 30.

入力部24は、例えば、キーボード、タッチパネル、及び、マウス等の担当SEの入力を受け付ける装置である。入力部24は、例えば、抽出データを編集するデータを受け付ける。入力部24は、担当SEから受け付けた入力を制御部30へ出力する。   The input unit 24 is a device that receives input of a responsible SE such as a keyboard, a touch panel, and a mouse. For example, the input unit 24 receives data for editing the extracted data. The input unit 24 outputs the input received from the responsible SE to the control unit 30.

表示部26は、例えば、液晶表示装置等の画像を表示可能な表示装置である。表示部26は、制御部30から取得した画像データに基づいて、画像を表示する。例えば、表示部26は、制御部30から受け付けた抽出データを表示する。   The display unit 26 is a display device that can display an image, such as a liquid crystal display device. The display unit 26 displays an image based on the image data acquired from the control unit 30. For example, the display unit 26 displays the extracted data received from the control unit 30.

記憶部28は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の補助記憶装置により実装することができる。記憶部28は、必ずしも情報処理装置20内に設けられずともよく、ネットワーク上の記憶装置、例えばファイルサーバとして実装することもできる。この他、記憶部28をリムーバブルメディアとして実装し、コネクタや端子などのポートを介して接続されることとしてもかまわない。   The storage unit 28 can be implemented by an auxiliary storage device such as an HDD (Hard Disk Drive) and an SSD (Solid State Drive). The storage unit 28 does not necessarily have to be provided in the information processing apparatus 20, and can also be implemented as a storage device on the network, for example, a file server. In addition, the storage unit 28 may be mounted as a removable medium and connected via a port such as a connector or a terminal.

記憶部28は、制御部30が実行するプログラム、例えばOS(Operating System)や上記の会話記録サービスを実現する会話記録プログラムの他、プログラムの実行に用いるデータ、及び、プログラムの実行によって生成されたデータを記憶する。例えば、記憶部28は、ワード辞書データ36と、話語辞書データ38と、複数の抽出データ40を含む報告シナリオ42とを記憶する。これらワード辞書データ36、話語辞書データ38及び報告シナリオ42の他にも、記憶部28には、他の電子データ、例えば取得部32が取得する音声データを保存することもできる。   The storage unit 28 is generated by a program executed by the control unit 30, for example, an OS (Operating System) and a conversation recording program for realizing the conversation recording service, data used for executing the program, and execution of the program. Store the data. For example, the storage unit 28 stores word dictionary data 36, spoken word dictionary data 38, and a report scenario 42 including a plurality of extracted data 40. In addition to the word dictionary data 36, the spoken word dictionary data 38, and the report scenario 42, the storage unit 28 can store other electronic data, for example, voice data acquired by the acquisition unit 32.

ワード辞書データ36は、キーワードが予め登録された辞書データである。ワード辞書データ36は、例えば、項目と関連付けられたワードであって、顧客SEの名前、担当SEが担当するシステムの名称等のテキストデータのワードを含む。ワード辞書データ36は、ワードを項目と関連付ける。ワード辞書データ36は、顧客SEの電話番号と関連付けられた顧客SEの名前を含んでもよい。   The word dictionary data 36 is dictionary data in which keywords are registered in advance. The word dictionary data 36 is, for example, a word associated with an item, and includes text data words such as the name of the customer SE and the name of the system handled by the responsible SE. Word dictionary data 36 associates words with items. The word dictionary data 36 may include the name of the customer SE associated with the phone number of the customer SE.

話語辞書データ38は、人の話し言葉である1または複数の話語が予め登録された辞書データである。話語辞書データ38は、例えば、話語をテキストデータとして含む。ここで、話語には、一例として、担当SEの会話用のマニュアル等に記載されている定型文を採用することができる。さらに、話語辞書データ38は、話語と項目及び処理とを関連付ける。処理の一例は、“あり”または“なし”等のフラグを設定する、または、テキストデータから話語の前または後の所定時間または所定語数だけ抽出する等である。   The spoken word dictionary data 38 is dictionary data in which one or more spoken words that are human spoken words are registered in advance. The spoken word dictionary data 38 includes, for example, a spoken word as text data. Here, as the spoken language, for example, a fixed sentence described in the conversation manual of the responsible SE can be adopted. Furthermore, the spoken word dictionary data 38 associates spoken words with items and processes. An example of the processing is setting a flag such as “present” or “absent”, or extracting a predetermined time or a predetermined number of words before or after a spoken word from text data.

報告シナリオ42は、システム障害の発生時に担当SEが顧客SEへ報告するシナリオに関するデータである。この報告シナリオ42には、障害報告を識別するために用いる項目として、「会話開始日時」、「システム名」および「顧客担当名」などの項目が含まれる他、システム障害がシステムで業務に利用される仮想マシンに与える「業務影響」や通話の終了後に顧客への事後回答を要する「追加質問」などの項目が含まれる。これら「会話開始日時」、「システム名」、「顧客担当名」、「業務影響」及び「追加質問」の項目ごとに、通話の音声データがテキスト変換されたテキストデータから各項目に対応する文字列が抽出データ40として抽出される。   The report scenario 42 is data relating to a scenario in which the responsible SE reports to the customer SE when a system failure occurs. This report scenario 42 includes items such as “conversation start date / time”, “system name”, and “customer name” as items used to identify a failure report, and system failures are used for business in the system. This includes items such as “business impact” given to the virtual machine to be processed and “additional questions” that require a post response to the customer after the call ends. For each of these “Conversation start date / time”, “System name”, “Customer name”, “Business impact”, and “Additional questions”, characters corresponding to each item from the text data obtained by converting the voice data of the call into text A column is extracted as extracted data 40.

制御部30は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などのハードウェアプロセッサにより実装することができる。ここでは、プロセッサの一例として、CPUやMPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより実装することができる。この他、制御部15は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによって実現されることとしてもかまわない。   The control unit 30 can be implemented by a hardware processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). Here, the CPU and the MPU are illustrated as an example of the processor. However, the processor and the MPU can be mounted by any processor regardless of a general-purpose type or a specialized type. In addition, the control unit 15 may be realized by a hard wired logic such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

制御部30は、図示しない主記憶装置として実装されるDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)などのRAMのワークエリア上に、上記の会話記録プログラムをプロセスとして展開することにより、図1に示す取得部32及びデータ処理部34の機能を仮想的に実現する。   The control unit 30 develops the conversation recording program as a process on a work area of a RAM such as a DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory) mounted as a main storage (not shown). The functions of the acquisition unit 32 and the data processing unit 34 shown in FIG. 1 are virtually realized.

取得部32は、通信を介して送受信された会話(例えば、通話)の音声データを通信部22から取得する。取得部32は、取得した音声データを記憶部28に記録(即ち、録音)する。尚、取得部32は、音声データを記憶部28に保存することなく、データ処理部34が参照する図示しない内部メモリのワークエリアへ格納することとしてもよい。   The acquisition unit 32 acquires voice data of a conversation (for example, a call) transmitted / received via communication from the communication unit 22. The acquisition unit 32 records (that is, records) the acquired audio data in the storage unit 28. The acquisition unit 32 may store the audio data in a work area of an internal memory (not shown) that is referred to by the data processing unit 34 without saving the audio data in the storage unit 28.

データ処理部34は、取得部32が取得した音声データを記憶部28から取得する。尚、データ処理部34は、取得部32から音声データを直接取得してもよい。データ処理部34は、取得部32から取得された音声データをテキスト変換してテキストデータを生成する。データ処理部34は、テキストデータからシステム障害の報告シナリオに含まれる項目ごとに規定された条件にしたがって障害またはメンテナンス等の会話に関する文字列を項目毎に抽出データ40として抽出する。例えば、データ処理部34は、ワード辞書データ36に登録されたキーワードと一致する文字列をテキストデータから抽出データ40として抽出してよい。また、データ処理部34は、話語辞書データ38に登録された話語の前または後の所定語数または所定時間に対応する文字列をテキストデータから抽出データ40として抽出してよい。その上で、データ処理部34は、テキストデータから抽出された抽出データ40を項目に関連付けて記憶部28内の報告シナリオ42に記録する。尚、データ処理部34は、報告シナリオ42を外部の記憶装置、例えば、ネットワーク上の記憶装置または上級SEの上位端末12に格納してもよい。   The data processing unit 34 acquires the audio data acquired by the acquisition unit 32 from the storage unit 28. Note that the data processing unit 34 may directly acquire audio data from the acquisition unit 32. The data processing unit 34 converts the voice data acquired from the acquisition unit 32 into text and generates text data. The data processing unit 34 extracts a character string relating to a conversation such as failure or maintenance as extracted data 40 for each item in accordance with the conditions defined for each item included in the system failure report scenario from the text data. For example, the data processing unit 34 may extract a character string that matches a keyword registered in the word dictionary data 36 from the text data as the extracted data 40. In addition, the data processing unit 34 may extract a character string corresponding to a predetermined number of words or a predetermined time before or after a spoken word registered in the spoken word dictionary data 38 as extracted data 40 from the text data. After that, the data processing unit 34 records the extracted data 40 extracted from the text data in the report scenario 42 in the storage unit 28 in association with the item. The data processing unit 34 may store the report scenario 42 in an external storage device, for example, a storage device on the network or the higher order terminal 12 of the advanced SE.

データ処理部34は、項目毎に抽出された抽出データ40を含む報告シナリオ42を編集画面として表示させて、各項目に関連付けて記述された文字列に対する編集を受け付けることができる。例えば、データ処理部34は、入力部24を介して担当SEから編集内容を受け付けてよい。この編集の結果、担当SEが上級SEへ提出する顧客への障害報告のレポートが生成される。   The data processing unit 34 can display a report scenario 42 including the extracted data 40 extracted for each item as an editing screen, and can accept editing of a character string described in association with each item. For example, the data processing unit 34 may accept editing content from the responsible SE via the input unit 24. As a result of this editing, a report of a failure report to the customer submitted by the SE in charge to the senior SE is generated.

図3は、会話記録処理の具体例を説明する図である。   FIG. 3 is a diagram for explaining a specific example of the conversation recording process.

図3の左上に示すように、担当SEが、通信部22を介して、顧客通信端末16と接続することにより顧客SEとの通話を開始すると、情報処理装置20の取得部32は、通信部22及び顧客通信端末16の間で授受される音声データの記録を開始する。これにより、担当SEと顧客SEとの通話の音声データが録音されることになる。その後、取得部32は、通信部22及び顧客通信端末16の間の通話が終了すると、通話の音声データを記憶部28に保存するか、あるいはデータ処理部34へ出力する。なお、取得部32は、通信部22が顧客通信端末16へ発信を行った時点、あるいは通信部22及び顧客通信端末16の間で通話が開始された時点でその時点の日時をデータ処理部34へ出力する。   As shown in the upper left of FIG. 3, when the responsible SE starts a call with the customer SE by connecting to the customer communication terminal 16 via the communication unit 22, the acquisition unit 32 of the information processing apparatus 20 Recording of voice data exchanged between the terminal 22 and the customer communication terminal 16 is started. Thereby, the voice data of the call between the responsible SE and the customer SE is recorded. Thereafter, when the call between the communication unit 22 and the customer communication terminal 16 ends, the acquisition unit 32 stores the voice data of the call in the storage unit 28 or outputs it to the data processing unit 34. Note that the acquisition unit 32 indicates the date and time at the time when the communication unit 22 makes a call to the customer communication terminal 16 or when a call is started between the communication unit 22 and the customer communication terminal 16. Output to.

図3の左下に示す担当SEと顧客SEとの通話の終了後、データ処理部34は、取得部32により取得された会話CV1の音声データをテキスト変換する。その上で、データ処理部34は、会話CV1の音声データがテキスト変換されたテキストデータからシステム障害の報告シナリオに含まれる項目ごとに規定された条件にしたがって抽出データ40を項目毎に抽出する。例えば、上記の項目には、“会話開始日時”、“システム名”、“顧客担当名”、“会話内容”及び“会話内容(個別)”等が含まれる。なお、ここでは、通話の終了後に音声データをテキスト変換する場合を例示したが、テキスト変換を行うタイミングは通話終了後に限定されない。例えば、音声データが取得される度にテキスト変換を行うこともできる。   After the call between the responsible SE and the customer SE shown in the lower left of FIG. 3 is completed, the data processing unit 34 converts the voice data of the conversation CV1 acquired by the acquisition unit 32 into text. Then, the data processing unit 34 extracts the extracted data 40 for each item in accordance with the conditions defined for each item included in the system failure report scenario from the text data obtained by converting the voice data of the conversation CV1 into text. For example, the above items include “conversation start date / time”, “system name”, “customer name”, “conversation content”, “conversation content (individual)”, and the like. Here, the case where the voice data is converted into text after the call ends is illustrated, but the timing of the text conversion is not limited to after the call ends. For example, text conversion can be performed every time voice data is acquired.

データ処理部34は、通信部22が顧客通信端末16へ発信を行った日時、あるいは通信部22及び顧客通信端末16の間で通話が開始された日時「yyyy-mm-dd hh:mm:ss」を抽出データ40Aとして抽出する。その上で、データ処理部34は、報告シナリオ42に含まれる項目のうち項目“会話開始日時”に関連付けて抽出データ40Aを登録する。   The data processing unit 34 displays the date and time “yyyy-mm-dd hh: mm: ss” when the communication unit 22 made a call to the customer communication terminal 16 or when the call started between the communication unit 22 and the customer communication terminal 16. Is extracted as extracted data 40A. Then, the data processing unit 34 registers the extracted data 40 </ b> A in association with the item “conversation start date” among the items included in the report scenario 42.

データ処理部34は、報告シナリオ42に含まれる項目のうち、システム障害が発生したシステムの名称“システム名”を会話CV1のテキストデータから検索する。この例では、項目“システム名”に関連付けてワード辞書データ36に登録されているキーワード“yyシステム”と、会話CV1のテキストデータに含まれる文字列“yyシステム”とが一致するので、文字列“yyシステム”が抽出データ40Bとして抽出される。この結果、データ処理部34は、報告シナリオ42に含まれる項目のうち項目“システム名”に関連付けて抽出データ40B“yyシステム”を登録する。   The data processing unit 34 searches the text data of the conversation CV1 for the name “system name” of the system in which the system failure has occurred among the items included in the report scenario 42. In this example, since the keyword “yy system” registered in the word dictionary data 36 in association with the item “system name” matches the character string “yy system” included in the text data of the conversation CV1, the character string “Yy system” is extracted as the extracted data 40B. As a result, the data processing unit 34 registers the extracted data 40B “yy system” in association with the item “system name” among the items included in the report scenario 42.

また、データ処理部34は、報告シナリオ42に含まれる項目のうち、会話CV1の相手である顧客SEの名前“顧客担当名”を会話CV1のテキストデータから検索する。この例では、項目“顧客担当名”に関連付けてワード辞書データ36に登録されているキーワード“zz”と、会話CV1のテキストデータに含まれる文字列“zz”とが一致するので、文字列“zz”が抽出データ40Cとして抽出される。この結果、データ処理部34は、報告シナリオ42に含まれる項目のうち項目“顧客担当名”に関連付けて抽出データ40C“zz”を登録する。   The data processing unit 34 searches the text data of the conversation CV1 for the name “customer charge name” of the customer SE who is the partner of the conversation CV1 among the items included in the report scenario 42. In this example, since the keyword “zz” registered in the word dictionary data 36 in association with the item “customer name” matches the character string “zz” included in the text data of the conversation CV1, the character string “zz” is matched. zz ″ is extracted as the extracted data 40C. As a result, the data processing unit 34 registers the extracted data 40C “zz” in association with the item “customer charge name” among the items included in the report scenario 42.

さらに、データ処理部34は、報告シナリオ42に含まれる項目のうち、項目“会話内容”に関連付けられて話語辞書データ38に登録されている定型句の話語(例えば、会話CV1に示す“業務影響を教えて下さい”)と一致する会話があった場合、当該話語に関連付けられている処理を実行、例えば、当該会話の後の所定時間または所定語数の会話内容、例えば、当該会話データの直後に顧客SEが話した内容を抽出して、項目“会話内容”の抽出データ40Dに登録する。例えば、図3の例で言えば、担当SEが話語“業務影響を教えて下さい”を発話した直後に顧客SEにより行われた発話、例えば1文“xxが発生していて困っています”が抽出データ40Dとして抽出された後、会話内容の項目に関連付けて保存される。   Further, the data processing unit 34, among the items included in the report scenario 42, has a fixed phrase spoken word (for example, “business impact shown in the conversation CV1”) associated with the item “conversation content” and registered in the spoken word dictionary data 38. If there is a conversation that matches "", execute processing associated with the spoken word, for example, a predetermined time after the conversation or a predetermined number of words, for example, immediately after the conversation data The content spoken by the customer SE is extracted and registered in the extracted data 40D of the item “conversation content”. For example, in the example of FIG. 3, an utterance made by the customer SE immediately after the responsible SE uttered the spoken word “Tell me about the business impact”, for example, one sentence “I am in trouble with the occurrence of xx”. After being extracted as extracted data 40D, it is stored in association with the conversation content item.

また、データ処理部34は、報告シナリオ42に含まれる項目のうち、項目“会話内容(個別)”に関連付けられて話語辞書データ38に登録されている特定の話語(例えば、会話CV2に示す“別途ご報告差し上げます”)と一致する会話があった場合、当該話語に関連付けられている処理を実行、例えば、当該会話の前後(例えば、会話の前後1分間または1分間に相当する語数)の内容を抽出して、項目“会話内容(個別)”の抽出データ40Eに登録する。例えば、図3の例で言えば、担当SEによる「別途ご報告を差し上げます」という発話の直前に顧客SEにより行われた発話、例えば1文「前回発生した障害との関連性はありますか?」が抽出データ40Eとして抽出された後、会話内容(個別)の項目に関連付けて保存される。   In addition, the data processing unit 34 includes, among items included in the report scenario 42, a specific spoken word (for example, “shown in the conversation CV 2” associated with the item “conversation content (individual)” and registered in the spoken word dictionary data 38. If there is a conversation that matches ")", the process associated with the spoken word is executed. For example, before and after the conversation (for example, the number of words corresponding to one minute or one minute before and after the conversation) The contents are extracted and registered in the extracted data 40E of the item “conversation contents (individual)”. For example, in the example of FIG. 3, the utterance made by the customer SE immediately before the utterance “I will give you another report” by the responsible SE, for example, one sentence “Is there a relationship with the failure that occurred last time? "Is extracted as the extracted data 40E and stored in association with the item of conversation content (individual).

このように報告シナリオ42に含まれる各項目の抽出データ40A〜40Eが記録された後、図3の右下に示すように、データ処理部34は、報告シナリオ42にしたがって担当SEが上級SEへ提出する顧客への障害報告のレポートを編集する編集画面を表示部26に表示させる。続いて、データ処理部34は、編集画面に含まれる項目に関連付けられた抽出データ40A〜40Eに対する文字列への編集を入力部24を介して受け付ける。その後、データ処理部34は、編集画面における編集が終了すると、編集後の報告シナリオを障害報告のレポートとして記憶部28に保存したり、上位端末12に出力したりする。これにより、上級SEは、担当SEから障害報告の結果が口頭で報告されずとも、担当SEと顧客SEとの会話の内容を把握できる。   After the extracted data 40A to 40E of each item included in the report scenario 42 is recorded in this way, the data processing unit 34, as shown in the lower right of FIG. An editing screen for editing the report of the trouble report to the customer to be submitted is displayed on the display unit 26. Subsequently, the data processing unit 34 receives, via the input unit 24, editing of the extracted data 40 </ b> A to 40 </ b> E associated with the items included in the editing screen into the character string. Thereafter, when the editing on the editing screen is completed, the data processing unit 34 saves the edited report scenario in the storage unit 28 as a failure report and outputs it to the host terminal 12. Thereby, the senior SE can grasp the contents of the conversation between the responsible SE and the customer SE even if the result of the failure report is not reported verbally from the responsible SE.

図4は、異なる会話に基づく抽出データのパターンを説明する図である。   FIG. 4 is a diagram for explaining extracted data patterns based on different conversations.

図4に示すように、担当SEと顧客SEとが、会話CV3を話した後、話語辞書データ38に登録されている話語である“業務影響があり”、“業務影響がなかった”、及び、“そちらにつきましては、別途確認の上ご報告させていただきます”などを含む会話を話した場合、データ処理部34は、当該会話に応じて、項目“業務影響有無”及び項目“追加質問有無”の抽出データ40を更に登録して、報告シナリオ42を複数の障害報告のパターンに分類する。   As shown in FIG. 4, after the responsible SE and the customer SE have spoken the conversation CV3, the spoken words registered in the spoken word dictionary data 38 have “business influence”, “no business influence”, and , “If there is a conversation that includes a separate confirmation and report,” the data processing unit 34 determines whether the item “work impact” or “additional question” ”Is further registered, and the report scenario 42 is classified into a plurality of failure report patterns.

具体的には、担当SEと顧客SEとが、会話CV3を話した後、会話CV3aを話した場合、データ処理部34は、話語辞書データ38に登録されている話語“業務影響がなかった”を検索して抽出する。この場合、データ処理部34は、項目“業務影響有無”及び項目“追加質問有無”に、“業務影響なし”及び“追加質問なし”の抽出データ40を登録する。   Specifically, when the responsible SE and the customer SE speak the conversation CV3 and then speak the conversation CV3a, the data processing unit 34 registers the spoken word “there was no business influence” registered in the spoken word dictionary data 38. Search for and extract. In this case, the data processing unit 34 registers the extracted data 40 of “no business effect” and “no additional question” in the item “business effect presence / absence” and the item “additional question presence / absence”.

担当SEと顧客SEとが、会話CV3を話した後、会話CV3bを話した場合、データ処理部34は、話語辞書データ38に登録されている話語“業務影響があり”を検索して抽出する。この場合、データ処理部34は、項目“業務影響有無”及び項目“追加質問有無”に、“業務影響あり”及び“追加質問なし”の抽出データ40を登録する。   When the responsible SE and the customer SE speak the conversation CV3 and then speak the conversation CV3b, the data processing unit 34 searches and extracts the spoken word “there is business influence” registered in the spoken word dictionary data 38. . In this case, the data processing unit 34 registers the extracted data 40 of “with business impact” and “without additional question” in the item “presence / absence of business impact” and the item “presence / absence of additional question”.

担当SEと顧客SEとが、会話CV3を話した後、会話CV3cを話した場合、データ処理部34は、話語辞書データ38に登録されている話語“そちらにつきましては、別途確認の上、ご報告させていただきます”を検索して抽出する。この場合、データ処理部34は、項目“追加質問有無”に、“追加質問あり”の抽出データ40を登録する。尚、会話CV3cにおいて、データ処理部34は、“業務影響が・・・”の内容に応じて、“業務影響あり”または“業務影響なし”を登録する。このように、データ処理部34は、業務影響の有無及び追加質問の有無によって各報告シナリオ42を複数(例えば、4個)のパターンに分類する。   When the responsible SE and the customer SE speak the conversation CV3 and then speak the conversation CV3c, the data processing unit 34 reports the spoken word registered in the spoken word dictionary data 38 after confirming separately. I will search and extract "". In this case, the data processing unit 34 registers the extracted data 40 of “with additional questions” in the item “additional question presence / absence”. In the conversation CV3c, the data processing unit 34 registers “with business impact” or “without business impact” according to the content of “business impact is ...”. As described above, the data processing unit 34 classifies each report scenario 42 into a plurality of patterns (for example, four patterns) depending on the presence / absence of business influence and the presence / absence of additional questions.

図5は、データ処理部34による抽出データ40の編集処理を説明する図である。   FIG. 5 is a diagram for explaining editing processing of the extracted data 40 by the data processing unit 34.

図5に示す抽出データ40の項目は、パターンを分類するための“業務影響有無”のフラグ及び“追加質問有無”のフラグを更に含む。データ処理部34は、図4で説明したように、“業務影響あり”のパターンの場合、項目“業務影響有無”の抽出データ40に“あり”(例えば、“1”)を登録して、“業務影響なし”のパターンの場合、項目“業務影響有無”の抽出データ40に“なし”(例えば、“0”)を登録する。   The items of the extracted data 40 shown in FIG. 5 further include a “business impact presence / absence” flag and an “additional question presence / absence” flag for classifying patterns. As described with reference to FIG. 4, the data processing unit 34 registers “present” (for example, “1”) in the extracted data 40 of the item “business influence presence / absence” in the case of the pattern “with business influence”. In the case of the “no business impact” pattern, “none” (for example, “0”) is registered in the extracted data 40 of the item “business impact presence / absence”.

データ処理部34は、“追加質問あり”のパターンの場合、項目“追加質問有無”の抽出データ40に“あり”(例えば、“1”)を登録して、“追加質問なし”のパターンの場合、項目“追加質問有無”の抽出データ40に“なし”(例えば、“0”)を登録する。   In the case of the “with additional question” pattern, the data processing unit 34 registers “present” (for example, “1”) in the extracted data 40 of the item “additional question presence / absence” and sets the pattern of “without additional question”. In this case, “none” (for example, “0”) is registered in the extracted data 40 of the item “existing questions”.

担当SEと顧客SEが、図5の下欄の会話CV4で示す内容を話した場合について説明する。この場合、データ処理部34は、取得部32が取得した会話の開始日時及び会話CV4の音声データを取得する。データ処理部34は、取得した会話の開始日時を項目“会話開始日時”の抽出データ40に登録する。また、データ処理部34は、上述の処理に沿って会話CV4から抽出した、“社内公開Web”を項目“システム名”の抽出データ40に登録し、“xxx太郎”を項目“顧客担当名”の抽出データ40に登録し、“xxサーバが・・・表示できませんでした”を項目“業務影響詳細”の抽出データ40に登録し、“大変申し訳・・・ご報告させて頂きます。”を項目“追加質問詳細”の抽出データ40に登録する。項目“業務影響詳細”は、項目“会話内容”の一例である。項目“追加質問詳細”は、項目“会話内容(個別)”の一例である。   A case will be described in which the responsible SE and the customer SE have spoken the content indicated by the conversation CV4 in the lower column of FIG. In this case, the data processing unit 34 acquires the conversation start date and time acquired by the acquisition unit 32 and the voice data of the conversation CV4. The data processing unit 34 registers the acquired conversation start date and time in the extracted data 40 of the item “conversation start date and time”. Further, the data processing unit 34 registers “in-house public Web” extracted from the conversation CV4 in accordance with the above-described processing in the extracted data 40 of the item “system name”, and sets “xxx Taro” as the item “customer contact name”. Registered in the extracted data 40, and registered "xx server could not be displayed" in the extracted data 40 of the item "business impact details" and "I am sorry ... I will report". Registered in the extracted data 40 of the item “additional question details”. The item “business impact details” is an example of the item “conversation content”. The item “additional question details” is an example of the item “conversation content (individual)”.

また、データ処理部34は、今回の会話CV4に業務影響詳細及び追加質問詳細が含まれるので、項目“追加質問有無”に“あり”を登録して、項目“業務影響有無”に“あり”を登録する。   Further, since the current conversation CV4 includes the business impact details and the additional question details, the data processing unit 34 registers “Yes” in the item “Additional question presence / absence” and “Yes” in the item “Business impact presence / absence”. Register.

データ処理部34は、図5の上段に“編集前”で示す抽出データ40を含む編集画面44を表示部26に表示させる。ここで、データ処理部34は、担当SEの名前を示すログイン名とともに、編集開始ボタン46及び編集完了ボタン48を含む編集画面44を生成する。   The data processing unit 34 causes the display unit 26 to display an editing screen 44 including the extracted data 40 indicated by “Before editing” in the upper part of FIG. Here, the data processing unit 34 generates an edit screen 44 including an edit start button 46 and an edit completion button 48 together with a login name indicating the name of the responsible SE.

データ処理部34は、担当SEが入力部24を操作して、編集開始ボタン46を選択(例えば、クリック)すると、受け付け用に変更した編集画面44を表示部26に表示させて、各項目を編集するための編集内容の受け付けを開始する。データ処理部34は、受け付け用の編集画面44において、例えば、項目“業務影響有無”及び“追加質問有無”に“あり”及び“なし”を選択可能な表示にする。   When the responsible SE operates the input unit 24 and selects (for example, clicks) the edit start button 46, the data processing unit 34 causes the display unit 26 to display the edit screen 44 that has been changed for acceptance, and displays each item. Start accepting edits for editing. On the editing screen 44 for acceptance, the data processing unit 34 displays, for example, “Yes” and “None” in the items “presence / absence of business impact” and “presence / absence of additional question”.

受け付け用の編集画面44を表示した状態で、データ処理部34は、例えば、担当SEが入力部24を操作して選択(例えば、クリック)した抽出データ40のセルの選択を受け付ける。これにより、データ処理部34は、当該セルの抽出データに関する編集を受け付ける。例えば、データ処理部34は、担当SEが入力部24を操作して入力した編集内容を示すテキストデータ、または、抽出データ40の一部の削除を受け付ける。図5の上から2段目に“編集中”で示す例では、データ処理部34は、項目“業務影響詳細”及び“追加質問詳細”の抽出データ40の一部の削除を受け付けて、各抽出データ40を編集している。   In a state where the accepting edit screen 44 is displayed, the data processing unit 34 accepts, for example, selection of a cell of the extracted data 40 selected (for example, clicked) by the SE in charge by operating the input unit 24. As a result, the data processing unit 34 accepts editing related to the extracted data of the cell. For example, the data processing unit 34 accepts deletion of a part of the text data indicating the editing content input by the responsible SE by operating the input unit 24 or a part of the extracted data 40. In the example indicated by “Editing” in the second row from the top of FIG. 5, the data processing unit 34 accepts deletion of a part of the extracted data 40 of the items “work impact details” and “additional question details”. The extracted data 40 is edited.

データ処理部34は、担当SEが入力部24を操作して入力した編集完了ボタン48の選択を受け付けると、図5の上から3段目に“編集後”に示す編集画面44を表示部26に表示させる。   When the data processing unit 34 receives the selection of the edit completion button 48 input by the responsible SE by operating the input unit 24, the data processing unit 34 displays the edit screen 44 shown in “after editing” on the third row from the top of FIG. 5. To display.

図6は、編集後の報告シナリオ42の一例を示す図である。データ処理部34は、図6に示す編集後の抽出データ40の組の報告シナリオ42を記憶部28に格納する。   FIG. 6 is a diagram showing an example of the report scenario 42 after editing. The data processing unit 34 stores the report scenario 42 of the set of the extracted data 40 after editing shown in FIG.

図7は、音声取得処理の手順を示すフローチャートである。図7に示す音声取得処理は、一例として、通信部22制御部30は、会話記録用のプログラムを読み込むことによって、音声取得処理を実行する。   FIG. 7 is a flowchart showing the procedure of the voice acquisition process. In the voice acquisition process shown in FIG. 7, as an example, the communication unit 22 control unit 30 executes the voice acquisition process by reading a conversation recording program.

図7に示す音声取得処理では、取得部32は、顧客SEが使用する顧客通信端末16の電話番号の入力が通信部22により受け付けられると、顧客SEの顧客通信端末16へ発信するとともに、記憶部28に対する通話の音声データの録音を開始するとともに、報告シナリオ42に含まれる項目のうち通話の開始日時を記憶部28に登録する(S102)。その後、取得部32は、通話の録音が開始された旨を通知する画面を表示部26に表示させる(S104)。   In the voice acquisition process shown in FIG. 7, when the input of the telephone number of the customer communication terminal 16 used by the customer SE is received by the communication unit 22, the acquisition unit 32 transmits the call to the customer communication terminal 16 of the customer SE and stores it. Recording of the voice data of the call to the unit 28 is started, and the start date and time of the call among the items included in the report scenario 42 is registered in the storage unit 28 (S102). Thereafter, the acquisition unit 32 causes the display unit 26 to display a screen notifying that the recording of the call has started (S104).

続いて、取得部32は、顧客通信端末16に着信して、通信部22および顧客通信端末16の通話を開始させる(S106)。この段階で、担当SEおよび顧客SEの会話が可能な状態になる。そして、取得部32は、通信部22および顧客通信端末16の通話が終了すると、記憶部28に対する音声データの録音を終了する(S108)。   Subsequently, the acquisition unit 32 arrives at the customer communication terminal 16 and starts a call between the communication unit 22 and the customer communication terminal 16 (S106). At this stage, the conversation between the responsible SE and the customer SE becomes possible. And the acquisition part 32 will complete | finish the recording of the audio | voice data with respect to the memory | storage part 28, if the telephone call of the communication part 22 and the customer communication terminal 16 is complete | finished (S108).

その後、データ処理部34は、記憶部28に格納された音声データのうち、会話終了から最後の抽出時間の音声データをテキスト変換したテキストデータを第1変数(例えば、変数名“1分間”)として記憶部28に格納する(S110)。例えば、抽出時間は、予め設定された時間であって、例えば、1分間または1分間に相当するおおよその語数である。   Thereafter, the data processing unit 34 converts the text data obtained by text-converting the voice data stored in the storage unit 28 from the last extraction time from the end of the conversation into the first variable (for example, the variable name “1 minute”). Is stored in the storage unit 28 (S110). For example, the extraction time is a preset time and is, for example, an approximate number of words corresponding to one minute or one minute.

さらに、データ処理部34は、記憶部28に格納された全ての音声データをテキスト変換したテキストデータを第2変数(例えば、変数名“全文”)として記憶部28に格納する(S112)。   Further, the data processing unit 34 stores the text data obtained by text-converting all the voice data stored in the storage unit 28 as the second variable (for example, variable name “full text”) in the storage unit 28 (S112).

これにより、音声取得処理を終了する。   Thereby, the voice acquisition process is terminated.

図8は、データ処理の手順を示すフローチャートである。図8に示すデータ処理は、一例として、図7に示す音声取得処理により通話の音声データから変換されたテキストデータが得られた場合に開始する。   FIG. 8 is a flowchart showing a data processing procedure. The data processing shown in FIG. 8 starts as an example when text data converted from voice data of a call is obtained by the voice acquisition processing shown in FIG.

図8に示すように、データ処理部34は、通信部22から顧客通信端末16へ発呼が行われた日時を抽出データ40として抽出し、当該抽出データ40を報告シナリオ42に含まれる項目のうち項目“会話開始日時”に関連付けて登録する(S202)。   As shown in FIG. 8, the data processing unit 34 extracts the date and time when a call is made from the communication unit 22 to the customer communication terminal 16 as the extracted data 40, and the extracted data 40 is the item included in the report scenario 42. Of these, registration is made in association with the item “conversation start date” (S202).

続いて、データ処理部34は、ステップS112で通話の音声データがテキスト変換されたテキストデータから、項目“システム名”に関連付けてワード辞書データ36に登録されたキーワードを検索する(ステップS204)。   Subsequently, the data processing unit 34 searches for the keyword registered in the word dictionary data 36 in association with the item “system name” from the text data obtained by converting the voice data of the call in step S112 into text (step S204).

このとき、システム名のキーワードの中にヒットするキーワードが存在する場合(ステップS206Yes)、障害報告がデータセンタで稼働するシステムのうちいずれのシステムに関するものであるのかが判明する。この場合、データ処理部34は、検索でヒットするシステム名のキーワードに対応する文字列を抽出データ40として抽出し、当該抽出データ40を報告シナリオ42の項目“システム名”に関連付けて記録する(ステップS208)。なお、システム名のキーワードの中にヒットするキーワードが存在しない場合(ステップS206No)、上記のステップS208の処理をスキップし、下記のステップS210の処理へ移行する。   At this time, if there is a hit keyword in the keyword of the system name (Yes in step S206), it is determined which of the systems operating in the data center is related to the failure report. In this case, the data processing unit 34 extracts a character string corresponding to the keyword of the system name hit in the search as the extracted data 40, and records the extracted data 40 in association with the item “system name” of the report scenario 42 ( Step S208). If there is no hit keyword in the system name keyword (No in step S206), the process of step S208 is skipped, and the process proceeds to the following step S210.

続いて、データ処理部34は、通話の音声データがテキスト変換されたテキストデータから、項目“顧客担当名”に関連付けてワード辞書データ36に登録されたキーワードを検索する(ステップS210)。   Subsequently, the data processing unit 34 searches for the keyword registered in the word dictionary data 36 in association with the item “customer name” from the text data obtained by converting the voice data of the call into text (step S210).

そして、システム名のキーワードの中にヒットするキーワードが存在する場合(ステップS212Yes)、障害報告が担当SEにより担当される顧客SEのうちいずれの顧客SEを対象にするものであるのかが判明する。この場合、データ処理部34は、検索でヒットする顧客SEの氏名のキーワードに対応する文字列を抽出データ40として抽出し、当該抽出データ40を報告シナリオ42の項目“顧客担当名”に関連付けて記録する(ステップS214)。一方、顧客担当名のキーワードの中にヒットするキーワードが存在しない場合(ステップS212No)、上記のステップS214の処理をスキップし、下記のステップS216の処理へ移行する。尚、データ処理部34は、抽出した顧客担当名の後に、“はい、そうです”のように話語辞書データ38に登録された肯定する話語が続いた場合に、当該顧客担当名を抽出してもよい。   Then, if there is a hit keyword in the keyword of the system name (Yes in step S212), it is determined which customer SE is the target of the customer SE for which the failure report is handled by the responsible SE. In this case, the data processing unit 34 extracts a character string corresponding to the keyword of the name of the customer SE hit in the search as the extracted data 40, and associates the extracted data 40 with the item “customer charge name” of the report scenario 42. Recording is performed (step S214). On the other hand, if there is no hit keyword in the customer name keyword (No in step S212), the process of step S214 is skipped, and the process proceeds to the following step S216. The data processing unit 34 extracts the customer contact name when the affirmative spoken word registered in the spoken word dictionary data 38 such as “Yes, yes” follows the extracted customer contact name. Also good.

その後、データ処理部34は、通話の音声データがテキスト変換されたテキストデータから、項目“業務影響有無”に関連付けられて話語辞書データ38に登録された業務影響有りに対応する話語、例えば障害報告のマニュアルに記載の定型句の話語“業務影響があり”と一致または類似する文字列を検索する(ステップS218)。ここでの検索は、会話で定型句がそのまま発話されるとは限らないので、必ずしも完全一致を条件とせずともかまわない。例えば、定型句の話語が“業務影響があり”である場合、同趣旨の話語“業務影響があった”や“業務影響がある”を、定型句の話語と類似する話語として検索結果に含めることができる。   Thereafter, the data processing unit 34, from the text data obtained by converting the voice data of the call into the text data, is associated with the item “work presence / absence” and is registered in the spoken word dictionary data 38 and corresponds to the business word having the business influence, for example, a trouble report. A character string that matches or resembles the phrase “There is business impact” in the fixed phrase described in the manual is searched (step S218). In the search here, the fixed phrase is not necessarily uttered as it is in the conversation, so it is not always necessary to make a perfect match as a condition. For example, if the phrase of a fixed phrase is “work-affected”, the words “has a business influence” or “has a business influence” with the same meaning are included in the search results as words similar to the phrase of the fixed phrase be able to.

このとき、業務影響有りに対応する話語と一致または類似する文字列がヒットしない場合(ステップS218No)、データ処理部34は、報告シナリオ42の項目“業務影響有無”にフラグ“なし”を関連付けて記録する(ステップS220)。   At this time, if a character string that matches or is similar to the spoken word corresponding to the presence of business impact does not hit (No in step S218), the data processing unit 34 associates the flag “none” with the item “business impact presence / absence” of the report scenario 42. Recording is performed (step S220).

一方、業務影響有りに対応する話語と一致または類似する文字列がヒットする場合(ステップS218Yes)、顧客SEから担当SEへの業務影響の説明を担当SEが障害報告のマニュアルに規定された定型句にしたがって復唱していることがわかる。この場合、データ処理部34は、報告シナリオ42の項目“業務影響有無”にフラグ“あり”を関連付けて記録する(ステップS222)。さらに、データ処理部34は、報告シナリオ42の項目“業務影響詳細”に、業務影響有りに対応する話語“業務影響があり”に後続する所定語数、図4の例で言えば1文“5分間公開Webサイトへアクセスができなかったということですね”を関連付けて記録する(ステップS224)。   On the other hand, if a character string that matches or resembles a spoken word corresponding to the presence of business influence is found (Yes in step S218), the boilerplate provides a description of the business impact from the customer SE to the responsible SE and the boilerplate specified in the trouble report manual You can see that you are repeating. In this case, the data processing unit 34 records the flag “present” in association with the item “business operation presence / absence” of the report scenario 42 (step S222). Furthermore, the data processing unit 34 adds a predetermined number of words following the spoken word “has a job influence” corresponding to “has a job influence” to the item “job influence details” of the report scenario 42, in the example of FIG. "It means that you could not access the public web site for a minute" and record it in association (step S224).

上記のステップS216の説明では、一例として、業務影響有りに対応する話語として“業務影響があり”を用いる場合を例示したが、テキストデータから業務影響をより精度良く抽出するために、他の話語を用いることもできる。例えば、顧客SEが発話する業務影響の内容もしくはその要約が担当SEに復唱させる定型句の話語を業務影響有りに対応する話語として話語辞書データ38に登録しておくこともできる。例えば、2つの話語“承知しました”及び“ということですね”の両方と一致又は類似する文字列をテキストデータから検索することとしてもかまわない。これら2つの話語を用いることにより、第1の話語“承知しました”から始まって第2の話語“ということですね”で終了するまでの区間で発話が行われた箇所“5分間公開Webサイトへアクセスができなかった”を業務影響詳細として抽出できる。   In the above description of step S216, as an example, the case where “there is business impact” is used as the spoken word corresponding to the presence of business impact. However, in order to more accurately extract the business impact from text data, other spoken words are used. Can also be used. For example, the content of the business influence uttered by the customer SE or the spoken phrase of the fixed phrase that the summary of which is replayed by the responsible SE can be registered in the spoken word dictionary data 38 as a speech corresponding to the presence of business influence. For example, a text string that matches or is similar to both of the two spoken words “I understand” and “That means” may be searched from text data. By using these two spoken words, the place where the utterance was made in the section starting from the first spoken word "I knew" and ending with the second spoken word "Is that?" Could not be accessed "can be extracted as business impact details.

また、ステップS218の説明では、業務影響有りに対応する話語と一致または類似する文字列がヒットしない場合にステップS218の分岐でNoと判定する場合を例示したが、この例に限定されない。すなわち、業務影響無しに対応する話語と一致または類似する文字列がヒットする場合、ステップS218の分岐でNoと判定することとしてもかまわない。例えば、業務影響無しに対応する話語“業務影響がなかった”の他、これに類似する話語“業務影響がない”や“業務影響はない”などをテキストデータから検索することとしてもかまわない。   Further, in the description of step S218, the case where No is determined in the branch of step S218 when a character string that matches or is similar to the spoken word corresponding to the presence of business influence is not exemplified, but the present invention is not limited to this example. That is, when a character string that matches or is similar to the corresponding spoken word without any business influence is hit, it may be determined as No in the branch of step S218. For example, in addition to the spoken word “no business influence” corresponding to no business influence, similar words such as “no business influence” and “no business influence” may be searched from text data.

その後、データ処理部34は、通話の音声データがテキスト変換されたテキストデータから、項目“追加質問有無”に関連付けられて話語辞書データ38に登録された追加質問有りに対応する話語、例えば障害報告のマニュアルに記載の定型句の話語“(そちらにつきましては、)別途確認の上、ご報告させていただきます”と一致または類似する文字列を検索する(ステップS226)。なお、ここでの検索でも、会話で定型句がそのまま発話されるとは限らないので、必ずしも完全一致を条件とせずともかまわない。   Thereafter, the data processing unit 34, from the text data in which the voice data of the call is converted into text, the spoken word corresponding to the presence of an additional question associated with the item “additional question presence / absence” and registered in the spoken word dictionary data 38, for example, a trouble report Search for a character string that matches or is similar to the phrase of the fixed phrase described in the manual of “(I will report to you separately)” (step S226). In this search as well, the fixed phrase is not necessarily uttered as it is in the conversation, so it is not always necessary to make a perfect match as a condition.

このとき、追加質問有りに対応する話語と一致または類似する文字列がヒットしない場合(ステップS226No)、データ処理部34は、報告シナリオ42の項目“追加質問有無”にフラグ“なし”を関連付けて記録する(ステップS228)。   At this time, if the character string that matches or is similar to the spoken word corresponding to the presence of the additional question does not hit (No in step S226), the data processing unit 34 associates the flag “none” with the item “additional question presence / absence” of the report scenario 42. Recording is performed (step S228).

一方、追加質問有りに対応する話語と一致または類似する文字列がヒットする場合(ステップS226Yes)、顧客SEから担当SEへの追加質問に事後回答を行う約束を障害報告のマニュアルに規定された定型句にしたがって担当SEが確認していることがわかる。この場合、データ処理部34は、報告シナリオ42の項目“追加質問有無”にフラグ“あり”を関連付けて記録する(ステップS230)。さらに、データ処理部34は、報告シナリオ42の項目“追加質問詳細”に、追加質問有りに対応する話語“別途確認の上、ご報告させていただきます”の前の所定語数、図4の例で言えば直前に顧客SEにより行われた発話の1文“前回発生した障害との関連性はありますか?”を関連付けて記録する(ステップS232)。   On the other hand, when a character string that matches or resembles a spoken word corresponding to the presence of an additional question is hit (Yes in step S226), a standard that is defined in the trouble report manual is a promise to make a subsequent response to the additional question from the customer SE to the responsible SE. You can see that the SE in charge confirms the phrase. In this case, the data processing unit 34 records the flag “present” in association with the item “presence / absence of additional question” of the report scenario 42 (step S230). In addition, the data processing unit 34 sets the item “additional question details” of the report scenario 42 to a predetermined number of words before the spoken word “I will report after confirming separately” corresponding to the presence of the additional question, the example of FIG. In other words, one sentence of the utterance made by the customer SE immediately before “Is there any relevance to the failure that occurred last time?” Is recorded in association (step S232).

その後、データ処理部34は、記憶部28に記憶された報告シナリオ42にしたがって担当SEが上級SEへ提出する顧客への障害報告のレポートを編集する編集画面、例えば図5の最上段に示す編集画面44を表示部26に表示させる(ステップS234)。   Thereafter, the data processing unit 34 edits the report of the failure report to the customer submitted by the responsible SE to the senior SE according to the report scenario 42 stored in the storage unit 28, for example, the editing shown in the uppermost part of FIG. The screen 44 is displayed on the display unit 26 (step S234).

このように編集画面を表示させた後、データ処理を終了する。   After displaying the editing screen in this way, the data processing is terminated.

図9は、編集処理の手順を示すフローチャートである。図9に示す編集処理は、一例として、ステップS234で編集画面が表示された場合に開始される。   FIG. 9 is a flowchart showing the procedure of the editing process. For example, the editing process illustrated in FIG. 9 is started when the editing screen is displayed in step S234.

図9に示すように、データ処理部34は、担当SEが編集開始ボタン46を操作したか否かを判定する(S302)。例えば、データ処理部34は、担当SEの入力を入力部24を介して受け付けて、編集開始ボタン46を操作したか否かを判定する。データ処理部34は、編集開始ボタン46の操作を受け付けるまで待機状態となる(S302:No)。   As shown in FIG. 9, the data processing unit 34 determines whether or not the responsible SE has operated the edit start button 46 (S302). For example, the data processing unit 34 receives an input of the responsible SE via the input unit 24 and determines whether or not the edit start button 46 has been operated. The data processing unit 34 is in a standby state until the operation of the edit start button 46 is accepted (S302: No).

データ処理部34は、編集開始ボタン46の操作を受け付けると(S302:Yes)、図5の上から2段目に示す受け付け用の編集画面44を表示させて、担当SEからの編集内容の受付を開始する(S304)。   When the data processing unit 34 receives the operation of the editing start button 46 (S302: Yes), the data processing unit 34 displays the editing screen 44 for receiving shown in the second row from the top of FIG. Is started (S304).

データ処理部34は、担当SEによる編集内容を受け付けていないと判定すると(S304:No)、担当SEが編集完了ボタン48を操作したか否かを判定する(S308)。例えば、データ処理部34は、入力部24を介して担当SEの入力を受け付けて、編集完了ボタン48を操作した否かを判定する。データ処理部34は、編集完了ボタン48が操作されていないと判定すると(S308:No)、ステップS304以降を繰り返す。換言すれば、データ処理部34は、編集完了ボタン48の操作を受け付けるまで、編集内容の受け付けを継続する。   If the data processing unit 34 determines that the edited content by the responsible SE has not been received (S304: No), the data processing unit 34 determines whether the responsible SE has operated the editing completion button 48 (S308). For example, the data processing unit 34 receives the input of the responsible SE via the input unit 24 and determines whether or not the edit completion button 48 has been operated. If the data processing unit 34 determines that the edit completion button 48 has not been operated (S308: No), it repeats step S304 and subsequent steps. In other words, the data processing unit 34 continues to accept editing contents until an operation of the editing completion button 48 is accepted.

例えば、担当SEが入力部24を操作していずれかの項目の抽出データ40を選択して、当該抽出データ40のテキストデータまたは有無を入力した場合、データ処理部34は、編集内容を受け付けたと判定して(S304:Yes)、受け付けた編集内容で抽出データ40を編集して新たに登録する(S306)。   For example, when the responsible SE operates the input unit 24 to select the extracted data 40 of any item and inputs the text data or the presence / absence of the extracted data 40, the data processing unit 34 receives the editing content. Determination is made (S304: Yes), and the extracted data 40 is edited and newly registered with the received editing content (S306).

データ処理部34は、担当SEによる編集完了ボタン48の操作を受け付けると(S308:Yes)、上級SEの上位端末12へ更新を通知する(S310)。   When receiving the operation of the edit completion button 48 by the responsible SE (S308: Yes), the data processing unit 34 notifies the upper terminal 12 of the advanced SE of the update (S310).

[効果の一側面]
上述したように、会話記録装置14は、担当SEと顧客SEとの会話をテキスト変換したテキストデータから予め設定された条件、例えば、ワード辞書データ36及び話語辞書データ38に登録されたデータに基づいて、抽出データ40を抽出する。これにより、会話記録装置14は、全てを録音した会話から必要なデータを抽出するための担当SEの作業負荷を低減できる。例えば、会話記録装置14は、担当SEの1人の顧客SEあたりの対応時間を低減(例えば、4分から2分に半減)でき、上級SEへの報告にかかる時間を低減(例えば、3分から1分に半減)できる。この結果、会話記録装置14は、システムの障害対応に要する担当SEの時間を大幅に削減できる(例えば、100個のシステムに対して0.02人日の削減)。また、会話記録装置14は、担当SEによる早急な顧客SEへの対応を実現でき、上級SEが出す障害対応指示をよりリアルタイムに近い状態にして、復旧状況に応じた適切な対応を実現できる。このように、障害対応の業務が滞るのを抑制することができるので、システム障害から発生した問題に起因してデータセンタが提供するサービスが機能しなくなる事態も抑制できる。したがって、会話記録装置14によれば、システム障害に起因するサービスレベルの低下を抑制できる。
[One aspect of effect]
As described above, the conversation recording device 14 is based on conditions set in advance from text data obtained by text conversion of conversation between the responsible SE and the customer SE, for example, data registered in the word dictionary data 36 and the spoken word dictionary data 38. Thus, the extraction data 40 is extracted. Thereby, the conversation recording apparatus 14 can reduce the work load of the responsible SE for extracting necessary data from the conversation in which everything is recorded. For example, the conversation recording device 14 can reduce the response time per customer SE of the responsible SE (for example, from 4 minutes to 2 minutes) and reduce the time required for reporting to the advanced SE (for example, 3 minutes to 1). Half the minute). As a result, the conversation recording device 14 can significantly reduce the time required for the SE in charge of handling a system failure (for example, 0.02 man-days for 100 systems). Further, the conversation recording device 14 can realize an immediate response to the customer SE by the responsible SE, and can realize an appropriate response according to the recovery situation by making the failure response instruction issued by the advanced SE closer to real time. In this way, it is possible to suppress the failure handling operation from being delayed, and it is also possible to suppress the situation where the service provided by the data center does not function due to a problem caused by the system failure. Therefore, according to the conversation recording device 14, it is possible to suppress a decrease in service level due to a system failure.

会話記録装置14は、全ての会話の一部を抽出データ40として抽出するので、必要な記憶容量を低減することができる。   Since the conversation recording device 14 extracts a part of all conversations as the extracted data 40, the necessary storage capacity can be reduced.

会話記録装置14は、音声データの会話をテキスト変換したテキストデータの抽出データ40を登録するので、担当SE及び上級SEに容易に理解できる表示形式で出力できる。   The conversation recording apparatus 14 registers the extracted data 40 of the text data obtained by converting the conversation of the voice data into text, so that it can be output in a display format that can be easily understood by the responsible SE and advanced SE.

会話記録装置14は、音声データのテキストデータを編集画面44で見つつ、抽出データ40を担当SEに編集させることができるので、会話しながらテキストデータを入力する場合に比べて、担当SEに高いタイピングスキルを要求しない。   Since the conversation recording device 14 can cause the responsible SE to edit the extracted data 40 while viewing the text data of the voice data on the editing screen 44, it is higher for the responsible SE than when inputting the text data while talking. Does not require typing skills.

上述の各実施例の構成の機能、接続関係、個数は適宜変更してよい。   The functions, connection relationships, and numbers of the configurations of the above-described embodiments may be changed as appropriate.

例えば、上記の実施例では、通話の音声データをテキスト変換することにより得られたテキストデータに対し、各種の処理、例えば抽出データの抽出などを行う場合を例示したが、必ずしも音声データ全体にテキスト変換を行わずともかまわない。すなわち、通話の音声データから、ワード辞書データに登録されたキーワードや話語辞書データに登録された話語をワードスポッティングなどの音声認識を通じて認識することもできる。例えば、ワード辞書データが参照される場合、音声認識により認識されたキーワードをそのまま抽出データとして抽出すればよく、また、話語辞書データが参照される場合、通話の音声データから音声認識により認識された話語の前または後の所定語数または所定時間に対応する、部分音声データを抽出データとして抽出することもできるし、あるいは部分音声データがテキスト変換された文字列を抽出データとして抽出することもでき、このようにして抽出された部分音声データまたは文字列を項目に関連付けることができる。また、項目に部分音声データが関連付けられた場合、上級SEは、音声データのうち部分音声データを抜粋して聴取できるので、項目に関連付けられた文字列もしくはそれが編集された文字列を読む場合と同様に、短時間で業務影響の内容や追加質問の内容を理解できる。   For example, in the above-described embodiment, the case where various kinds of processing, for example, extraction of extracted data, is performed on text data obtained by converting voice data of a call into text is illustrated. You don't have to convert. That is, it is possible to recognize a keyword registered in the word dictionary data and a spoken word registered in the spoken word dictionary data through voice recognition such as word spotting from the voice data of the call. For example, when word dictionary data is referred to, a keyword recognized by voice recognition may be extracted as extracted data as it is, and when word dictionary data is referred to, it is recognized by voice recognition from voice data of a call. Partial voice data corresponding to a predetermined number of words or a predetermined time before or after a spoken word or a predetermined time can be extracted as extracted data, or a character string obtained by converting the partial voice data into text can be extracted as extracted data. The partial speech data or character string extracted in this way can be associated with an item. Also, when partial audio data is associated with an item, the advanced SE can extract and listen to partial audio data out of audio data, so when reading a character string associated with an item or a character string edited from it As with, can understand the contents of business impact and additional questions in a short time.

例えば、上述の実施例では、障害対応の会話を前提に説明したが、他の対応、例えば、メンテナンスに関する会話等に上述の処理を適用してもよい。   For example, in the above-described embodiment, the description has been made on the premise of the conversation corresponding to the failure. However, the above-described processing may be applied to other correspondence, for example, a conversation related to maintenance.

上述の実施例では、担当SEの情報処理装置20に取得部32及びデータ処理部34の機能を設ける例をあげたが、これに限定されない。例えば、上位端末12または他の装置に取得部32及びデータ処理部34の機能を設けてもよい。   In the above-described embodiment, the information processing device 20 of the responsible SE is provided with the functions of the acquisition unit 32 and the data processing unit 34. However, the present invention is not limited to this. For example, the functions of the acquisition unit 32 and the data processing unit 34 may be provided in the upper terminal 12 or another device.

[会話記録プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図10を用いて、上記の実施例と同様の機能を有する会話記録プログラムを実行するコンピュータの一例について説明する。
[Conversation recording program]
The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation. In the following, an example of a computer that executes a conversation recording program having the same function as that of the above embodiment will be described with reference to FIG.

図10は、実施例に係る会話記録プログラムを実行するコンピュータのハードウェア構成例を示す図である。図10に示すように、コンピュータ50は、CPU52と、ROM54と、HDD56と、RAM58とを有する。CPU52、ROM54、HDD56及びRAM58は、バス60を介して接続される。   FIG. 10 is a diagram illustrating a hardware configuration example of a computer that executes the conversation recording program according to the embodiment. As shown in FIG. 10, the computer 50 includes a CPU 52, a ROM 54, an HDD 56, and a RAM 58. The CPU 52, ROM 54, HDD 56, and RAM 58 are connected via the bus 60.

HDD56には、図10に示すように、上記の実施例で示した取得部32、及び、データ処理部34と同様の機能を発揮する会話記録プログラム62が記憶される。この会話記録プログラム62は、図2に示した取得部32、及び、データ処理部34の各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD56には、必ずしも上記の実施例で示した全てのデータが格納されずともよく、処理に用いるデータがHDD56に格納されればよい。   As shown in FIG. 10, the HDD 56 stores a conversation recording program 62 that exhibits the same functions as those of the acquisition unit 32 and the data processing unit 34 described in the above embodiment. The conversation recording program 62 may be integrated or separated as with each component of the acquisition unit 32 and the data processing unit 34 shown in FIG. That is, the HDD 56 does not necessarily have to store all the data shown in the above-described embodiment, and data used for processing may be stored in the HDD 56.

このような環境の下、CPU52は、HDD56から会話記録プログラム62を読み出した上でRAM58へ展開する。この結果、会話記録プログラム62は、図10に示すように、会話記録プロセス64として機能する。この会話記録プロセス64は、RAM58が有する記憶領域のうち会話記録プロセス64に割り当てられた領域にHDD56から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、会話記録プロセス64が実行する処理の一例として、図7から図9に示す処理などが含まれる。なお、CPU52では、必ずしも上記の実施例で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。   Under such an environment, the CPU 52 reads the conversation recording program 62 from the HDD 56 and develops it in the RAM 58. As a result, the conversation recording program 62 functions as a conversation recording process 64 as shown in FIG. The conversation recording process 64 expands various data read from the HDD 56 in an area allocated to the conversation recording process 64 in the storage area of the RAM 58, and executes various processes using the expanded various data. For example, as an example of processing executed by the conversation recording process 64, processing shown in FIGS. In the CPU 52, not all the processing units shown in the above embodiments need to operate, and a processing unit corresponding to a process to be executed may be virtually realized.

なお、上記の会話記録プログラム62は、必ずしも最初からHDD56やROM54に記憶されておらずともかまわない。例えば、コンピュータ50に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に会話記録プログラム62を記憶させる。そして、コンピュータ50がこれらの可搬用の物理媒体から会話記録プログラム62を取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ50に接続される他のコンピュータまたはサーバ装置などに会話記録プログラム62を記憶させておき、コンピュータ50がこれらから会話記録プログラム62を取得して実行するようにしてもよい。   Note that the conversation recording program 62 is not necessarily stored in the HDD 56 or the ROM 54 from the beginning. For example, the conversation recording program 62 is stored in a “portable physical medium” such as a flexible disk inserted into the computer 50, so-called FD, CD-ROM, DVD disk, magneto-optical disk, IC card or the like. Then, the computer 50 may acquire and execute the conversation recording program 62 from these portable physical media. Further, the conversation recording program 62 is stored in another computer or a server device connected to the computer 50 via a public line, the Internet, a LAN, a WAN, etc., and the computer 50 acquires the conversation recording program 62 from these. May be executed.

14…会話記録装置
22…通信部
32…取得部
34…データ処理部
36…ワード辞書データ
38…話語辞書データ
40…抽出データ
42…報告シナリオ
44…編集画面
50…コンピュータ
14 ... Conversation recording device 22 ... Communication unit 32 ... Acquisition unit 34 ... Data processing unit 36 ... Word dictionary data 38 ... Spoken word dictionary data 40 ... Extracted data 42 ... Report scenario 44 ... Editing screen 50 ... Computer

Claims (9)

通信を介して送受信される会話の音声データを取得する取得部と、
前記音声データから、システム障害の報告シナリオに含まれる項目ごとに規定された条件に基づいて抽出データを抽出し、前記抽出データを前記項目毎に関連付けて記録するデータ処理部と、
を有することを特徴とする会話記録装置。
An acquisition unit for acquiring voice data of conversations transmitted and received via communication;
A data processing unit that extracts extracted data based on conditions defined for each item included in a system failure report scenario from the voice data, and records the extracted data in association with each item;
A conversation recording apparatus characterized by comprising:
前記項目は、前記システム障害が発生するシステム名、前記システム障害の報告先である顧客担当者名、又は、これらの組合せのうち少なくともいずれか1つを含むことを特徴とする請求項1に記載の会話記録装置。   2. The item according to claim 1, wherein the item includes at least one of a system name in which the system failure occurs, a customer contact name to which the system failure is reported, or a combination thereof. Conversation recording device. 前記データ処理部は、前記システム名または前記顧客担当者名に対応するキーワードが登録されたワード辞書データを参照して、前記音声データから前記キーワードを前記抽出データとして抽出することを特徴とする請求項2に記載の会話記録装置。   The data processing unit refers to word dictionary data in which a keyword corresponding to the system name or the customer contact name is registered, and extracts the keyword from the voice data as the extracted data. Item 3. The conversation recording device according to Item 2. 前記項目は、前記システム障害がシステムで利用される仮想マシンに与える影響の有無と前記影響の内容、前記通信を介して行われる通話が終了した後に前記システム障害の報告先である顧客への事後回答を要する質問の有無と前記質問の内容、又は、これらの組合せを含むことを特徴とする請求項1、2または3に記載の会話記録装置。   The items include the presence / absence of the impact of the system failure on the virtual machine used in the system, the details of the impact, and the subsequent to the customer who is the report destination of the system failure after the call made via the communication is terminated The conversation recording apparatus according to claim 1, 2 or 3, characterized in that it includes the presence / absence of a question requiring an answer, the content of the question, or a combination thereof. 前記データ処理部は、前記影響の回答を促す定型句または前記質問の有りを表す定型句を表す話語が登録された話語辞書データを参照して、前記音声データの中に前記話語が存在する場合、前記話語の前または後の所定語数または所定時間に対応する、部分音声データまたは前記部分音声データに対応する文字列を前記抽出データとして抽出することを特徴とする請求項4に記載の会話記録装置。   The data processing unit refers to spoken word dictionary data in which a spoken word representing a fixed phrase for prompting an answer to the influence or a fixed phrase indicating the presence of the question is registered, and the spoken word is present in the speech data 5. The conversation recording according to claim 4, wherein partial speech data or a character string corresponding to the partial speech data corresponding to a predetermined number of words or a predetermined time before or after the spoken word is extracted as the extracted data. apparatus. 前記データ処理部は、前記影響の有無または前記質問の有無を表す話語が登録された話語辞書データを参照して、前記音声データの中に前記影響の有りまたは前記質問の有りに対応する話語が存在する場合、前記影響の有無または前記質問の有無の項目に、前記影響の有りまたは前記質問の有りを示す情報を関連付けて記録すると共に、前記話語の前または後の所定語数または所定時間に対応する、部分音声データまたは前記部分音声データに対応する文字列を抽出して前記影響の内容または前記質問の内容の項目に関連付けて記録することを特徴とする請求項4に記載の会話記録装置。   The data processing unit refers to spoken word dictionary data in which a spoken word indicating the presence or absence of the influence or the presence or absence of the question is registered, and the spoken word corresponding to the presence of the influence or the presence of the question is included in the voice data. If present, records the presence / absence of the influence or the presence / absence of the question in association with information indicating the presence of the influence or the presence of the question, and corresponds to a predetermined number of words or a predetermined time before or after the spoken word 5. The conversation recording apparatus according to claim 4, wherein partial voice data or a character string corresponding to the partial voice data is extracted and recorded in association with the content of the influence or the content of the question. 前記データ処理部は、前記音声データの中に前記影響の有りまたは前記質問の有りに対応する話語が存在しない場合、前記影響の有無または前記質問の有無の項目に、前記影響の無しまたは前記質問の無しを示す情報を関連付けて記録する請求項6に記載の会話記録装置。   When there is no spoken word corresponding to the presence of the influence or the presence of the question in the voice data, the data processing unit includes the absence of the influence or the question in the presence / absence of the influence or the presence / absence of the question. The conversation recording apparatus according to claim 6, which records information indicating the absence or absence in association with each other. 通信を介して送受信される会話の音声データを取得し、
前記音声データから、システム障害の報告シナリオに含まれる項目ごとに規定された条件に基づいて抽出データを抽出し、前記抽出データを前記項目毎に関連付けて記録する、
処理をコンピュータが実行することを特徴とする会話記録方法。
Obtain voice data of conversations sent and received via communication,
Extracting extracted data from the voice data based on conditions defined for each item included in the system failure report scenario, and recording the extracted data in association with each item,
A conversation recording method, wherein a computer executes a process.
通信を介して送受信される会話の音声データを取得し、
前記音声データから、システム障害の報告シナリオに含まれる項目ごとに規定された条件に基づいて抽出データを抽出し、前記抽出データを前記項目毎に関連付けて記録する、
処理をコンピュータに実行させることを特徴とする会話記録プログラム。
Obtain voice data of conversations sent and received via communication,
Extracting extracted data from the voice data based on conditions defined for each item included in the system failure report scenario, and recording the extracted data in association with each item,
A conversation recording program characterized by causing a computer to execute processing.
JP2016254163A 2016-12-27 2016-12-27 Conversation recording device, conversation recording method and conversation recording program Active JP6859702B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016254163A JP6859702B2 (en) 2016-12-27 2016-12-27 Conversation recording device, conversation recording method and conversation recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016254163A JP6859702B2 (en) 2016-12-27 2016-12-27 Conversation recording device, conversation recording method and conversation recording program

Publications (2)

Publication Number Publication Date
JP2018106551A true JP2018106551A (en) 2018-07-05
JP6859702B2 JP6859702B2 (en) 2021-04-14

Family

ID=62787923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016254163A Active JP6859702B2 (en) 2016-12-27 2016-12-27 Conversation recording device, conversation recording method and conversation recording program

Country Status (1)

Country Link
JP (1) JP6859702B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102087314B1 (en) * 2018-11-05 2020-03-10 인천국제공항공사 Server for providing traffic control monitoring service and method for providing real-time air traffic control monitoring service

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030101153A1 (en) * 2001-11-28 2003-05-29 Symbio Ip Limited Knowledge system
JP2007102104A (en) * 2005-10-07 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> Device and method for answer sentence generation, and program and storage medium thereof
WO2007091453A1 (en) * 2006-02-07 2007-08-16 Nec Corporation Monitoring device, evaluated data selecting device, responser evaluating device, server evaluating system, and program
JP2011082839A (en) * 2009-10-08 2011-04-21 Mitsubishi Electric Building Techno Service Co Ltd Call center system
JP2013222313A (en) * 2012-04-17 2013-10-28 Hitachi Ltd Failure contact efficiency system
JP2015082221A (en) * 2013-10-23 2015-04-27 Necフィールディング株式会社 Management device, management system, maintenance management method, and program
JP2015156062A (en) * 2014-02-19 2015-08-27 株式会社東芝 business support system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030101153A1 (en) * 2001-11-28 2003-05-29 Symbio Ip Limited Knowledge system
JP2007102104A (en) * 2005-10-07 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> Device and method for answer sentence generation, and program and storage medium thereof
WO2007091453A1 (en) * 2006-02-07 2007-08-16 Nec Corporation Monitoring device, evaluated data selecting device, responser evaluating device, server evaluating system, and program
JP2011082839A (en) * 2009-10-08 2011-04-21 Mitsubishi Electric Building Techno Service Co Ltd Call center system
JP2013222313A (en) * 2012-04-17 2013-10-28 Hitachi Ltd Failure contact efficiency system
JP2015082221A (en) * 2013-10-23 2015-04-27 Necフィールディング株式会社 Management device, management system, maintenance management method, and program
JP2015156062A (en) * 2014-02-19 2015-08-27 株式会社東芝 business support system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102087314B1 (en) * 2018-11-05 2020-03-10 인천국제공항공사 Server for providing traffic control monitoring service and method for providing real-time air traffic control monitoring service

Also Published As

Publication number Publication date
JP6859702B2 (en) 2021-04-14

Similar Documents

Publication Publication Date Title
JP6604836B2 (en) Dialog text summarization apparatus and method
JP6544131B2 (en) INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING PROGRAM
US9542074B2 (en) Method and apparatus for enhancing an interactive voice response (IVR) system
JP2001273283A (en) Method for identifying language and controlling audio reproducing device and communication device
US11762629B2 (en) System and method for providing a response to a user query using a visual assistant
JP6296821B2 (en) Business support system
JP2015176099A (en) Dialog system construction assist system, method, and program
JP2015055979A (en) Data conversion device and method
JP2018045639A (en) Dialog log analyzer, dialog log analysis method, and program
CN113630309B (en) Robot conversation system, method, device, computer equipment and storage medium
JP2019197977A (en) Inquiry processing method, system, terminal, automatic voice interactive device, display processing method, call control method, and program
JP2016143909A (en) Telephone conversation content analysis display device, telephone conversation content analysis display method, and program
JP2016062333A (en) Retrieval server and retrieval method
CN110311943A (en) The inquiry of data and methods of exhibiting in a kind of electric power enterprise big data platform
JP6859702B2 (en) Conversation recording device, conversation recording method and conversation recording program
JP2007304793A (en) Document retrieval device
WO2019003395A1 (en) Call center conversational content display system, method, and program
WO2020022079A1 (en) Speech recognition data processor, speech recognition data processing system, and speech recognition data processing method
WO2023090380A1 (en) Program, information processing system, and information processing method
JP2020101970A (en) Conversation processing system, information processing apparatus and program
JP2019220115A (en) Voice interactive system, and model creation device and method thereof
JP2019159690A (en) Information processing program, information processing method, and information processor
JP2018159729A (en) Interaction system construction support device, method and program
JP2018128577A (en) Summary sentence display device, summary sentence display method, and program
JP2005292476A (en) Client response method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6859702

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150