JP4760452B2 - Speech training apparatus, speech training system, speech training support method and program - Google Patents

Speech training apparatus, speech training system, speech training support method and program Download PDF

Info

Publication number
JP4760452B2
JP4760452B2 JP2006057769A JP2006057769A JP4760452B2 JP 4760452 B2 JP4760452 B2 JP 4760452B2 JP 2006057769 A JP2006057769 A JP 2006057769A JP 2006057769 A JP2006057769 A JP 2006057769A JP 4760452 B2 JP4760452 B2 JP 4760452B2
Authority
JP
Japan
Prior art keywords
utterance
unit
extraction
identifier
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006057769A
Other languages
Japanese (ja)
Other versions
JP2007233249A (en
Inventor
真一郎 亀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006057769A priority Critical patent/JP4760452B2/en
Publication of JP2007233249A publication Critical patent/JP2007233249A/en
Application granted granted Critical
Publication of JP4760452B2 publication Critical patent/JP4760452B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、話訓練装置、発話訓練システム、発話訓練支援方法およびプログラムに関し、特には、発話技術の向上を支援する話訓練装置、発話訓練システム、発話訓練支援方法およびプログラムに関する。 The present invention, utterance training devices, speech training system, a utterance training support method, and a program, in particular, utterance training apparatus for supporting an enhanced speech technology, speech training system, relates utterance training support method, and a program.

電話で顧客からの問い合わせ等に対応するコンタクトセンターが、各所に設けられている。このコンタクトセンターでは、オペレータが、顧客に電話で対応している。   Contact centers for responding to inquiries from customers by telephone are provided at various locations. In this contact center, the operator responds to the customer by telephone.

オペレータは、発話すべき語句を発話する必要がある。例えば、オペレータは、顧客との通話の冒頭で、自己の所属および名前を顧客に知らせ、かつ、その通話の最後にも、自己の所属および名前を知らせることが一般的である。この場合、オペレータは、自己の所属および名前を確実に発話する必要がある。   The operator needs to utter a phrase to be uttered. For example, the operator generally informs the customer of his / her affiliation and name at the beginning of a call with the customer, and informs his / her affiliation and name at the end of the call. In this case, the operator needs to reliably speak his / her affiliation and name.

また、オペレータは、特定の語句の発話を抑制する必要がある。例えば、「えー」、「あのー」または「えっとですね」などのつなぎ言葉を頻繁に発話するオペレータが存在する。オペレータがつなぎ言葉を頻繁に発話すると、顧客にとって、そのオペレータの発話は、聞こえづらい。   Moreover, the operator needs to suppress the utterance of a specific phrase. For example, there is an operator who frequently utters connected words such as “um”, “noh”, or “um”. If the operator speaks the connecting words frequently, it is difficult for the customer to hear the operator's speech.

オペレータは、発話すべき語句を確実に発話するなど、発話の技術を向上させるためには、自己の発話の確認すること、または、自己の発話の評価を聞くことが効果的である。   It is effective for the operator to confirm his / her utterance or listen to his / her own utterance evaluation in order to improve his / her utterance technique such as uttering a word / phrase to be uttered.

従来、オペレータの管理者など(以下では、スーパバイザという)が、例えば、オペレータと顧客との通話の録音を聞いて、そのオペレータの発話が妥当か否かなどを評価し、その評価をオペレータに伝えていた。   Conventionally, an operator administrator (hereinafter referred to as a supervisor), for example, listens to a recording of a call between an operator and a customer, evaluates whether the utterance of the operator is appropriate, and communicates the evaluation to the operator. It was.

しかしながら、スーパバイザが通話の録音を聞いて発話を評価する評価方法では、時間がかかる。このため、スーパバイザは、数ヶ月に一回程度、オペレータの発話の評価していた。オペレータが自己の発話の評価を数ヶ月に一回程度聞いても、自己の発話の技術を向上させることは、困難である。   However, the evaluation method in which a supervisor listens to a call recording and evaluates an utterance takes time. For this reason, the supervisor evaluated the utterance of the operator about once every several months. Even if an operator listens to his / her speech evaluation about once every several months, it is difficult to improve his / her speech technology.

特許文献1(特開2004−309631号公報)には、自動的にユーザの発話を評価することが可能な対話練習支援装置が記載されている。この対話練習支援装置は、ユーザへの擬似的な質問を記憶し、その擬似的な質問に対するユーザの回答を取得する。対話練習支援装置は、その回答から特定の用語を抽出し、その用語を提示する。   Japanese Patent Laid-Open No. 2004-309631 describes a dialogue practice support device that can automatically evaluate a user's utterance. This dialogue practice support device stores a pseudo question to the user and obtains a user's answer to the pseudo question. The dialogue practice support device extracts a specific term from the answer and presents the term.

これにより、自動的にユーザが特定の用語を発話するか否かを確認することが可能になり、オペレータの発話の評価を行なう時間を短くすることが可能になる。
特開2004−309631号公報
As a result, it is possible to automatically confirm whether or not the user utters a specific term, and it is possible to shorten the time for evaluating the utterance of the operator.
Japanese Patent Application Laid-Open No. 2004-309631

特許文献1に記載の対話練習支援装置では、オペレータは擬似的な質問を聞いて、その質問に応答しなければならない。このため、オペレータは、顧客との応対などの通常業務とは別に、この対話練習支援装置を使用して発話の技術を向上させなければならない。このため、オペレータの負担が増加する。   In the dialogue practice support device described in Patent Document 1, an operator must listen to a pseudo question and respond to the question. For this reason, the operator must improve the speech technology using the dialogue practice support device separately from the normal work such as reception with the customer. For this reason, an operator's burden increases.

本発明の目的は、発話の技術の向上にかかるユーザの負担を軽減することが可能な音声分岐装置、発話訓練装置、音声分岐方法、発話訓練支援方法およびプログラムを提供することである。   An object of the present invention is to provide a voice branching device, a speech training device, a voice branching method, a speech training support method, and a program capable of reducing a user's burden for improving speech technology.

また、本発明の発話訓練システムは、発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムであって、前記音声分岐装置は、前記電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、前記発話訓練装置は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、前記識別子を受け付ける入力部と、前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、前記抽出部が抽出した抽出対象語句を提示する提示部と、を含み、前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する。 The utterance training system of the present invention is an utterance training system including an utterance training apparatus, and an utterance training apparatus connected to the utterance training apparatus and a destination telephone, wherein the utterance training apparatus includes An acquisition unit that acquires an utterance to a telephone; and a branch unit that outputs the utterance acquired by the acquisition unit to both the telephone and the utterance training apparatus, wherein the utterance training apparatus specifies a user An object storage unit that stores an identifier and an extraction target phrase to be extracted from the user's utterance specified by the identifier in association with each identifier, an input unit that receives the identifier, and an output from the voice branching device A recognition unit that converts the received utterance into character information, and an extraction unit that extracts an extraction target phrase stored in the target storage unit from the character information converted by the recognition unit; See containing and a presentation unit that presents the extracted target phrase extracted by the extracting unit, the extracting unit, from the character information which the recognition unit is converted, associated with the identifier of the input unit accepts target storage unit The extracted word / phrase to be extracted is extracted.

また本発明の発話訓練システムが行う発話訓練支援方法は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部を含む発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムが行なう発話訓練支援方法であって、前記発話訓練装置が、前記識別子を受け付ける入力ステップと、前記音声分岐装置が、前記電話機への発話を取得する発話取得ステップと、前記音声分岐装置が、前記取得された発話を、前記電話機と前記発話訓練装置との両方に出力する出力ステップと、前記発話訓練装置が、前記出力された発話を受け付ける発話受付ステップと、前記発話訓練装置が、前記受け付けられた発話を文字情報に変換する認識ステップと、前記発話訓練装置が、前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する抜出ステップと、前記発話訓練装置が、前記抽出された抽出対象語句を提示する語句提示ステップと、を含む。 In the speech training support method performed by the speech training system of the present invention, an identifier for identifying a user and an extraction target phrase to be extracted from the user's speech identified by the identifier are stored in association with each identifier. An utterance training support method performed by an utterance training system including an utterance training apparatus including a target storage unit, and an audio branching apparatus connected to the utterance training apparatus and a telephone of a call destination, wherein the utterance training apparatus includes: Both the input step of accepting the identifier, the speech acquisition device in which the speech branching device acquires speech to the telephone, and the speech branching device sends the acquired speech to both the telephone and the speech training device. Output step, the utterance training device accepts the outputted utterance, and the utterance training device accepts the utterance training device. A recognition step of converting the speech into text information, the speech training apparatus, from the converted character information, the extraction step of extracting an extraction target phrase associated with said accepted identifier in the object storage unit The speech training device includes a phrase presentation step of presenting the extracted extraction target phrase.

上記の発明によれば、通話先への発話が、通話先の電話機と、発話訓練装置と、の両方に出力される。発話訓練装置は、発話を受け付けると該発話から抽出対象語句を抽出し該抽出された抽出対象語句を提示する。   According to the above invention, the utterance to the call destination is output to both the call destination telephone and the utterance training apparatus. When the utterance training apparatus accepts an utterance, the utterance training apparatus extracts an extraction target phrase from the utterance and presents the extracted extraction target phrase.

このため、ユーザは、顧客に応対しながら、発話訓練装置を見ることによって、抽出対象語句を発話したか否かを確認することが可能になる。よって、ユーザは、通常業務とは別に、例えば、擬似的な質問を聞いてその質問に応答するなどして自己の発話を確認しなくても、通常業務を行ないながら発話の技術を向上させることが可能になる。したがって、発話の技術の向上にかかるユーザの負担を軽減することが可能になる。   Therefore, the user can confirm whether or not the extraction target phrase has been uttered by looking at the utterance training device while responding to the customer. Therefore, the user can improve the utterance technology while performing normal work, without having to confirm his / her utterance, for example, by listening to a pseudo question and responding to the question separately from the normal work. Is possible. Therefore, it is possible to reduce the burden on the user for improving the speech technology.

また、本発明の発話訓練装置は、声分岐装置と接続された発話訓練装置であって、前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、前記発話訓練装置は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、前記識別子を受け付ける入力部と、前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、前記抽出部が抽出した抽出対象語句を提示する提示部と、を含み、前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する。 Also, speech training apparatus of the present invention is an utterance training device connected to the voice distribution unit, the voice dividing device includes an acquisition unit for acquiring speech to the call destination phone, the acquisition unit acquires A branching unit that outputs the uttered speech to both the telephone and the speech training device, wherein the speech training device extracts the identifier that identifies the user and the speech of the user identified by the identifier. A target storage unit that stores a word to be extracted in association with each identifier, an input unit that receives the identifier, and an utterance output from the speech branching device, and converts the received utterance into character information seen including a recognition unit, an extraction unit wherein the recognition unit extracts the extraction target phrase stored in the target storage unit from the converted text information, and a presentation unit that presents the extracted target phrase extracted by the extracting unit, the ,in front Extraction unit, from the character information which the recognition unit is converted, and extracts the extraction target phrase the input unit is associated with the identifier and the object storage unit accepted.

また、本発明の発話訓練支援方法は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部を含み、声分岐装置と接続された発話訓練装置が行なう発話訓練支援方法であって、前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、前記識別子を受け付ける入力ステップと、前記音声分岐装置が出力した発話を受け付ける受付ステップと、前記受け付けられた発話を文字情報に変換する変換ステップと、前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する抜出ステップと、前記抽出された抽出対象語句を提示する提示ステップと、を含む。 Further, the speech training support method of the present invention includes a target storage unit that stores an identifier for identifying a user and an extraction target phrase to be extracted from the user's speech specified by the identifier in association with each identifier. wherein, speech a speech branching unit and connected speech training support method speech training device performs the voice branch unit, an acquisition unit for acquiring speech to call to phone, acquired by the acquiring unit A branching unit that outputs to both the telephone and the utterance training device, an input step for receiving the identifier, a reception step for receiving the utterance output by the voice branching device, and the received utterance a conversion step of converting the text information from the converted text information, disconnect of extracting the extraction target phrase associated with said accepted identifier in the object storage unit Comprising a step, and a presentation step of presenting the extracted target phrase the extracted.

上記の発明によれば、音声分岐装置にて出力された電話機への発話から抽出対象語句が抽出され、その抽出対象語句が提示される。   According to the above invention, the extraction target phrase is extracted from the utterance to the telephone output from the voice branching device, and the extraction target phrase is presented.

このため、擬似的な質問が記憶されなくても、ユーザは、自己が抽出対象語句を発話したか否かを確認することが可能になる。   For this reason, even if a pseudo question is not memorized, it becomes possible for the user to confirm whether or not the user has spoken the extraction target phrase.

擬似的な質問に対するユーザの回答から特定の用語を抽出する方法では、その特定の用語は、その擬似的な質問に対応づけられて登録されている。このため、ユーザごとに、その特定の用語を設定することができない可能性がある。   In the method of extracting a specific term from the user's answer to the pseudo question, the specific term is registered in association with the pseudo question. For this reason, there is a possibility that the specific term cannot be set for each user.

上記の発明によれば、識別子が受け付けられると、その識別子と関連づけられた抽出対象語句が、文字情報から抽出される。   According to the above invention, when the identifier is accepted, the extraction target phrase associated with the identifier is extracted from the character information.

このため、例えば、ユーザの口癖などに応じて、個々のユーザに適した抽出対象語句を提示することが可能になる。   For this reason, it becomes possible to present the extraction object phrase suitable for each user according to a user's mochi etc., for example.

また、本発明のプログラムは、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、声分岐装置と、に接続されたコンピュータに発話訓練支援処理を実行させるプログラムであって、前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記コンピュータとの両方に出力する分岐部と、を含み、前記識別子を受け付ける処理と、前記音声分岐装置が出力した発話を受け付ける受付処理と、前記受け付けられた発話を文字情報に変換する変換処理と、前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する処理と、前記抽出された抽出対象語句を提示する提示処理と、を含む発話訓練支援処理を前記コンピュータに実行させる。 The program of the present invention, an identifier for identifying the user, a target storage unit and extracting target phrase to be extracted from the utterance of the user, and stores in association with each of the identifiers specified by said identifier, voice A branching device, a program connected to a computer for executing speech training support processing, wherein the voice branching device acquires an utterance to a destination telephone, and the utterance acquired by the acquisition unit A branch unit that outputs to both the telephone and the computer, the process for receiving the identifier, the reception process for receiving the utterance output by the voice branching device, and converting the received utterance into character information a conversion processing for, from the converted character information, the process of extracting the extraction target phrase associated with said accepted identifier in the object storage unit, A presentation processing of presenting the extracted target phrase serial extracted, the speech training aid processing including causing the computer to perform.

上記の発明によれば、前記発話訓練支援方法をコンピュータに実行させることが可能になる。   According to said invention, it becomes possible to make a computer perform the said speech training assistance method.

本発明によれば、発話の技術の向上にかかるユーザの負担を軽減することが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to reduce the burden of the user concerning the improvement of the technique of speech.

以下、本発明の実施例について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施例の発話訓練システムを示したブロック図である。図1において、発話訓練システムは、音声入力装置1と、発話訓練装置10とを含む。なお、音声入力装置1は、電話網100および発話訓練装置10と接続される。さらに言えば、電話網100は、通話先の電話機101と接続され、音声入力装置1は、電話網100を介して電話機101と接続される。   FIG. 1 is a block diagram showing an utterance training system according to an embodiment of the present invention. In FIG. 1, the speech training system includes a voice input device 1 and a speech training device 10. The voice input device 1 is connected to the telephone network 100 and the speech training device 10. Furthermore, the telephone network 100 is connected to the telephone 101 of the call destination, and the voice input device 1 is connected to the telephone 101 via the telephone network 100.

音声入力装置1は、電話機101への発話を取得する。また、音声入力部1は、音声取得部11と、音声分岐部12とを含む。   The voice input device 1 acquires an utterance to the telephone set 101. The voice input unit 1 includes a voice acquisition unit 11 and a voice branching unit 12.

音声取得部11は、例えば、マイクであり、電話機101への発話を取得する。具体的には、音声取得部11ユーザが電話機101に発話した音声を取得する。なお、音声取得部11は、その音声を、デジタル信号として取得しても良いし、アナログ信号として取得しても良い。   The voice acquisition unit 11 is a microphone, for example, and acquires an utterance to the telephone set 101. Specifically, the voice acquisition unit 11 acquires the voice uttered by the user on the telephone 101. Note that the sound acquisition unit 11 may acquire the sound as a digital signal or an analog signal.

音声分岐部12は、音声取得部11が音声を取得すると、その音声を電話網100と、発話訓練装置10との両方に出力する。   When the voice acquisition unit 11 acquires voice, the voice branching unit 12 outputs the voice to both the telephone network 100 and the speech training device 10.

発話訓練装置10は、発話を受け付けると、その発話から抽出対象語句を抽出し、抽出された抽出対象語句を出力する。また、発話訓練装置10は、抽出された抽出対象語句を提示する。   When the utterance training apparatus 10 accepts an utterance, the utterance training apparatus 10 extracts an extraction target phrase from the utterance and outputs the extracted extraction target phrase. Moreover, the speech training apparatus 10 presents the extracted extraction target phrases.

また、発話訓練装置10は、記憶部2と、指示入力部3と、通話検知部4と、出力部5と、データ処理部6とを含む。   The utterance training apparatus 10 includes a storage unit 2, an instruction input unit 3, a call detection unit 4, an output unit 5, and a data processing unit 6.

記憶部2は、抽出用語格納部21と、抽出結果格納部22と、メモリ23とを含む。   The storage unit 2 includes an extracted term storage unit 21, an extraction result storage unit 22, and a memory 23.

抽出用語格納部21は、対象情報を格納する。対象情報では、ユーザが発話した音声から抽出すべき抽出対象語句と、該抽出対象語句の種別とが、抽出対象語句ごとに関連づけられている。抽出対象語句の種別は、例えば、その抽出対象語句が発話されるべき語句(例えば、ユーザの名前)であること、または、その抽出対象語句が発話を抑制すべき語句(例えば、「あのー」などのつなぎ言葉)であること、のどちらか一方を示す。   The extracted term storage unit 21 stores target information. In the target information, an extraction target phrase to be extracted from the voice uttered by the user and the type of the extraction target phrase are associated for each extraction target phrase. The type of the extraction target phrase is, for example, the phrase that the extraction target phrase is to be uttered (for example, the name of the user), or the phrase that the extraction target phrase is to suppress the utterance (for example, “Ano”) One of the two).

図2は、対象情報の一例を示した図である。図2において、対象情報200は、語句201と、種別202とを含む。語句201は、発話から抽出すべき抽出対象語句を示す。種別202は、語句201の種別であり、「必須」または「抑制」を示す。「必須」は、語句202が発話されるべき語句であることを示し、一方、「抑制」は、語句202が発話を抑制すべき語句であることを示す。   FIG. 2 is a diagram illustrating an example of the target information. In FIG. 2, the target information 200 includes a phrase 201 and a type 202. The phrase 201 indicates an extraction target phrase to be extracted from the utterance. The type 202 is a type of the word / phrase 201 and indicates “required” or “suppressed”. “Mandatory” indicates that the phrase 202 is a phrase to be uttered, while “suppression” indicates that the phrase 202 is a phrase whose utterance is to be suppressed.

検出結果格納部22は、抽出情報を格納する。抽出情報は、少なくとも、用語抽出部62が音声から抽出した抽出語句を含む。なお、抽出情報では、抽出語句と、その抽出語句が抽出された抽出回数とが、抽出語句ごとに関連づけられてもよい。また、抽出情報では、抽出語句と、その抽出語句の種別とが、抽出語句ごとに関連づけられてもよい。また、抽出情報では、抽出語句と、その抽出語句を単位時間あたりにユーザが発話した回数(以下では、発話頻度という)とが、抽出語句ごとに関連づけられても良い。   The detection result storage unit 22 stores extraction information. The extracted information includes at least the extracted phrase extracted from the speech by the term extracting unit 62. In the extraction information, the extracted word and the number of extractions of the extracted word may be associated for each extracted word. In the extracted information, the extracted word and the type of the extracted word may be associated with each extracted word. In the extracted information, the extracted word and the number of times the user uttered the extracted word per unit time (hereinafter referred to as utterance frequency) may be associated with each extracted word.

さらに、抽出情報は、ユーザを識別する識別子(例えば、ユーザの名前)、ユーザが顧客との通話した応対年月日、ユーザが顧客との通話を開始した開始時刻、および、ユーザが顧客との通話を終了した終了時刻を含んでも良い。   Furthermore, the extracted information includes an identifier for identifying the user (for example, the user's name), the date of reception when the user made a call with the customer, the start time when the user started a call with the customer, and the user An end time when the call is ended may be included.

図3は、抽出情報の一例を示した図である。具体的には、2005年10月10日の14時55分05秒ないし15時02分38秒に、名前が「高橋」であるユーザが行なった顧客との通話における抽出情報の一例を示した図である。   FIG. 3 is a diagram showing an example of the extracted information. Specifically, an example of extracted information in a call with a customer made by a user whose name is “Takahashi” from 14:55:05 to 15:02:38 on October 10, 2005 was shown. FIG.

図3において、抽出情報300は、対応者301と、応対年月日302と、開始時刻303と、終了時刻304と、語句305と、種別306と、回数307とを含む。   In FIG. 3, the extracted information 300 includes a responder 301, a response date 302, a start time 303, an end time 304, a word / phrase 305, a type 306, and a frequency 307.

対応者301は、識別子であり、ユーザの名前を示す。応対年月日302は、ユーザが顧客との通話した年月日を示す。開始時刻303は、ユーザが顧客との通話を開始した開始時刻を含む。終了時刻304は、ユーザが顧客との通話を終了した終了時刻を示す。語句305は、発話から抽出された抽出語句を示す。種別306は、語句305の種別を示す。回数307は、語句305が示す抽出語句が抽出された抽出回数を示す。   The corresponding person 301 is an identifier and indicates the name of the user. The response date 302 indicates the date when the user made a call with the customer. The start time 303 includes a start time when the user starts a call with the customer. The end time 304 indicates the end time when the user ended the call with the customer. A phrase 305 indicates an extracted phrase extracted from the utterance. A type 306 indicates the type of the word / phrase 305. The number of times 307 indicates the number of times the extracted word / phrase indicated by the word / phrase 305 has been extracted.

メモリ23は、CPUにて読み取り可能な記録媒体であり、データ処理部6の動作を規定するプログラムを記録する。また、メモリ23は、発話訓練装置を使用するユーザを特定する識別子を記録する。   The memory 23 is a recording medium readable by the CPU, and records a program that defines the operation of the data processing unit 6. Moreover, the memory 23 records an identifier that identifies a user who uses the speech training apparatus.

指示入力部3は、例えば、キーボードまたはマウスであり、抽出情報を検索する旨の検索指示と、対象情報を変更する旨の更新指示とを受け付ける。   The instruction input unit 3 is, for example, a keyboard or a mouse, and accepts a search instruction for searching for extracted information and an update instruction for changing target information.

通話検知部4は、ユーザと顧客との通話の開始および終了を検知する。   The call detection unit 4 detects the start and end of a call between a user and a customer.

出力部5は、各種情報をユーザに提示する。なお、出力部5は、例えば、ディスプレイである。   The output unit 5 presents various information to the user. The output unit 5 is a display, for example.

データ処理部6は、例えば、CPUであり、メモリ23に記録されたプログラムを読み取り、読み取ったプログラムを実行し、音声認識部61と、用語抽出部62と、時計部63と、抽出結果処理部64と、指示管理部65と、抽出結果検索部66と、設定部67とを実現する。   The data processing unit 6 is, for example, a CPU, reads a program recorded in the memory 23, executes the read program, a voice recognition unit 61, a term extraction unit 62, a clock unit 63, and an extraction result processing unit. 64, an instruction management unit 65, an extraction result search unit 66, and a setting unit 67.

音声認識部61は、音声分岐部12が出力した音声を受け付け、その音声を文字情報に変換する。   The voice recognition unit 61 receives the voice output from the voice branching unit 12 and converts the voice into character information.

用語抽出部62は、音声認識部61が音声を文字情報に変換すると、抽出用語格納部21に格納されている対象情報を確認する。また、用語抽出部62は、その対象情報が含む抽出対象語句が、その文字情報に含まれるか否かを調べる。   The term extraction unit 62 confirms the target information stored in the extracted term storage unit 21 when the speech recognition unit 61 converts speech into character information. Further, the term extraction unit 62 checks whether or not the extraction target phrase included in the target information is included in the character information.

その抽出対象語句が文字情報に含まれると、用語抽出部62は、その抽出対象語句を文字情報から抽出語句として抽出する。一方、その抽出対象語句が文字情報に含まれないと、用語抽出部62は、抽音声認識部61が次に音声を文字情報に変換するまで待機する。   When the extraction target word / phrase is included in the character information, the term extraction unit 62 extracts the extraction target word / phrase from the character information as an extraction word / phrase. On the other hand, if the extraction target word / phrase is not included in the character information, the term extraction unit 62 waits until the extracted speech recognition unit 61 next converts the speech into character information.

用語抽出部62は、抽出した抽出語句を抽出結果処理部5に出力する。なお、用語抽出部62は、抽出語句と、その抽出語句として抽出された抽出対象語句と抽出用語格納部21にて関連づけられた種別と、を抽出語句ごとに関連づけて抽出結果処理部5に出力しても良い。   The term extraction unit 62 outputs the extracted extracted phrase to the extraction result processing unit 5. The term extraction unit 62 associates the extracted phrase, the extraction target phrase extracted as the extracted phrase and the type associated with the extracted term storage unit 21, and outputs the extracted phrase to the extraction result processing unit 5. You may do it.

時計部63は、現在の年月日および時刻を測定する。   The clock unit 63 measures the current date and time.

抽出結果処理部64は、通話検知部4が通話の開始を検知すると、時計部63から、現在の年月日を応対年月日として取得すると共に、現在の時刻を開始時刻として取得する。また、抽出結果処理部64は、通話検知部4が通話の終了を検知すると、時計部63から現在の時刻を終了時刻として取得する。   When the call detection unit 4 detects the start of a call, the extraction result processing unit 64 acquires the current date from the clock unit 63 as the response date and the current time as the start time. Further, when the call detection unit 4 detects the end of the call, the extraction result processing unit 64 acquires the current time from the clock unit 63 as the end time.

抽出結果処理部64は、用語抽出部62が抽出語句を抽出すると、換言すれば、用語抽出部62が出力した抽出語句を受け付けると、その抽出語句を出力部5に出力させる。   When the term extraction unit 62 extracts an extracted word / phrase, in other words, the extraction result processing unit 64 receives the extracted word / phrase output by the term extraction unit 62, the extraction result processing unit 64 causes the output unit 5 to output the extracted word / phrase.

例えば、出力部5が表示装置の場合、抽出結果処理部64は、その抽出語句を、抽出された順番で、全て出力部5に表示させる。   For example, when the output unit 5 is a display device, the extraction result processing unit 64 causes the output unit 5 to display all the extracted words / phrases in the order of extraction.

また、抽出結果処理部64は、同じ抽出語句を一度だけ出力部5に表示しても良い。この場合、抽出結果処理部64は、用語抽出部62が抽出語句を抽出すると、その抽出語句を既に出力部5に表示されているか否かを確認する。その抽出語句が表示されていないと、抽出結果処理部64は、その抽出語句を出力部5に表示させる。一方、その抽出語句が表示されていると、抽出結果処理部64は、次に抽出語句が抽出されるまで待機する。   Further, the extraction result processing unit 64 may display the same extracted word / phrase on the output unit 5 only once. In this case, when the term extraction unit 62 extracts the extracted words / phrases, the extraction result processing unit 64 checks whether the extracted words / phrases are already displayed on the output unit 5. If the extracted word / phrase is not displayed, the extraction result processing unit 64 causes the output unit 5 to display the extracted word / phrase. On the other hand, when the extracted word / phrase is displayed, the extraction result processing unit 64 stands by until the next extracted word / phrase is extracted.

また、検出結果処理部64は、抽出語句と、その抽出語句の発話頻度とを抽出語句ごとに関連づけて出力部5に表示させても良い。   Further, the detection result processing unit 64 may display the extracted word and the utterance frequency of the extracted word on the output unit 5 in association with each extracted word.

この場合、検出結果処理部64は、用語抽出部62が抽出した抽出語句の抽出回数を、抽出語句ごとに算出する。その後、検出結果処理部64は、時計部63から終了時刻を取得すると、その終了時刻および開始時刻に基づいて、ユーザが顧客と通話した通話時間を算出する。検出結果処理部64は、その抽出回数と通話時間に基づいて、所定の時間(たとえば、1分間または10分間など)当たりの発話回数を発話頻度として算出する。検出結果処理部64は、その抽出語句と、その抽出語句の発話頻度と抽出語句ごとに関連づけて出力部5に表示させる。   In this case, the detection result processing unit 64 calculates the number of extractions of the extracted phrase extracted by the term extracting unit 62 for each extracted phrase. After that, when obtaining the end time from the clock unit 63, the detection result processing unit 64 calculates a call time during which the user talks with the customer based on the end time and the start time. The detection result processing unit 64 calculates the number of utterances per predetermined time (for example, 1 minute or 10 minutes) as the utterance frequency based on the number of extractions and the call time. The detection result processing unit 64 causes the output unit 5 to display the extracted word / phrase, the utterance frequency of the extracted word / phrase, and the extracted word / phrase in association with each other.

抽出結果処理部64は、抽出語句を出力部5に出力させると、その抽出語句を含む抽出情報を作成する。   When the extraction result processing unit 64 causes the output unit 5 to output the extracted word / phrase, the extraction result processing unit 64 creates extraction information including the extracted word / phrase.

なお、抽出結果処理部64は、例えば、発話頻度を含む抽出情報を作成する場合、終了情報を取得した後で、抽出情報を作成する。   For example, when creating extraction information including the utterance frequency, the extraction result processing unit 64 creates extraction information after obtaining end information.

この場合、先ず、抽出結果処理部64は、終了情報を取得すると、抽出回数、通話時間および発話頻度を算出する。なお、結果処理部64は、発話頻度を出力部5に表示させる場合など、既に抽出回数、通話時間および発話頻度を算出している場合、改めて抽出回数、通話時間および発話頻度を算出する必要はない。   In this case, first, when the extraction result processing unit 64 acquires the end information, the extraction result processing unit 64 calculates the number of extraction times, the call time, and the utterance frequency. When the result processing unit 64 has already calculated the number of extractions, the call time, and the utterance frequency, such as when the utterance frequency is displayed on the output unit 5, it is necessary to calculate the number of extractions, the call time, and the utterance frequency again. Absent.

続いて、検出結果処理部64は、メモリ23から識別子を読み取る。抽出結果処理部64は、その識別子、応対年月日、開始時刻、終了時刻、通話時間、抽出語句、抽出語句の種別、発話回数および発話頻度を含む抽出情報を作成する。なお、抽出情報では、抽出語句と、その抽出語句の種別と、その抽出語句の抽出回数と、その抽出語句の発話頻度と、が抽出語句ごとに関連づけられている。   Subsequently, the detection result processing unit 64 reads the identifier from the memory 23. The extraction result processing unit 64 creates extraction information including the identifier, response date, start time, end time, call time, extracted word / phrase, type of extracted word / phrase, number of utterances, and utterance frequency. In the extracted information, the extracted phrase, the type of the extracted phrase, the number of extractions of the extracted phrase, and the utterance frequency of the extracted phrase are associated with each extracted phrase.

検出結果処理部64は、抽出情報を作成すると、その抽出情報を抽出結果格納部22に格納する。   When the detection result processing unit 64 creates the extraction information, the detection result processing unit 64 stores the extraction information in the extraction result storage unit 22.

指示管理部65は、指示入力部3が検索指示を受け付けると、その検索指示を抽出結果検索部66に出力する。また、指示管理部65は、指示入力部3が更新指示を受け付けると、その更新指示を設定部67に出力する。   When the instruction input unit 3 receives a search instruction, the instruction management unit 65 outputs the search instruction to the extraction result search unit 66. In addition, when the instruction input unit 3 receives an update instruction, the instruction management unit 65 outputs the update instruction to the setting unit 67.

抽出結果検索部66は、指示入力部3が検索指示を受け付けると、換言すると、指示管理部65から検索指示を受け付けると、その検索指示に応じた抽出情報を、抽出結果格納部22から検索する。   When the instruction input unit 3 receives a search instruction, in other words, when the instruction input unit 3 receives a search instruction from the instruction management unit 65, the extraction result search unit 66 searches the extraction result storage unit 22 for extraction information corresponding to the search instruction. .

例えば、指示入力部3が検索指示として識別子を受け付けると、抽出結果検索部66は、その識別子を含む抽出情報を、抽出結果格納部22から検索する。また、指示入力部3が検索指示として年月日を受け付けると、抽出結果検索部66は、その年月日を含む抽出情報を、抽出結果格納部22から検索する。   For example, when the instruction input unit 3 receives an identifier as a search instruction, the extraction result search unit 66 searches the extraction result storage unit 22 for extraction information including the identifier. When the instruction input unit 3 receives a date as a search instruction, the extraction result search unit 66 searches the extraction result storage unit 22 for extraction information including the date.

抽出結果検索部66は、抽出情報を検索すると、検索された抽出情報を出力部5に出力させる。なお、抽出結果検索部66は、検索された抽出情報の一部(例えば、抽出語句およびその発話回数)だけを出力部5に出力させてもよい。   When the extraction result retrieval unit 66 retrieves the extracted information, the extraction result retrieval unit 66 causes the output unit 5 to output the retrieved extraction information. Note that the extraction result search unit 66 may cause the output unit 5 to output only a part of the extracted extraction information (for example, an extracted word and the number of utterances thereof).

出力部5が表示装置の場合、抽出結果検索部66は、検索された抽出情報を出力部5に表示する。抽出結果検索部66は、検索された抽出情報を、ユーザが抽出情報の内容を把握しやすい情報に加工し、その加工した抽出情報を出力部5に表示してもよい。   When the output unit 5 is a display device, the extraction result search unit 66 displays the extracted extraction information on the output unit 5. The extraction result search unit 66 may process the extracted extraction information into information that allows the user to easily understand the content of the extraction information, and display the processed extraction information on the output unit 5.

例えば、指示入力部3が検索指示として年月日の範囲を受け付けると、抽出結果検索部66は、その年月日の範囲に含まれる応対年月日を含む抽出情報を検索し、その抽出情報が含む抽出語句および発話頻度(または、抽出回数)を、表またはグラフなどの形式に加工する。抽出結果検索部66は、その加工された発話頻度を出力部5に表示する。   For example, when the instruction input unit 3 accepts a date range as a search instruction, the extraction result search unit 66 searches for extracted information including the response date included in the date range, and the extracted information The extracted words and utterance frequencies (or the number of extractions) included in are processed into a table or graph format. The extraction result search unit 66 displays the processed utterance frequency on the output unit 5.

図4は、表の形式に加工された抽出語句「あのー」の発話頻度の一例を示した図である。図4では、縦軸は、「あのー」の発話頻度を示し、横軸は、月日を示す。   FIG. 4 is a diagram showing an example of the utterance frequency of the extracted word “ano” processed into a table format. In FIG. 4, the vertical axis indicates the utterance frequency of “Ano”, and the horizontal axis indicates the date.

設定部67は、指示入力部3が更新指示を受け付けると、換言すると、指示管理部65から更新指示を受け付けると、その更新指示に従って抽出用語格納部21に格納された対象情報を変更する。   When the instruction input unit 3 receives an update instruction, in other words, when the instruction input unit 3 receives an update instruction from the instruction management unit 65, the setting unit 67 changes the target information stored in the extracted term storage unit 21 according to the update instruction.

例えば、指示入力部3が更新指示として抽出対象語句に追加すべき語句およびその語句の種別を受け付けると、設定部67は、その語句と種別とを関連づけて抽出用語格納部21に格納する。また、指示入力部3が更新指示として抽出対象語句から削除すべき語句を受け付けると、設定部67は、その語句とその語句に関連づけられた種別とを抽出用語格納部21から削除する。   For example, when the instruction input unit 3 receives a phrase to be added to the extraction target phrase and the type of the phrase as an update instruction, the setting unit 67 stores the phrase and the type in association with each other in the extracted term storage unit 21. When the instruction input unit 3 receives a word to be deleted from the extraction target word as an update instruction, the setting unit 67 deletes the word and the type associated with the word from the extracted word storage unit 21.

次に、発話訓練システムの動作を説明する。   Next, the operation of the speech training system will be described.

図5は、ユーザの発話を取得してから抽出語句を格納するまでの動作を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining the operation from when the user's utterance is acquired until the extracted phrase is stored.

音声取得部11は、ユーザが発話した音声を取得すると、ステップS501を実行する。   When the voice acquisition unit 11 acquires the voice uttered by the user, the voice acquisition unit 11 executes Step S501.

ステップS501では、音声取得部11は、その音声を音声分岐部12に出力する。音声分岐部12は、その音声を受け付けると、ステップS502を実行する。   In step S <b> 501, the voice acquisition unit 11 outputs the voice to the voice branching unit 12. When the voice branching unit 12 accepts the voice, the voice branching unit 12 executes Step S502.

ステップS502では、音声分岐部12は、その音声を電話網7と、音声認識部61との両方に出力する。音声認識部61は、音声を受け付けると、ステップS503を実行する。   In step S502, the voice branching unit 12 outputs the voice to both the telephone network 7 and the voice recognition unit 61. When receiving the voice, the voice recognition unit 61 executes Step S503.

ステップS503では、音声認識部61は、その音声を文字情報に変換し、その文字情報を用語抽出部62に出力する。用語抽出部62は、音声認識部61から文字情報を受け付けると、ステップS504を実行する。   In step S503, the voice recognition unit 61 converts the voice into character information and outputs the character information to the term extraction unit 62. When the term extraction unit 62 receives character information from the speech recognition unit 61, the term extraction unit 62 executes step S504.

ステップS504では、用語抽出部62は、抽出用語格納部21に格納されている対象情報を確認する。用語抽出部62は、その対象情報に含まれる抽出対象語句が文字情報に含まれるか否かを調べる。用語抽出部62は、その抽出対象語句が文字情報に含まれると、ステップS505を実行し、その抽出対象語句が文字情報に含まれないと、動作を終了する。   In step S <b> 504, the term extraction unit 62 confirms the target information stored in the extracted term storage unit 21. The term extraction unit 62 checks whether or not the extraction target phrase included in the target information is included in the character information. When the extraction target word / phrase is included in the character information, the term extraction unit 62 executes step S505. When the extraction target word / phrase is not included in the character information, the term extraction unit 62 ends the operation.

ステップS505では、用語抽出部62は、文字情報から、抽出対象語句を抽出語句として抽出し、その抽出語句を抽出結果処理部64に出力する。抽出結果処理部64は、抽出語句を出力部5に提示させる。抽出結果処理部64は、ステップS505を終了すると、ステップS506を実行する。   In step S505, the term extraction unit 62 extracts the extraction target phrase as an extraction phrase from the character information, and outputs the extracted phrase to the extraction result processing unit 64. The extraction result processing unit 64 causes the output unit 5 to present the extracted words / phrases. After completing step S505, the extraction result processing unit 64 executes step S506.

ステップS506では、抽出結果処理部64は、抽出情報を作成し、その抽出情報を抽出結果格納部22に格納する。   In step S506, the extraction result processing unit 64 creates extraction information, and stores the extraction information in the extraction result storage unit 22.

次に、抽出結果格納部に格納された抽出語句を検索する動作を説明する。   Next, an operation for searching for an extracted word / phrase stored in the extraction result storage unit will be described.

指示入力部3は、検索指示を受け付けると、その検索指示を指示管理部65に出力する。指示管理部65は、検索指示を受け付けると、その検索指示を抽出結果検索部66に出力する。   When receiving the search instruction, the instruction input unit 3 outputs the search instruction to the instruction management unit 65. When receiving the search instruction, the instruction management unit 65 outputs the search instruction to the extraction result search unit 66.

抽出結果検索部66は、検索指示を受け付けると、その検索指示に従って、抽出結果格納部22から抽出情報を検索する。抽出結果検索部66は、検索された抽出情報を出力部5に出力させる。   When receiving the search instruction, the extraction result search unit 66 searches the extraction result storage unit 22 for extraction information according to the search instruction. The extraction result search unit 66 causes the output unit 5 to output the extracted extraction information.

次に、抽出対象語句の変更の動作を説明する。   Next, the operation of changing the extraction target phrase will be described.

指示入力部3は、更新指示を受け付けると、その更新指示を指示管理部65に出力する。指示管理部65は、更新指示を受け付けると、その更新指示を設定部67に出力する。   When receiving an update instruction, the instruction input unit 3 outputs the update instruction to the instruction management unit 65. When receiving an update instruction, the instruction management unit 65 outputs the update instruction to the setting unit 67.

設定部67は、更新指示を受け付けると、その更新指示に従って、抽出用語格納部21に格納された抽出対象語句を変更する。   When receiving the update instruction, the setting unit 67 changes the extraction target phrase stored in the extracted term storage unit 21 in accordance with the update instruction.

本実施例によれば、音声取得部11は、電話機101への発話を取得する。音声分岐部12は、音声取得部11が取得した発話を、電話機101と、発話訓練装置100と、の両方に出力する。   According to the present embodiment, the voice acquisition unit 11 acquires an utterance to the telephone set 101. The voice branching unit 12 outputs the utterance acquired by the voice acquisition unit 11 to both the telephone set 101 and the utterance training apparatus 100.

この場合、通話先への発話が、電話機101と、発話訓練装置10と、の両方に出力される。発話訓練装置10は、発話を受け付けると該発話から抽出対象語句を抽出し該抽出された抽出対象語句を提示する。   In this case, the utterance to the call destination is output to both the telephone set 101 and the utterance training apparatus 10. When the utterance training apparatus 10 accepts an utterance, the utterance training apparatus 10 extracts an extraction target phrase from the utterance and presents the extracted extraction target phrase.

このため、ユーザは、顧客に応対しながら、発話訓練装置10を見ることによって、抽出対象語句を発話したか否かを確認することが可能になる。よって、ユーザは、通常業務とは別に、例えば、擬似的な質問を聞いてその質問に応答するなどして自己の発話を確認しなくても、通常業務を行ないながら発話の技術を向上させることが可能になる。したがって、発話の技術の向上にかかるユーザの負担を軽減することが可能になる。   Therefore, the user can confirm whether or not the extraction target phrase has been uttered by looking at the utterance training device 10 while responding to the customer. Therefore, the user can improve the utterance technology while performing normal work, without having to confirm his / her utterance, for example, by listening to a pseudo question and responding to the question separately from the normal work. Is possible. Therefore, it is possible to reduce the burden on the user for improving the speech technology.

また、音声認識部61は、音声分岐部12が出力した音声を文字情報に変換する。用語抽出部62は、その文字情報から、抽出用語格納部21が格納した抽出対象語句を抽出する。出力部5は、用語抽出部62が抽出した抽出対象語句を提示する。   The voice recognition unit 61 converts the voice output from the voice branching unit 12 into character information. The term extraction unit 62 extracts the extraction target phrases stored in the extracted term storage unit 21 from the character information. The output unit 5 presents the extraction target phrase extracted by the term extraction unit 62.

この場合、音声入力装置1にて出力された電話機への発話が文字情報に変換される。また、その文字情報から抽出対象語句が抽出され、その抽出対象語句が提示される。   In this case, the utterance to the telephone output from the voice input device 1 is converted into character information. Further, the extraction target phrase is extracted from the character information, and the extraction target phrase is presented.

このため、擬似的な質問が記憶されなくても、ユーザは、自己が抽出対象語句を発話したか否かを確認することが可能になる。   For this reason, even if a pseudo question is not memorized, it becomes possible for the user to confirm whether or not the user has spoken the extraction target phrase.

次に、ユーザごとに抽出対象語句を設定することが可能な発話訓練システムを説明する。   Next, an utterance training system capable of setting an extraction target phrase for each user will be described.

この場合、抽出用語格納部21が格納する抽出情報では、識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、該抽出対象語句の種別と、が識別子ごとに関連づけられている。   In this case, in the extraction information stored in the extracted term storage unit 21, the identifier, the extraction target phrase to be extracted from the user's utterance specified by the identifier, and the type of the extraction target phrase are associated for each identifier. It has been.

図6は、ユーザごとに抽出対象語句を設定することが可能な発話訓練システムにおける、ユーザの発話を取得してから抽出語句を格納するまでの動作を説明するためのフローチャートである。なお、図6において、図5と同一の処理に付いては、同一の符号が付してある。   FIG. 6 is a flowchart for explaining an operation from acquiring a user's utterance to storing the extracted word / phrase in the utterance training system in which an extraction target word / phrase can be set for each user. In FIG. 6, the same processes as those in FIG. 5 are denoted by the same reference numerals.

用語抽出部62は、ステップS503で音声認識部61から文字情報を受け付けると、ステップS601を実行する。   When the term extraction unit 62 receives character information from the speech recognition unit 61 in step S503, the term extraction unit 62 executes step S601.

ステップS601では、用語抽出部62は、メモリ62に記録されている識別子を確認し、その識別子と抽出用語格納部21にて関連づけられている抽出対象語句を確認する。用語抽出部62は、その抽出対象語句が文字情報に含まれるか否かを調べる。用語抽出部62は、その抽出対象語句が文字情報に含まれると、ステップS505を実行し、その抽出対象語句が文字情報に含まれないと、動作を終了する。   In step S <b> 601, the term extraction unit 62 confirms the identifier recorded in the memory 62, and confirms the extraction target phrase associated with the identifier in the extracted term storage unit 21. The term extraction unit 62 checks whether the extraction target phrase is included in the character information. When the extraction target word / phrase is included in the character information, the term extraction unit 62 executes step S505. When the extraction target word / phrase is not included in the character information, the term extraction unit 62 ends the operation.

その後、ステップS505およびS506が実行される。なお、ステップS506では、抽出結果処理部64は、少なくとも、識別子と抽出対象語句とが関連づけられた抽出情報を作成する。   Thereafter, steps S505 and S506 are executed. In step S506, the extraction result processing unit 64 creates extraction information in which at least the identifier and the extraction target phrase are associated with each other.

次に、メモリ23が識別子を記録するまでの動作を説明する。   Next, the operation until the memory 23 records the identifier will be described.

また、指示入力部3は、発話訓練装置10を使用するユーザを特定するための識別子を受け付けると、受け付けた識別子を指示管理部65に出力する。   When the instruction input unit 3 receives an identifier for specifying a user who uses the speech training apparatus 10, the instruction input unit 3 outputs the received identifier to the instruction management unit 65.

指示管理部65は、指示入力部3から識別子を受け付けると、その識別子を設定部67に出力する。  When receiving an identifier from the instruction input unit 3, the instruction management unit 65 outputs the identifier to the setting unit 67.

設定部67は、指示管理部65から識別子を受け付けると、その識別子をメモリ23に記録する。なお、メモリ23が既に識別を記録している場合、設定部67は、指示入力部3が受け付けた識別子を、メモリ23に記録されている識別子に上書きする。   When the setting unit 67 receives an identifier from the instruction management unit 65, the setting unit 67 records the identifier in the memory 23. When the memory 23 has already recorded the identification, the setting unit 67 overwrites the identifier received by the instruction input unit 3 with the identifier recorded in the memory 23.

次に、ユーザごとに抽出対象語句を格納することが可能な発話訓練システムにおける、抽出対象語句を変更する動作を説明する。   Next, the operation | movement which changes an extraction object phrase in the speech training system which can store an extraction object phrase for every user is demonstrated.

指示入力部3は、識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句を変更する旨の変更指示と、を受け付けると、その識別子および変更指示を指示管理部65に出力する。   When the instruction input unit 3 receives the identifier and a change instruction to change the extraction target phrase to be extracted from the user's utterance specified by the identifier, the instruction input unit 3 sends the identifier and the change instruction to the instruction management unit 65. Output.

指示管理部65は、識別子および変更指示を受け付けると、その識別子および変更指示を設定部67に出力する。   When receiving the identifier and the change instruction, the instruction management unit 65 outputs the identifier and the change instruction to the setting unit 67.

設定部67は、識別子および変更指示を受け付けると、その識別子と抽出用語格納部21にて関連づけられた抽出対象語句を、その更新指示に従って変更する。   When receiving the identifier and the change instruction, the setting unit 67 changes the extraction target phrase associated with the identifier and the extracted term storage unit 21 in accordance with the update instruction.

本実施例では、指示入力部3が識別子を受け付ける。用語抽出部62は、指示入力部3が受け付けた識別子と抽出用語格納部21にて関連づけられた抽出対象語句を、文字情報から抽出する。   In this embodiment, the instruction input unit 3 receives an identifier. The term extraction unit 62 extracts, from the character information, an extraction target phrase associated with the identifier received by the instruction input unit 3 and the extracted term storage unit 21.

この場合、例えば、ユーザの口癖などに応じて抽出対象語句を変更するなど、個々のユーザに適した抽出対象語句を設定することが可能になる。   In this case, for example, it is possible to set an extraction target word / phrase suitable for each user, such as changing the extraction target word / phrase according to the user's motivation.

以上説明した実施例において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。   In the embodiment described above, the illustrated configuration is merely an example, and the present invention is not limited to the configuration.

発話訓練システムの一実施例を示したブロック図である。It is the block diagram which showed one Example of the speech training system. 対象情報の一例を示した図である。It is the figure which showed an example of object information. 抽出情報の一例を示した図である。It is the figure which showed an example of extraction information. 表の形式に加工された発話頻度の一例を示した図である。It is the figure which showed an example of the utterance frequency processed into the format of a table | surface. 発話訓練システムの動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the operation example of a speech training system. 発話訓練システムの他の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the other operation example of an utterance training system.

符号の説明Explanation of symbols

1 音声入力装置
2 記憶部
3 指示入力部
4 通話検知部
5 出力部
6 データ処理部
10 発話訓練装置
11 音声取得部
12 音声分岐部
21 抽出用語格納部
22 抽出結果格納部
23 メモリ
61 音声認識部
62 用語抽出部
63 時計部
64 抽出結果処理部
65 指示管理部
66 抽出結果検索部
67 設定部
100 電話網
101 電話機
200 対象情報
201 語句
202 種別
300 抽出情報
301 対応者
302 対応年月日
303 開始時刻
304 終了時刻
305 語句
306 種別
307 回数
DESCRIPTION OF SYMBOLS 1 Voice input device 2 Memory | storage part 3 Instruction input part 4 Call detection part 5 Output part 6 Data processing part 10 Speech training apparatus 11 Voice acquisition part 12 Voice branch part 21 Extraction term storage part 22 Extraction result storage part 23 Memory 61 Voice recognition part 62 Term Extraction Unit 63 Clock Unit 64 Extraction Result Processing Unit 65 Instruction Management Unit 66 Extraction Result Search Unit 67 Setting Unit 100 Telephone Network 101 Telephone 200 Target Information 201 Phrase 202 Type 300 Extraction Information 301 Corresponding Person 302 Corresponding Date 303 Start Time 304 End time 305 Word / phrase 306 Type 307 Number of times

Claims (9)

声分岐装置と接続された発話訓練装置であって、
前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、
前記発話訓練装置は、
ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、
前記識別子を受け付ける入力部と、
前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、
前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、
前記抽出部が抽出した抽出対象語句を提示する提示部と、を含み、
前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する、発話訓練装置。
A speech training device that is connected to the voice branching unit,
The voice branching device includes an acquisition unit that acquires an utterance to a telephone of a call destination, and a branching unit that outputs the utterance acquired by the acquisition unit to both the telephone and the utterance training device,
The utterance training device comprises:
A target storage unit that stores an identifier for identifying a user and an extraction target phrase to be extracted from the user's utterance specified by the identifier, in association with each identifier ;
An input unit for receiving the identifier;
A recognition unit that accepts an utterance output from the voice branching device, and converts the accepted utterance into character information;
An extraction unit that extracts an extraction target phrase stored in the target storage unit from the character information converted by the recognition unit;
See containing and a presentation unit that presents the extracted target phrase extracted by the extracting unit,
The utterance training apparatus , wherein the extraction unit extracts, from the character information converted by the recognition unit, an extraction target phrase associated with the identifier received by the input unit and the target storage unit .
請求項1に記載の発話訓練装置において、In the utterance training apparatus according to claim 1,
前記入力部は、前記ユーザから、前記抽出対象語句を変更する旨の変更指示をさらに受け付け、The input unit further receives a change instruction from the user to change the extraction target phrase,
前記発話訓練装置は、前記変更指示に従って前記対象格納部に格納された抽出対象語句を変更する設定部を含み、The utterance training apparatus includes a setting unit that changes an extraction target phrase stored in the target storage unit according to the change instruction,
前記提示部は、前記抽出対象語句を前記ユーザに提示する、発話訓練装置。The said presentation part is an utterance training apparatus which presents the said extraction object phrase to the said user.
発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムであって、
前記音声分岐装置は、
前記電話機への発話を取得する取得部と、
前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、
前記発話訓練装置は、
ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、
前記識別子を受け付ける入力部と、
前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、
前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、
前記抽出部が抽出した抽出対象語句を提示する提示部と、を含み、
前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する、発話訓練システム。
An utterance training system comprising: an utterance training device; and a speech branching device connected to the utterance training device and a telephone of a communication destination,
The audio branching device is:
An acquisition unit for acquiring an utterance to the telephone;
A branching unit that outputs the utterance acquired by the acquisition unit to both the telephone and the utterance training device;
The utterance training device comprises:
A target storage unit that stores an identifier for identifying a user and an extraction target phrase to be extracted from the user's utterance specified by the identifier, in association with each identifier ;
An input unit for receiving the identifier;
A recognition unit that accepts an utterance output from the voice branching device, and converts the accepted utterance into character information;
An extraction unit that extracts an extraction target phrase stored in the target storage unit from the character information converted by the recognition unit;
See containing and a presentation unit that presents the extracted target phrase extracted by the extracting unit,
The utterance training system , wherein the extraction unit extracts an extraction target word / phrase associated with an identifier received by the input unit and the target storage unit from character information converted by the recognition unit .
請求項3に記載の発話訓練システムにおいて、In the speech training system according to claim 3,
前記入力部は、前記ユーザから、前記抽出対象語句を変更する旨の変更指示をさらに受け付け、The input unit further receives a change instruction from the user to change the extraction target phrase,
前記発話訓練装置は、前記変更指示に従って前記対象格納部に格納された抽出対象語句を変更する設定部を含み、The utterance training apparatus includes a setting unit that changes an extraction target phrase stored in the target storage unit according to the change instruction,
前記提示部は、前記抽出対象語句を前記ユーザに提示する、発話訓練システム。The said presentation part is an utterance training system which presents the said extraction object phrase to the said user.
ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部を含み、声分岐装置と接続された発話訓練装置が行なう発話訓練支援方法であって、
前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、
前記識別子を受け付ける入力ステップと、
前記音声分岐装置が出力した発話を受け付ける受付ステップと、
前記受け付けられた発話を文字情報に変換する変換ステップと、
前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する抜出ステップと、
前記抽出された抽出対象語句を提示する提示ステップと、を含む発話訓練支援方法。
It includes an identifier for identifying the user, and extracts target phrase to be extracted from the utterance of the user identified by the identifier, the object storage unit for storing in association with each of the identifier, which is connected to the voice distribution unit utterance A speech training support method performed by a training device,
The voice branching device includes an acquisition unit that acquires an utterance to a telephone of a call destination, and a branching unit that outputs the utterance acquired by the acquisition unit to both the telephone and the utterance training device,
An input step for receiving the identifier;
An accepting step of accepting an utterance output from the voice branching device;
A conversion step of converting the received utterance into character information;
An extraction step for extracting the extracted identifier associated with the received identifier and the target storage unit from the converted character information;
A presentation step of presenting the extracted extraction target phrase, and an utterance training support method.
請求項5に記載の発話訓練支援方法において、The speech training support method according to claim 5,
前記ユーザから、前記抽出対象語句を変更する旨の変更指示をさらに受け付けるステップと、Further receiving from the user a change instruction to change the extraction target phrase;
前記変更指示に従って前記対象格納部に格納された抽出対象語句を変更するステップと、を含み、Changing the extraction target words stored in the target storage unit according to the change instruction,
前記提示ステップでは、前記抽出対象語句を前記ユーザに提示する、発話訓練支援方法。In the presenting step, the speech training support method for presenting the extraction target phrase to the user.
ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部を含む発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムが行なう発話訓練支援方法であって、
前記発話訓練装置が、前記識別子を受け付ける入力ステップと、
前記音声分岐装置が、前記電話機への発話を取得する発話取得ステップと、
前記音声分岐装置が、前記取得された発話を、前記電話機と前記発話訓練装置との両方に出力する出力ステップと、
前記発話訓練装置が、前記出力された発話を受け付ける発話受付ステップと、
前記発話訓練装置が、前記受け付けられた発話を文字情報に変換する認識ステップと、
前記発話訓練装置が、前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する抜出ステップと、
前記発話訓練装置が、前記抽出された抽出対象語句を提示する語句提示ステップと、を含む発話訓練支援方法。
An utterance training apparatus including an object storage unit that stores an identifier for identifying a user and an extraction target phrase to be extracted from the user's utterance identified by the identifier in association with each identifier; and the utterance training apparatus; An utterance training support method performed by an utterance training system including a voice branching device connected to a telephone of a destination,
The utterance training apparatus, an input step for receiving the identifier;
The voice branching device acquires an utterance to the telephone, an utterance acquisition step;
An output step in which the voice branching device outputs the acquired utterance to both the telephone and the utterance training device;
The utterance training device, the utterance reception step of receiving the output utterance;
A recognition step in which the utterance training device converts the received utterance into character information;
The utterance training device extracts an extraction target word / phrase associated with the received identifier and the target storage unit from the converted character information ;
An utterance training support method, wherein the utterance training apparatus includes a phrase presentation step of presenting the extracted extraction target phrase.
ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、声分岐装置と、に接続されたコンピュータに発話訓練支援処理を実行させるプログラムであって、
前記音声分岐装置は、通話先電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記コンピュータとの両方に出力する分岐部と、を含み、
前記識別子を受け付ける処理と、
前記音声分岐装置が出力した発話を受け付ける受付処理と、
前記受け付けられた発話を文字情報に変換する変換処理と、
前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する処理と、
前記抽出された抽出対象語句を提示する提示処理と、を含む発話訓練支援処理を前記コンピュータに実行させるプログラム。
An identifier for identifying the user, which is connected an extraction target phrase to be extracted from the utterance of the user identified by the identifier, and a target storage unit for storing in association with each of the identifiers, and the voice branching unit, the A program for causing a computer to execute speech training support processing,
The voice branching device includes an acquisition unit that acquires an utterance to a destination telephone, and a branching unit that outputs the utterance acquired by the acquisition unit to both the telephone and the computer,
Processing to accept the identifier;
An accepting process for accepting an utterance output by the voice branching device;
A conversion process for converting the accepted utterance into character information;
A process of extracting the extracted identifier associated with the received identifier and the target storage unit from the converted character information ;
A program for causing the computer to execute an utterance training support process including a presentation process for presenting the extracted extraction target phrase.
請求項8に記載のプログラムにおいて、The program according to claim 8, wherein
前記発話訓練支援処理は、The speech training support process is:
前記ユーザから、前記抽出対象語句を変更する旨の変更指示をさらに受け付ける処理と、A process of further receiving a change instruction to change the extraction target phrase from the user;
前記変更指示に従って前記対象格納部に格納された抽出対象語句を変更する処理と、を含み、Processing to change the extraction target phrase stored in the target storage unit according to the change instruction,
前記提示処理では、前記抽出対象語句を前記ユーザに提示する、プログラム。In the presenting process, a program for presenting the extraction target phrase to the user.
JP2006057769A 2006-03-03 2006-03-03 Speech training apparatus, speech training system, speech training support method and program Active JP4760452B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006057769A JP4760452B2 (en) 2006-03-03 2006-03-03 Speech training apparatus, speech training system, speech training support method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006057769A JP4760452B2 (en) 2006-03-03 2006-03-03 Speech training apparatus, speech training system, speech training support method and program

Publications (2)

Publication Number Publication Date
JP2007233249A JP2007233249A (en) 2007-09-13
JP4760452B2 true JP4760452B2 (en) 2011-08-31

Family

ID=38553871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006057769A Active JP4760452B2 (en) 2006-03-03 2006-03-03 Speech training apparatus, speech training system, speech training support method and program

Country Status (1)

Country Link
JP (1) JP4760452B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8128238B2 (en) 2007-09-07 2012-03-06 Ricoh Company, Ltd. Projection optical system and image displaying apparatus
JP5286963B2 (en) * 2007-09-07 2013-09-11 株式会社リコー Projection optical system
JP7274376B2 (en) * 2019-07-18 2023-05-16 本田技研工業株式会社 AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3810551B2 (en) * 1997-03-18 2006-08-16 株式会社エヌ・ティ・ティ・データ Voice recognition system, call center system, voice recognition method and recording medium
JP2002117135A (en) * 2000-08-02 2002-04-19 Masunaga Sogo Keikaku:Kk Web site security system
JP2004157253A (en) * 2002-11-05 2004-06-03 Kawasaki Steel Systems R & D Corp Contact center operator training system
JP4098072B2 (en) * 2002-12-13 2008-06-11 東芝テック株式会社 Customer service management device
JP2004252668A (en) * 2003-02-19 2004-09-09 Fujitsu Ltd Contact center managing and controlling program, device and method
JP2005318101A (en) * 2004-04-27 2005-11-10 Tokyo Electric Power Co Inc:The Telephone answering diagnostic device and telephone answering evaluating program

Also Published As

Publication number Publication date
JP2007233249A (en) 2007-09-13

Similar Documents

Publication Publication Date Title
US7013280B2 (en) Disambiguation method and system for a voice activated directory assistance system
US8447599B2 (en) Methods and apparatus for generating, updating and distributing speech recognition models
US20100217591A1 (en) Vowel recognition system and method in speech to text applictions
US7539296B2 (en) Methods and apparatus for processing foreign accent/language communications
EP3061086B1 (en) Text-to-speech performance evaluation
WO2016194740A1 (en) Speech recognition device, speech recognition system, terminal used in said speech recognition system, and method for generating speaker identification model
US20030191639A1 (en) Dynamic and adaptive selection of vocabulary and acoustic models based on a call context for speech recognition
CN106537493A (en) Speech recognition system and method, client device and cloud server
US20080140398A1 (en) System and a Method For Representing Unrecognized Words in Speech to Text Conversions as Syllables
JP6296821B2 (en) Business support system
JP5684082B2 (en) Dialog support apparatus, method, and program
US20130253932A1 (en) Conversation supporting device, conversation supporting method and conversation supporting program
CN110807093A (en) Voice processing method and device and terminal equipment
US10216732B2 (en) Information presentation method, non-transitory recording medium storing thereon computer program, and information presentation system
JP2009042968A (en) Information selection system, information selection method, and program for information selection
JP6254504B2 (en) Search server and search method
JP2011217018A (en) Voice response apparatus, and program
JP4760452B2 (en) Speech training apparatus, speech training system, speech training support method and program
JP7026004B2 (en) Conversation aids, conversation aid methods and programs
CN110602334A (en) Intelligent outbound method and system based on man-machine cooperation
WO2019003395A1 (en) Call center conversational content display system, method, and program
JP4079275B2 (en) Conversation support device
JP2008216461A (en) Speech recognition, keyword extraction, and knowledge base retrieval coordinating device
JP2006301967A (en) Conversation support device
JP2002297179A (en) Automatic answering conversation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4760452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150