JP4760452B2 - Speech training apparatus, speech training system, speech training support method and program - Google Patents
Speech training apparatus, speech training system, speech training support method and program Download PDFInfo
- Publication number
- JP4760452B2 JP4760452B2 JP2006057769A JP2006057769A JP4760452B2 JP 4760452 B2 JP4760452 B2 JP 4760452B2 JP 2006057769 A JP2006057769 A JP 2006057769A JP 2006057769 A JP2006057769 A JP 2006057769A JP 4760452 B2 JP4760452 B2 JP 4760452B2
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- unit
- extraction
- identifier
- phrase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Description
本発明は、発話訓練装置、発話訓練システム、発話訓練支援方法およびプログラムに関し、特には、発話技術の向上を支援する発話訓練装置、発話訓練システム、発話訓練支援方法およびプログラムに関する。 The present invention, utterance training devices, speech training system, a utterance training support method, and a program, in particular, utterance training apparatus for supporting an enhanced speech technology, speech training system, relates utterance training support method, and a program.
電話で顧客からの問い合わせ等に対応するコンタクトセンターが、各所に設けられている。このコンタクトセンターでは、オペレータが、顧客に電話で対応している。 Contact centers for responding to inquiries from customers by telephone are provided at various locations. In this contact center, the operator responds to the customer by telephone.
オペレータは、発話すべき語句を発話する必要がある。例えば、オペレータは、顧客との通話の冒頭で、自己の所属および名前を顧客に知らせ、かつ、その通話の最後にも、自己の所属および名前を知らせることが一般的である。この場合、オペレータは、自己の所属および名前を確実に発話する必要がある。 The operator needs to utter a phrase to be uttered. For example, the operator generally informs the customer of his / her affiliation and name at the beginning of a call with the customer, and informs his / her affiliation and name at the end of the call. In this case, the operator needs to reliably speak his / her affiliation and name.
また、オペレータは、特定の語句の発話を抑制する必要がある。例えば、「えー」、「あのー」または「えっとですね」などのつなぎ言葉を頻繁に発話するオペレータが存在する。オペレータがつなぎ言葉を頻繁に発話すると、顧客にとって、そのオペレータの発話は、聞こえづらい。 Moreover, the operator needs to suppress the utterance of a specific phrase. For example, there is an operator who frequently utters connected words such as “um”, “noh”, or “um”. If the operator speaks the connecting words frequently, it is difficult for the customer to hear the operator's speech.
オペレータは、発話すべき語句を確実に発話するなど、発話の技術を向上させるためには、自己の発話の確認すること、または、自己の発話の評価を聞くことが効果的である。 It is effective for the operator to confirm his / her utterance or listen to his / her own utterance evaluation in order to improve his / her utterance technique such as uttering a word / phrase to be uttered.
従来、オペレータの管理者など(以下では、スーパバイザという)が、例えば、オペレータと顧客との通話の録音を聞いて、そのオペレータの発話が妥当か否かなどを評価し、その評価をオペレータに伝えていた。 Conventionally, an operator administrator (hereinafter referred to as a supervisor), for example, listens to a recording of a call between an operator and a customer, evaluates whether the utterance of the operator is appropriate, and communicates the evaluation to the operator. It was.
しかしながら、スーパバイザが通話の録音を聞いて発話を評価する評価方法では、時間がかかる。このため、スーパバイザは、数ヶ月に一回程度、オペレータの発話の評価していた。オペレータが自己の発話の評価を数ヶ月に一回程度聞いても、自己の発話の技術を向上させることは、困難である。 However, the evaluation method in which a supervisor listens to a call recording and evaluates an utterance takes time. For this reason, the supervisor evaluated the utterance of the operator about once every several months. Even if an operator listens to his / her speech evaluation about once every several months, it is difficult to improve his / her speech technology.
特許文献1(特開2004−309631号公報)には、自動的にユーザの発話を評価することが可能な対話練習支援装置が記載されている。この対話練習支援装置は、ユーザへの擬似的な質問を記憶し、その擬似的な質問に対するユーザの回答を取得する。対話練習支援装置は、その回答から特定の用語を抽出し、その用語を提示する。 Japanese Patent Laid-Open No. 2004-309631 describes a dialogue practice support device that can automatically evaluate a user's utterance. This dialogue practice support device stores a pseudo question to the user and obtains a user's answer to the pseudo question. The dialogue practice support device extracts a specific term from the answer and presents the term.
これにより、自動的にユーザが特定の用語を発話するか否かを確認することが可能になり、オペレータの発話の評価を行なう時間を短くすることが可能になる。
特許文献1に記載の対話練習支援装置では、オペレータは擬似的な質問を聞いて、その質問に応答しなければならない。このため、オペレータは、顧客との応対などの通常業務とは別に、この対話練習支援装置を使用して発話の技術を向上させなければならない。このため、オペレータの負担が増加する。
In the dialogue practice support device described in
本発明の目的は、発話の技術の向上にかかるユーザの負担を軽減することが可能な音声分岐装置、発話訓練装置、音声分岐方法、発話訓練支援方法およびプログラムを提供することである。 An object of the present invention is to provide a voice branching device, a speech training device, a voice branching method, a speech training support method, and a program capable of reducing a user's burden for improving speech technology.
また、本発明の発話訓練システムは、発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムであって、前記音声分岐装置は、前記電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、前記発話訓練装置は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、前記識別子を受け付ける入力部と、前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、前記抽出部が抽出した抽出対象語句を提示する提示部と、を含み、前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する。 The utterance training system of the present invention is an utterance training system including an utterance training apparatus, and an utterance training apparatus connected to the utterance training apparatus and a destination telephone, wherein the utterance training apparatus includes An acquisition unit that acquires an utterance to a telephone; and a branch unit that outputs the utterance acquired by the acquisition unit to both the telephone and the utterance training apparatus, wherein the utterance training apparatus specifies a user An object storage unit that stores an identifier and an extraction target phrase to be extracted from the user's utterance specified by the identifier in association with each identifier, an input unit that receives the identifier, and an output from the voice branching device A recognition unit that converts the received utterance into character information, and an extraction unit that extracts an extraction target phrase stored in the target storage unit from the character information converted by the recognition unit; See containing and a presentation unit that presents the extracted target phrase extracted by the extracting unit, the extracting unit, from the character information which the recognition unit is converted, associated with the identifier of the input unit accepts target storage unit The extracted word / phrase to be extracted is extracted.
また本発明の発話訓練システムが行う発話訓練支援方法は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部を含む発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムが行なう発話訓練支援方法であって、前記発話訓練装置が、前記識別子を受け付ける入力ステップと、前記音声分岐装置が、前記電話機への発話を取得する発話取得ステップと、前記音声分岐装置が、前記取得された発話を、前記電話機と前記発話訓練装置との両方に出力する出力ステップと、前記発話訓練装置が、前記出力された発話を受け付ける発話受付ステップと、前記発話訓練装置が、前記受け付けられた発話を文字情報に変換する認識ステップと、前記発話訓練装置が、前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する抜出ステップと、前記発話訓練装置が、前記抽出された抽出対象語句を提示する語句提示ステップと、を含む。 In the speech training support method performed by the speech training system of the present invention, an identifier for identifying a user and an extraction target phrase to be extracted from the user's speech identified by the identifier are stored in association with each identifier. An utterance training support method performed by an utterance training system including an utterance training apparatus including a target storage unit, and an audio branching apparatus connected to the utterance training apparatus and a telephone of a call destination, wherein the utterance training apparatus includes: Both the input step of accepting the identifier, the speech acquisition device in which the speech branching device acquires speech to the telephone, and the speech branching device sends the acquired speech to both the telephone and the speech training device. Output step, the utterance training device accepts the outputted utterance, and the utterance training device accepts the utterance training device. A recognition step of converting the speech into text information, the speech training apparatus, from the converted character information, the extraction step of extracting an extraction target phrase associated with said accepted identifier in the object storage unit The speech training device includes a phrase presentation step of presenting the extracted extraction target phrase.
上記の発明によれば、通話先への発話が、通話先の電話機と、発話訓練装置と、の両方に出力される。発話訓練装置は、発話を受け付けると該発話から抽出対象語句を抽出し該抽出された抽出対象語句を提示する。 According to the above invention, the utterance to the call destination is output to both the call destination telephone and the utterance training apparatus. When the utterance training apparatus accepts an utterance, the utterance training apparatus extracts an extraction target phrase from the utterance and presents the extracted extraction target phrase.
このため、ユーザは、顧客に応対しながら、発話訓練装置を見ることによって、抽出対象語句を発話したか否かを確認することが可能になる。よって、ユーザは、通常業務とは別に、例えば、擬似的な質問を聞いてその質問に応答するなどして自己の発話を確認しなくても、通常業務を行ないながら発話の技術を向上させることが可能になる。したがって、発話の技術の向上にかかるユーザの負担を軽減することが可能になる。 Therefore, the user can confirm whether or not the extraction target phrase has been uttered by looking at the utterance training device while responding to the customer. Therefore, the user can improve the utterance technology while performing normal work, without having to confirm his / her utterance, for example, by listening to a pseudo question and responding to the question separately from the normal work. Is possible. Therefore, it is possible to reduce the burden on the user for improving the speech technology.
また、本発明の発話訓練装置は、音声分岐装置と接続された発話訓練装置であって、前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、前記発話訓練装置は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、前記識別子を受け付ける入力部と、前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、前記抽出部が抽出した抽出対象語句を提示する提示部と、を含み、前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する。 Also, speech training apparatus of the present invention is an utterance training device connected to the voice distribution unit, the voice dividing device includes an acquisition unit for acquiring speech to the call destination phone, the acquisition unit acquires A branching unit that outputs the uttered speech to both the telephone and the speech training device, wherein the speech training device extracts the identifier that identifies the user and the speech of the user identified by the identifier. A target storage unit that stores a word to be extracted in association with each identifier, an input unit that receives the identifier, and an utterance output from the speech branching device, and converts the received utterance into character information seen including a recognition unit, an extraction unit wherein the recognition unit extracts the extraction target phrase stored in the target storage unit from the converted text information, and a presentation unit that presents the extracted target phrase extracted by the extracting unit, the ,in front Extraction unit, from the character information which the recognition unit is converted, and extracts the extraction target phrase the input unit is associated with the identifier and the object storage unit accepted.
また、本発明の発話訓練支援方法は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部を含み、音声分岐装置と接続された発話訓練装置が行なう発話訓練支援方法であって、前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、前記識別子を受け付ける入力ステップと、前記音声分岐装置が出力した発話を受け付ける受付ステップと、前記受け付けられた発話を文字情報に変換する変換ステップと、前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する抜出ステップと、前記抽出された抽出対象語句を提示する提示ステップと、を含む。 Further, the speech training support method of the present invention includes a target storage unit that stores an identifier for identifying a user and an extraction target phrase to be extracted from the user's speech specified by the identifier in association with each identifier. wherein, speech a speech branching unit and connected speech training support method speech training device performs the voice branch unit, an acquisition unit for acquiring speech to call to phone, acquired by the acquiring unit A branching unit that outputs to both the telephone and the utterance training device, an input step for receiving the identifier, a reception step for receiving the utterance output by the voice branching device, and the received utterance a conversion step of converting the text information from the converted text information, disconnect of extracting the extraction target phrase associated with said accepted identifier in the object storage unit Comprising a step, and a presentation step of presenting the extracted target phrase the extracted.
上記の発明によれば、音声分岐装置にて出力された電話機への発話から抽出対象語句が抽出され、その抽出対象語句が提示される。 According to the above invention, the extraction target phrase is extracted from the utterance to the telephone output from the voice branching device, and the extraction target phrase is presented.
このため、擬似的な質問が記憶されなくても、ユーザは、自己が抽出対象語句を発話したか否かを確認することが可能になる。 For this reason, even if a pseudo question is not memorized, it becomes possible for the user to confirm whether or not the user has spoken the extraction target phrase.
擬似的な質問に対するユーザの回答から特定の用語を抽出する方法では、その特定の用語は、その擬似的な質問に対応づけられて登録されている。このため、ユーザごとに、その特定の用語を設定することができない可能性がある。 In the method of extracting a specific term from the user's answer to the pseudo question, the specific term is registered in association with the pseudo question. For this reason, there is a possibility that the specific term cannot be set for each user.
上記の発明によれば、識別子が受け付けられると、その識別子と関連づけられた抽出対象語句が、文字情報から抽出される。 According to the above invention, when the identifier is accepted, the extraction target phrase associated with the identifier is extracted from the character information.
このため、例えば、ユーザの口癖などに応じて、個々のユーザに適した抽出対象語句を提示することが可能になる。 For this reason, it becomes possible to present the extraction object phrase suitable for each user according to a user's mochi etc., for example.
また、本発明のプログラムは、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、音声分岐装置と、に接続されたコンピュータに発話訓練支援処理を実行させるプログラムであって、前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記コンピュータとの両方に出力する分岐部と、を含み、前記識別子を受け付ける処理と、前記音声分岐装置が出力した発話を受け付ける受付処理と、前記受け付けられた発話を文字情報に変換する変換処理と、前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する処理と、前記抽出された抽出対象語句を提示する提示処理と、を含む発話訓練支援処理を前記コンピュータに実行させる。 The program of the present invention, an identifier for identifying the user, a target storage unit and extracting target phrase to be extracted from the utterance of the user, and stores in association with each of the identifiers specified by said identifier, voice A branching device, a program connected to a computer for executing speech training support processing, wherein the voice branching device acquires an utterance to a destination telephone, and the utterance acquired by the acquisition unit A branch unit that outputs to both the telephone and the computer, the process for receiving the identifier, the reception process for receiving the utterance output by the voice branching device, and converting the received utterance into character information a conversion processing for, from the converted character information, the process of extracting the extraction target phrase associated with said accepted identifier in the object storage unit, A presentation processing of presenting the extracted target phrase serial extracted, the speech training aid processing including causing the computer to perform.
上記の発明によれば、前記発話訓練支援方法をコンピュータに実行させることが可能になる。 According to said invention, it becomes possible to make a computer perform the said speech training assistance method.
本発明によれば、発話の技術の向上にかかるユーザの負担を軽減することが可能になる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to reduce the burden of the user concerning the improvement of the technique of speech.
以下、本発明の実施例について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の一実施例の発話訓練システムを示したブロック図である。図1において、発話訓練システムは、音声入力装置1と、発話訓練装置10とを含む。なお、音声入力装置1は、電話網100および発話訓練装置10と接続される。さらに言えば、電話網100は、通話先の電話機101と接続され、音声入力装置1は、電話網100を介して電話機101と接続される。
FIG. 1 is a block diagram showing an utterance training system according to an embodiment of the present invention. In FIG. 1, the speech training system includes a
音声入力装置1は、電話機101への発話を取得する。また、音声入力部1は、音声取得部11と、音声分岐部12とを含む。
The
音声取得部11は、例えば、マイクであり、電話機101への発話を取得する。具体的には、音声取得部11ユーザが電話機101に発話した音声を取得する。なお、音声取得部11は、その音声を、デジタル信号として取得しても良いし、アナログ信号として取得しても良い。 The voice acquisition unit 11 is a microphone, for example, and acquires an utterance to the telephone set 101. Specifically, the voice acquisition unit 11 acquires the voice uttered by the user on the telephone 101. Note that the sound acquisition unit 11 may acquire the sound as a digital signal or an analog signal.
音声分岐部12は、音声取得部11が音声を取得すると、その音声を電話網100と、発話訓練装置10との両方に出力する。
When the voice acquisition unit 11 acquires voice, the
発話訓練装置10は、発話を受け付けると、その発話から抽出対象語句を抽出し、抽出された抽出対象語句を出力する。また、発話訓練装置10は、抽出された抽出対象語句を提示する。
When the
また、発話訓練装置10は、記憶部2と、指示入力部3と、通話検知部4と、出力部5と、データ処理部6とを含む。
The
記憶部2は、抽出用語格納部21と、抽出結果格納部22と、メモリ23とを含む。
The
抽出用語格納部21は、対象情報を格納する。対象情報では、ユーザが発話した音声から抽出すべき抽出対象語句と、該抽出対象語句の種別とが、抽出対象語句ごとに関連づけられている。抽出対象語句の種別は、例えば、その抽出対象語句が発話されるべき語句(例えば、ユーザの名前)であること、または、その抽出対象語句が発話を抑制すべき語句(例えば、「あのー」などのつなぎ言葉)であること、のどちらか一方を示す。
The extracted
図2は、対象情報の一例を示した図である。図2において、対象情報200は、語句201と、種別202とを含む。語句201は、発話から抽出すべき抽出対象語句を示す。種別202は、語句201の種別であり、「必須」または「抑制」を示す。「必須」は、語句202が発話されるべき語句であることを示し、一方、「抑制」は、語句202が発話を抑制すべき語句であることを示す。
FIG. 2 is a diagram illustrating an example of the target information. In FIG. 2, the target information 200 includes a
検出結果格納部22は、抽出情報を格納する。抽出情報は、少なくとも、用語抽出部62が音声から抽出した抽出語句を含む。なお、抽出情報では、抽出語句と、その抽出語句が抽出された抽出回数とが、抽出語句ごとに関連づけられてもよい。また、抽出情報では、抽出語句と、その抽出語句の種別とが、抽出語句ごとに関連づけられてもよい。また、抽出情報では、抽出語句と、その抽出語句を単位時間あたりにユーザが発話した回数(以下では、発話頻度という)とが、抽出語句ごとに関連づけられても良い。
The detection
さらに、抽出情報は、ユーザを識別する識別子(例えば、ユーザの名前)、ユーザが顧客との通話した応対年月日、ユーザが顧客との通話を開始した開始時刻、および、ユーザが顧客との通話を終了した終了時刻を含んでも良い。 Furthermore, the extracted information includes an identifier for identifying the user (for example, the user's name), the date of reception when the user made a call with the customer, the start time when the user started a call with the customer, and the user An end time when the call is ended may be included.
図3は、抽出情報の一例を示した図である。具体的には、2005年10月10日の14時55分05秒ないし15時02分38秒に、名前が「高橋」であるユーザが行なった顧客との通話における抽出情報の一例を示した図である。 FIG. 3 is a diagram showing an example of the extracted information. Specifically, an example of extracted information in a call with a customer made by a user whose name is “Takahashi” from 14:55:05 to 15:02:38 on October 10, 2005 was shown. FIG.
図3において、抽出情報300は、対応者301と、応対年月日302と、開始時刻303と、終了時刻304と、語句305と、種別306と、回数307とを含む。
In FIG. 3, the extracted
対応者301は、識別子であり、ユーザの名前を示す。応対年月日302は、ユーザが顧客との通話した年月日を示す。開始時刻303は、ユーザが顧客との通話を開始した開始時刻を含む。終了時刻304は、ユーザが顧客との通話を終了した終了時刻を示す。語句305は、発話から抽出された抽出語句を示す。種別306は、語句305の種別を示す。回数307は、語句305が示す抽出語句が抽出された抽出回数を示す。
The
メモリ23は、CPUにて読み取り可能な記録媒体であり、データ処理部6の動作を規定するプログラムを記録する。また、メモリ23は、発話訓練装置を使用するユーザを特定する識別子を記録する。
The
指示入力部3は、例えば、キーボードまたはマウスであり、抽出情報を検索する旨の検索指示と、対象情報を変更する旨の更新指示とを受け付ける。 The instruction input unit 3 is, for example, a keyboard or a mouse, and accepts a search instruction for searching for extracted information and an update instruction for changing target information.
通話検知部4は、ユーザと顧客との通話の開始および終了を検知する。 The call detection unit 4 detects the start and end of a call between a user and a customer.
出力部5は、各種情報をユーザに提示する。なお、出力部5は、例えば、ディスプレイである。
The
データ処理部6は、例えば、CPUであり、メモリ23に記録されたプログラムを読み取り、読み取ったプログラムを実行し、音声認識部61と、用語抽出部62と、時計部63と、抽出結果処理部64と、指示管理部65と、抽出結果検索部66と、設定部67とを実現する。
The data processing unit 6 is, for example, a CPU, reads a program recorded in the
音声認識部61は、音声分岐部12が出力した音声を受け付け、その音声を文字情報に変換する。
The
用語抽出部62は、音声認識部61が音声を文字情報に変換すると、抽出用語格納部21に格納されている対象情報を確認する。また、用語抽出部62は、その対象情報が含む抽出対象語句が、その文字情報に含まれるか否かを調べる。
The
その抽出対象語句が文字情報に含まれると、用語抽出部62は、その抽出対象語句を文字情報から抽出語句として抽出する。一方、その抽出対象語句が文字情報に含まれないと、用語抽出部62は、抽音声認識部61が次に音声を文字情報に変換するまで待機する。
When the extraction target word / phrase is included in the character information, the
用語抽出部62は、抽出した抽出語句を抽出結果処理部5に出力する。なお、用語抽出部62は、抽出語句と、その抽出語句として抽出された抽出対象語句と抽出用語格納部21にて関連づけられた種別と、を抽出語句ごとに関連づけて抽出結果処理部5に出力しても良い。
The
時計部63は、現在の年月日および時刻を測定する。
The
抽出結果処理部64は、通話検知部4が通話の開始を検知すると、時計部63から、現在の年月日を応対年月日として取得すると共に、現在の時刻を開始時刻として取得する。また、抽出結果処理部64は、通話検知部4が通話の終了を検知すると、時計部63から現在の時刻を終了時刻として取得する。
When the call detection unit 4 detects the start of a call, the extraction
抽出結果処理部64は、用語抽出部62が抽出語句を抽出すると、換言すれば、用語抽出部62が出力した抽出語句を受け付けると、その抽出語句を出力部5に出力させる。
When the
例えば、出力部5が表示装置の場合、抽出結果処理部64は、その抽出語句を、抽出された順番で、全て出力部5に表示させる。
For example, when the
また、抽出結果処理部64は、同じ抽出語句を一度だけ出力部5に表示しても良い。この場合、抽出結果処理部64は、用語抽出部62が抽出語句を抽出すると、その抽出語句を既に出力部5に表示されているか否かを確認する。その抽出語句が表示されていないと、抽出結果処理部64は、その抽出語句を出力部5に表示させる。一方、その抽出語句が表示されていると、抽出結果処理部64は、次に抽出語句が抽出されるまで待機する。
Further, the extraction
また、検出結果処理部64は、抽出語句と、その抽出語句の発話頻度とを抽出語句ごとに関連づけて出力部5に表示させても良い。
Further, the detection
この場合、検出結果処理部64は、用語抽出部62が抽出した抽出語句の抽出回数を、抽出語句ごとに算出する。その後、検出結果処理部64は、時計部63から終了時刻を取得すると、その終了時刻および開始時刻に基づいて、ユーザが顧客と通話した通話時間を算出する。検出結果処理部64は、その抽出回数と通話時間に基づいて、所定の時間(たとえば、1分間または10分間など)当たりの発話回数を発話頻度として算出する。検出結果処理部64は、その抽出語句と、その抽出語句の発話頻度と抽出語句ごとに関連づけて出力部5に表示させる。
In this case, the detection
抽出結果処理部64は、抽出語句を出力部5に出力させると、その抽出語句を含む抽出情報を作成する。
When the extraction
なお、抽出結果処理部64は、例えば、発話頻度を含む抽出情報を作成する場合、終了情報を取得した後で、抽出情報を作成する。
For example, when creating extraction information including the utterance frequency, the extraction
この場合、先ず、抽出結果処理部64は、終了情報を取得すると、抽出回数、通話時間および発話頻度を算出する。なお、結果処理部64は、発話頻度を出力部5に表示させる場合など、既に抽出回数、通話時間および発話頻度を算出している場合、改めて抽出回数、通話時間および発話頻度を算出する必要はない。
In this case, first, when the extraction
続いて、検出結果処理部64は、メモリ23から識別子を読み取る。抽出結果処理部64は、その識別子、応対年月日、開始時刻、終了時刻、通話時間、抽出語句、抽出語句の種別、発話回数および発話頻度を含む抽出情報を作成する。なお、抽出情報では、抽出語句と、その抽出語句の種別と、その抽出語句の抽出回数と、その抽出語句の発話頻度と、が抽出語句ごとに関連づけられている。
Subsequently, the detection
検出結果処理部64は、抽出情報を作成すると、その抽出情報を抽出結果格納部22に格納する。
When the detection
指示管理部65は、指示入力部3が検索指示を受け付けると、その検索指示を抽出結果検索部66に出力する。また、指示管理部65は、指示入力部3が更新指示を受け付けると、その更新指示を設定部67に出力する。
When the instruction input unit 3 receives a search instruction, the
抽出結果検索部66は、指示入力部3が検索指示を受け付けると、換言すると、指示管理部65から検索指示を受け付けると、その検索指示に応じた抽出情報を、抽出結果格納部22から検索する。
When the instruction input unit 3 receives a search instruction, in other words, when the instruction input unit 3 receives a search instruction from the
例えば、指示入力部3が検索指示として識別子を受け付けると、抽出結果検索部66は、その識別子を含む抽出情報を、抽出結果格納部22から検索する。また、指示入力部3が検索指示として年月日を受け付けると、抽出結果検索部66は、その年月日を含む抽出情報を、抽出結果格納部22から検索する。
For example, when the instruction input unit 3 receives an identifier as a search instruction, the extraction
抽出結果検索部66は、抽出情報を検索すると、検索された抽出情報を出力部5に出力させる。なお、抽出結果検索部66は、検索された抽出情報の一部(例えば、抽出語句およびその発話回数)だけを出力部5に出力させてもよい。
When the extraction
出力部5が表示装置の場合、抽出結果検索部66は、検索された抽出情報を出力部5に表示する。抽出結果検索部66は、検索された抽出情報を、ユーザが抽出情報の内容を把握しやすい情報に加工し、その加工した抽出情報を出力部5に表示してもよい。
When the
例えば、指示入力部3が検索指示として年月日の範囲を受け付けると、抽出結果検索部66は、その年月日の範囲に含まれる応対年月日を含む抽出情報を検索し、その抽出情報が含む抽出語句および発話頻度(または、抽出回数)を、表またはグラフなどの形式に加工する。抽出結果検索部66は、その加工された発話頻度を出力部5に表示する。
For example, when the instruction input unit 3 accepts a date range as a search instruction, the extraction
図4は、表の形式に加工された抽出語句「あのー」の発話頻度の一例を示した図である。図4では、縦軸は、「あのー」の発話頻度を示し、横軸は、月日を示す。 FIG. 4 is a diagram showing an example of the utterance frequency of the extracted word “ano” processed into a table format. In FIG. 4, the vertical axis indicates the utterance frequency of “Ano”, and the horizontal axis indicates the date.
設定部67は、指示入力部3が更新指示を受け付けると、換言すると、指示管理部65から更新指示を受け付けると、その更新指示に従って抽出用語格納部21に格納された対象情報を変更する。
When the instruction input unit 3 receives an update instruction, in other words, when the instruction input unit 3 receives an update instruction from the
例えば、指示入力部3が更新指示として抽出対象語句に追加すべき語句およびその語句の種別を受け付けると、設定部67は、その語句と種別とを関連づけて抽出用語格納部21に格納する。また、指示入力部3が更新指示として抽出対象語句から削除すべき語句を受け付けると、設定部67は、その語句とその語句に関連づけられた種別とを抽出用語格納部21から削除する。
For example, when the instruction input unit 3 receives a phrase to be added to the extraction target phrase and the type of the phrase as an update instruction, the setting
次に、発話訓練システムの動作を説明する。 Next, the operation of the speech training system will be described.
図5は、ユーザの発話を取得してから抽出語句を格納するまでの動作を説明するためのフローチャートである。 FIG. 5 is a flowchart for explaining the operation from when the user's utterance is acquired until the extracted phrase is stored.
音声取得部11は、ユーザが発話した音声を取得すると、ステップS501を実行する。 When the voice acquisition unit 11 acquires the voice uttered by the user, the voice acquisition unit 11 executes Step S501.
ステップS501では、音声取得部11は、その音声を音声分岐部12に出力する。音声分岐部12は、その音声を受け付けると、ステップS502を実行する。
In step S <b> 501, the voice acquisition unit 11 outputs the voice to the
ステップS502では、音声分岐部12は、その音声を電話網7と、音声認識部61との両方に出力する。音声認識部61は、音声を受け付けると、ステップS503を実行する。
In step S502, the
ステップS503では、音声認識部61は、その音声を文字情報に変換し、その文字情報を用語抽出部62に出力する。用語抽出部62は、音声認識部61から文字情報を受け付けると、ステップS504を実行する。
In step S503, the
ステップS504では、用語抽出部62は、抽出用語格納部21に格納されている対象情報を確認する。用語抽出部62は、その対象情報に含まれる抽出対象語句が文字情報に含まれるか否かを調べる。用語抽出部62は、その抽出対象語句が文字情報に含まれると、ステップS505を実行し、その抽出対象語句が文字情報に含まれないと、動作を終了する。
In step S <b> 504, the
ステップS505では、用語抽出部62は、文字情報から、抽出対象語句を抽出語句として抽出し、その抽出語句を抽出結果処理部64に出力する。抽出結果処理部64は、抽出語句を出力部5に提示させる。抽出結果処理部64は、ステップS505を終了すると、ステップS506を実行する。
In step S505, the
ステップS506では、抽出結果処理部64は、抽出情報を作成し、その抽出情報を抽出結果格納部22に格納する。
In step S506, the extraction
次に、抽出結果格納部に格納された抽出語句を検索する動作を説明する。 Next, an operation for searching for an extracted word / phrase stored in the extraction result storage unit will be described.
指示入力部3は、検索指示を受け付けると、その検索指示を指示管理部65に出力する。指示管理部65は、検索指示を受け付けると、その検索指示を抽出結果検索部66に出力する。
When receiving the search instruction, the instruction input unit 3 outputs the search instruction to the
抽出結果検索部66は、検索指示を受け付けると、その検索指示に従って、抽出結果格納部22から抽出情報を検索する。抽出結果検索部66は、検索された抽出情報を出力部5に出力させる。
When receiving the search instruction, the extraction
次に、抽出対象語句の変更の動作を説明する。 Next, the operation of changing the extraction target phrase will be described.
指示入力部3は、更新指示を受け付けると、その更新指示を指示管理部65に出力する。指示管理部65は、更新指示を受け付けると、その更新指示を設定部67に出力する。
When receiving an update instruction, the instruction input unit 3 outputs the update instruction to the
設定部67は、更新指示を受け付けると、その更新指示に従って、抽出用語格納部21に格納された抽出対象語句を変更する。
When receiving the update instruction, the setting
本実施例によれば、音声取得部11は、電話機101への発話を取得する。音声分岐部12は、音声取得部11が取得した発話を、電話機101と、発話訓練装置100と、の両方に出力する。
According to the present embodiment, the voice acquisition unit 11 acquires an utterance to the telephone set 101. The
この場合、通話先への発話が、電話機101と、発話訓練装置10と、の両方に出力される。発話訓練装置10は、発話を受け付けると該発話から抽出対象語句を抽出し該抽出された抽出対象語句を提示する。
In this case, the utterance to the call destination is output to both the telephone set 101 and the
このため、ユーザは、顧客に応対しながら、発話訓練装置10を見ることによって、抽出対象語句を発話したか否かを確認することが可能になる。よって、ユーザは、通常業務とは別に、例えば、擬似的な質問を聞いてその質問に応答するなどして自己の発話を確認しなくても、通常業務を行ないながら発話の技術を向上させることが可能になる。したがって、発話の技術の向上にかかるユーザの負担を軽減することが可能になる。
Therefore, the user can confirm whether or not the extraction target phrase has been uttered by looking at the
また、音声認識部61は、音声分岐部12が出力した音声を文字情報に変換する。用語抽出部62は、その文字情報から、抽出用語格納部21が格納した抽出対象語句を抽出する。出力部5は、用語抽出部62が抽出した抽出対象語句を提示する。
The
この場合、音声入力装置1にて出力された電話機への発話が文字情報に変換される。また、その文字情報から抽出対象語句が抽出され、その抽出対象語句が提示される。
In this case, the utterance to the telephone output from the
このため、擬似的な質問が記憶されなくても、ユーザは、自己が抽出対象語句を発話したか否かを確認することが可能になる。 For this reason, even if a pseudo question is not memorized, it becomes possible for the user to confirm whether or not the user has spoken the extraction target phrase.
次に、ユーザごとに抽出対象語句を設定することが可能な発話訓練システムを説明する。 Next, an utterance training system capable of setting an extraction target phrase for each user will be described.
この場合、抽出用語格納部21が格納する抽出情報では、識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、該抽出対象語句の種別と、が識別子ごとに関連づけられている。
In this case, in the extraction information stored in the extracted
図6は、ユーザごとに抽出対象語句を設定することが可能な発話訓練システムにおける、ユーザの発話を取得してから抽出語句を格納するまでの動作を説明するためのフローチャートである。なお、図6において、図5と同一の処理に付いては、同一の符号が付してある。 FIG. 6 is a flowchart for explaining an operation from acquiring a user's utterance to storing the extracted word / phrase in the utterance training system in which an extraction target word / phrase can be set for each user. In FIG. 6, the same processes as those in FIG. 5 are denoted by the same reference numerals.
用語抽出部62は、ステップS503で音声認識部61から文字情報を受け付けると、ステップS601を実行する。
When the
ステップS601では、用語抽出部62は、メモリ62に記録されている識別子を確認し、その識別子と抽出用語格納部21にて関連づけられている抽出対象語句を確認する。用語抽出部62は、その抽出対象語句が文字情報に含まれるか否かを調べる。用語抽出部62は、その抽出対象語句が文字情報に含まれると、ステップS505を実行し、その抽出対象語句が文字情報に含まれないと、動作を終了する。
In step S <b> 601, the
その後、ステップS505およびS506が実行される。なお、ステップS506では、抽出結果処理部64は、少なくとも、識別子と抽出対象語句とが関連づけられた抽出情報を作成する。
Thereafter, steps S505 and S506 are executed. In step S506, the extraction
次に、メモリ23が識別子を記録するまでの動作を説明する。
Next, the operation until the
また、指示入力部3は、発話訓練装置10を使用するユーザを特定するための識別子を受け付けると、受け付けた識別子を指示管理部65に出力する。
When the instruction input unit 3 receives an identifier for specifying a user who uses the
指示管理部65は、指示入力部3から識別子を受け付けると、その識別子を設定部67に出力する。
When receiving an identifier from the instruction input unit 3, the
設定部67は、指示管理部65から識別子を受け付けると、その識別子をメモリ23に記録する。なお、メモリ23が既に識別を記録している場合、設定部67は、指示入力部3が受け付けた識別子を、メモリ23に記録されている識別子に上書きする。
When the
次に、ユーザごとに抽出対象語句を格納することが可能な発話訓練システムにおける、抽出対象語句を変更する動作を説明する。 Next, the operation | movement which changes an extraction object phrase in the speech training system which can store an extraction object phrase for every user is demonstrated.
指示入力部3は、識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句を変更する旨の変更指示と、を受け付けると、その識別子および変更指示を指示管理部65に出力する。
When the instruction input unit 3 receives the identifier and a change instruction to change the extraction target phrase to be extracted from the user's utterance specified by the identifier, the instruction input unit 3 sends the identifier and the change instruction to the
指示管理部65は、識別子および変更指示を受け付けると、その識別子および変更指示を設定部67に出力する。
When receiving the identifier and the change instruction, the
設定部67は、識別子および変更指示を受け付けると、その識別子と抽出用語格納部21にて関連づけられた抽出対象語句を、その更新指示に従って変更する。
When receiving the identifier and the change instruction, the setting
本実施例では、指示入力部3が識別子を受け付ける。用語抽出部62は、指示入力部3が受け付けた識別子と抽出用語格納部21にて関連づけられた抽出対象語句を、文字情報から抽出する。
In this embodiment, the instruction input unit 3 receives an identifier. The
この場合、例えば、ユーザの口癖などに応じて抽出対象語句を変更するなど、個々のユーザに適した抽出対象語句を設定することが可能になる。 In this case, for example, it is possible to set an extraction target word / phrase suitable for each user, such as changing the extraction target word / phrase according to the user's motivation.
以上説明した実施例において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。 In the embodiment described above, the illustrated configuration is merely an example, and the present invention is not limited to the configuration.
1 音声入力装置
2 記憶部
3 指示入力部
4 通話検知部
5 出力部
6 データ処理部
10 発話訓練装置
11 音声取得部
12 音声分岐部
21 抽出用語格納部
22 抽出結果格納部
23 メモリ
61 音声認識部
62 用語抽出部
63 時計部
64 抽出結果処理部
65 指示管理部
66 抽出結果検索部
67 設定部
100 電話網
101 電話機
200 対象情報
201 語句
202 種別
300 抽出情報
301 対応者
302 対応年月日
303 開始時刻
304 終了時刻
305 語句
306 種別
307 回数
DESCRIPTION OF
Claims (9)
前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、
前記発話訓練装置は、
ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、
前記識別子を受け付ける入力部と、
前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、
前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、
前記抽出部が抽出した抽出対象語句を提示する提示部と、を含み、
前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する、発話訓練装置。 A speech training device that is connected to the voice branching unit,
The voice branching device includes an acquisition unit that acquires an utterance to a telephone of a call destination, and a branching unit that outputs the utterance acquired by the acquisition unit to both the telephone and the utterance training device,
The utterance training device comprises:
A target storage unit that stores an identifier for identifying a user and an extraction target phrase to be extracted from the user's utterance specified by the identifier, in association with each identifier ;
An input unit for receiving the identifier;
A recognition unit that accepts an utterance output from the voice branching device, and converts the accepted utterance into character information;
An extraction unit that extracts an extraction target phrase stored in the target storage unit from the character information converted by the recognition unit;
See containing and a presentation unit that presents the extracted target phrase extracted by the extracting unit,
The utterance training apparatus , wherein the extraction unit extracts, from the character information converted by the recognition unit, an extraction target phrase associated with the identifier received by the input unit and the target storage unit .
前記入力部は、前記ユーザから、前記抽出対象語句を変更する旨の変更指示をさらに受け付け、The input unit further receives a change instruction from the user to change the extraction target phrase,
前記発話訓練装置は、前記変更指示に従って前記対象格納部に格納された抽出対象語句を変更する設定部を含み、The utterance training apparatus includes a setting unit that changes an extraction target phrase stored in the target storage unit according to the change instruction,
前記提示部は、前記抽出対象語句を前記ユーザに提示する、発話訓練装置。The said presentation part is an utterance training apparatus which presents the said extraction object phrase to the said user.
前記音声分岐装置は、
前記電話機への発話を取得する取得部と、
前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、
前記発話訓練装置は、
ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納する対象格納部と、
前記識別子を受け付ける入力部と、
前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、
前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、
前記抽出部が抽出した抽出対象語句を提示する提示部と、を含み、
前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する、発話訓練システム。 An utterance training system comprising: an utterance training device; and a speech branching device connected to the utterance training device and a telephone of a communication destination,
The audio branching device is:
An acquisition unit for acquiring an utterance to the telephone;
A branching unit that outputs the utterance acquired by the acquisition unit to both the telephone and the utterance training device;
The utterance training device comprises:
A target storage unit that stores an identifier for identifying a user and an extraction target phrase to be extracted from the user's utterance specified by the identifier, in association with each identifier ;
An input unit for receiving the identifier;
A recognition unit that accepts an utterance output from the voice branching device, and converts the accepted utterance into character information;
An extraction unit that extracts an extraction target phrase stored in the target storage unit from the character information converted by the recognition unit;
See containing and a presentation unit that presents the extracted target phrase extracted by the extracting unit,
The utterance training system , wherein the extraction unit extracts an extraction target word / phrase associated with an identifier received by the input unit and the target storage unit from character information converted by the recognition unit .
前記入力部は、前記ユーザから、前記抽出対象語句を変更する旨の変更指示をさらに受け付け、The input unit further receives a change instruction from the user to change the extraction target phrase,
前記発話訓練装置は、前記変更指示に従って前記対象格納部に格納された抽出対象語句を変更する設定部を含み、The utterance training apparatus includes a setting unit that changes an extraction target phrase stored in the target storage unit according to the change instruction,
前記提示部は、前記抽出対象語句を前記ユーザに提示する、発話訓練システム。The said presentation part is an utterance training system which presents the said extraction object phrase to the said user.
前記音声分岐装置は、通話先の電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、
前記識別子を受け付ける入力ステップと、
前記音声分岐装置が出力した発話を受け付ける受付ステップと、
前記受け付けられた発話を文字情報に変換する変換ステップと、
前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する抜出ステップと、
前記抽出された抽出対象語句を提示する提示ステップと、を含む発話訓練支援方法。 It includes an identifier for identifying the user, and extracts target phrase to be extracted from the utterance of the user identified by the identifier, the object storage unit for storing in association with each of the identifier, which is connected to the voice distribution unit utterance A speech training support method performed by a training device,
The voice branching device includes an acquisition unit that acquires an utterance to a telephone of a call destination, and a branching unit that outputs the utterance acquired by the acquisition unit to both the telephone and the utterance training device,
An input step for receiving the identifier;
An accepting step of accepting an utterance output from the voice branching device;
A conversion step of converting the received utterance into character information;
An extraction step for extracting the extracted identifier associated with the received identifier and the target storage unit from the converted character information;
A presentation step of presenting the extracted extraction target phrase, and an utterance training support method.
前記ユーザから、前記抽出対象語句を変更する旨の変更指示をさらに受け付けるステップと、Further receiving from the user a change instruction to change the extraction target phrase;
前記変更指示に従って前記対象格納部に格納された抽出対象語句を変更するステップと、を含み、Changing the extraction target words stored in the target storage unit according to the change instruction,
前記提示ステップでは、前記抽出対象語句を前記ユーザに提示する、発話訓練支援方法。In the presenting step, the speech training support method for presenting the extraction target phrase to the user.
前記発話訓練装置が、前記識別子を受け付ける入力ステップと、
前記音声分岐装置が、前記電話機への発話を取得する発話取得ステップと、
前記音声分岐装置が、前記取得された発話を、前記電話機と前記発話訓練装置との両方に出力する出力ステップと、
前記発話訓練装置が、前記出力された発話を受け付ける発話受付ステップと、
前記発話訓練装置が、前記受け付けられた発話を文字情報に変換する認識ステップと、
前記発話訓練装置が、前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する抜出ステップと、
前記発話訓練装置が、前記抽出された抽出対象語句を提示する語句提示ステップと、を含む発話訓練支援方法。 An utterance training apparatus including an object storage unit that stores an identifier for identifying a user and an extraction target phrase to be extracted from the user's utterance identified by the identifier in association with each identifier; and the utterance training apparatus; An utterance training support method performed by an utterance training system including a voice branching device connected to a telephone of a destination,
The utterance training apparatus, an input step for receiving the identifier;
The voice branching device acquires an utterance to the telephone, an utterance acquisition step;
An output step in which the voice branching device outputs the acquired utterance to both the telephone and the utterance training device;
The utterance training device, the utterance reception step of receiving the output utterance;
A recognition step in which the utterance training device converts the received utterance into character information;
The utterance training device extracts an extraction target word / phrase associated with the received identifier and the target storage unit from the converted character information ;
An utterance training support method, wherein the utterance training apparatus includes a phrase presentation step of presenting the extracted extraction target phrase.
前記音声分岐装置は、通話先電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記コンピュータとの両方に出力する分岐部と、を含み、
前記識別子を受け付ける処理と、
前記音声分岐装置が出力した発話を受け付ける受付処理と、
前記受け付けられた発話を文字情報に変換する変換処理と、
前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する処理と、
前記抽出された抽出対象語句を提示する提示処理と、を含む発話訓練支援処理を前記コンピュータに実行させるプログラム。 An identifier for identifying the user, which is connected an extraction target phrase to be extracted from the utterance of the user identified by the identifier, and a target storage unit for storing in association with each of the identifiers, and the voice branching unit, the A program for causing a computer to execute speech training support processing,
The voice branching device includes an acquisition unit that acquires an utterance to a destination telephone, and a branching unit that outputs the utterance acquired by the acquisition unit to both the telephone and the computer,
Processing to accept the identifier;
An accepting process for accepting an utterance output by the voice branching device;
A conversion process for converting the accepted utterance into character information;
A process of extracting the extracted identifier associated with the received identifier and the target storage unit from the converted character information ;
A program for causing the computer to execute an utterance training support process including a presentation process for presenting the extracted extraction target phrase.
前記発話訓練支援処理は、The speech training support process is:
前記ユーザから、前記抽出対象語句を変更する旨の変更指示をさらに受け付ける処理と、A process of further receiving a change instruction to change the extraction target phrase from the user;
前記変更指示に従って前記対象格納部に格納された抽出対象語句を変更する処理と、を含み、Processing to change the extraction target phrase stored in the target storage unit according to the change instruction,
前記提示処理では、前記抽出対象語句を前記ユーザに提示する、プログラム。In the presenting process, a program for presenting the extraction target phrase to the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006057769A JP4760452B2 (en) | 2006-03-03 | 2006-03-03 | Speech training apparatus, speech training system, speech training support method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006057769A JP4760452B2 (en) | 2006-03-03 | 2006-03-03 | Speech training apparatus, speech training system, speech training support method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007233249A JP2007233249A (en) | 2007-09-13 |
JP4760452B2 true JP4760452B2 (en) | 2011-08-31 |
Family
ID=38553871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006057769A Active JP4760452B2 (en) | 2006-03-03 | 2006-03-03 | Speech training apparatus, speech training system, speech training support method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4760452B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8128238B2 (en) | 2007-09-07 | 2012-03-06 | Ricoh Company, Ltd. | Projection optical system and image displaying apparatus |
JP5286963B2 (en) * | 2007-09-07 | 2013-09-11 | 株式会社リコー | Projection optical system |
JP7274376B2 (en) * | 2019-07-18 | 2023-05-16 | 本田技研工業株式会社 | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3810551B2 (en) * | 1997-03-18 | 2006-08-16 | 株式会社エヌ・ティ・ティ・データ | Voice recognition system, call center system, voice recognition method and recording medium |
JP2002117135A (en) * | 2000-08-02 | 2002-04-19 | Masunaga Sogo Keikaku:Kk | Web site security system |
JP2004157253A (en) * | 2002-11-05 | 2004-06-03 | Kawasaki Steel Systems R & D Corp | Contact center operator training system |
JP4098072B2 (en) * | 2002-12-13 | 2008-06-11 | 東芝テック株式会社 | Customer service management device |
JP2004252668A (en) * | 2003-02-19 | 2004-09-09 | Fujitsu Ltd | Contact center managing and controlling program, device and method |
JP2005318101A (en) * | 2004-04-27 | 2005-11-10 | Tokyo Electric Power Co Inc:The | Telephone answering diagnostic device and telephone answering evaluating program |
-
2006
- 2006-03-03 JP JP2006057769A patent/JP4760452B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2007233249A (en) | 2007-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7013280B2 (en) | Disambiguation method and system for a voice activated directory assistance system | |
US8447599B2 (en) | Methods and apparatus for generating, updating and distributing speech recognition models | |
US20100217591A1 (en) | Vowel recognition system and method in speech to text applictions | |
US7539296B2 (en) | Methods and apparatus for processing foreign accent/language communications | |
EP3061086B1 (en) | Text-to-speech performance evaluation | |
WO2016194740A1 (en) | Speech recognition device, speech recognition system, terminal used in said speech recognition system, and method for generating speaker identification model | |
US20030191639A1 (en) | Dynamic and adaptive selection of vocabulary and acoustic models based on a call context for speech recognition | |
CN106537493A (en) | Speech recognition system and method, client device and cloud server | |
US20080140398A1 (en) | System and a Method For Representing Unrecognized Words in Speech to Text Conversions as Syllables | |
JP6296821B2 (en) | Business support system | |
JP5684082B2 (en) | Dialog support apparatus, method, and program | |
US20130253932A1 (en) | Conversation supporting device, conversation supporting method and conversation supporting program | |
CN110807093A (en) | Voice processing method and device and terminal equipment | |
US10216732B2 (en) | Information presentation method, non-transitory recording medium storing thereon computer program, and information presentation system | |
JP2009042968A (en) | Information selection system, information selection method, and program for information selection | |
JP6254504B2 (en) | Search server and search method | |
JP2011217018A (en) | Voice response apparatus, and program | |
JP4760452B2 (en) | Speech training apparatus, speech training system, speech training support method and program | |
JP7026004B2 (en) | Conversation aids, conversation aid methods and programs | |
CN110602334A (en) | Intelligent outbound method and system based on man-machine cooperation | |
WO2019003395A1 (en) | Call center conversational content display system, method, and program | |
JP4079275B2 (en) | Conversation support device | |
JP2008216461A (en) | Speech recognition, keyword extraction, and knowledge base retrieval coordinating device | |
JP2006301967A (en) | Conversation support device | |
JP2002297179A (en) | Automatic answering conversation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110523 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4760452 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |