JP6731326B2 - 音声対話装置及び音声対話方法 - Google Patents
音声対話装置及び音声対話方法 Download PDFInfo
- Publication number
- JP6731326B2 JP6731326B2 JP2016213897A JP2016213897A JP6731326B2 JP 6731326 B2 JP6731326 B2 JP 6731326B2 JP 2016213897 A JP2016213897 A JP 2016213897A JP 2016213897 A JP2016213897 A JP 2016213897A JP 6731326 B2 JP6731326 B2 JP 6731326B2
- Authority
- JP
- Japan
- Prior art keywords
- topic
- user
- utterance
- response
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 76
- 238000000034 method Methods 0.000 title claims description 51
- 230000004044 response Effects 0.000 claims description 124
- 238000004458 analytical method Methods 0.000 claims description 109
- 230000007704 transition Effects 0.000 claims description 105
- 230000001755 vocal effect Effects 0.000 claims description 18
- 238000010801 machine learning Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 description 56
- 230000006870 function Effects 0.000 description 31
- 230000008569 process Effects 0.000 description 23
- 238000003066 decision tree Methods 0.000 description 19
- 230000008859 change Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 230000000052 comparative effect Effects 0.000 description 11
- 101150059488 NUDT1 gene Proteins 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、上記のように構成されていることによって、話題を継続するか否かの判定を、容易に実現することが可能である。
本発明は、上記のように構成されていることによって、同一の話題が長く続いたときに、確実に話題を遷移することが可能となる。
本発明は、上記のように構成されていることによって、話題を継続するか否かの判定を、より正確に行うことが可能である。
以下、図面を参照して本発明の実施の形態について説明する。なお、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
次に、比較例について説明する。
図6は、比較例にかかる音声対話装置とユーザとの間でなされる対話の例を示す図である。なお、図6において、奇数の発話No(発話番号)の発話が、音声対話装置が出力した発話(音声)であり、偶数の発話Noの発話が、ユーザが発した発話(ユーザ発話)である。ここで、比較例にかかる音声対話装置は、ユーザの発話内容を構文解析で解析した構文解析結果を用いて、話題を継続するか遷移するかの判定を行っている。
次に、実施の形態2について説明する。実施の形態2においては、話題継続判定部110の処理が、実施の形態1と比較して、より具体的に示されている。具体的には、実施の形態2にかかる話題継続判定部110は、非言語情報解析結果のうちの、話題継続時間D1(図3のvim)及び判定対象のユーザ発話の句末の500msecにおける基本周波数f0500(図3のvi1)を用いて、話題を継続するか否かを判定する。なお、実施の形態2にかかる音声対話装置1の構成については、図1及び図2に示した実施の形態1にかかる音声対話装置1の構成と実質的に同様であるので、説明を省略する。
(式1)
次に、実施の形態3について説明する。実施の形態3においては、話題継続判定部110の処理が、実施の形態1と比較して、より具体的に示されている。具体的には、実施の形態3にかかる話題継続判定部110は、予め機械学習(ランダムフォレスト等)によって生成された判定モデルを用いて、話題を継続するか遷移するかを判定する。より具体的には、話題継続判定部110は、判定モデルを用いて、非言語情報解析結果によって示される特徴(特徴ベクトルの成分)が、話題を継続することに対応するか又は話題を遷移することに対応するかを識別(分類)する。これによって、話題継続判定部110は、話題を継続するか遷移するかを判定する。なお、実施の形態3にかかる音声対話装置1の構成については、図1及び図2に示した実施の形態1にかかる音声対話装置1の構成と実質的に同様であるので、説明を省略する。
(式2)
(式3)
(式4)
図17は、図14に例示した決定木(判定モデル)を用いて特徴ベクトルを分類する方法(図10のS304)を説明するための図である。まず、Tree_1に特徴ベクトルvが入力される。ノード1の分岐関数F1 1(閾値t1 1)に特徴ベクトルvが代入されると、F1 1(v)≧t1 1であるので、式2より、特徴ベクトルvは、右側の子ノード2に移行する。ノード2の分岐関数F1 2(閾値t1 2)に特徴ベクトルvが代入されると、F1 2(v)<t1 2であるので、式2より、特徴ベクトルvは、左側の子ノード5に移行する。ノード5の分岐関数F1 5(閾値t1 5)に特徴ベクトルvが代入されると、F1 5(v)<t1 5であるので、式2より、特徴ベクトルvは、左側の子ノード9に移行する。そして、ノード9は末端ノードであるので、Tree_1についての、特徴ベクトルvが各クラスに分類される確率は、ノード9に対応付けられたP1(c|v)である。図17の例では、特徴ベクトルvが遷移クラスに分類される確率はP1(c=1|v)=0.6であり、継続クラスに分類される確率はP1(c=2|v)=0.4である。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、例えば、上述したフローチャートにおいて、複数の処理の順序は、適宜、変更可能である。また、上述したフローチャートにおいて、複数の処理のうちの1つは、省略されてもよい。また、話題を継続するか遷移するかの判定は、常に行われる必要はない。
Claims (5)
- ユーザと音声を用いた対話を行う音声対話装置であって、
前記ユーザの発話であるユーザ発話を取得する発話取得部と、
前記取得されたユーザ発話の言語情報について構文解析を行う構文解析部と、
前記ユーザ発話に応じて応答を生成する応答生成部と、
前記ユーザに対して前記生成された応答に対応する音声を出力する音声出力部と、
前記取得されたユーザ発話について、前記言語情報とは異なる非言語情報であって、前記ユーザ発話の韻律情報及び前記応答生成部によって生成された応答に関する履歴情報の少なくとも一方を含む非言語情報の解析を行う非言語情報解析部と、
前記非言語情報解析部による解析結果である非言語情報解析結果に応じて、現在の対話の話題を継続するか否かを判定する話題継続判定部と
を有し、
前記非言語情報は、同一話題の継続時間である話題継続時間と、前記ユーザ発話における句末の基本周波数とを少なくとも含み、
前記話題継続判定部は、前記話題継続時間が予め定められた第1の閾値よりも短い場合に、前記句末の基本周波数の正規化された値の最大値が予め定められた第2の閾値よりも小さいか否かを判定し、前記最大値が前記第2の閾値以上である場合に、話題を遷移すると判定し、
前記応答生成部は、前記話題継続判定部による判定結果に応じて、応答を生成する
音声対話装置。 - 前記応答生成部は、話題を遷移すると判定された場合に、話題を遷移するための質問である遷移質問を示す応答を生成し、
前記第1の閾値及び前記第2の閾値の少なくとも一方は、前記遷移質問ごとに異なる
請求項1に記載の音声対話装置。 - 前記話題継続判定部は、同一の話題の継続時間が予め定められた閾値以上である場合に、話題を遷移すると判定する
請求項2に記載の音声対話装置。 - 前記話題継続判定部は、予め機械学習によって生成された判定モデルを用いて、前記非言語情報解析結果によって示される特徴が、話題を継続することに対応するか又は話題を遷移することに対応するかを識別することによって、話題を継続するか否かを判定する
請求項1に記載の音声対話装置。 - ユーザと音声を用いた対話を行う音声対話装置を用いて行われる音声対話方法であって、
前記ユーザの発話であるユーザ発話を取得し、
前記取得されたユーザ発話の言語情報について構文解析を行い、
前記取得されたユーザ発話について、前記言語情報とは異なる非言語情報であって、前記ユーザ発話の韻律情報及び前記音声対話装置によって生成された応答に関する履歴情報の少なくとも一方を含む非言語情報であって、同一話題の継続時間である話題継続時間と、前記ユーザ発話における句末の基本周波数とを少なくとも含む非言語情報の解析を行い、
前記非言語情報の解析結果である非言語情報解析結果に応じて、現在の対話の話題を継続するか否かを判定し、前記話題継続時間が予め定められた第1の閾値よりも短い場合に、前記句末の基本周波数の正規化された値の最大値が予め定められた第2の閾値よりも小さいか否かを判定し、前記最大値が前記第2の閾値以上である場合に、話題を遷移すると判定し、
前記判定の結果に応じて生成された応答に対応する音声を出力する
音声対話方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016213897A JP6731326B2 (ja) | 2016-10-31 | 2016-10-31 | 音声対話装置及び音声対話方法 |
US15/797,411 US10573307B2 (en) | 2016-10-31 | 2017-10-30 | Voice interaction apparatus and voice interaction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016213897A JP6731326B2 (ja) | 2016-10-31 | 2016-10-31 | 音声対話装置及び音声対話方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018072650A JP2018072650A (ja) | 2018-05-10 |
JP6731326B2 true JP6731326B2 (ja) | 2020-07-29 |
Family
ID=62022481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016213897A Active JP6731326B2 (ja) | 2016-10-31 | 2016-10-31 | 音声対話装置及び音声対話方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10573307B2 (ja) |
JP (1) | JP6731326B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019032996A1 (en) * | 2017-08-10 | 2019-02-14 | Facet Labs, Llc | ORAL COMMUNICATION DEVICE AND COMPUTER ARCHITECTURE FOR PROCESSING DATA AND DELIVERING USER FEEDBACK OUTPUT, AND ASSOCIATED METHODS |
JP6828667B2 (ja) * | 2017-11-28 | 2021-02-10 | トヨタ自動車株式会社 | 音声対話装置、音声対話方法及びプログラム |
CN108415932B (zh) * | 2018-01-23 | 2023-12-22 | 思必驰科技股份有限公司 | 人机对话方法及电子设备 |
CN110710158B (zh) * | 2018-05-07 | 2022-08-09 | 谷歌有限责任公司 | 验证与数字助理应用交接的代理的操作状态 |
JP6969491B2 (ja) * | 2018-05-11 | 2021-11-24 | トヨタ自動車株式会社 | 音声対話システム、音声対話方法及びプログラム |
JP7151181B2 (ja) * | 2018-05-31 | 2022-10-12 | トヨタ自動車株式会社 | 音声対話システム、その処理方法及びプログラム |
JP7063779B2 (ja) * | 2018-08-31 | 2022-05-09 | 国立大学法人京都大学 | 音声対話システム、音声対話方法、プログラム、学習モデル生成装置及び学習モデル生成方法 |
JP7142315B2 (ja) * | 2018-09-27 | 2022-09-27 | パナソニックIpマネジメント株式会社 | 説明支援装置および説明支援方法 |
CN109902834B (zh) * | 2019-01-28 | 2021-02-05 | 北京怡凯智能技术有限公司 | 一种话题驱动的老人陪伴主动对话机器人 |
US20210272183A1 (en) * | 2019-05-31 | 2021-09-02 | Allstate Insurance Company | Synchronized interactive voice response system and graphical user interface for automated roadside service |
JP7187411B2 (ja) * | 2019-09-12 | 2022-12-12 | 株式会社日立製作所 | コーチングシステム及びコーチング方法 |
JP7347794B2 (ja) * | 2019-11-29 | 2023-09-20 | Necソリューションイノベータ株式会社 | 対話型情報取得装置、対話型情報取得方法、及びプログラム |
RU2763047C2 (ru) * | 2020-02-26 | 2021-12-27 | Акционерное общество "Лаборатория Касперского" | Система и способ классификации звонка |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08123474A (ja) * | 1994-10-28 | 1996-05-17 | Sony Corp | 時系列パターン認識装置 |
JP2001188784A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 会話処理装置および方法、並びに記録媒体 |
US20060179022A1 (en) * | 2001-11-26 | 2006-08-10 | Holland Wilson L | Counterpart artificial intelligence software program |
US8103505B1 (en) * | 2003-11-19 | 2012-01-24 | Apple Inc. | Method and apparatus for speech synthesis using paralinguistic variation |
JP2005170265A (ja) * | 2003-12-12 | 2005-06-30 | Matsushita Electric Ind Co Ltd | 情報提供装置 |
US20060122834A1 (en) * | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
US20080066136A1 (en) * | 2006-08-24 | 2008-03-13 | International Business Machines Corporation | System and method for detecting topic shift boundaries in multimedia streams using joint audio, visual and text cues |
JP2009037050A (ja) * | 2007-08-02 | 2009-02-19 | Toyota Motor Corp | 対話装置と対話用プログラム |
US8698872B2 (en) * | 2011-03-02 | 2014-04-15 | At&T Intellectual Property I, Lp | System and method for notification of events of interest during a video conference |
JP6210934B2 (ja) | 2014-05-26 | 2017-10-11 | 日本電信電話株式会社 | 話題変換検出装置、方法、及びプログラム |
JP2017009826A (ja) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | グループ状態判定装置およびグループ状態判定方法 |
JP6601069B2 (ja) * | 2015-09-01 | 2019-11-06 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
US10884503B2 (en) * | 2015-12-07 | 2021-01-05 | Sri International | VPA with integrated object recognition and facial expression recognition |
-
2016
- 2016-10-31 JP JP2016213897A patent/JP6731326B2/ja active Active
-
2017
- 2017-10-30 US US15/797,411 patent/US10573307B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10573307B2 (en) | 2020-02-25 |
US20180122377A1 (en) | 2018-05-03 |
JP2018072650A (ja) | 2018-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6731326B2 (ja) | 音声対話装置及び音声対話方法 | |
JP6633008B2 (ja) | 音声対話装置及び音声対話方法 | |
CN106971709B (zh) | 统计参数模型建立方法和装置、语音合成方法和装置 | |
Lee et al. | Modeling mutual influence of interlocutor emotion states in dyadic spoken interactions. | |
EP2609587B1 (en) | System and method for recognizing a user voice command in noisy environment | |
EP3594940B1 (en) | Training method for voice data set, computer device and computer readable storage medium | |
CN107871499B (zh) | 语音识别方法、系统、计算机设备及计算机可读存储介质 | |
US11282495B2 (en) | Speech processing using embedding data | |
Rybka et al. | Comparison of speaker dependent and speaker independent emotion recognition | |
CN110473533B (zh) | 语音对话系统、语音对话方法以及程序 | |
JP2009037050A (ja) | 対話装置と対話用プログラム | |
US11615787B2 (en) | Dialogue system and method of controlling the same | |
EP4266306A1 (en) | A speech processing system and a method of processing a speech signal | |
JP5007401B2 (ja) | 発音評定装置、およびプログラム | |
CN112397053A (zh) | 语音识别方法、装置、电子设备及可读存储介质 | |
US11176943B2 (en) | Voice recognition device, voice recognition method, and computer program product | |
US20230252971A1 (en) | System and method for speech processing | |
JP4839970B2 (ja) | 韻律識別装置及び方法、並びに音声認識装置及び方法 | |
JP6772881B2 (ja) | 音声対話装置 | |
WO2011030372A1 (ja) | 音声対話装置及びプログラム | |
JP4962930B2 (ja) | 発音評定装置、およびプログラム | |
JP2020008730A (ja) | 感情推定システムおよびプログラム | |
JP5066668B2 (ja) | 音声認識装置、およびプログラム | |
CN117524229A (zh) | 视频处理方法、装置、设备以及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6731326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |