JP6696923B2 - 音声対話装置、その処理方法及びプログラム - Google Patents
音声対話装置、その処理方法及びプログラム Download PDFInfo
- Publication number
- JP6696923B2 JP6696923B2 JP2017040580A JP2017040580A JP6696923B2 JP 6696923 B2 JP6696923 B2 JP 6696923B2 JP 2017040580 A JP2017040580 A JP 2017040580A JP 2017040580 A JP2017040580 A JP 2017040580A JP 6696923 B2 JP6696923 B2 JP 6696923B2
- Authority
- JP
- Japan
- Prior art keywords
- filler
- voice
- utterance
- response sentence
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 239000000945 filler Substances 0.000 claims description 190
- 230000004044 response Effects 0.000 claims description 104
- 230000003993 interaction Effects 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 description 15
- 239000013598 vector Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Description
本態様によれば、第1の応答文の発話パターンに応じてフィラー語を生成することで、その後のユーザの音声内容に対応した、最適なフィラー語を生成することができる。この最適なフィラー語を出力することで、より自然な対話を行うことができる。
この一態様において、前記発話パターンと、該発話パターンに対応付けられた特徴量の種類に関する情報と、を含むテーブル情報を記憶する記憶手段と、前記分類手段により分類された発話パターンに対応付けられた特徴量の種類に関する情報に基づいて、先行又は後続の発話の特徴量を算出する特徴量算出手段と、を更に備え、前記フィラー生成手段は、前記特徴量算出手段により算出された特徴量に基づいて、前記フィラー語を生成してもよい。
これにより、第1の応答文を、所定の発話パターンのうちのいずれかに分類し、分類された発話パターンに対応した最適な先行又は後続の発話の特徴量を算出し、算出した特徴量を用いてその対話に最適なフィラー語を生成できる。
この一態様において、前記特徴量の種類に関する情報は、先行発話の韻律情報、先行発話の言語情報、後続発話の言語情報、及び、後続発話の韻律情報のうち少なくとも1つを含んでいてもよい。
これにより、処理負荷の軽減と適切なフィラー語の生成との両立を図り、対話のリズム及び自然性を向上させることができる。
この一態様において、前記記憶手段は、少なくとも1つの前記フィラー語を含み該フィラー語の系統を示すフィラー系に特徴量がそれぞれ対応付けられたフィラー形態情報を記憶しており、前記フィラー生成手段は、前記分類手段により分類された発話パターンに基づいて、前記フィラー系の数を絞り込み、該絞り込んだフィラー系の中から、前記特徴量算出手段により算出された特徴量に対応付けられ1つのフィラー系を選択し、該選択したフィラー系に含まれる前記フィラー語を選択することで、前記フィラー語を生成してもよい。
このように、事前にフィラー系の数を絞り込むことで、さらに処理負荷を軽減することができる。
上記目的を達成するための本発明の一態様は、ユーザの音声を認識する音声認識手段と、前記音声認識手段により認識された音声に基づいて、前記ユーザの音声に対する応答文を生成する応答文生成手段と、前記ユーザとの対話間に挿入するフィラー語を生成するフィラー生成手段と、前記応答文生成手段により生成された応答文及び前記フィラー生成手段により生成されたフィラー語を出力する出力手段と、を備える音声対話装置の処理方法であって、前記出力手段が、第1の前記応答文に続く前記ユーザの音声後、前記フィラー語を出力し、第2の前記応答文を出力する場合において、前記第1の応答文を、予め設定され発話の種類を示す所定の発話パターンのうちのいずれかに分類するステップと、前記分類された発話パターンに基づいて、前記フィラー語を生成するステップと、を含むことを特徴とする音声対話装置の処理方法であってもよい。
上記目的を達成するための本発明の一態様は、ユーザの音声を認識する音声認識手段と、前記音声認識手段により認識された音声に基づいて、前記ユーザの音声に対する応答文を生成する応答文生成手段と、前記ユーザとの対話間に挿入するフィラー語を生成するフィラー生成手段と、前記応答文生成手段により生成された応答文及び前記フィラー生成手段により生成されたフィラー語を出力する出力手段と、を備える音声対話装置のプログラムであって、前記出力手段が、第1の前記応答文に続く前記ユーザの音声後、前記フィラー語を出力し、第2の前記応答文を出力する場合において、前記第1の応答文を、予め設定され発話の種類を示す所定の発話パターンのうちのいずれかに分類する処理と、前記分類された発話パターンに基づいて、前記フィラー語を生成する処理と、をコンピュータに実行させることを特徴とする音声対話装置のプログラムであってもよい。
図1は、本発明の一実施形態に係る音声対話装置の概略的なシステム構成を示すブロック図である。本実施形態に係る音声対話装置1は、例えば、ロボット、PC(PersonalComputer)、携帯端末(スマートフォン、タブレットなど)等に搭載され、ユーザと対話を行う。
分類部7は、記憶部9のテーブル情報に基づいて、応答文生成部により生成された第1の応答文を、テーブル情報に設定された発話パターンのうちのいずれかに分類する(ステップS101)。
Claims (6)
- ユーザの音声を認識する音声認識手段と、
前記音声認識手段により認識された音声に基づいて、前記ユーザの音声に対する応答文を生成する応答文生成手段と、
前記ユーザとの対話間に挿入するフィラー語を生成するフィラー生成手段と、
前記応答文生成手段により生成された応答文及び前記フィラー生成手段により生成されたフィラー語を出力する出力手段と、
を備える音声対話装置であって、
前記応答文生成手段により生成された応答文を、予め設定され発話の種類を示す所定の発話パターンのうちのいずれかに分類する分類手段を備え、
前記出力手段が、第1の前記応答文に続く前記ユーザの音声後、前記フィラー語を出力し、第2の前記応答文を出力する場合において、
前記分類手段は、前記第1の応答文を、前記発話パターンのうちのいずれかに分類し、
前記フィラー生成手段は、前記分類手段により分類された発話パターンに基づいて、前記フィラー語を生成する、
ことを特徴とする音声対話装置。 - 請求項1記載の音声対話装置であって、
前記発話パターンと、該発話パターンに対応付けられた特徴量の種類に関する情報と、を含むテーブル情報を記憶する記憶手段と、
前記分類手段により分類された発話パターンに対応付けられた特徴量の種類に関する情報に基づいて、先行又は後続の発話の特徴量を算出する特徴量算出手段と、
を更に備え、
前記フィラー生成手段は、前記特徴量算出手段により算出された特徴量に基づいて、前記フィラー語を生成する、
を特徴とする音声対話装置。 - 請求項2記載の音声対話装置であって、
前記特徴量の種類に関する情報は、先行発話の韻律情報、先行発話の言語情報、後続発話の言語情報、及び、後続発話の韻律情報のうち少なくとも1つを含む、
ことを特徴とする音声対話装置。 - 請求項2又は3記載の音声対話装置であって、
前記記憶手段は、少なくとも1つの前記フィラー語を含み該フィラー語の系統を示すフィラー系に特徴量がそれぞれ対応付けられたフィラー形態情報を記憶しており、
前記フィラー生成手段は、前記分類手段により分類された発話パターンに基づいて、前記フィラー系の数を絞り込み、該絞り込んだフィラー系の中から、前記特徴量算出手段により算出された特徴量に対応付けられ1つのフィラー系を選択し、該選択したフィラー系に含まれる前記フィラー語を選択することで、前記フィラー語を生成する、
ことを特徴とする音声対話装置。 - ユーザの音声を認識する音声認識手段と、
前記音声認識手段により認識された音声に基づいて、前記ユーザの音声に対する応答文を生成する応答文生成手段と、
前記ユーザとの対話間に挿入するフィラー語を生成するフィラー生成手段と、
前記応答文生成手段により生成された応答文及び前記フィラー生成手段により生成されたフィラー語を出力する出力手段と、を備える音声対話装置の処理方法であって、
前記出力手段が、第1の前記応答文に続く前記ユーザの音声後、前記フィラー語を出力し、第2の前記応答文を出力する場合において、
前記第1の応答文を、予め設定され発話の種類を示す所定の発話パターンのうちのいずれかに分類するステップと、
前記分類された発話パターンに基づいて、前記フィラー語を生成するステップと、
を含む
ことを特徴とする音声対話装置の処理方法。 - ユーザの音声を認識する音声認識手段と、
前記音声認識手段により認識された音声に基づいて、前記ユーザの音声に対する応答文を生成する応答文生成手段と、
前記ユーザとの対話間に挿入するフィラー語を生成するフィラー生成手段と、
前記応答文生成手段により生成された応答文及び前記フィラー生成手段により生成されたフィラー語を出力する出力手段と、を備える音声対話装置のプログラムであって、
前記出力手段が、第1の前記応答文に続く前記ユーザの音声後、前記フィラー語を出力し、第2の前記応答文を出力する場合において、
前記第1の応答文を、予め設定され発話の種類を示す所定の発話パターンのうちのいずれかに分類する処理と、
前記分類された発話パターンに基づいて、前記フィラー語を生成する処理と、
をコンピュータに実行させることを特徴とする音声対話装置のプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017040580A JP6696923B2 (ja) | 2017-03-03 | 2017-03-03 | 音声対話装置、その処理方法及びプログラム |
US15/883,240 US10452352B2 (en) | 2017-03-03 | 2018-01-30 | Voice interaction apparatus, its processing method, and program |
EP18155702.6A EP3370230B1 (en) | 2017-03-03 | 2018-02-08 | Voice interaction apparatus, its processing method, and program |
CN201810175617.5A CN108630203B (zh) | 2017-03-03 | 2018-03-02 | 语音交互设备及其处理方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017040580A JP6696923B2 (ja) | 2017-03-03 | 2017-03-03 | 音声対話装置、その処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018146715A JP2018146715A (ja) | 2018-09-20 |
JP6696923B2 true JP6696923B2 (ja) | 2020-05-20 |
Family
ID=61188655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017040580A Active JP6696923B2 (ja) | 2017-03-03 | 2017-03-03 | 音声対話装置、その処理方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10452352B2 (ja) |
EP (1) | EP3370230B1 (ja) |
JP (1) | JP6696923B2 (ja) |
CN (1) | CN108630203B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10019988B1 (en) * | 2016-06-23 | 2018-07-10 | Intuit Inc. | Adjusting a ranking of information content of a software application based on feedback from a user |
JP6633008B2 (ja) * | 2017-02-01 | 2020-01-22 | ファーハット ロボティクス エービー | 音声対話装置及び音声対話方法 |
JP6696923B2 (ja) * | 2017-03-03 | 2020-05-20 | 国立大学法人京都大学 | 音声対話装置、その処理方法及びプログラム |
US11979360B2 (en) | 2018-10-25 | 2024-05-07 | Microsoft Technology Licensing, Llc | Multi-phrase responding in full duplex voice conversation |
JP7135896B2 (ja) * | 2019-01-28 | 2022-09-13 | トヨタ自動車株式会社 | 対話装置、対話方法及びプログラム |
CN110019149A (zh) * | 2019-01-30 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 一种客服知识库的建立方法、装置及设备 |
CN110232190A (zh) * | 2019-06-14 | 2019-09-13 | 上海流利说信息技术有限公司 | 一种对话生成的方法、装置、存储介质及电子设备 |
CN110827821B (zh) * | 2019-12-04 | 2022-04-12 | 三星电子(中国)研发中心 | 一种语音交互装置、方法和计算机可读存储介质 |
WO2021112642A1 (en) | 2019-12-04 | 2021-06-10 | Samsung Electronics Co., Ltd. | Voice user interface |
CN112022140B (zh) * | 2020-07-03 | 2023-02-17 | 上海数创医疗科技有限公司 | 一种心电图的诊断结论自动诊断方法及系统 |
CN112328776A (zh) * | 2021-01-04 | 2021-02-05 | 北京百度网讯科技有限公司 | 对话生成方法、装置、电子设备和存储介质 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010012335A1 (en) * | 1998-02-06 | 2001-08-09 | Lance Kaufman | Preference based telecommunication information service |
JP3581881B2 (ja) * | 2000-07-13 | 2004-10-27 | 独立行政法人産業技術総合研究所 | 音声補完方法、装置および記録媒体 |
US8355484B2 (en) * | 2007-01-08 | 2013-01-15 | Nuance Communications, Inc. | Methods and apparatus for masking latency in text-to-speech systems |
JP5136512B2 (ja) | 2009-05-08 | 2013-02-06 | トヨタ自動車株式会社 | 応答生成装置及びプログラム |
JP2014048443A (ja) | 2012-08-31 | 2014-03-17 | Nippon Telegr & Teleph Corp <Ntt> | 音声合成システム、音声合成方法及び音声合成プログラム |
US9576574B2 (en) * | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
JP5753869B2 (ja) | 2013-03-26 | 2015-07-22 | 富士ソフト株式会社 | 音声認識端末およびコンピュータ端末を用いる音声認識方法 |
JP6024675B2 (ja) * | 2014-01-17 | 2016-11-16 | 株式会社デンソー | 音声認識端末装置、音声認識システム、音声認識方法 |
JP5958475B2 (ja) * | 2014-01-17 | 2016-08-02 | 株式会社デンソー | 音声認識端末装置、音声認識システム、音声認識方法 |
JP6390264B2 (ja) * | 2014-08-21 | 2018-09-19 | トヨタ自動車株式会社 | 応答生成方法、応答生成装置及び応答生成プログラム |
JP6495014B2 (ja) | 2015-01-08 | 2019-04-03 | シャープ株式会社 | 音声対話制御装置、音声対話制御装置の制御方法、および音声対話装置 |
CN105893344A (zh) * | 2016-03-28 | 2016-08-24 | 北京京东尚科信息技术有限公司 | 基于用户语义情感分析的应答方法和装置 |
JP6736691B2 (ja) * | 2016-06-13 | 2020-08-05 | グーグル エルエルシー | 人間のオペレータへのエスカレーション |
JP6461058B2 (ja) * | 2016-09-06 | 2019-01-30 | 国立大学法人京都大学 | 音声対話装置および音声対話装置を用いた自動対話方法 |
JP6633008B2 (ja) * | 2017-02-01 | 2020-01-22 | ファーハット ロボティクス エービー | 音声対話装置及び音声対話方法 |
JP6696923B2 (ja) * | 2017-03-03 | 2020-05-20 | 国立大学法人京都大学 | 音声対話装置、その処理方法及びプログラム |
-
2017
- 2017-03-03 JP JP2017040580A patent/JP6696923B2/ja active Active
-
2018
- 2018-01-30 US US15/883,240 patent/US10452352B2/en active Active
- 2018-02-08 EP EP18155702.6A patent/EP3370230B1/en active Active
- 2018-03-02 CN CN201810175617.5A patent/CN108630203B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US10452352B2 (en) | 2019-10-22 |
CN108630203A (zh) | 2018-10-09 |
US20180253280A1 (en) | 2018-09-06 |
EP3370230A1 (en) | 2018-09-05 |
EP3370230B1 (en) | 2023-05-10 |
CN108630203B (zh) | 2022-12-20 |
JP2018146715A (ja) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6696923B2 (ja) | 音声対話装置、その処理方法及びプログラム | |
US10861458B2 (en) | Response sentence generation apparatus, method and program, and voice interaction system | |
US20210174785A1 (en) | Training and testing utterance-based frameworks | |
CN106486121B (zh) | 应用于智能机器人的语音优化方法及装置 | |
US20220180872A1 (en) | Electronic apparatus and method for controlling thereof | |
JP2018124425A (ja) | 音声対話装置及び音声対話方法 | |
JP7059813B2 (ja) | 音声対話システム、その処理方法及びプログラム | |
EP2988298B1 (en) | Response generation method, response generation apparatus, and response generation program | |
US10971149B2 (en) | Voice interaction system for interaction with a user by voice, voice interaction method, and program | |
US10825455B2 (en) | Voice dialogue apparatus, voice dialogue method, and non-transitory computer readable media | |
JP2019211515A (ja) | 音声対話システム、その処理方法及びプログラム | |
JP6712754B2 (ja) | 談話機能推定装置及びそのためのコンピュータプログラム | |
JP6295869B2 (ja) | 応答生成装置、応答生成方法及びプログラム | |
JP2016080981A (ja) | 応答生成装置、応答生成方法及び応答生成プログラム | |
JP6287754B2 (ja) | 応答生成装置、応答生成方法及び応答生成プログラム | |
JP2015148712A (ja) | 音声対話装置、音声対話システム及びプログラム | |
JP6773074B2 (ja) | 応答生成方法、応答生成装置及び応答生成プログラム | |
KR102458830B1 (ko) | 사용자 중심의 음성 대화 시스템 | |
Gupta et al. | DIS-NV Functions for the Recognition of Emotions in Spoken Dialogue |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181010 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6696923 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |