JP2019101064A - 応答文生成装置、方法及びプログラム並びに音声対話システム - Google Patents
応答文生成装置、方法及びプログラム並びに音声対話システム Download PDFInfo
- Publication number
- JP2019101064A JP2019101064A JP2017228234A JP2017228234A JP2019101064A JP 2019101064 A JP2019101064 A JP 2019101064A JP 2017228234 A JP2017228234 A JP 2017228234A JP 2017228234 A JP2017228234 A JP 2017228234A JP 2019101064 A JP2019101064 A JP 2019101064A
- Authority
- JP
- Japan
- Prior art keywords
- information
- response sentence
- emotion
- word
- text information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 title claims abstract description 132
- 238000000034 method Methods 0.000 title claims description 18
- 230000002452 interceptive effect Effects 0.000 title description 20
- 230000008451 emotion Effects 0.000 claims abstract description 93
- 238000000605 extraction Methods 0.000 claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000006243 chemical reaction Methods 0.000 claims abstract description 22
- 230000002996 emotional effect Effects 0.000 claims description 21
- 239000000284 extract Substances 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000010365 information processing Effects 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 description 32
- 238000004891 communication Methods 0.000 description 31
- 241000287531 Psittacidae Species 0.000 description 22
- 230000014509 gene expression Effects 0.000 description 13
- 230000037007 arousal Effects 0.000 description 12
- 230000000877 morphologic effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 5
- 238000012423 maintenance Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000009118 appropriate response Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
Abstract
Description
雑談型の対話ロボットにおいては、傾聴を示す発話は雑談の自然さを演出できるため、有効である。その中で、オウム返しの応答は、ユーザの発話内の語句を直接利用して応答するものである。例えば、ユーザが「昨日は暑かったね。」と発話した場合、そのオウム返しの応答として対話ロボットが「暑かったね。」と応答することが望ましいといえる。
本発明の実施の形態2は、上述した実施の形態1の変形例である。
図3は、本発明の実施の形態2にかかる応答文生成装置100aの構成を示すブロック図である。応答文生成装置100aは、上述した応答文生成装置100と比べて、感情生起語辞書170が追加されたものである。感情生起語辞書170は、少なくとも1つ以上の感情生起語の候補が文字列情報として予め登録されたデータベースである。そして、感情生起語特定部140aは、上述した感情生起語特定部140の処理に加え、感情生起語辞書170をさらに加味して、感情生起語207を特定する。これにより、韻律情報において複数の箇所が強調されている音として示されている場合などに、感情生起語辞書170に登録された感情生起語の候補により絞り込みを行うことができる。よって、オウム返しの応答文としての精度を向上することができる。
本発明の実施の形態3は、上述した実施の形態1又は2の変形例である。本実施の形態3では、対話ロボット内にはユーザとの音声のやり取りと外部のコンピュータとの通信機能のみを持たせ、当該コンピュータには上述した応答文生成装置100又は100aの一部の構成を有するようにしたものである。
100a 応答文生成装置
110 音声入力部
120 変換部
121 音声認識部
122 形態素解析部
123 係受け解析部
130 抽出部
140 感情生起語特定部
140a 感情生起語特定部
150 応答文生成部
160 音声出力部
170 感情生起語辞書
201 入力音声
202 入力音声
202a 通信データ
202b 入力音声
203 テキスト情報
204 解析結果
205 解析結果
206 韻律情報
207 感情生起語
207a テキスト情報
208 応答文
208a 通信データ
208b 応答文
209 出力音声
300 対話ロボット
310 音声入力部
320 通信部
330 音声出力部
400 応答文生成装置
410 通信部
420 変換部
430 抽出部
440 感情生起語特定部
450 応答文生成部
500 音声対話システム
U ユーザ
Claims (8)
- ユーザの入力音声をテキスト情報へ変換する変換手段と、
前記入力音声から韻律情報を抽出する抽出手段と、
前記テキスト情報と前記韻律情報とに基づいて、前記ユーザの感情の生起を示す感情生起語を特定する特定手段と、
前記テキスト情報の中から前記特定された感情生起語を含む文字列を選択し、当該選択した文字列に対する所定の加工により応答文を生成する生成手段と、
を備える応答文生成装置。 - 前記抽出手段は、前記入力音声の基本周波数の解析により、当該入力音声のうち強調された音声を前記韻律情報として抽出し、
前記特定手段は、前記テキスト情報の中から、前記韻律情報が示す前記強調された音声に対応する文字列を前記感情生起語として特定する
請求項1に記載の応答文生成装置。 - 前記変換手段は、前記入力音声内の各音が発生した時間情報と前記テキスト情報内の各文字とを対応付け、
前記抽出手段は、前記強調された音声の各音が発生した時間情報を前記韻律情報に含めて抽出し、
前記特定手段は、前記テキスト情報の中から、前記韻律情報に含まれる前記時間情報に対応する文字列を、前記感情生起語として特定する
請求項2に記載の応答文生成装置。 - 前記感情生起語の候補を予め登録した辞書情報をさらに備え、
前記特定手段は、前記辞書情報をさらに加味して、前記感情生起語を特定する
請求項1乃至3のいずれか1項に記載の応答文生成装置。 - 他の入力音声を機械学習することにより生成された単語感情推定モデルをさらに備え、
前記特定手段は、前記単語感情推定モデルをさらに加味して、前記感情生起語を特定する
請求項1乃至4のいずれか1項に記載の応答文生成装置。 - ユーザの入力音声をテキスト情報へ変換するステップと、
前記入力音声から韻律情報を抽出するステップと、
前記テキスト情報と前記韻律情報とに基づいて、前記ユーザの感情の生起を示す感情生起語を特定するステップと、
前記テキスト情報の中から前記特定された感情生起語を含む文字列を選択し、当該選択した文字列に対する所定の加工により応答文を生成するステップと、
を含む応答文生成方法。 - ユーザの入力音声をテキスト情報へ変換する処理と、
前記入力音声から韻律情報を抽出する処理と、
前記テキスト情報と前記韻律情報とに基づいて、前記ユーザの感情の生起を示す感情生起語を特定する処理と、
前記テキスト情報の中から前記特定された感情生起語を含む文字列を選択し、当該選択した文字列に対する所定の加工により応答文を生成する処理と、
をコンピュータに実行させる応答文生成プログラム。 - ユーザから入力音声を受け付ける音声入力手段と、
前記入力音声をテキスト情報へ変換する変換手段と、
前記入力音声から韻律情報を抽出する抽出手段と、
前記テキスト情報と前記韻律情報とに基づいて、前記ユーザの感情の生起を示す感情生起語を特定する特定手段と、
前記テキスト情報の中から前記特定された感情生起語を含む文字列を選択し、当該選択した文字列に対する所定の加工により応答文を生成する生成手段と、
前記生成された応答文を音声へ変換して出力する音声出力手段と、
を備える音声対話システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017228234A JP6943158B2 (ja) | 2017-11-28 | 2017-11-28 | 応答文生成装置、方法及びプログラム並びに音声対話システム |
EP18203266.4A EP3489950B1 (en) | 2017-11-28 | 2018-10-30 | Response sentence generation apparatus, method and program |
US16/185,033 US10861458B2 (en) | 2017-11-28 | 2018-11-09 | Response sentence generation apparatus, method and program, and voice interaction system |
CN201811417322.0A CN110032742B (zh) | 2017-11-28 | 2018-11-26 | 响应语句生成设备、方法和存储介质以及语音交互系统 |
KR1020180148469A KR102161579B1 (ko) | 2017-11-28 | 2018-11-27 | 응답문 생성 장치, 방법 및 프로그램, 그리고 음성 대화 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017228234A JP6943158B2 (ja) | 2017-11-28 | 2017-11-28 | 応答文生成装置、方法及びプログラム並びに音声対話システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019101064A true JP2019101064A (ja) | 2019-06-24 |
JP6943158B2 JP6943158B2 (ja) | 2021-09-29 |
Family
ID=64048716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017228234A Active JP6943158B2 (ja) | 2017-11-28 | 2017-11-28 | 応答文生成装置、方法及びプログラム並びに音声対話システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10861458B2 (ja) |
EP (1) | EP3489950B1 (ja) |
JP (1) | JP6943158B2 (ja) |
KR (1) | KR102161579B1 (ja) |
CN (1) | CN110032742B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110827827A (zh) * | 2019-11-27 | 2020-02-21 | 维沃移动通信有限公司 | 一种语音播报方法及电子设备 |
JP2022053404A (ja) * | 2020-09-24 | 2022-04-05 | Kddi株式会社 | ポジティブなオウム返し的応答文によって対話するプログラム、装置及び方法 |
WO2023238341A1 (ja) * | 2022-06-09 | 2023-12-14 | 日本電信電話株式会社 | 音声応答文学習方法、音声応答文生成方法、音声応答文学習装置、音声応答文生成装置及びプログラム |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7151181B2 (ja) * | 2018-05-31 | 2022-10-12 | トヨタ自動車株式会社 | 音声対話システム、その処理方法及びプログラム |
WO2020101263A1 (en) * | 2018-11-14 | 2020-05-22 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
KR20200113105A (ko) * | 2019-03-22 | 2020-10-06 | 삼성전자주식회사 | 응답을 제공하는 전자 장치와 이의 동작 방법 |
CN110502631B (zh) * | 2019-07-17 | 2022-11-04 | 招联消费金融有限公司 | 一种输入信息响应方法、装置、计算机设备和存储介质 |
RU2762702C2 (ru) * | 2020-04-28 | 2021-12-22 | Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) | Система и способ автоматизированной оценки намерений и эмоций пользователей диалоговой системы |
CN111583968A (zh) * | 2020-05-25 | 2020-08-25 | 桂林电子科技大学 | 一种语音情感识别方法和系统 |
CN111984758A (zh) * | 2020-06-29 | 2020-11-24 | 联想(北京)有限公司 | 一种应答信息处理方法、智能设备及存储介质 |
WO2023102931A1 (zh) * | 2021-12-10 | 2023-06-15 | 广州虎牙科技有限公司 | 韵律结构的预测方法、电子设备、程序产品及存储介质 |
CN116913278B (zh) * | 2023-09-12 | 2023-11-17 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、设备和存储介质 |
CN118588085A (zh) * | 2024-08-05 | 2024-09-03 | 南京硅基智能科技有限公司 | 语音交互方法、语音交互系统和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001117922A (ja) * | 1999-10-15 | 2001-04-27 | Sony Corp | 翻訳装置および翻訳方法、並びに記録媒体 |
JP2006071936A (ja) * | 2004-09-01 | 2006-03-16 | Matsushita Electric Works Ltd | 対話エージェント |
JP2008243043A (ja) * | 2007-03-28 | 2008-10-09 | Toshiba Corp | 音声翻訳装置、方法およびプログラム |
JP2012113542A (ja) * | 2010-11-25 | 2012-06-14 | Nippon Telegr & Teleph Corp <Ntt> | 感情推定装置、その方法、プログラム及びその記録媒体 |
JP2013235556A (ja) * | 2012-05-07 | 2013-11-21 | Lg Electronics Inc | 音声ファイルに関連するテキストの表示方法及びこれを実現した電子機器 |
JP2016036500A (ja) * | 2014-08-07 | 2016-03-22 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5918222A (en) * | 1995-03-17 | 1999-06-29 | Kabushiki Kaisha Toshiba | Information disclosing apparatus and multi-modal information input/output system |
JP3006677B2 (ja) * | 1996-10-28 | 2000-02-07 | 日本電気株式会社 | 音声認識装置 |
US7590538B2 (en) * | 1999-08-31 | 2009-09-15 | Accenture Llp | Voice recognition system for navigating on the internet |
JP4054507B2 (ja) * | 2000-03-31 | 2008-02-27 | キヤノン株式会社 | 音声情報処理方法および装置および記憶媒体 |
GB2380556A (en) * | 2001-10-05 | 2003-04-09 | Hewlett Packard Co | Camera with vocal control and recording |
US20030167167A1 (en) * | 2002-02-26 | 2003-09-04 | Li Gong | Intelligent personal assistants |
JP2003330490A (ja) * | 2002-05-15 | 2003-11-19 | Fujitsu Ltd | 音声対話装置 |
USH2189H1 (en) * | 2002-10-21 | 2007-05-01 | Oracle International Corporation | SQL enhancements to support text queries on speech recognition results of audio data |
JP2005266198A (ja) * | 2004-03-18 | 2005-09-29 | Pioneer Electronic Corp | 音響情報再生装置および音楽データのキーワード作成方法 |
US8214214B2 (en) * | 2004-12-03 | 2012-07-03 | Phoenix Solutions, Inc. | Emotion detection device and method for use in distributed systems |
GB2433150B (en) * | 2005-12-08 | 2009-10-07 | Toshiba Res Europ Ltd | Method and apparatus for labelling speech |
US8073681B2 (en) * | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
EP2045798B1 (en) * | 2007-03-29 | 2014-12-03 | Panasonic Intellectual Property Corporation of America | Keyword extracting device |
US20080300872A1 (en) * | 2007-05-31 | 2008-12-04 | Microsoft Corporation | Scalable summaries of audio or visual content |
EP2188729A1 (en) * | 2007-08-08 | 2010-05-26 | Lessac Technologies, Inc. | System-effected text annotation for expressive prosody in speech synthesis and recognition |
JP2009193448A (ja) | 2008-02-15 | 2009-08-27 | Oki Electric Ind Co Ltd | 対話システム、方法及びプログラム |
US20090210411A1 (en) | 2008-02-15 | 2009-08-20 | Oki Electric Industry Co., Ltd. | Information Retrieving System |
US9922640B2 (en) * | 2008-10-17 | 2018-03-20 | Ashwin P Rao | System and method for multimodal utterance detection |
KR101131278B1 (ko) * | 2010-03-02 | 2012-03-30 | 포항공과대학교 산학협력단 | 대화 로그를 이용한 학습 기반 대화 시스템 성능 향상 방법 및 그 장치 |
JP5602653B2 (ja) * | 2011-01-31 | 2014-10-08 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 情報処理装置、情報処理方法、情報処理システム、およびプログラム |
EP2498250B1 (en) * | 2011-03-07 | 2021-05-05 | Accenture Global Services Limited | Client and server system for natural language-based control of a digital network of devices |
US8918320B2 (en) * | 2012-01-03 | 2014-12-23 | Nokia Corporation | Methods, apparatuses and computer program products for joint use of speech and text-based features for sentiment detection |
KR20140026220A (ko) * | 2012-06-15 | 2014-03-05 | 삼성전자주식회사 | 단말 장치 및 단말 장치의 제어 방법 |
US9020822B2 (en) * | 2012-10-19 | 2015-04-28 | Sony Computer Entertainment Inc. | Emotion recognition using auditory attention cues extracted from users voice |
US9105042B2 (en) * | 2013-02-07 | 2015-08-11 | Verizon Patent And Licensing Inc. | Customer sentiment analysis using recorded conversation |
KR102065045B1 (ko) * | 2013-03-15 | 2020-01-10 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
KR20140120560A (ko) * | 2013-04-03 | 2014-10-14 | 삼성전자주식회사 | 통역 장치 제어 방법, 통역 서버의 제어 방법, 통역 시스템의 제어 방법 및 사용자 단말 |
CN105378830A (zh) * | 2013-05-31 | 2016-03-02 | 朗桑有限公司 | 音频数据的处理 |
US10068588B2 (en) * | 2014-07-21 | 2018-09-04 | Microsoft Technology Licensing, Llc | Real-time emotion recognition from audio signals |
JP6295869B2 (ja) | 2014-07-23 | 2018-03-20 | トヨタ自動車株式会社 | 応答生成装置、応答生成方法及びプログラム |
US10127927B2 (en) * | 2014-07-28 | 2018-11-13 | Sony Interactive Entertainment Inc. | Emotional speech processing |
US10803850B2 (en) * | 2014-09-08 | 2020-10-13 | Microsoft Technology Licensing, Llc | Voice generation with predetermined emotion type |
US9484032B2 (en) * | 2014-10-27 | 2016-11-01 | Xerox Corporation | Methods and systems for navigating through multimedia content |
CN104361896B (zh) * | 2014-12-04 | 2018-04-13 | 上海流利说信息技术有限公司 | 语音质量评价设备、方法和系统 |
WO2017031461A1 (en) * | 2015-08-19 | 2017-02-23 | Veritone, Inc. | Engine and system for the transcription and assessment of media files |
US10141010B1 (en) * | 2015-10-01 | 2018-11-27 | Google Llc | Automatic censoring of objectionable song lyrics in audio |
KR102525209B1 (ko) * | 2016-03-03 | 2023-04-25 | 한국전자통신연구원 | 원시 발화자의 목소리와 유사한 특성을 갖는 합성음을 생성하는 자동 통역 시스템 및 그 동작 방법 |
US20190051302A1 (en) * | 2018-09-24 | 2019-02-14 | Intel Corporation | Technologies for contextual natural language generation in a vehicle |
-
2017
- 2017-11-28 JP JP2017228234A patent/JP6943158B2/ja active Active
-
2018
- 2018-10-30 EP EP18203266.4A patent/EP3489950B1/en active Active
- 2018-11-09 US US16/185,033 patent/US10861458B2/en active Active
- 2018-11-26 CN CN201811417322.0A patent/CN110032742B/zh active Active
- 2018-11-27 KR KR1020180148469A patent/KR102161579B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001117922A (ja) * | 1999-10-15 | 2001-04-27 | Sony Corp | 翻訳装置および翻訳方法、並びに記録媒体 |
JP2006071936A (ja) * | 2004-09-01 | 2006-03-16 | Matsushita Electric Works Ltd | 対話エージェント |
JP2008243043A (ja) * | 2007-03-28 | 2008-10-09 | Toshiba Corp | 音声翻訳装置、方法およびプログラム |
JP2012113542A (ja) * | 2010-11-25 | 2012-06-14 | Nippon Telegr & Teleph Corp <Ntt> | 感情推定装置、その方法、プログラム及びその記録媒体 |
JP2013235556A (ja) * | 2012-05-07 | 2013-11-21 | Lg Electronics Inc | 音声ファイルに関連するテキストの表示方法及びこれを実現した電子機器 |
JP2016036500A (ja) * | 2014-08-07 | 2016-03-22 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110827827A (zh) * | 2019-11-27 | 2020-02-21 | 维沃移动通信有限公司 | 一种语音播报方法及电子设备 |
JP2022053404A (ja) * | 2020-09-24 | 2022-04-05 | Kddi株式会社 | ポジティブなオウム返し的応答文によって対話するプログラム、装置及び方法 |
JP7368335B2 (ja) | 2020-09-24 | 2023-10-24 | Kddi株式会社 | ポジティブなオウム返し的応答文によって対話するプログラム、装置及び方法 |
WO2023238341A1 (ja) * | 2022-06-09 | 2023-12-14 | 日本電信電話株式会社 | 音声応答文学習方法、音声応答文生成方法、音声応答文学習装置、音声応答文生成装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3489950A1 (en) | 2019-05-29 |
US20190164551A1 (en) | 2019-05-30 |
CN110032742B (zh) | 2023-09-01 |
US10861458B2 (en) | 2020-12-08 |
CN110032742A (zh) | 2019-07-19 |
EP3489950B1 (en) | 2020-08-12 |
KR20190062274A (ko) | 2019-06-05 |
JP6943158B2 (ja) | 2021-09-29 |
KR102161579B1 (ko) | 2020-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6943158B2 (ja) | 応答文生成装置、方法及びプログラム並びに音声対話システム | |
EP3370230B1 (en) | Voice interaction apparatus, its processing method, and program | |
EP2988298B1 (en) | Response generation method, response generation apparatus, and response generation program | |
US20190371305A1 (en) | Voice interaction system, its processing method, and program therefor | |
JP7151181B2 (ja) | 音声対話システム、その処理方法及びプログラム | |
Shivakumar et al. | Kannada speech to text conversion using CMU Sphinx | |
CN111949778A (zh) | 一种基于用户情绪的智能语音对话方法、装置及电子设备 | |
JP2019101065A (ja) | 音声対話装置、音声対話方法及びプログラム | |
JP2008276543A (ja) | 対話処理装置、応答文生成方法、及び応答文生成処理プログラム | |
KR20110100079A (ko) | 대화체 앞뒤 문장정보를 이용한 다국어 음성합성 시스템 및 방법 | |
JP5158022B2 (ja) | 対話処理装置、対話処理方法、及び対話処理プログラム | |
US20040006469A1 (en) | Apparatus and method for updating lexicon | |
US20220208180A1 (en) | Speech analyser and related method | |
JP2016024384A (ja) | 応答生成装置、応答生成方法及びプログラム | |
Šoić et al. | Spoken notifications in smart environments using Croatian language | |
Trang et al. | Prosodic phrasing modeling for Vietnamese TTS using syntactic information | |
JP6773074B2 (ja) | 応答生成方法、応答生成装置及び応答生成プログラム | |
KR20140051519A (ko) | 연속어 음성인식 방법 및 연속어 음성인식 장치 | |
Apopei et al. | Towards prosodic phrasing of spontaneous and reading speech for Romanian corpora | |
Tirronen | Automated Testing of Speech-to-Speech Machine Translation in Telecom Networks | |
de Carvalho Campinho | Automatic Speech Recognition for European Portuguese | |
Naufal et al. | Machine Speech Chain with Emotion Recognition | |
JP2023007014A (ja) | 応答システム、応答方法、および応答プログラム | |
Chai et al. | Expressive Malay Online Speech Interface (EMOSI) | |
JP2018190170A (ja) | 発話生成装置、発話生成方法、及び発話生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6943158 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |