JP7151181B2 - 音声対話システム、その処理方法及びプログラム - Google Patents
音声対話システム、その処理方法及びプログラム Download PDFInfo
- Publication number
- JP7151181B2 JP7151181B2 JP2018104982A JP2018104982A JP7151181B2 JP 7151181 B2 JP7151181 B2 JP 7151181B2 JP 2018104982 A JP2018104982 A JP 2018104982A JP 2018104982 A JP2018104982 A JP 2018104982A JP 7151181 B2 JP7151181 B2 JP 7151181B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- voice
- response sentence
- topic
- reflection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 12
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000004044 response Effects 0.000 claims description 115
- 238000001514 detection method Methods 0.000 claims description 82
- 230000008859 change Effects 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 10
- 230000003993 interaction Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 description 20
- 230000015654 memory Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 235000021152 breakfast Nutrition 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000036541 health Effects 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Description
ユーザと音声対話を行う音声対話システムであって、
前記音声対話の話題を推定し、該推定した話題の変化を検出する話題検出手段と、
前記話題検出手段により前記話題の変化が検出された場合に、前記ユーザの音声の韻律情報に基づいて、前記ユーザの音声を該ユーザによる聞返しとして検出する聞返し検出手段と、
を備える、ことを特徴とする音声対話システム
である。
この一態様において、前記ユーザの音声の韻律情報を分析し、該韻律の変化量を検出する韻律検出手段を更に備え、前記聞返し検出手段は、前記話題検出手段により前記話題の変化が検出され、かつ、前記韻律検出手段により検出された韻律の変化量が所定量以上である場合に、前記ユーザの音声を該ユーザによる聞返しとして検出してもよい。
この一態様において、前記韻律情報を入力とし、前記聞返し検出を出力として、前記韻律情報と前記聞返し検出との関係を機械学習する学習手段を備え、前記聞返し検出手段は、前記話題検出手段により前記話題の変化が検出され、かつ、前記ユーザの音声の韻律情報が前記学習手段により入力され該学習手段が前記聞返し検出を出力した場合に、前記ユーザの音声を該ユーザによる聞返しとして検出してもよい。
この一態様において、前記聞返し検出手段により聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成する応答文生成手段を更に備え、前記応答文生成手段は、前記応答文において、前記ユーザとの音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成してもよい。
上記目的を達成するための本発明の一態様は、
ユーザと音声対話を行う音声対話システムの処理方法であって、
前記音声対話の話題を推定し、該推定した話題の変化を検出するステップと、
前記話題の変化が検出された場合に、前記ユーザの音声の韻律情報に基づいて、前記ユーザの音声を該ユーザによる聞返しとして検出するステップと、
を含む、ことを特徴とする音声対話システムの処理方法
であってもよい。
上記目的を達成するための本発明の一態様は、
ユーザと音声対話を行う音声対話システムのプログラムであって、
前記音声対話の話題を推定し、該推定した話題の変化を検出する処理と、
前記話題の変化が検出された場合に、前記ユーザの音声の韻律情報に基づいて、前記ユーザの音声を該ユーザによる聞返しとして検出する処理と、
をコンピュータに実行させる、ことを特徴とする音声対話システムのプログラム
であってもよい。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の実施形態1に係る音声対話システムの概略的なシステム構成を示すブロック図である。本実施形態1に係る音声対話システム1は、例えば、ロボット、PC(Personal Computer)、携帯端末(スマートフォン、タブレットなど)、ナビゲーション装置等に搭載され、ユーザと対話を行う。
図5は、本発明の実施形態2に係る音声対話システムの概略的なシステム構成を示すブロック図である。本実施形態2に係る音声対話システム20は、ユーザの音声の韻律情報を入力とし、聞返し検出を出力として、ユーザの音声の韻律情報と聞返し検出との関係を機械学習する学習部9を更に備えている。
Claims (5)
- ユーザと音声対話を行う音声対話システムであって、
前記音声対話の話題を推定し、該推定した話題の変化を検出する話題検出手段と、
前記話題検出手段により前記話題の変化が検出された場合に、前記ユーザの音声の韻律情報に基づいて、前記ユーザの音声を該ユーザによる聞返しとして検出する聞返し検出手段と、
前記聞返し検出手段により聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成する応答文生成手段と、
を備え、
前記応答文生成手段は、前記応答文において、前記ユーザとの音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システム。 - 請求項1記載の音声対話システムであって、
前記ユーザの音声の韻律情報を分析し、該韻律の変化量を検出する韻律検出手段を更に備え、
前記聞返し検出手段は、前記話題検出手段により前記話題の変化が検出され、かつ、前記韻律検出手段により検出された韻律の変化量が所定量以上である場合に、前記ユーザの音声を該ユーザによる聞返しとして検出する、
ことを特徴とする音声対話システム。 - 請求項1記載の音声対話システムであって、
前記韻律情報を入力とし、前記聞返し検出を出力として、前記韻律情報と前記聞返し検出との関係を機械学習する学習手段を備え、
前記聞返し検出手段は、前記話題検出手段により前記話題の変化が検出され、かつ、 前記ユーザの音声の韻律情報が前記学習手段により入力され該学習手段が前記聞返し検出を出力した場合に、前記ユーザの音声を該ユーザによる聞返しとして検出する、
ことを特徴とする音声対話システム。 - ユーザと音声対話を行う音声対話システムの処理方法であって、
前記音声対話の話題を推定し、該推定した話題の変化を検出するステップと、
前記話題の変化が検出された場合に、前記ユーザの音声の韻律情報に基づいて、前記ユーザの音声を該ユーザによる聞返しとして検出するステップと、
前記聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成するステップと、
を含み、
前記応答文において、前記ユーザとの音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システムの処理方法。 - ユーザと音声対話を行う音声対話システムのプログラムであって、
前記音声対話の話題を推定し、該推定した話題の変化を検出する処理と、
前記話題の変化が検出された場合に、前記ユーザの音声の韻律情報に基づいて、前記ユーザの音声を該ユーザによる聞返しとして検出する処理と、
前記聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成する処理と、
をコンピュータに実行させ、
前記応答文において、前記ユーザとの音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システムのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104982A JP7151181B2 (ja) | 2018-05-31 | 2018-05-31 | 音声対話システム、その処理方法及びプログラム |
CN201910411917.3A CN110634479B (zh) | 2018-05-31 | 2019-05-17 | 语音交互系统、其处理方法以及其程序 |
US16/425,031 US11270691B2 (en) | 2018-05-31 | 2019-05-29 | Voice interaction system, its processing method, and program therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104982A JP7151181B2 (ja) | 2018-05-31 | 2018-05-31 | 音声対話システム、その処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019211515A JP2019211515A (ja) | 2019-12-12 |
JP7151181B2 true JP7151181B2 (ja) | 2022-10-12 |
Family
ID=68694137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018104982A Active JP7151181B2 (ja) | 2018-05-31 | 2018-05-31 | 音声対話システム、その処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11270691B2 (ja) |
JP (1) | JP7151181B2 (ja) |
CN (1) | CN110634479B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6481643B2 (ja) * | 2016-03-08 | 2019-03-13 | トヨタ自動車株式会社 | 音声処理システムおよび音声処理方法 |
JP7142315B2 (ja) * | 2018-09-27 | 2022-09-27 | パナソニックIpマネジメント株式会社 | 説明支援装置および説明支援方法 |
US11250853B2 (en) | 2020-04-30 | 2022-02-15 | Robert Bosch Gmbh | Sarcasm-sensitive spoken dialog system |
WO2024071921A1 (ko) * | 2022-09-30 | 2024-04-04 | 삼성전자 주식회사 | 인공지능과 음성 인식을 기반으로 동작하는 전자 장치 및 이의 제어 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331191A (ja) | 2000-05-23 | 2001-11-30 | Sharp Corp | 音声合成装置および音声合成方法、携帯端末器、並びに、プログラム記録媒体 |
JP2007017990A (ja) | 2006-07-20 | 2007-01-25 | Denso Corp | 単語列認識装置 |
JP2016061970A (ja) | 2014-09-18 | 2016-04-25 | 株式会社東芝 | 音声対話装置、方法およびプログラム |
JP2017516153A (ja) | 2014-05-20 | 2017-06-15 | アマゾン テクノロジーズ インコーポレイテッド | 以前の対話行為を使用する自然言語処理における文脈解釈 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69232407T2 (de) * | 1991-11-18 | 2002-09-12 | Kabushiki Kaisha Toshiba, Kawasaki | Sprach-Dialog-System zur Erleichterung von Rechner-Mensch-Wechselwirkung |
US20070294229A1 (en) * | 1998-05-28 | 2007-12-20 | Q-Phrase Llc | Chat conversation methods traversing a provisional scaffold of meanings |
JP2001272991A (ja) * | 2000-03-24 | 2001-10-05 | Sanyo Electric Co Ltd | 音声対話方法及び音声対話装置 |
US6795808B1 (en) * | 2000-10-30 | 2004-09-21 | Koninklijke Philips Electronics N.V. | User interface/entertainment device that simulates personal interaction and charges external database with relevant data |
US6731307B1 (en) * | 2000-10-30 | 2004-05-04 | Koninklije Philips Electronics N.V. | User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality |
US7257537B2 (en) * | 2001-01-12 | 2007-08-14 | International Business Machines Corporation | Method and apparatus for performing dialog management in a computer conversational interface |
JP4156563B2 (ja) * | 2004-06-07 | 2008-09-24 | 株式会社デンソー | 単語列認識装置 |
US20050283473A1 (en) * | 2004-06-17 | 2005-12-22 | Armand Rousso | Apparatus, method and system of artificial intelligence for data searching applications |
WO2007121570A1 (en) * | 2006-04-20 | 2007-11-01 | Iq Life, Inc. | Interactive patient monitoring system using speech recognition |
US20070260450A1 (en) * | 2006-05-05 | 2007-11-08 | Yudong Sun | Indexing parsed natural language texts for advanced search |
JP4264841B2 (ja) * | 2006-12-01 | 2009-05-20 | ソニー株式会社 | 音声認識装置および音声認識方法、並びに、プログラム |
US9014365B1 (en) * | 2007-06-06 | 2015-04-21 | United Services Automobile Association (Usaa) | Systems and methods for state information exchange |
US20090210411A1 (en) * | 2008-02-15 | 2009-08-20 | Oki Electric Industry Co., Ltd. | Information Retrieving System |
JP2010197858A (ja) | 2009-02-26 | 2010-09-09 | Gifu Univ | 音声対話システム |
JP5382780B2 (ja) | 2009-03-17 | 2014-01-08 | 株式会社国際電気通信基礎技術研究所 | 発話意図情報検出装置及びコンピュータプログラム |
US9634855B2 (en) * | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US20120016674A1 (en) * | 2010-07-16 | 2012-01-19 | International Business Machines Corporation | Modification of Speech Quality in Conversations Over Voice Channels |
US9493130B2 (en) * | 2011-04-22 | 2016-11-15 | Angel A. Penilla | Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input |
US20130325447A1 (en) * | 2012-05-31 | 2013-12-05 | Elwha LLC, a limited liability corporation of the State of Delaware | Speech recognition adaptation systems based on adaptation data |
KR102056461B1 (ko) * | 2012-06-15 | 2019-12-16 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 제어 방법 |
JP6073649B2 (ja) | 2012-11-07 | 2017-02-01 | 株式会社日立システムズ | 音声自動認識・音声変換システム |
JP6221301B2 (ja) * | 2013-03-28 | 2017-11-01 | 富士通株式会社 | 音声処理装置、音声処理システムおよび音声処理方法 |
US9519634B2 (en) * | 2014-05-30 | 2016-12-13 | Educational Testing Service | Systems and methods for determining lexical associations among words in a corpus |
US10395552B2 (en) * | 2014-12-19 | 2019-08-27 | International Business Machines Corporation | Coaching a participant in a conversation |
JP6601069B2 (ja) * | 2015-09-01 | 2019-11-06 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
JP2017049471A (ja) * | 2015-09-03 | 2017-03-09 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
WO2017112813A1 (en) * | 2015-12-22 | 2017-06-29 | Sri International | Multi-lingual virtual personal assistant |
JP6851871B2 (ja) * | 2016-03-30 | 2021-03-31 | 光吉 俊二 | 意思創発装置、意思創発方法および意思創発プログラム |
WO2017200078A1 (ja) * | 2016-05-20 | 2017-11-23 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、およびプログラム |
US10049263B2 (en) * | 2016-06-15 | 2018-08-14 | Stephan Hau | Computer-based micro-expression analysis |
US9875740B1 (en) * | 2016-06-20 | 2018-01-23 | A9.Com, Inc. | Using voice information to influence importance of search result categories |
US10592611B2 (en) * | 2016-10-24 | 2020-03-17 | Conduent Business Services, Llc | System for automatic extraction of structure from spoken conversation using lexical and acoustic features |
JP6731326B2 (ja) * | 2016-10-31 | 2020-07-29 | ファーハット ロボティクス エービー | 音声対話装置及び音声対話方法 |
US20180133900A1 (en) * | 2016-11-15 | 2018-05-17 | JIBO, Inc. | Embodied dialog and embodied speech authoring tools for use with an expressive social robot |
JP6785473B2 (ja) * | 2016-12-27 | 2020-11-18 | パナソニックIpマネジメント株式会社 | 戸装置の施工方法及び戸装置取付構造 |
US10467509B2 (en) * | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Computationally-efficient human-identifying smart assistant computer |
CN107030691B (zh) * | 2017-03-24 | 2020-04-14 | 华为技术有限公司 | 一种看护机器人的数据处理方法及装置 |
JP2019057123A (ja) * | 2017-09-21 | 2019-04-11 | 株式会社東芝 | 対話システム、方法、及びプログラム |
US10824595B1 (en) * | 2017-10-09 | 2020-11-03 | United Services Automobile Services (USAA) | Personalized user interface systems and methods |
JP6943158B2 (ja) * | 2017-11-28 | 2021-09-29 | トヨタ自動車株式会社 | 応答文生成装置、方法及びプログラム並びに音声対話システム |
EP3752957A4 (en) * | 2018-02-15 | 2021-11-17 | DMAI, Inc. | SYSTEM AND PROCEDURE FOR SPEECH UNDERSTANDING VIA INTEGRATED AUDIO AND VIDEO-BASED VOICE RECOGNITION |
US20190371318A1 (en) * | 2018-02-15 | 2019-12-05 | DMAI, Inc. | System and method for adaptive detection of spoken language via multiple speech models |
US10497366B2 (en) * | 2018-03-23 | 2019-12-03 | Servicenow, Inc. | Hybrid learning system for natural language understanding |
US11018997B2 (en) * | 2018-04-12 | 2021-05-25 | Disney Enterprises, Inc. | Systems and methods for maintaining a conversation |
JP7059813B2 (ja) | 2018-05-31 | 2022-04-26 | トヨタ自動車株式会社 | 音声対話システム、その処理方法及びプログラム |
-
2018
- 2018-05-31 JP JP2018104982A patent/JP7151181B2/ja active Active
-
2019
- 2019-05-17 CN CN201910411917.3A patent/CN110634479B/zh active Active
- 2019-05-29 US US16/425,031 patent/US11270691B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331191A (ja) | 2000-05-23 | 2001-11-30 | Sharp Corp | 音声合成装置および音声合成方法、携帯端末器、並びに、プログラム記録媒体 |
JP2007017990A (ja) | 2006-07-20 | 2007-01-25 | Denso Corp | 単語列認識装置 |
JP2017516153A (ja) | 2014-05-20 | 2017-06-15 | アマゾン テクノロジーズ インコーポレイテッド | 以前の対話行為を使用する自然言語処理における文脈解釈 |
JP2016061970A (ja) | 2014-09-18 | 2016-04-25 | 株式会社東芝 | 音声対話装置、方法およびプログラム |
Non-Patent Citations (2)
Title |
---|
三宅梨帆他,相槌/聞き返し認識とその音声対話システムへの応用,日本音響学会2005年春季研究発表会講演論文集,社団法人日本音響学会,2005年03月,pp. 71-72 |
大原康平他,不足情報を自律的に問う対話エージェントの実現に向けた聞き返しの必要性検知,DEIM Forum 2017 [online],F4-2,2017年03月,p.1-7,[令和4年3月9日検索],インターネット<URL:https//db-event.jpn.org/deim2017/papers/339.pdf> |
Also Published As
Publication number | Publication date |
---|---|
US11270691B2 (en) | 2022-03-08 |
JP2019211515A (ja) | 2019-12-12 |
CN110634479B (zh) | 2023-02-28 |
US20190371302A1 (en) | 2019-12-05 |
CN110634479A (zh) | 2019-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7151181B2 (ja) | 音声対話システム、その処理方法及びプログラム | |
US11514886B2 (en) | Emotion classification information-based text-to-speech (TTS) method and apparatus | |
KR102161579B1 (ko) | 응답문 생성 장치, 방법 및 프로그램, 그리고 음성 대화 시스템 | |
US10452352B2 (en) | Voice interaction apparatus, its processing method, and program | |
US8219397B2 (en) | Data processing system for autonomously building speech identification and tagging data | |
JP7059813B2 (ja) | 音声対話システム、その処理方法及びプログラム | |
US8024179B2 (en) | System and method for improving interaction with a user through a dynamically alterable spoken dialog system | |
JP5496863B2 (ja) | 感情推定装置、その方法、プログラム及びその記録媒体 | |
JP5506738B2 (ja) | 怒り感情推定装置、怒り感情推定方法およびそのプログラム | |
WO2014183373A1 (en) | Systems and methods for voice identification | |
EP2988298B1 (en) | Response generation method, response generation apparatus, and response generation program | |
JP6712754B2 (ja) | 談話機能推定装置及びそのためのコンピュータプログラム | |
JP7287006B2 (ja) | 話者決定装置、話者決定方法、および話者決定装置の制御プログラム | |
JP2017211610A (ja) | 出力制御装置、電子機器、出力制御装置の制御方法、および出力制御装置の制御プログラム | |
KR20210000802A (ko) | 인공지능 음성 인식 처리 방법 및 시스템 | |
JP2003162524A (ja) | 言語処理装置 | |
WO2016009634A1 (ja) | 会話分析システム、会話分析方法および会話分析プログラムが記録された記憶媒体 | |
JP6773074B2 (ja) | 応答生成方法、応答生成装置及び応答生成プログラム | |
Singh et al. | Analysis of prosody based automatic LID systems | |
Moore | Low-resource Language Identification From Speech Using X-vectors | |
PANDIPATI et al. | A Survey on Voice to Text Conversion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220912 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7151181 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |