JP7059813B2 - 音声対話システム、その処理方法及びプログラム - Google Patents
音声対話システム、その処理方法及びプログラム Download PDFInfo
- Publication number
- JP7059813B2 JP7059813B2 JP2018104983A JP2018104983A JP7059813B2 JP 7059813 B2 JP7059813 B2 JP 7059813B2 JP 2018104983 A JP2018104983 A JP 2018104983A JP 2018104983 A JP2018104983 A JP 2018104983A JP 7059813 B2 JP7059813 B2 JP 7059813B2
- Authority
- JP
- Japan
- Prior art keywords
- response sentence
- word
- voice
- voice dialogue
- return
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 10
- 230000004044 response Effects 0.000 claims description 262
- 238000001514 detection method Methods 0.000 claims description 56
- 230000008859 change Effects 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 description 15
- 235000021152 breakfast Nutrition 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 235000012054 meals Nutrition 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1807—Speech classification or search using natural language modelling using prosody or stress
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Machine Translation (AREA)
Description
ユーザと音声対話を行う音声対話システムであって、
前記ユーザによる聞返しを検出する聞返し検出手段と、
前記聞返し検出手段により聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成する応答文生成手段と、
前記ユーザとの音声対話の履歴を記憶する記憶手段と、
を備え、
前記応答文生成手段は、前記応答文において、前記記憶手段の音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システム
である。
この一態様において、前記応答文生成手段は、前記応答文において、前記記憶手段の音声対話の履歴における出現頻度が最も低い単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成してもよい。
この一態様において、前記応答文生成手段は、前記応答文において、前記記憶手段の音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語の音声速度を、該単語以外の単語の音声速度よりも低下させた前記聞返し用の応答文、該単語の音量を、該単語以外の単語の音量よりも大きくした前記聞返し用の応答文、および、該単語と、該単語の前後の単語と、の間隔を空けた前記聞返し用の応答文、のうちの少なくとも1つの前記聞返し用の応答文を生成してもよい。
この一態様において、前記応答文生成手段は、前記応答文において、前記記憶手段の音声対話の履歴における出現頻度が第1所定値以下かつ、重要度が第2所定値以上の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成してもよい。
この一態様において、前記音声対話の話題を推定し、該推定した話題の変化を検出する話題検出手段を更に備え、前記聞返し検出手段は、前記話題検出手段により前記話題の変化が検出された場合に、前記ユーザの音声の韻律情報に基づいて、前記ユーザの音声を該ユーザによる聞返しとして検出してもよい。
この一態様において、前記ユーザの音声の韻律情報を分析し、該韻律の変化量を検出する韻律検出手段を更に備え、前記聞返し検出手段は、前記話題検出手段により前記話題の変化が検出され、かつ、前記韻律検出手段により検出された韻律の変化量が所定量以上である場合に、前記ユーザの音声を該ユーザによる聞返しとして検出してもよい。
上記目的を達成するための本発明の一態様は、
ユーザと音声対話を行う音声対話システムの処理方法であって、
前記ユーザによる聞返しを検出するステップと、
前記聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成するステップと、
を含み、
前記応答文において、前記ユーザとの音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システムの処理方法
であってもよい。
上記目的を達成するための本発明の一態様は、
ユーザと音声対話を行う音声対話システムのプログラムあって、
前記ユーザによる聞返しを検出する処理と、
前記聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成する処理と、
をコンピュータに実行させ、
前記応答文において、前記ユーザとの音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システムのプログラム
であってもよい。
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本発明の実施形態1に係る音声対話システムの概略的なシステム構成を示すブロック図である。本実施形態1に係る音声対話システム1は、例えば、ロボット、PC(Personal Computer)、携帯端末(スマートフォン、タブレットなど)、ナビゲーション装置等に搭載され、ユーザと対話を行う。
上記実施形態1において、応答文生成部4は、聞返し直前にユーザに応答した応答文において、音声対話履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる聞返し用の応答文を生成している。これに対し、本発明の実施形態2において、応答文生成部4は、聞返し直前の応答文において、音声対話履歴における出現頻度が第1所定値以下の単語が含まれる場合、その応答文において、その単語を強調した聞返し用の応答文を生成する。
本発明の実施形態3において、応答文生成部4は、聞返し直前の応答文において、音声対話履歴における出現頻度が最も低い単語が含まれる場合、その単語のみからなる聞返し用の応答文、または、その単語のみを強調した聞返し用の応答文を生成する。
本発明の実施形態4において、応答文生成部4は、聞返し直前の応答文において、音声対話履歴における出現頻度が第1所定値以下かつ、重要度が第2所定値以上の単語が含まれる場合、該単語のみからなる聞返し用の応答文、または、その応答文において該単語を強調した聞返し用の応答文を生成する。
TF=(音声対話における単語Xの出現頻度)/(音声対話における全単語の出現頻度の和)
IDF=log{(音声対話履歴に含まれる全音声対話の数)/(単語Xを含む音声対話の数)}
TF-IDF=TF×IDF
本発明の実施形態5において、応答文生成部4は、聞返し直前の応答文において、音声対話履歴における出現頻度が第1所定値以下かつ、一般対話履歴における出現頻度が第3所定値以上の単語が含まれる場合、該単語のみからなる聞返し用の応答文、または、その応答文において該単語を強調した聞返し用の応答文を生成する。
Claims (9)
- ユーザと音声対話を行う音声対話システムであって、
前記ユーザによる聞返しを検出する聞返し検出手段と、
前記聞返し検出手段により聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成する応答文生成手段と、
前記ユーザとの音声対話の履歴を記憶する記憶手段と、
を備え、
前記応答文生成手段は、前記応答文において、前記記憶手段の音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システム。 - 請求項1記載の音声対話システムであって、
前記応答文生成手段は、前記応答文において、前記記憶手段の音声対話の履歴における出現頻度が最も低い単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システム。 - 請求項1記載の音声対話システムであって、
前記応答文生成手段は、
前記応答文において、前記記憶手段の音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、
該単語の音声速度を、該単語以外の単語の音声速度よりも低下させた前記聞返し用の応答文、該単語の音量を、該単語以外の単語の音量よりも大きくした前記聞返し用の応答文、および、該単語と、該単語の前後の単語と、の間隔を空けた前記聞返し用の応答文、のうちの少なくとも1つの前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システム。 - 請求項1記載の音声対話システムであって、
前記応答文生成手段は、前記応答文において、前記記憶手段の音声対話の履歴における出現頻度が第1所定値以下かつ、重要度が第2所定値以上の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システム。 - 請求項2乃至4のうちいずれか1項記載の音声対話システムであって、
前記音声対話の話題を推定し、該推定した話題の変化を検出する話題検出手段を更に備え、
前記聞返し検出手段は、前記話題検出手段により前記話題の変化が検出された場合に、前記ユーザの音声の韻律情報に基づいて、前記ユーザの音声を該ユーザによる聞返しとして検出する、
ことを特徴とする音声対話システム。 - 請求項5記載の音声対話システムであって、
前記ユーザの音声の韻律情報を分析し、該韻律の変化量を検出する韻律検出手段を更に備え、
前記聞返し検出手段は、前記話題検出手段により前記話題の変化が検出され、かつ、前記韻律検出手段により検出された韻律の変化量が所定量以上である場合に、前記ユーザの音声を該ユーザによる聞返しとして検出する、
ことを特徴とする音声対話システム。 - ユーザと音声対話を行う音声対話システムの処理方法であって、
前記ユーザによる聞返しを検出するステップと、
前記聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成するステップと、
を含み、
前記応答文において、前記ユーザとの音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システムの処理方法。 - ユーザと音声対話を行う音声対話システムのプログラムあって、
前記ユーザによる聞返しを検出する処理と、
前記聞返しが検出された場合、該聞返し対し、該聞返し前に前記ユーザに応答した応答文に基づいて、聞返し用の応答文を生成する処理と、
をコンピュータに実行させ、
前記応答文において、前記ユーザとの音声対話の履歴における出現頻度が第1所定値以下の単語が含まれる場合、該単語のみからなる前記聞返し用の応答文、または、前記応答文において該単語を強調した前記聞返し用の応答文を生成する、
ことを特徴とする音声対話システムのプログラム。 - 請求項4記載の音声対話システムであって、
前記重要度は、TF-IDF(Term Frequency-Inverse Document Frequency)であり、
前記TF-IDFは、下記式を用いて算出される、
TF=(音声対話における単語Xの出現頻度)/(音声対話における全単語の出現頻度の和)
IDF=log{(音声対話の履歴に含まれる全音声対話の数)/(単語Xを含む音声対話の数)}
TF-IDF=TF×IDF、
ことを特徴とする音声対話システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104983A JP7059813B2 (ja) | 2018-05-31 | 2018-05-31 | 音声対話システム、その処理方法及びプログラム |
CN201910450497.XA CN110556105B (zh) | 2018-05-31 | 2019-05-28 | 语音交互系统、其处理方法及其程序 |
US16/425,023 US11170763B2 (en) | 2018-05-31 | 2019-05-29 | Voice interaction system, its processing method, and program therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104983A JP7059813B2 (ja) | 2018-05-31 | 2018-05-31 | 音声対話システム、その処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019211516A JP2019211516A (ja) | 2019-12-12 |
JP7059813B2 true JP7059813B2 (ja) | 2022-04-26 |
Family
ID=68694108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018104983A Active JP7059813B2 (ja) | 2018-05-31 | 2018-05-31 | 音声対話システム、その処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11170763B2 (ja) |
JP (1) | JP7059813B2 (ja) |
CN (1) | CN110556105B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6481643B2 (ja) * | 2016-03-08 | 2019-03-13 | トヨタ自動車株式会社 | 音声処理システムおよび音声処理方法 |
JP7151181B2 (ja) | 2018-05-31 | 2022-10-12 | トヨタ自動車株式会社 | 音声対話システム、その処理方法及びプログラム |
JP7142315B2 (ja) * | 2018-09-27 | 2022-09-27 | パナソニックIpマネジメント株式会社 | 説明支援装置および説明支援方法 |
CN111564202B (zh) * | 2020-04-30 | 2021-05-28 | 深圳市镜象科技有限公司 | 基于人机对话的心理疏导方法、心理疏导终端和存储介质 |
WO2024071921A1 (ko) * | 2022-09-30 | 2024-04-04 | 삼성전자 주식회사 | 인공지능과 음성 인식을 기반으로 동작하는 전자 장치 및 이의 제어 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331191A (ja) | 2000-05-23 | 2001-11-30 | Sharp Corp | 音声合成装置および音声合成方法、携帯端末器、並びに、プログラム記録媒体 |
JP2007102104A (ja) | 2005-10-07 | 2007-04-19 | Nippon Telegr & Teleph Corp <Ntt> | 応答文生成装置、応答文生成方法、そのプログラムおよび記憶媒体 |
JP2015148758A (ja) | 2014-02-07 | 2015-08-20 | トヨタ自動車株式会社 | 音声対話システム及び音声対話方法 |
JP2016061970A (ja) | 2014-09-18 | 2016-04-25 | 株式会社東芝 | 音声対話装置、方法およびプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8494859B2 (en) * | 2002-10-15 | 2013-07-23 | Gh, Llc | Universal processing system and methods for production of outputs accessible by people with disabilities |
CA2747153A1 (en) * | 2011-07-19 | 2013-01-19 | Suleman Kaheer | Natural language processing dialog system for obtaining goods, services or information |
WO2013155619A1 (en) * | 2012-04-20 | 2013-10-24 | Sam Pasupalak | Conversational agent |
JP6073649B2 (ja) | 2012-11-07 | 2017-02-01 | 株式会社日立システムズ | 音声自動認識・音声変換システム |
KR20160056548A (ko) * | 2014-11-12 | 2016-05-20 | 삼성전자주식회사 | 질의 응답을 위한 디스플레이 장치 및 방법 |
JP2017049471A (ja) * | 2015-09-03 | 2017-03-09 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
JP6481643B2 (ja) * | 2016-03-08 | 2019-03-13 | トヨタ自動車株式会社 | 音声処理システムおよび音声処理方法 |
US10102844B1 (en) * | 2016-03-29 | 2018-10-16 | Amazon Technologies, Inc. | Systems and methods for providing natural responses to commands |
US10229189B2 (en) * | 2016-05-23 | 2019-03-12 | International Business Machines Corporation | System for generation of automated response follow-up |
CN107665708B (zh) * | 2016-07-29 | 2021-06-08 | 科大讯飞股份有限公司 | 智能语音交互方法及系统 |
JP2018104982A (ja) * | 2016-12-27 | 2018-07-05 | 太平洋マテリアル株式会社 | 吹付けコンクリートの施工方法 |
-
2018
- 2018-05-31 JP JP2018104983A patent/JP7059813B2/ja active Active
-
2019
- 2019-05-28 CN CN201910450497.XA patent/CN110556105B/zh active Active
- 2019-05-29 US US16/425,023 patent/US11170763B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331191A (ja) | 2000-05-23 | 2001-11-30 | Sharp Corp | 音声合成装置および音声合成方法、携帯端末器、並びに、プログラム記録媒体 |
JP2007102104A (ja) | 2005-10-07 | 2007-04-19 | Nippon Telegr & Teleph Corp <Ntt> | 応答文生成装置、応答文生成方法、そのプログラムおよび記憶媒体 |
JP2015148758A (ja) | 2014-02-07 | 2015-08-20 | トヨタ自動車株式会社 | 音声対話システム及び音声対話方法 |
JP2016061970A (ja) | 2014-09-18 | 2016-04-25 | 株式会社東芝 | 音声対話装置、方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110556105B (zh) | 2022-11-15 |
JP2019211516A (ja) | 2019-12-12 |
CN110556105A (zh) | 2019-12-10 |
US11170763B2 (en) | 2021-11-09 |
US20190371305A1 (en) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7059813B2 (ja) | 音声対話システム、その処理方法及びプログラム | |
US10452352B2 (en) | Voice interaction apparatus, its processing method, and program | |
US8219397B2 (en) | Data processing system for autonomously building speech identification and tagging data | |
KR102161579B1 (ko) | 응답문 생성 장치, 방법 및 프로그램, 그리고 음성 대화 시스템 | |
US11270691B2 (en) | Voice interaction system, its processing method, and program therefor | |
JP5496863B2 (ja) | 感情推定装置、その方法、プログラム及びその記録媒体 | |
JP5506738B2 (ja) | 怒り感情推定装置、怒り感情推定方法およびそのプログラム | |
JPWO2017061027A1 (ja) | 言語モデル生成装置、言語モデル生成方法とそのプログラム | |
EP2988298B1 (en) | Response generation method, response generation apparatus, and response generation program | |
JP5867410B2 (ja) | 対話テキスト解析装置、方法およびプログラム | |
JP2019101065A (ja) | 音声対話装置、音声対話方法及びプログラム | |
JP6299563B2 (ja) | 応答生成方法、応答生成装置及び応答生成プログラム | |
JP5136512B2 (ja) | 応答生成装置及びプログラム | |
JP2013064951A (ja) | 音響モデル適応装置、その適応方法及びプログラム | |
JP2016080981A (ja) | 応答生成装置、応答生成方法及び応答生成プログラム | |
JP2016024384A (ja) | 応答生成装置、応答生成方法及びプログラム | |
JP6773074B2 (ja) | 応答生成方法、応答生成装置及び応答生成プログラム | |
JP2016080980A (ja) | 応答生成装置、応答生成方法及び応答生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220328 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7059813 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |