JP2020129099A - 推定装置、推定方法、及びプログラム - Google Patents
推定装置、推定方法、及びプログラム Download PDFInfo
- Publication number
- JP2020129099A JP2020129099A JP2019022596A JP2019022596A JP2020129099A JP 2020129099 A JP2020129099 A JP 2020129099A JP 2019022596 A JP2019022596 A JP 2019022596A JP 2019022596 A JP2019022596 A JP 2019022596A JP 2020129099 A JP2020129099 A JP 2020129099A
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- utterance
- data
- learning
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 16
- 230000014509 gene expression Effects 0.000 claims abstract description 42
- 238000006243 chemical reaction Methods 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 7
- 239000013598 vector Substances 0.000 description 60
- 230000011218 segmentation Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000000306 recurrent effect Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
- G10L2013/105—Duration
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Machine Translation (AREA)
Abstract
Description
図1乃至図4を参照して、本実施形態に係る推定装置100の構成及び推定方法について説明する。
は、推定された単語の継続時間長を示している。
次に、第2実施形態に係る推定装置100Aについて説明する。
第1実施形態では、図1に示す推定装置100においては、学習部10と推定部20とを分けて記載しているが、学習部10と推定部20とは一体的に形成されていてもよい。従って、推定部20が、学習部10が備える各部を備えていてもよい。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
11 表現変換部
12,12A 推定用データ生成部
13 推定モデル学習部
20 推定部
100,100A 推定装置
Claims (6)
- 音声区間の継続時間長を推定する推定装置であって、
学習用発話情報に含まれる複数の単語を、複数の数値表現データに表現変換する表現変換部と、
複数の前記学習用発話情報及び前記複数の数値表現データを用いて、推定用データを生成する推定用データ生成部と、
前記推定用データ及び前記複数の単語の継続時間長を用いて、推定モデルを学習する推定モデル学習部と、
前記推定モデルを用いて、ユーザの発話情報に基づいて、所定の音声区間の継続時間長を推定する推定部と、
を備える、推定装置。 - 前記推定用データ生成部は、
推定対象となる発話より過去の発話の学習用発話情報に含まれる複数の単語が表現変換された複数の数値表現データを用いて、前記過去の発話に関する第1データを取得し、
前記推定対象となる発話の学習用発話情報に含まれる推定対象となる単語が表現変換された数値表現データを用いて、前記推定対象となる発話に関する第2データを取得し、
前記第1データ及び前記第2データに基づいて、前記推定用データを生成する、
請求項1に記載の推定装置。 - 前記推定用データ生成部は、
前記推定対象となる発話の直前の発話の学習用発話情報に含まれる複数の単語の全てが表現変換された複数の数値表現データの統計量を用いて、前記第1データを取得する、
請求項2に記載の推定装置。 - 前記推定用データ生成部は、
前記推定対象となる発話の直前の発話の学習用発話情報に含まれる複数の単語の全てが表現変換された複数の数値表現データの中から、前記推定対象となる単語が表現変換された数値表現データと最も類似する数値表現データを選択し、選択した数値表現データを用いて、前記第1データを取得する、
請求項2に記載の推定装置。 - 音声区間の継続時間長を推定する推定装置による推定方法であって、
学習用発話情報に含まれる複数の単語を、複数の数値表現データに表現変換するステップと、
複数の前記学習用発話情報及び前記複数の数値表現データを用いて、推定用データを生成するステップと、
前記推定用データ及び前記複数の単語の継続時間長を用いて、推定モデルを学習するステップと、
前記推定モデルを用いて、ユーザの発話情報に基づいて、所定の音声区間の継続時間長を推定するステップと、
を含む、推定方法。 - コンピュータを、請求項1から4のいずれか一項に記載の推定装置として機能させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019022596A JP7197786B2 (ja) | 2019-02-12 | 2019-02-12 | 推定装置、推定方法、及びプログラム |
PCT/JP2020/003480 WO2020166359A1 (ja) | 2019-02-12 | 2020-01-30 | 推定装置、推定方法、及びプログラム |
US17/429,617 US11915688B2 (en) | 2019-02-12 | 2020-01-30 | Prediction device, prediction method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019022596A JP7197786B2 (ja) | 2019-02-12 | 2019-02-12 | 推定装置、推定方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020129099A true JP2020129099A (ja) | 2020-08-27 |
JP7197786B2 JP7197786B2 (ja) | 2022-12-28 |
Family
ID=72044670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019022596A Active JP7197786B2 (ja) | 2019-02-12 | 2019-02-12 | 推定装置、推定方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11915688B2 (ja) |
JP (1) | JP7197786B2 (ja) |
WO (1) | WO2020166359A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11854564B1 (en) * | 2020-06-16 | 2023-12-26 | Amazon Technologies, Inc. | Autonomously motile device with noise suppression |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000310996A (ja) * | 1999-04-28 | 2000-11-07 | Oki Electric Ind Co Ltd | 音声合成装置および音韻継続時間長の制御方法 |
JP2001265375A (ja) * | 2000-03-17 | 2001-09-28 | Oki Electric Ind Co Ltd | 規則音声合成装置 |
JP2001282279A (ja) * | 2000-03-31 | 2001-10-12 | Canon Inc | 音声情報処理方法及び装置及び記憶媒体 |
JP2001350491A (ja) * | 2000-06-07 | 2001-12-21 | Canon Inc | 音声処理方法および装置 |
JP2007011042A (ja) * | 2005-06-30 | 2007-01-18 | Mitsubishi Electric Corp | 韻律生成装置及び音声合成装置 |
WO2017046887A1 (ja) * | 2015-09-16 | 2017-03-23 | 株式会社東芝 | 音声合成装置、音声合成方法、音声合成プログラム、音声合成モデル学習装置、音声合成モデル学習方法及び音声合成モデル学習プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9697820B2 (en) * | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
CN107704482A (zh) * | 2016-08-09 | 2018-02-16 | 松下知识产权经营株式会社 | 方法、装置以及程序 |
US11501769B2 (en) * | 2018-08-31 | 2022-11-15 | Google Llc | Dynamic adjustment of story time special effects based on contextual data |
-
2019
- 2019-02-12 JP JP2019022596A patent/JP7197786B2/ja active Active
-
2020
- 2020-01-30 US US17/429,617 patent/US11915688B2/en active Active
- 2020-01-30 WO PCT/JP2020/003480 patent/WO2020166359A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000310996A (ja) * | 1999-04-28 | 2000-11-07 | Oki Electric Ind Co Ltd | 音声合成装置および音韻継続時間長の制御方法 |
JP2001265375A (ja) * | 2000-03-17 | 2001-09-28 | Oki Electric Ind Co Ltd | 規則音声合成装置 |
JP2001282279A (ja) * | 2000-03-31 | 2001-10-12 | Canon Inc | 音声情報処理方法及び装置及び記憶媒体 |
JP2001350491A (ja) * | 2000-06-07 | 2001-12-21 | Canon Inc | 音声処理方法および装置 |
JP2007011042A (ja) * | 2005-06-30 | 2007-01-18 | Mitsubishi Electric Corp | 韻律生成装置及び音声合成装置 |
WO2017046887A1 (ja) * | 2015-09-16 | 2017-03-23 | 株式会社東芝 | 音声合成装置、音声合成方法、音声合成プログラム、音声合成モデル学習装置、音声合成モデル学習方法及び音声合成モデル学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220139381A1 (en) | 2022-05-05 |
JP7197786B2 (ja) | 2022-12-28 |
US11915688B2 (en) | 2024-02-27 |
WO2020166359A1 (ja) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11929059B2 (en) | Method, device, and computer readable storage medium for text-to-speech synthesis using machine learning on basis of sequential prosody feature | |
CN108573693B (zh) | 文本到语音系统和方法以及其存储介质 | |
CN106971709B (zh) | 统计参数模型建立方法和装置、语音合成方法和装置 | |
JP5665780B2 (ja) | 音声合成装置、方法およびプログラム | |
WO2018151125A1 (ja) | 単語ベクトル化モデル学習装置、単語ベクトル化装置、音声合成装置、それらの方法、及びプログラム | |
CN113470662A (zh) | 生成和使用用于关键词检出系统的文本到语音数据和语音识别系统中的说话者适配 | |
CN112435654B (zh) | 通过帧插入对语音数据进行数据增强 | |
JP6293912B2 (ja) | 音声合成装置、音声合成方法およびプログラム | |
JP2017032839A (ja) | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム | |
US20230343319A1 (en) | speech processing system and a method of processing a speech signal | |
JP5411845B2 (ja) | 音声合成方法、音声合成装置及び音声合成プログラム | |
JP2019179257A (ja) | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム | |
JP5180800B2 (ja) | 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム | |
CN114242033A (zh) | 语音合成方法、装置、设备、存储介质及程序产品 | |
CN110930975A (zh) | 用于输出信息的方法和装置 | |
JP7192882B2 (ja) | 発話リズム変換装置、モデル学習装置、それらの方法、およびプログラム | |
JP2018004947A (ja) | テキスト補正装置、テキスト補正方法、およびプログラム | |
JP6631883B2 (ja) | クロスリンガル音声合成用モデル学習装置、クロスリンガル音声合成用モデル学習方法、プログラム | |
WO2020166359A1 (ja) | 推定装置、推定方法、及びプログラム | |
JP6220733B2 (ja) | 音声分類装置、音声分類方法、プログラム | |
US20240119922A1 (en) | Text to speech synthesis without using parallel text-audio data | |
JP6542823B2 (ja) | 音響モデル学習装置、音声合成装置、それらの方法、及びプログラム | |
CN112489646B (zh) | 语音识别方法及其装置 | |
KR102277205B1 (ko) | 오디오 변환 장치 및 방법 | |
JP5268731B2 (ja) | 音声合成装置、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7197786 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |