JPWO2018168427A1 - 学習装置、学習方法、音声合成装置、音声合成方法 - Google Patents
学習装置、学習方法、音声合成装置、音声合成方法 Download PDFInfo
- Publication number
- JPWO2018168427A1 JPWO2018168427A1 JP2019505839A JP2019505839A JPWO2018168427A1 JP WO2018168427 A1 JPWO2018168427 A1 JP WO2018168427A1 JP 2019505839 A JP2019505839 A JP 2019505839A JP 2019505839 A JP2019505839 A JP 2019505839A JP WO2018168427 A1 JPWO2018168427 A1 JP WO2018168427A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- utterance
- voice
- speech
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 314
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 314
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000001308 synthesis method Methods 0.000 title abstract description 4
- 238000012545 processing Methods 0.000 claims description 140
- 230000005236 sound signal Effects 0.000 claims description 87
- 230000008451 emotion Effects 0.000 claims description 76
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 abstract description 16
- 230000008569 process Effects 0.000 description 71
- 238000013500 data storage Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 24
- 238000001514 detection method Methods 0.000 description 18
- 239000003795 chemical substances by application Substances 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 238000000926 separation method Methods 0.000 description 8
- 238000003058 natural language processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 6
- 230000007958 sleep Effects 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- JHIVVAPYMSGYDF-UHFFFAOYSA-N cyclohexanone Chemical compound O=C1CCCCC1 JHIVVAPYMSGYDF-UHFFFAOYSA-N 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本技術の一実施形態に係る学習装置は、複数のユーザの発話音声の音声認識を行い、発話時の状況を推定し、発話音声のデータと、音声認識の結果と、発話時の状況とに基づいて、音声合成時の状況に応じた合成音声の生成に用いられる音声合成用データの学習を行うものである。また、音声合成装置は、状況を推定し、上記音声合成用データを用いて、所定のテキストデータの内容を表し、推定された状況に応じた合成音声を生成するものである。本技術は、決まったユーザにより日常的に用いられ、音声によって情報を提示するエージェント機器に適用することができる。
Description
1.学習と音声合成の概要
2.第1の実施の形態(音声合成辞書を用いた例)
3.第2の実施の形態(音声合成ネットワークを用いた例)
図1は、音声合成用データの学習と、音声合成用データを用いた音声合成の概要について示す図である。
図2は、音声合成用データとして音声合成辞書を用いた場合の学習と音声合成の流れの例を示す図である。
[学習装置の構成例]
図3は、学習装置1の構成例を示すブロック図である。
:画像内の顔の位置から算出された、学習装置1からみたユーザの方向を表す情報。
:ユーザの識別に用いられる情報。家庭内での例においては、父、母、子どものいずれかを表す情報。
:平静、喜び、悲しみ、怒りなどの、推定された感情を表す情報。
参考文献1「URL http://www.ieice-hbkb.org/files/02/02gun_06hen_02.pdf」
参考文献2「URL https://julius.osdn.jp/juliusbook/ja/desc_vad.html」
ユーザの方向・個人識別情報・感情のセット(画像認識結果セット) × n人分
が入力される。
ユーザの発話方向・騒音量のセット
が入力される。
ユーザ発話テキスト
が入力される。
:n人分の画像認識結果セットのうち、それに含まれるユーザの方向が、ユーザの発話方向と一致する画像認識結果セットの個人識別情報。
:n人分の画像認識結果セットのうち、それに含まれるユーザの方向が、ユーザの発話方向と一致する画像認識結果セットの感情(例えば、平静、喜び、悲しみ、怒り)。
:音声信号処理部14から供給された騒音量を、閾値処理によって高・中・低の3段階に分類して得られるレベル。
ユーザ同士の発話の時間の連続性から、誰に向けた発話であるのかを判定し、発話先となったユーザの個人識別情報。
図5のフローチャートを参照して、以上のような構成を有する学習装置1の学習処理について説明する。
次に、図6のフローチャートを参照して、図5のステップS4において行われる発話検出・騒音量算出処理について説明する。
次に、図8のフローチャートを参照して、図5のステップS6において行われるコンテキスト情報生成処理について説明する。
次に、図9のフローチャートを参照して、図5のステップS7において行われるユーザ関係性判定処理について説明する。
次に、図11のフローチャートを参照して、図5のステップS8において行われる音声合成辞書生成処理について説明する。
参考文献3「特開2016-006541」
参考文献4「URL https://www.nii.ac.jp/userdata/shimin/documents/H27/150729_1stlec.pdf」
参考文献5「URL http://www.toshiba.co.jp/tech/review/2013/09/68_09pdf/a04.pdf」
[音声合成装置の構成例]
図13は、音声合成装置2の構成例を示すブロック図である。
図14のフローチャートを参照して、以上のような構成を有する音声合成装置2の音声合成処理について説明する。
次に、図15のフローチャートを参照して、図14のステップS108において行われる辞書選択処理について説明する。
・判定例1
システム発話テキストの内容が依頼や指示である場合、音声合成制御部57は、ユーザ関係性データを参照し、システム発話の対象のユーザを受け入れユーザとしたときに、受け入れスコアが最も高い依頼/指示ユーザの個別識別情報を、話者IDとして判定する。
システム発話テキストの内容がメールや伝言などの特定のユーザからのメッセージである場合、音声合成制御部57は、メッセージの発信元のユーザの個別識別情報を、話者IDとして判定する。
システム発話テキストの内容が緊急性の高い通知である場合、音声合成制御部57は、発話対象のユーザと同じ部屋にいるユーザや、発話対象のユーザと会話中のユーザの個別識別情報を話者IDとして判定する。発話対象のユーザと同じ部屋にいるユーザや、発話対象のユーザと会話中のユーザは、例えばコンテキスト情報により特定される。
システム発話テキストの内容が、参加者が登録されている予定の通知である場合、音声合成制御部57は、発話対象のユーザと一緒に参加するユーザの個別識別情報を話者IDとして判定する。
音声合成制御部57は、コンテキスト情報に基づいて、システム発話時における騒音レベル(高・中・低)を判定する。
音声合成制御部57は、システム発話テキストの内容や状況から、発話対象とするユーザを明確に特定することができる場合、そのユーザの個別識別情報を発話先IDとして判定する。
音声合成制御部57は、自然言語処理と意味解析処理を行うことによってシステム発話テキストの内容を解析し、ポジティブな内容である場合には“喜び”として判定し、ネガティブな内容である場合には“悲しみ”として判定する。音声合成制御部57は、ポジティブな内容でもネガティブな内容でもない場合、“平静”として判定する。
図21は、学習装置1のハードウェア構成例を示すブロック図である。
ユーザの発話時刻の情報がコンテキスト情報に含まれ、音声合成用データの学習に用いられるようにしてもよい。これにより、音声合成用データは、朝・昼・夜・深夜で変化するユーザの発話の口調を学習して得られたものになる。この場合、システム発話についても同様に、朝・昼・夜・深夜で口調が変化することになる。
<音声合成ネットワークの学習>
以上においては、音声合成用データとして音声合成辞書を用いる場合について説明したが、ニューラルネットワークにより構成される音声合成ネットワークを用いることも可能である。
図24は、音声合成用データとして音声合成ネットワークを用いる学習装置1の構成例を示すブロック図である。図24に示す構成のうち、図3の構成と同じ構成については同じ符号を付してある。重複する説明については適宜省略する。
図25のフローチャートを参照して、以上のような構成を有する学習装置1の学習処理について説明する。
[音声合成装置の構成例]
図26は、音声合成用データとして音声合成ネットワークを用いる音声合成装置2の構成例を示すブロック図である。図26に示す構成のうち、図13の構成と同じ構成については同じ符号を付してある。重複する説明については適宜省略する。
図28のフローチャートを参照して、以上のような構成を有する音声合成装置2の音声合成処理について説明する。
次に、図29のフローチャートを参照して、図28のステップS228において行われる音声合成用コンテキスト情報生成処理について説明する。
学習装置1、音声合成装置2、およびエージェント機器151が家庭内において用いられる場合について説明したが、学習時と音声合成時に同じユーザがいる様々な環境で用いられるようにすることが可能である。例えば、職場、学校の教室、飲食店などの店舗、公共の施設、自家用車の中、電車の中においてこれらの機器が用いられるようにしてもよい。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
本技術は、以下のような構成をとることもできる。
(1)
複数のユーザの発話音声の音声認識を行う音声認識部と、
発話時の状況を推定する推定部と、
前記発話音声のデータと、前記音声認識の結果と、前記発話時の状況とに基づいて、音声合成時の状況に応じた合成音声の生成に用いられる音声合成用データの学習を行う学習部と
を備える学習装置。
(2)
前記推定部は、前記音声認識の結果に基づいて、前記複数のユーザに含まれる発話ユーザと発話先ユーザの関係性を表す関係性データを生成する
前記(1)に記載の学習装置。
(3)
撮像した画像を解析し、前記画像に写る顔を認識する画像認識部と、
発話時に検出された音声信号に基づいて音源の方向を検出する音声信号処理部と
をさらに備え、
前記推定部は、前記音源の方向と前記画像に写る顔の方向に基づいて、前記発話ユーザを特定する
前記(2)に記載の学習装置。
(4)
前記推定部は、前記発話ユーザによる発話に続けて発話を行ったユーザを、前記発話先ユーザとして特定する
前記(3)に記載の学習装置。
(5)
前記音声信号処理部は、前記音声信号のうち、前記発話ユーザによる前記発話音声の音源方向以外の方向の成分を騒音成分として抽出する
前記(3)または(4)に記載の学習装置。
(6)
前記画像認識部は、前記画像に顔が写る前記発話ユーザの感情を認識する
前記(5)に記載の学習装置。
(7)
前記推定部は、前記発話時の状況として、前記発話ユーザの感情と騒音レベルを推定する
前記(6)に記載の学習装置。
(8)
前記学習部は、それぞれの前記発話音声のデータと前記音声認識の結果を、前記発話時の状況で分類した辞書データを前記音声合成用データとして生成する
前記(1)乃至(7)のいずれかに記載の学習装置。
(9)
前記学習部は、それぞれの前記音声認識の結果と前記発話時の状況に関する情報を入力とし、前記発話音声のデータを出力とするニューラルネットワークを前記音声合成用データとして生成する
前記(1)乃至(7)のいずれかに記載の学習装置。
(10)
複数のユーザの発話音声の音声認識を行い、
発話時の状況を推定し、
前記発話音声のデータと、前記音声認識の結果と、前記発話時の状況とに基づいて、音声合成時の状況に応じた合成音声の生成に用いられる音声合成用データの学習を行う
ステップを含む学習方法。
(11)
状況を推定する推定部と、
複数のユーザによる発話音声のデータと、前記発話音声の音声認識の結果と、発話時の状況に基づいて学習を行うことによって生成された音声合成用データを用いて、所定のテキストデータの内容を表し、推定された状況に応じた合成音声を生成する生成部と
を備える音声合成装置。
(12)
前記生成部は、前記合成音声の発話先ユーザに応じたユーザを話者ユーザとした前記合成音声を生成する
前記(11)に記載の音声合成装置。
(13)
前記音声認識の結果に基づいて学習時に生成された、前記複数のユーザに含まれる発話ユーザと発話先のユーザの関係性を表す関係性データに基づいて、前記話者ユーザを選択する制御部をさらに備える
前記(12)に記載の音声合成装置。
(14)
前記制御部は、前記テキストデータの内容に基づいて前記発話先ユーザを選択する
前記(13)に記載の音声合成装置。
(15)
撮像した画像を解析し、前記画像に写る顔を認識する画像認識部と、
検出された音声信号に基づいて音源の方向を検出し、所定のユーザによる発話音声の音源方向以外の方向の成分を騒音成分として抽出する音声信号処理部と
をさらに備える前記(12)乃至(14)のいずれかに記載の音声合成装置。
(16)
前記推定部は、前記テキストデータの内容に基づいて前記話者ユーザの感情を特定し、前記話者ユーザの感情と騒音レベルを前記状況として推定する
前記(15)に記載の音声合成装置。
(17)
前記音声合成用データは、それぞれの前記発話音声のデータと前記音声認識の結果を、前記発話時の状況で分類した辞書データである
前記(11)乃至(16)のいずれかに記載の音声合成装置。
(18)
前記音声合成用データは、それぞれの前記音声認識の結果と前記発話時の状況に関する情報を入力とし、前記発話音声のデータを出力とするニューラルネットワークである
前記(11)乃至(16)のいずれかに記載の音声合成装置。
(19)
状況を推定し、
複数のユーザによる発話音声のデータと、前記発話音声の音声認識の結果と、発話時の状況に基づいて学習を行うことによって生成された音声合成用データを用いて、所定のテキストデータの内容を表し、推定された状況に応じた合成音声を生成する
ステップを含む音声合成方法。
Claims (19)
- 複数のユーザの発話音声の音声認識を行う音声認識部と、
発話時の状況を推定する推定部と、
前記発話音声のデータと、前記音声認識の結果と、前記発話時の状況とに基づいて、音声合成時の状況に応じた合成音声の生成に用いられる音声合成用データの学習を行う学習部と
を備える学習装置。 - 前記推定部は、前記音声認識の結果に基づいて、前記複数のユーザに含まれる発話ユーザと発話先ユーザの関係性を表す関係性データを生成する
請求項1に記載の学習装置。 - 撮像した画像を解析し、前記画像に写る顔を認識する画像認識部と、
発話時に検出された音声信号に基づいて音源の方向を検出する音声信号処理部と
をさらに備え、
前記推定部は、前記音源の方向と前記画像に写る顔の方向に基づいて、前記発話ユーザを特定する
請求項2に記載の学習装置。 - 前記推定部は、前記発話ユーザによる発話に続けて発話を行ったユーザを、前記発話先ユーザとして特定する
請求項3に記載の学習装置。 - 前記音声信号処理部は、前記音声信号のうち、前記発話ユーザによる前記発話音声の音源方向以外の方向の成分を騒音成分として抽出する
請求項3に記載の学習装置。 - 前記画像認識部は、前記画像に顔が写る前記発話ユーザの感情を認識する
請求項5に記載の学習装置。 - 前記推定部は、前記発話時の状況として、前記発話ユーザの感情と騒音レベルを推定する
請求項6に記載の学習装置。 - 前記学習部は、それぞれの前記発話音声のデータと前記音声認識の結果を、前記発話時の状況で分類した辞書データを前記音声合成用データとして生成する
請求項1に記載の学習装置。 - 前記学習部は、それぞれの前記音声認識の結果と前記発話時の状況に関する情報を入力とし、前記発話音声のデータを出力とするニューラルネットワークを前記音声合成用データとして生成する
請求項1に記載の学習装置。 - 複数のユーザの発話音声の音声認識を行い、
発話時の状況を推定し、
前記発話音声のデータと、前記音声認識の結果と、前記発話時の状況とに基づいて、音声合成時の状況に応じた合成音声の生成に用いられる音声合成用データの学習を行う
ステップを含む学習方法。 - 状況を推定する推定部と、
複数のユーザによる発話音声のデータと、前記発話音声の音声認識の結果と、発話時の状況に基づいて学習を行うことによって生成された音声合成用データを用いて、所定のテキストデータの内容を表し、推定された状況に応じた合成音声を生成する生成部と
を備える音声合成装置。 - 前記生成部は、前記合成音声の発話先ユーザに応じたユーザを話者ユーザとした前記合成音声を生成する
請求項11に記載の音声合成装置。 - 前記音声認識の結果に基づいて学習時に生成された、前記複数のユーザに含まれる発話ユーザと発話先のユーザの関係性を表す関係性データに基づいて、前記話者ユーザを選択する制御部をさらに備える
請求項12に記載の音声合成装置。 - 前記制御部は、前記テキストデータの内容に基づいて前記発話先ユーザを選択する
請求項13に記載の音声合成装置。 - 撮像した画像を解析し、前記画像に写る顔を認識する画像認識部と、
検出された音声信号に基づいて音源の方向を検出し、所定のユーザによる発話音声の音源方向以外の方向の成分を騒音成分として抽出する音声信号処理部と
をさらに備える請求項12に記載の音声合成装置。 - 前記推定部は、前記テキストデータの内容に基づいて前記話者ユーザの感情を特定し、前記話者ユーザの感情と騒音レベルを前記状況として推定する
請求項15に記載の音声合成装置。 - 前記音声合成用データは、それぞれの前記発話音声のデータと前記音声認識の結果を、前記発話時の状況で分類した辞書データである
請求項11に記載の音声合成装置。 - 前記音声合成用データは、それぞれの前記音声認識の結果と前記発話時の状況に関する情報を入力とし、前記発話音声のデータを出力とするニューラルネットワークである
請求項11に記載の音声合成装置。 - 状況を推定し、
複数のユーザによる発話音声のデータと、前記発話音声の音声認識の結果と、発話時の状況に基づいて学習を行うことによって生成された音声合成用データを用いて、所定のテキストデータの内容を表し、推定された状況に応じた合成音声を生成する
ステップを含む音声合成方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017047497 | 2017-03-13 | ||
JP2017047497 | 2017-03-13 | ||
PCT/JP2018/007086 WO2018168427A1 (ja) | 2017-03-13 | 2018-02-27 | 学習装置、学習方法、音声合成装置、音声合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018168427A1 true JPWO2018168427A1 (ja) | 2020-01-09 |
JP7070544B2 JP7070544B2 (ja) | 2022-05-18 |
Family
ID=63522386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019505839A Active JP7070544B2 (ja) | 2017-03-13 | 2018-02-27 | 学習装置、学習方法、音声合成装置、音声合成方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11335322B2 (ja) |
EP (1) | EP3598434A4 (ja) |
JP (1) | JP7070544B2 (ja) |
WO (1) | WO2018168427A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108600911B (zh) | 2018-03-30 | 2021-05-18 | 联想(北京)有限公司 | 一种输出方法及电子设备 |
WO2020089961A1 (ja) * | 2018-10-29 | 2020-05-07 | 健一 海沼 | 音声処理装置、およびプログラム |
US10657968B1 (en) * | 2018-11-19 | 2020-05-19 | Google Llc | Controlling device output according to a determined condition of a user |
JP2020095428A (ja) | 2018-12-12 | 2020-06-18 | 株式会社東芝 | モデル学習システム、モデル学習方法、プログラム、及び記憶媒体 |
KR102615154B1 (ko) * | 2019-02-28 | 2023-12-18 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
WO2021065098A1 (ja) * | 2019-10-01 | 2021-04-08 | ソニー株式会社 | 情報処理装置、情報処理システム、情報処理方法 |
KR102663669B1 (ko) * | 2019-11-01 | 2024-05-08 | 엘지전자 주식회사 | 소음 환경에서의 음성 합성 |
US11430424B2 (en) * | 2019-11-13 | 2022-08-30 | Meta Platforms Technologies, Llc | Generating a voice model for a user |
JP7123028B2 (ja) * | 2019-11-27 | 2022-08-22 | Tis株式会社 | 情報処理システム、情報処理方法、及びプログラム |
CN115088033A (zh) * | 2020-02-10 | 2022-09-20 | 谷歌有限责任公司 | 代表对话中的人参与者生成的合成语音音频数据 |
JP7405660B2 (ja) * | 2020-03-19 | 2023-12-26 | Lineヤフー株式会社 | 出力装置、出力方法及び出力プログラム |
KR102429365B1 (ko) * | 2020-11-09 | 2022-08-05 | 주식회사 스피랩 | 음성감성 분석 시스템 및 방법 |
JP6993034B1 (ja) | 2021-05-14 | 2022-01-13 | Aiインフルエンサー株式会社 | コンテンツ再生方法、及びコンテンツ再生システム |
CN114999440B (zh) * | 2022-05-24 | 2024-07-26 | 北京百度网讯科技有限公司 | 虚拟形象生成方法、装置、设备、存储介质以及程序产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003271182A (ja) * | 2002-03-18 | 2003-09-25 | Toshiba Corp | 音響モデル作成装置及び音響モデル作成方法 |
JP2009042910A (ja) * | 2007-08-07 | 2009-02-26 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
US20090300041A1 (en) * | 2006-09-08 | 2009-12-03 | At&T Corp. | Method and System for Training a Text-to-Speech Synthesis System Using a Specific Domain Speech Database |
US20160140951A1 (en) * | 2014-11-13 | 2016-05-19 | Google Inc. | Method and System for Building Text-to-Speech Voice from Diverse Recordings |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3673471B2 (ja) * | 2000-12-28 | 2005-07-20 | シャープ株式会社 | テキスト音声合成装置およびプログラム記録媒体 |
US6967455B2 (en) * | 2001-03-09 | 2005-11-22 | Japan Science And Technology Agency | Robot audiovisual system |
US6988068B2 (en) * | 2003-03-25 | 2006-01-17 | International Business Machines Corporation | Compensating for ambient noise levels in text-to-speech applications |
US20080235018A1 (en) * | 2004-01-20 | 2008-09-25 | Koninklikke Philips Electronic,N.V. | Method and System for Determing the Topic of a Conversation and Locating and Presenting Related Content |
JP2011186143A (ja) | 2010-03-08 | 2011-09-22 | Hitachi Ltd | ユーザ挙動を学習する音声合成装置、音声合成方法およびそのためのプログラム |
US8527276B1 (en) * | 2012-10-25 | 2013-09-03 | Google Inc. | Speech synthesis using deep neural networks |
US9847082B2 (en) * | 2013-08-23 | 2017-12-19 | Honeywell International Inc. | System for modifying speech recognition and beamforming using a depth image |
US9576190B2 (en) * | 2015-03-18 | 2017-02-21 | Snap Inc. | Emotion recognition in video conferencing |
JP6251219B2 (ja) | 2015-09-04 | 2017-12-20 | 株式会社東芝 | 合成辞書作成装置、合成辞書作成方法および合成辞書作成プログラム |
-
2018
- 2018-02-27 JP JP2019505839A patent/JP7070544B2/ja active Active
- 2018-02-27 US US16/478,602 patent/US11335322B2/en active Active
- 2018-02-27 WO PCT/JP2018/007086 patent/WO2018168427A1/ja unknown
- 2018-02-27 EP EP18767364.5A patent/EP3598434A4/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003271182A (ja) * | 2002-03-18 | 2003-09-25 | Toshiba Corp | 音響モデル作成装置及び音響モデル作成方法 |
US20090300041A1 (en) * | 2006-09-08 | 2009-12-03 | At&T Corp. | Method and System for Training a Text-to-Speech Synthesis System Using a Specific Domain Speech Database |
JP2009042910A (ja) * | 2007-08-07 | 2009-02-26 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
US20160140951A1 (en) * | 2014-11-13 | 2016-05-19 | Google Inc. | Method and System for Building Text-to-Speech Voice from Diverse Recordings |
Also Published As
Publication number | Publication date |
---|---|
EP3598434A4 (en) | 2020-04-22 |
JP7070544B2 (ja) | 2022-05-18 |
US20200051545A1 (en) | 2020-02-13 |
US11335322B2 (en) | 2022-05-17 |
EP3598434A1 (en) | 2020-01-22 |
WO2018168427A1 (ja) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7070544B2 (ja) | 学習装置、学習方法、音声合成装置、音声合成方法 | |
US11004446B2 (en) | Alias resolving intelligent assistant computing device | |
JP6267636B2 (ja) | 音声応答装置 | |
US20190370283A1 (en) | Systems and methods for consolidating recorded content | |
KR20160100811A (ko) | 정보 제공 방법 및 디바이스 | |
EP4091161B1 (en) | Synthesized speech audio data generated on behalf of human participant in conversation | |
US20220084543A1 (en) | Cognitive Assistant for Real-Time Emotion Detection from Human Speech | |
US11810585B2 (en) | Systems and methods for filtering unwanted sounds from a conference call using voice synthesis | |
WO2022218027A1 (zh) | 音频播放方法、装置、计算机可读存储介质及电子设备 | |
JP2023548157A (ja) | 通話およびオーディオメッセージからのその他の話者の音声フィルタリング | |
US12073849B2 (en) | Systems and methods for filtering unwanted sounds from a conference call | |
JP2019159060A (ja) | 出力内容制御装置、出力内容制御方法、及び出力内容制御プログラム | |
JP2005352151A (ja) | 人間の感情状態に応じた音楽出力装置及び音楽出力方法 | |
WO2019138652A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
US11798538B1 (en) | Answer prediction in a speech processing system | |
WO2019187543A1 (ja) | 情報処理装置および情報処理方法 | |
JP6516805B2 (ja) | 決定装置、決定方法、及び決定プログラム | |
US20240203446A1 (en) | Method of operating sound recognition device identifying speaker and electronic device having the same | |
JP2020086011A (ja) | 抽出装置、学習装置、抽出方法、抽出プログラム、学習方法および学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220418 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7070544 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |