JP6645063B2 - ターゲット文字列の推定 - Google Patents
ターゲット文字列の推定 Download PDFInfo
- Publication number
- JP6645063B2 JP6645063B2 JP2015150085A JP2015150085A JP6645063B2 JP 6645063 B2 JP6645063 B2 JP 6645063B2 JP 2015150085 A JP2015150085 A JP 2015150085A JP 2015150085 A JP2015150085 A JP 2015150085A JP 6645063 B2 JP6645063 B2 JP 6645063B2
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- string
- target
- character
- character string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007704 transition Effects 0.000 claims description 217
- 238000011156 evaluation Methods 0.000 claims description 50
- 230000001052 transient effect Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 6
- 239000011295 pitch Substances 0.000 description 71
- 238000000034 method Methods 0.000 description 41
- 238000012545 processing Methods 0.000 description 41
- 230000008569 process Effects 0.000 description 28
- 230000015572 biosynthetic process Effects 0.000 description 15
- 238000003786 synthesis reaction Methods 0.000 description 15
- 239000000872 buffer Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000003491 array Methods 0.000 description 8
- 235000016496 Panda oleosa Nutrition 0.000 description 7
- 240000000220 Panda oleosa Species 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000012536 storage buffer Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/008—Means for controlling the transition from one tone waveform to another
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/02—Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/221—Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
- G10L13/0335—Pitch control
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Electrophonic Musical Instruments (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、上述の点に鑑みてなされたもので、歌詞のような予め規定された文字列中の所望の部分(ターゲット文字列)を簡易な手法で間接的に指定することを可能にし、かつ、指定されたターゲット文字列の実体を的確に推定する技術を提供することを目的とする。
図1Aは、本発明の一実施形態にかかるターゲット文字推定装置を実装した鍵盤楽器10を模式的に示す図である。鍵盤楽器10は、略直方体の筐体を備えており、筐体の一面に複数の白鍵および黒鍵からなる音高操作子50と入出力部60とが形成されている。なお、音高操作子50は、本来、音高を指定するための操作子であるが、本実施形態においては一部の鍵が所望のターゲット文字列を間接的に指定する(直接的には後述するターゲット音素列を指定する)ための操作子として利用される。
なお、本実施形態における基準文字列情報30bは、利用者によって指定された文字(ターゲット文字)の推定精度を向上させるために、基準文字列が複数の文字からなるグループに分割される。グループは、複数の指標に基づいて定義することができ、本実施形態においては、形態素、フレーズおよび繰り返しの発生に基づいて階層的にグループ化される。一例として、文字のグループ化の最小単位は形態素である。すなわち、1つの基準文字列に関する基準文字列情報30bに含まれる全文字は、有意な最小単位である形態素毎にグループ化される(形態素グループ)。また、複数の形態素によって構成される1フレーズに対応してフレーズグループが形成される。当該フレーズグループは、文法上の単語の集合からなるフレーズによって形成されても良いし、音楽上の区切り(メロディの区切り)からなるフレーズによって形成されても良い。
上記基準文字列に含まれる任意の部分的文字列であって、利用者が該基準文字列から呼び出したい(若しくは取り出したい)部分的文字列のことを、本実施例では「ターゲット文字列」と言う。本実施例において、利用者は、所望のターゲット文字列を直接的に指定するのではなく、前記6種の特定音素(母音"a","i","u","e","o"と特定の1つの子音"n")を用いて、該ターゲット文字列を間接的に表現してなる音素列(これを「ターゲット音素列」という)により、間接的に指定(リクエスト)する。
このために、音声生成プログラム30aは、ターゲット音素列取得部20a、基準音素列取得部20b、ターゲット文字列推定部20c、表示制御部20dの各プログラムモジュールを備えており、各部によってCPU20に所定の機能を実行させる。ターゲット音素列取得部20aは、前記特定音素セレクタ51の利用者操作に応じて、ターゲット文字列を間接的に表現してなるターゲット音素列を取得するための機能をCPU20に実行させる。すなわち、CPU20は、ターゲット音素列取得部20aの処理により、特定音素セレクタ51の出力信号に基づいて、前記6種の特定音素のうち所望の音素を利用者が指定する選択操作を受け付ける。別の例として、ターゲット音素列取得部20aは、通信ネットワークを介した遠隔的なリクエスト等その他適宜のやり方で、ターゲット文字列を間接的に表現してなるターゲット音素列を取得するようにしてもよい。
次に、CPU20が音声生成プログラム30aによって実行する推定処理の一例を図4Aによって説明する。この推定処理に先立って、CPU20は、予め、前記基準音素列取得部20bの処理により、処理対象の基準文字列から基準音素列を生成し、該推定処理に必要な基準音素列を取得するものとする。この推定処理は、前記ターゲット音素列取得部20aおよびターゲット文字列推定部20cが行う処理である。
A.基準文字列の順序通りの遷移
B.同一グループの繰り返し
C.異なる位置に存在する同一文字列の次の文字への遷移
D.同一グループ内での2文字以上の遷移
E.異なるグループへの遷移
F.基準文字列に存在しない文字への遷移
等が挙げられる。
なお、上記C(異なる位置に存在する同一文字列の次の文字への遷移)は、例えば、図2Bに示す例において、文字列S1の最後の文字「C4Vo」から、異なる位置に存在する同一文字列S2の次の文字「C8Vi」への遷移である。また、上記F(基準文字列に存在しない文字への遷移)は、ある文字の次に利用者が誤操作した場合の遷移である。
さらに図3を参照して、図4Aの推定処理によって実行されるターゲット文字列の推定の具体例について説明する。図3は、前記図2A〜2Cに示すような基準文字列及び基準音素列を対象として、利用者が特定音素セレクタ51によって時刻T1,T2,T3,T4において、所望のターゲット文字列を間接的に指定するターゲット音素として、"Ve"、"Vu"、"Vo"、"Va"を順次指定した場合を示す図である。図3における「ターゲット音素列」の欄には、これら各時刻T1,T2,T3,T4における、ターゲット音素列記憶用バッファの記憶状態が示されている。すなわち、該バッファには、前記ステップS100の処理によって、指定されたターゲット音素"Ve"、"Vu"、"Vo"、"Va"を示すデータが順次記憶される。さらに、図3においては、これら4時刻T1,T2,T3,T4において、前記ステップS111の処理によって取り出される複数の遷移的音素配列の状態も示されている。図3において、各遷移的音素配列の欄においては、該配列に含まれる各特定音素を、該特定音素に対応する文字の基準文字列内における位置を示す符号(P及びサフィックスからなる符号)を用いて示している。
図4Aに示すターゲット文字列の推定処理と並行して、CPU20は、音声生成力プログラム30aの処理により、図4Bに示すような音声生成処理を実行する。なお、順次に取得されるターゲット音素(時刻T1〜T4)に応じた、図4Aに示す推定処理の結果得られる、最新の更新された文字配列の情報(つまり、推定したターゲット文字列の情報)がRAM40に記憶され、該記憶したターゲット文字列の情報に基づき、該文字列を発話するための音声が、適宜の音声生成タイミングで生成される。一例として、該音声生成タイミングは、利用者が音高操作子50で所望の音高を選択する操作に同期して設定される。別の例として、該音声生成タイミングは、MIDIデータなどに基づく自動演奏シーケンスに従って自動的に設定されてもよい。さらに別の例として、該音声生成タイミングは、通信ネットワークを介して遠隔地から受信した情報に基づいて設定されてもよい。以下の説明では、該音声生成タイミングは、利用者が音高操作子50で所望の音高を選択する操作に同期して設定されるものとする。なお、原則的には、所望のターゲット音素を指定するタイミングは、該ターゲット音素に対応する音声を発音すべきことを指定するタイミングよりも適宜に先行していることが望ましい。しかし、ターゲット音素の指定タイミングの時間遅れを適宜に吸収するために、音声生成開始を待機する処理を行うことにより、前者の遅れを適切に吸収することができる。
特定音素セレクタ51の操作によって指定される音素は、基準文字列内の所望のターゲット文字を間接的に示しているため、直感的に意図した文字を指定できるようにするために各種の支援が行われてもよい。この点に鑑みて、本実施形態においては、入出力部60の表示部に所定のユーザーインターフェイスが表示され、利用者がより直感的に特定音素セレクタ51を操作できるように構成されている。
上述した本実施形態によれば、指定されたターゲット音素列に完全一致する音素配列のみを基準音素列から抽出するのではなく、指定されたターゲット音素列のように特定音素が遷移する遷移的音素配列を基準音素列から1以上抽出し、各遷移的音素配列の遷移確率に基づいて基準文字列から利用者の指定したターゲット文字列を推定している。従って、ターゲット音素列の指定の際に、利用者がアドリブで文字の位置のジャンプを行った場合や誤操作した場合も含む1以上の場合に対応する遷移的音素配列を候補として特定し、これらの候補の中から選択された遷移的音素配列に基づき、基準文字列から利用者の指定した文字を推定していることになる。従って、基準文字列における正しい順序を適宜変更して利用者がターゲット音素列を指定することからなる「アドリブ」や、誤操作が行われた場合であっても、基準文字列の中から利用者の指定した文字を推定することができる。
本実施形態においては、それぞれに特定音素が割り当てられた複数の鍵を、特定音素セレクタ51として使用している。これによれば、利用者は、楽器の演奏のような操作で所望の特定音素を指定することができる。また、特定音素セレクタ51に対応する音高(鍵名)を楽譜に記すことにより、所定のターゲット文字列を指定するための特定音素セレクタ51の操作手順を書面化することができる。このように書面化された情報は、所定のターゲット文字列を指定するための操作手順を客観的に第3者に伝えたり、該情報を参照して利用者が反復練習を行うことを可能にする。
本発明の適用対象は、鍵盤楽器10に限定されず、音高操作子50を備えた他の電子楽器であってもよいし、基準文字列情報30bを含む録音情報や録画情報の再生装置などであってもよい。
Claims (6)
- 予め規定された基準文字列からターゲット文字列を推定するためのターゲット文字列推定装置であって、
前記基準文字列を限られた複数種の特定音素を用いて間接的に表現した基準音素列を取得する基準音素列取得手段と、
前記特定音素を用いてターゲット文字列を間接的に表現したターゲット音素列を取得するターゲット音素列取得手段と、
前記ターゲット音素列と前記基準音素列とを比較することに基づき、前記ターゲット音素列にマッチする前記基準音素列内の前記特定音素の配列に対応する前記基準文字列内の文字配列を特定するターゲット文字列推定手段と、
前記特定音素の中のいずれかの音素をユーザ操作に応じて選択するためのセレクタを備え、
前記ターゲット音素列取得手段は、ユーザ操作に応じて前記セレクタから時系列的に入力される音素列を、前記ターゲット音素列として取得するように構成されている、
を備える、
ターゲット文字推定装置。 - 前記特定音素は、母音を含む、
請求項1に記載のターゲット文字列推定装置。 - 前記特定音素は、単独で意味のある音節を構成し得る特定の子音を含む、
請求項1または請求項2のいずれかに記載のターゲット文字列推定装置。 - ユーザ操作に応じて前記セレクタから1又は複数の音素が入力される毎に、その時点で特定された少なくとも1文字を表示し、かつ、前記文字配列から推測される前記基準文字列中の次の文字を、候補として表示装置に表示する表示制御手段をさらに備える、
請求項1〜請求項3のいずれかに記載のターゲット文字列推定装置。 - 前記ターゲット文字列推定手段は、前記ターゲット音素列にマッチする前記基準音素列内の前記特定音素の配列、に対応する前記基準文字列内の前記文字配列を特定するために、
前記ターゲット音素列における前記特定音素の配列に一致する、前記基準音素列内の1以上の遷移的音素配列を特定し、前記遷移的音素配列は、前記基準音素列における前記特定音素の正しい並びからなる配列及び1以上の乱れた並びからなる配列の少なくとも1つを含み、
特定された前記遷移的音素配列のそれぞれにおける前記特定音素の並びの正しさ度合いに応じて、前記遷移的音素配列のそれぞれに評価値を付与し、
相対的に高い前記評価値が付与された前記遷移的音素配列に対応する、前記基準文字列内の前記文字配列を特定する、
請求項1〜請求項4のいずれかに記載のターゲット文字列推定装置。 - 前記ターゲット文字列推定手段は、前記遷移的音素配列のそれぞれにおける前記特定音素の並びの正しさ度合いに応じて、前記遷移的音素配列のそれぞれに前記評価値を付与するために、
前記遷移的音素配列のそれぞれに、該遷移的音素配列における各隣り合う2音素に対してその遷移パターンに応じて遷移評価値をそれぞれ付与し、該遷移評価値を合成することにより該遷移的音素配列の全体評価値を生成する、
請求項5に記載のターゲット文字列推定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015150085A JP6645063B2 (ja) | 2014-07-29 | 2015-07-29 | ターゲット文字列の推定 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014153596 | 2014-07-29 | ||
JP2014153596 | 2014-07-29 | ||
JP2015150085A JP6645063B2 (ja) | 2014-07-29 | 2015-07-29 | ターゲット文字列の推定 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016033662A JP2016033662A (ja) | 2016-03-10 |
JP6645063B2 true JP6645063B2 (ja) | 2020-02-12 |
Family
ID=55180201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015150085A Active JP6645063B2 (ja) | 2014-07-29 | 2015-07-29 | ターゲット文字列の推定 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9711133B2 (ja) |
JP (1) | JP6645063B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6728754B2 (ja) * | 2015-03-20 | 2020-07-22 | ヤマハ株式会社 | 発音装置、発音方法および発音プログラム |
CN108369804A (zh) * | 2015-12-07 | 2018-08-03 | 雅马哈株式会社 | 语音交互设备和语音交互方法 |
WO2018136829A1 (en) * | 2017-01-19 | 2018-07-26 | Netherland Eric | Electronic musical instrument with separate pitch and articulation control |
JP2018159786A (ja) * | 2017-03-22 | 2018-10-11 | カシオ計算機株式会社 | 電子楽器、方法及びプログラム |
JP6849621B2 (ja) * | 2018-02-02 | 2021-03-24 | 日本電信電話株式会社 | 学習装置、学習方法及び学習プログラム |
JP6911785B2 (ja) * | 2018-02-02 | 2021-07-28 | 日本電信電話株式会社 | 判定装置、判定方法及び判定プログラム |
CN111653266B (zh) * | 2020-04-26 | 2023-09-05 | 北京大米科技有限公司 | 语音合成方法、装置、存储介质和电子设备 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4481593A (en) * | 1981-10-05 | 1984-11-06 | Exxon Corporation | Continuous speech recognition |
US4489434A (en) * | 1981-10-05 | 1984-12-18 | Exxon Corporation | Speech recognition method and apparatus |
JP3277616B2 (ja) * | 1993-05-31 | 2002-04-22 | カシオ計算機株式会社 | 楽音発生装置 |
US5890115A (en) * | 1997-03-07 | 1999-03-30 | Advanced Micro Devices, Inc. | Speech synthesizer utilizing wavetable synthesis |
US6511324B1 (en) * | 1998-10-07 | 2003-01-28 | Cognitive Concepts, Inc. | Phonological awareness, phonological processing, and reading skill training system and method |
JP2001067375A (ja) * | 1999-08-30 | 2001-03-16 | Sharp Corp | 名称検索装置、キーボード及び名称検索プログラムを記録した記録媒体 |
US6847931B2 (en) * | 2002-01-29 | 2005-01-25 | Lessac Technology, Inc. | Expressive parsing in computerized conversion of text to speech |
EP1372139A1 (en) * | 2002-05-15 | 2003-12-17 | Pioneer Corporation | Speech recognition apparatus and program with error correction |
JP4144307B2 (ja) * | 2002-09-25 | 2008-09-03 | ヤマハ株式会社 | 楽器鍵盤を使用する文字入力装置 |
US20040158464A1 (en) * | 2003-02-10 | 2004-08-12 | Aurilab, Llc | System and method for priority queue searches from multiple bottom-up detected starting points |
JP2005165887A (ja) * | 2003-12-05 | 2005-06-23 | Victor Co Of Japan Ltd | 単語認識装置 |
US20070009865A1 (en) * | 2004-01-08 | 2007-01-11 | Angel Palacios | Method, system, program and data set which are intended to facilitate language learning thorugh learning and comprehension of phonetics and phonology |
JP2006195385A (ja) * | 2005-01-17 | 2006-07-27 | Matsushita Electric Ind Co Ltd | 音楽再生装置および音楽再生プログラム |
WO2007080764A1 (ja) * | 2006-01-12 | 2007-07-19 | Matsushita Electric Industrial Co., Ltd. | 対象音分析装置、対象音分析方法および対象音分析プログラム |
JP4735544B2 (ja) | 2007-01-10 | 2011-07-27 | ヤマハ株式会社 | 歌唱合成のための装置およびプログラム |
JP2008180794A (ja) * | 2007-01-23 | 2008-08-07 | Yamaha Corp | データ再生装置 |
JP5025353B2 (ja) * | 2007-07-03 | 2012-09-12 | ニュアンス コミュニケーションズ,インコーポレイテッド | 対話処理装置、対話処理方法及びコンピュータ・プログラム |
JP2010026731A (ja) * | 2008-07-17 | 2010-02-04 | Nec Saitama Ltd | 文字入力装置、文字入力方法、文字入力システム、文字入力サーバー及び端末 |
KR20100081587A (ko) * | 2009-01-06 | 2010-07-15 | 삼성전자주식회사 | 로봇의 소리 인식 장치 및 그 제어 방법 |
JP5033824B2 (ja) * | 2009-02-24 | 2012-09-26 | 株式会社野村総合研究所 | 処理装置 |
JP2012083569A (ja) | 2010-10-12 | 2012-04-26 | Yamaha Corp | 歌唱合成制御装置および歌唱合成装置 |
-
2015
- 2015-07-29 US US14/813,007 patent/US9711133B2/en active Active
- 2015-07-29 JP JP2015150085A patent/JP6645063B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US9711133B2 (en) | 2017-07-18 |
JP2016033662A (ja) | 2016-03-10 |
US20160034446A1 (en) | 2016-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6645063B2 (ja) | ターゲット文字列の推定 | |
EP2733696B1 (en) | Voice synthesizing method and voice synthesizing apparatus | |
US9489938B2 (en) | Sound synthesis method and sound synthesis apparatus | |
JP4887264B2 (ja) | 音声データ検索システム | |
JP7448053B2 (ja) | 学習装置、自動採譜装置、学習方法、自動採譜方法及びプログラム | |
JP6485185B2 (ja) | 歌唱音合成装置 | |
JP2008275731A (ja) | テキスト発音記号変換辞書作成装置、認識語彙辞書作成装置、及び音声認識装置 | |
JP2007249212A (ja) | テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ | |
WO2015194423A1 (ja) | 文字に基づく音声生成のためのコントローラ及びシステム | |
JP5753769B2 (ja) | 音声データ検索システムおよびそのためのプログラム | |
JP7180587B2 (ja) | 電子楽器、方法及びプログラム | |
JP2001092496A (ja) | 連続音声認識装置および記録媒体 | |
JP4736483B2 (ja) | 歌データ入力プログラム | |
JP4738847B2 (ja) | データ検索装置および方法 | |
CN112002304B (zh) | 语音合成方法及装置 | |
JP4929604B2 (ja) | 歌データ入力プログラム | |
JP2008268478A (ja) | アクセント調整可能な音声合成装置 | |
US20220044662A1 (en) | Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device | |
JP4584511B2 (ja) | 規則音声合成装置 | |
Yamamoto et al. | Livo: Sing a song with a vowel keyboard | |
JP6578544B1 (ja) | 音声処理装置、および音声処理方法 | |
JP5098932B2 (ja) | 歌詞データ表示装置、歌詞データ表示方法、歌詞データ表示プログラム | |
JP4640063B2 (ja) | 音声合成方法,音声合成装置,およびコンピュータプログラム | |
JP2020204755A (ja) | 音声処理装置、および音声処理方法 | |
JP6617441B2 (ja) | 歌唱音声出力制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191223 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6645063 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |