JP6977323B2 - 歌唱音声の出力方法、音声応答システム、及びプログラム - Google Patents
歌唱音声の出力方法、音声応答システム、及びプログラム Download PDFInfo
- Publication number
- JP6977323B2 JP6977323B2 JP2017116831A JP2017116831A JP6977323B2 JP 6977323 B2 JP6977323 B2 JP 6977323B2 JP 2017116831 A JP2017116831 A JP 2017116831A JP 2017116831 A JP2017116831 A JP 2017116831A JP 6977323 B2 JP6977323 B2 JP 6977323B2
- Authority
- JP
- Japan
- Prior art keywords
- character string
- singing voice
- partial content
- voice
- singing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 0 CCC*CC1CCCC1 Chemical compound CCC*CC1CCCC1 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Educational Technology (AREA)
- Developmental Disabilities (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
これに対し本発明は、ユーザとのインタラクションに応じて歌唱音声を出力する技術を提供する。
図1は、一実施形態に係る音声応答システム1の概要を示す図である。音声応答システム1は、ユーザが声によって入力(又は指示)を行うと、それに対し自動的に音声による応答を出力するシステムであり、いわゆるAI(Artificial Intelligence)音声アシスタントである。以下、ユーザから音声応答システム1に入力される音声を「入力音声」といい、入力音声に対し音声応答システム1から出力される音声を「応答音声」という。特にこの例において、音声応答は歌唱を含む。すなわち、音声応答システム1は、歌唱合成システムの一例である。例えば、音声応答システム1に対しユーザが「何か歌って」と話しかけると、音声応答システム1は自動的に歌唱を合成し、合成された歌唱を出力する。
2−1.構成
図5は、学習機能51に係る機能構成を例示する図である。学習機能51に係る機能要素として、音声応答システム1は、音声分析部511、感情推定部512、楽曲解析部513、歌詞抽出部514、嗜好分析部515、記憶部516、及び処理部510を有する。また、入出力装置10は、ユーザの入力音声を受け付ける受け付け部、及び応答音声を出力する出力部として機能する。
図6は、学習機能51に係る音声応答システム1の動作の概要を示すフローチャートである。ステップS11において、音声応答システム1は、入力音声を分析する。ステップS12において、音声応答システム1は、入力音声により指示された処理を行う。ステップS13において、音声応答システム1は、入力音声が学習の対象となる事項を含むか判断する。入力音声が学習の対象となる事項を含むと判断された場合(S13:YES)、音声応答システム1は、処理をステップS14に移行する。入力音声が学習の対象となる事項を含まないと判断された場合(S13:NO)、音声応答システム1は、処理をステップS18に移行する。ステップS14において、音声応答システム1は、ユーザの感情を推定する。ステップS15において、音声応答システム1は、再生が指示された楽曲を解析する。ステップS16において、音声応答システム1は、再生が指示された楽曲の歌詞を取得する。ステップS17において、音声応答システム1は、ステップS14〜S16において得られた情報を用いて、分類テーブルを更新する。
3−1.構成
図9は、歌唱合成機能52に係る機能構成を例示する図である。歌唱合成機能52に係る機能要素として、音声応答システム1は、音声分析部511、感情推定部512、記憶部516、検知部521、歌唱生成部522、伴奏生成部523、及び合成部524を有する。歌唱生成部522は、メロディ生成部5221及び歌詞生成部5222を有する。以下において、学習機能51と共通する要素については説明を省略する。
図10は、歌唱合成機能52に係る音声応答システム1の動作(歌唱合成方法)の概要を示すフローチャートである。ステップS21において、音声応答システム1は、歌唱合成をトリガするイベントが発生したか判断する。すなわち、音声応答システム1は、歌唱合成をトリガするイベントを検知する。歌唱合成をトリガするイベントは、例えば、ユーザから音声入力が行われたというイベント、カレンダーに登録されたイベント(例えば、アラーム又はユーザの誕生日)、ユーザから音声以外の手法(例えば入出力装置10に無線接続されたスマートフォン(図示略)への操作)により歌唱合成の指示が入力されたというイベント、及びランダムに発生するイベントのうち少なくとも1つを含む。歌唱合成をトリガするイベントが発生したと判断された場合(S21:YES)、音声応答システム1は、処理をステップS22に移行する。歌唱合成をトリガするイベントが発生していないと判断された場合(S21:NO)、音声応答システム1は、歌唱合成をトリガするイベントが発生するまで待機する。
図12は、応答機能53に係る音声応答システム1の機能構成を例示する図である。応答機能53に係る機能要素として、音声応答システム1は、音声分析部511、感情推定部512、及びコンテンツ分解部531を有する。以下において、学習機能51及び歌唱合成機能52と共通する要素については説明を省略する。コンテンツ分解部531は、一のコンテンツを複数の部分コンテンツに分解する。この例においてコンテンツとは、応答音声として出力される情報の内容をいい、具体的には、例えば、楽曲、ニュース、レシピ、又は教材(スポーツ教習、楽器教習、学習ドリル、クイズ)をいう。
以下、具体的な動作例をいくつか説明する。各動作例において特に明示はしないが、各動作例は、それぞれ、上記の学習機能、歌唱合成機能、及び応答機能の少なくとも1つ以上に基づくものである。なお以下の動作例はすべて日本語が使用される例を説明するが、使用される言語は日本語に限定されず、どのような言語でもよい。
図14は、音声応答システム1の動作例1を示す図である。この例において、ユーザは「佐藤一太郎(実演者名)の『さくらさくら』(楽曲名)をかけて」という入力音声により、楽曲の再生を要求する。音声応答システム1は、この入力音声に従って楽曲データベースを検索し、要求された楽曲を再生する。このとき、音声応答システム1は、この入力音声を入力したときのユーザの感情及びこの楽曲の解析結果を用いて、分類テーブルを更新する。分類テーブルは、楽曲の再生が要求される度に分類テーブルを更新する。分類テーブルは、ユーザが音声応答システム1に対し楽曲の再生を要求する回数が増えるにつれ(すなわち、音声応答システム1の累積使用時間が増えるにつれ)、よりそのユーザの嗜好を反映したものになっていく。
図15は、音声応答システム1の動作例2を示す図である。この例において、ユーザは「何か楽しい曲歌って」という入力音声により、歌唱合成を要求する。音声応答システム1は、この入力音声に従って歌唱合成を行う。歌唱合成に際し、音声応答システム1は、分類テーブルを参照する。分類テーブルに記録されている情報を用いて、歌詞及びメロディを生成する。したがって、ユーザの嗜好を反映した楽曲を自動的に作成することができる。
図16は、音声応答システム1の動作例3を示す図である。この例において、ユーザは「今日の天気は?」という入力音声により、気象情報の提供を要求する。この場合、処理部510はこの要求に対する回答として、コンテンツ提供部60のうち気象情報を提供するサーバにアクセスし、今日の天気を示すテキスト(例えば「今日は一日快晴」)を取得する。処理部510は、取得したテキストを含む、歌唱合成の要求を歌唱生成部522に出力する。歌唱生成部522は、この要求に含まれるテキストを歌詞として用いて、歌唱合成を行う。音声応答システム1は、入力音声に対する回答として「今日は一日快晴」にメロディ及び伴奏を付けた歌唱音声を出力する。
図17は、音声応答システム1の動作例4を示す図である。この例において、図示された応答が開始される前に、ユーザは音声応答システム1を2週間、使用し、恋愛の歌をよく再生していた。そのため、分類テーブルには、そのユーザが恋愛の歌が好きであることを示す情報が記録される。音声応答システム1は、「出会いの場所はどこがいい?」や、「季節はいつがいいかな?」など、歌詞生成のヒントとなる情報を得るためにユーザに質問をする。音声応答システム1は、これらの質問に対するユーザの回答を用いて歌詞を生成する。なおこの例において、使用期間がまだ2週間と短いため、音声応答システム1の分類テーブルは、まだユーザの嗜好を十分に反映できておらず、感情との対応付けも十分ではない。そのため、本当はユーザはバラード調の曲が好みであるにも関わらず、それとは異なるロック調の曲を生成したりする。
図18は、音声応答システム1の動作例5を示す図である。この例は、動作例3からさらに音声応答システム1の使用を続け、累積使用期間が1月半となった例を示している。動作例3と比較すると分類テーブルはユーザの嗜好をより反映したものとなっており、合成される歌唱はユーザの嗜好に沿ったものになっている。ユーザは、最初は不完全だった音声応答システム1の反応が徐々に自分の嗜好に合うように変化していく体験をすることができる。
図19は、音声応答システム1の動作例6を示す図である。この例において、ユーザは、「ハンバーグのレシピを教えてくれる?」という入力音声により、「ハンバーグ」の「レシピ」のコンテンツの提供を要求する。音声応答システム1は、「レシピ」というコンテンツが、あるステップが終了してから次のステップに進むべきものである点を踏まえ、コンテンツを部分コンテンツに分解し、ユーザの反応に応じて次の処理を決定する態様で再生することを決定する。
図20は、音声応答システム1の動作例7を示す図である。この例において、ユーザは、「世界史の年号の暗記問題出してくれる?」という入力音声により、「世界史」の「暗記問題」のコンテンツの提供を要求する。音声応答システム1は、「暗記問題」というコンテンツが、ユーザの記憶を確認するためのものである点を踏まえ、コンテンツを部分コンテンツに分解し、ユーザの反応に応じて次の処理を決定する態様で再生することを決定する。
図21は、音声応答システム1の動作例8を示す図である。動作例7と同様、ユーザは、「世界史」の「暗記問題」のコンテンツの提供を要求する。音声応答システム1は、「暗記問題」というコンテンツが、ユーザの記憶を確認するためのものである点を踏まえ、このコンテンツの一部を隠して出力する。隠すべき部分は、例えばコンテンツにおいて定義されていてもよいし、処理部510すなわちAIが形態素解析等の結果に基づいて判断してもよい。
図22は、音声応答システム1の動作例9を示す図である。この例において、ユーザは、「工場における工程の手順書を読み上げてくれる?」という入力音声により、「手順書」のコンテンツの提供を要求する。音声応答システム1は、「手順書」というコンテンツが、ユーザの記憶を確認するためのものである点を踏まえ、コンテンツを部分コンテンツに分解し、ユーザの反応に応じて次の処理を決定する態様で再生することを決定する。
図23は、音声応答システム1の動作例10を示す図である。動作例10は、高齢者の認知症対策の動作例である。この例において、ユーザが高齢者であることはあらかじめユーザ登録等により設定されている。音声応答システム1は、例えばユーザの指示に応じて既存の歌を歌い始める。音声応答システム1は、ランダムな位置、又は所定の位置(例えばサビの手前)において歌唱を一時停止する。その際、「うーん分からない」、「忘れちゃった」等のメッセージを発し、あたかも歌詞を忘れたかのように振る舞う。音声応答システム1は、この状態でユーザの応答を待つ。ユーザが何か音声を発すると、音声応答システム1は、ユーザが発した言葉(の一部)を正解の歌詞として、その言葉の続きから歌唱を出力する。なお、ユーザが何か言葉を発した場合、音声応答システム1は「ありがとう」等の応答を出力してもよい。ユーザの応答待ちの状態で所定時間が経過したときは、音声応答システム1は、「思い出した」等の話声を出力し、一時停止した部分の続きから歌唱を再開してもよい。
図24は、音声応答システム1の動作例11を示す図である。この例において、ユーザは「何か楽しい曲歌って」という入力音声により、歌唱合成を要求する。音声応答システム1は、この入力音声に従って歌唱合成を行う。歌唱合成の際に用いる素片データベースは、例えばユーザ登録時に選択されたキャラクタに応じて選択される(例えば、男性キャラクタが選択された場合、男性歌手による素片データベースが用いられる)。ユーザは、歌の途中で「女性の声に変えて」等、素片データベースの変更を指示する入力音声を発する。音声応答システム1は、ユーザの入力音声に応じて、歌唱合成に用いる素片データベースを切り替える。素片データベースの切り替えは、音声応答システム1が歌唱音声を出力しているときに行われてもよいし、動作例7〜10のように音声応答システム1がユーザの応答待ちの状態のときに行われてもよい。
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
Claims (16)
- コンテンツに含まれる文字列を分解して得られた複数の部分コンテンツの中から第1の部分コンテンツを特定するステップと、
前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記歌唱音声に対するユーザの反応を受け付けるステップと、
前記第1の部分コンテンツに続く第2の部分コンテンツに含まれる文字列の一部を前記反応に応じて修正するステップと、
前記修正された文字列を用いて合成された歌唱音声を出力するステップと
を有する歌唱音声の出力方法。 - 前記反応に応じて、前記第2の部分コンテンツに含まれる文字列を用いた歌唱合成に用いられる要素を決定するステップ
を有する請求項1に記載の歌唱音声の出力方法。 - 前記要素は、前記歌唱合成のパラメータ、メロディ、若しくはテンポ、又は前記歌唱音声における伴奏のアレンジを含む
請求項2に記載の歌唱音声の出力方法。 - 前記歌唱音声の合成は、複数のデータベースの中から選択された少なくとも1つのデータベースに記録された素片を用いて行われ、
前記反応に応じて、前記第2の部分コンテンツに含まれる文字列を用いた歌唱合成の際に用いられるデータベースを選択するステップ
を有する請求項1乃至3のいずれか一項に記載の歌唱音声の出力方法。 - 前記歌唱音声の合成は、複数のデータベースの中から選択された複数のデータベースに記録された素片を用いて行われ、
前記データベースを選択するステップにおいて、複数のデータベースが選択され、
前記複数のデータベースの利用比率を、前記反応に応じて決定するステップを有する
請求項4に記載の歌唱音声の出力方法。 - 前記第1の部分コンテンツに含まれる文字列の一部を他の文字列に置換するステップを有し、
前記歌唱音声を出力するステップにおいて、一部が前記他の文字列に置換された前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声が出力される
請求項1乃至5のいずれか一項に記載の歌唱音声の出力方法。 - 前記他の文字列と前記置換の対象となる文字列とは、音節数又はモーラ数が同じである
請求項6に記載の歌唱音声の出力方法。 - 前記修正するステップにおいて、前記反応に応じて、前記第2の部分コンテンツの一部が他の文字列に置換され、
前記歌唱音声を出力するステップにおいて、一部が前記他の文字列に置換された前記第2の部分コンテンツに含まれる文字列を用いて合成された歌唱音声が出力される
請求項1乃至7のいずれか一項に記載の歌唱音声の出力方法。 - コンテンツに含まれる文字列を分解して得られた複数の部分コンテンツの中から第1の部分コンテンツを特定するステップと、
前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記歌唱音声に対するユーザの反応を受け付けるステップと、
前記反応に応じて、前記第1の部分コンテンツに続く第2の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記第1の部分コンテンツに含まれる文字列が示す事項に応じた時間長となるよう合成された歌唱音声を、前記第1の部分コンテンツの歌唱音声と前記第2の部分コンテンツの歌唱音声との間に出力するステップと
を有する歌唱音声の出力方法。 - コンテンツに含まれる文字列を分解して得られた複数の部分コンテンツの中から第1の部分コンテンツを特定するステップと、
前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記歌唱音声に対するユーザの反応を受け付けるステップと、
前記反応に応じて、前記第1の部分コンテンツに続く第2の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記第1の部分コンテンツに含まれる第1文字列が示す事項に応じた第2文字列を用いて合成された歌唱音声を、当該第1の部分コンテンツの歌唱音声の出力後、当該第1文字列が示す事項に応じた時間長に応じたタイミングで出力するステップと
を有する歌唱音声の出力方法。 - コンテンツに含まれる文字列を分解して得られた複数の部分コンテンツの中から第1の部分コンテンツを特定する特定部と、
前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力する出力部と、
前記歌唱音声に対するユーザの反応を受け付ける受け付け部と
前記反応に応じて、前記第1の部分コンテンツに続く第2の部分コンテンツに含まれる文字列の一部を前記反応に応じて修正する修正部と
を有し、
前記出力部が、前記修正部により修正された文字列を用いて合成された歌唱音声を出力する
音声応答システム。 - コンテンツに含まれる文字列を分解して得られた複数の部分コンテンツの中から第1の部分コンテンツを特定する特定部と、
前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力する出力部と、
前記歌唱音声に対するユーザの反応を受け付ける受け付け部と
を有し、
前記出力部が、前記反応に応じて、前記第1の部分コンテンツに続く第2の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力し、
前記出力部が、前記第1の部分コンテンツに含まれる文字列が示す事項に応じた時間長となるよう合成された歌唱音声を、前記第1の部分コンテンツの歌唱音声と前記第2の部分コンテンツの歌唱音声との間に出力する
音声応答システム。 - コンテンツに含まれる文字列を分解して得られた複数の部分コンテンツの中から第1の部分コンテンツを特定する特定部と、
前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力する出力部と、
前記歌唱音声に対するユーザの反応を受け付ける受け付け部と
を有し、
前記出力部が、前記反応に応じて、前記第1の部分コンテンツに続く第2の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力し、
前記出力部が、前記第1の部分コンテンツに含まれる第1文字列が示す事項に応じた第2文字列を用いて合成された歌唱音声を、当該第1の部分コンテンツの歌唱音声の出力後、当該第1文字列が示す事項に応じた時間長に応じたタイミングで出力する
音声応答システム。 - コンピュータに、
コンテンツに含まれる文字列を分解して得られた複数の部分コンテンツの中から第1の部分コンテンツを特定するステップと、
前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記歌唱音声に対するユーザの反応を受け付けるステップと、
前記第1の部分コンテンツに続く第2の部分コンテンツに含まれる文字列の一部を前記反応に応じて修正するステップと、
前記修正された文字列を用いて合成された歌唱音声を出力するステップと
を実行させるためのプログラム。 - コンピュータに、
コンテンツに含まれる文字列を分解して得られた複数の部分コンテンツの中から第1の部分コンテンツを特定するステップと、
前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記歌唱音声に対するユーザの反応を受け付けるステップと、
前記反応に応じて、前記第1の部分コンテンツに続く第2の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記第1の部分コンテンツに含まれる文字列が示す事項に応じた時間長となるよう合成された歌唱音声を、前記第1の部分コンテンツの歌唱音声と前記第2の部分コンテンツの歌唱音声との間に出力するステップと
を実行させるためのプログラム。 - コンピュータに、
コンテンツに含まれる文字列を分解して得られた複数の部分コンテンツの中から第1の部分コンテンツを特定するステップと、
前記第1の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記歌唱音声に対するユーザの反応を受け付けるステップと、
前記反応に応じて、前記第1の部分コンテンツに続く第2の部分コンテンツに含まれる文字列を用いて合成された歌唱音声を出力するステップと、
前記第1の部分コンテンツに含まれる第1文字列が示す事項に応じた第2文字列を用いて合成された歌唱音声を、当該第1の部分コンテンツの歌唱音声の出力後、当該第1文字列が示す事項に応じた時間長に応じたタイミングで出力するステップと
を実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017116831A JP6977323B2 (ja) | 2017-06-14 | 2017-06-14 | 歌唱音声の出力方法、音声応答システム、及びプログラム |
PCT/JP2018/022816 WO2018230670A1 (ja) | 2017-06-14 | 2018-06-14 | 歌唱音声の出力方法及び音声応答システム |
JP2021183657A JP7424359B2 (ja) | 2017-06-14 | 2021-11-10 | 情報処理装置、歌唱音声の出力方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017116831A JP6977323B2 (ja) | 2017-06-14 | 2017-06-14 | 歌唱音声の出力方法、音声応答システム、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021183657A Division JP7424359B2 (ja) | 2017-06-14 | 2021-11-10 | 情報処理装置、歌唱音声の出力方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019003000A JP2019003000A (ja) | 2019-01-10 |
JP6977323B2 true JP6977323B2 (ja) | 2021-12-08 |
Family
ID=64660282
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017116831A Active JP6977323B2 (ja) | 2017-06-14 | 2017-06-14 | 歌唱音声の出力方法、音声応答システム、及びプログラム |
JP2021183657A Active JP7424359B2 (ja) | 2017-06-14 | 2021-11-10 | 情報処理装置、歌唱音声の出力方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021183657A Active JP7424359B2 (ja) | 2017-06-14 | 2021-11-10 | 情報処理装置、歌唱音声の出力方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6977323B2 (ja) |
WO (1) | WO2018230670A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6594577B1 (ja) * | 2019-03-27 | 2019-10-23 | 株式会社博報堂Dyホールディングス | 評価システム、評価方法、及びコンピュータプログラム。 |
JP2020177534A (ja) * | 2019-04-19 | 2020-10-29 | 京セラドキュメントソリューションズ株式会社 | 透過型ウェアラブル端末 |
TWI749447B (zh) * | 2020-01-16 | 2021-12-11 | 國立中正大學 | 同步語音產生裝置及其產生方法 |
CN116670751A (zh) * | 2020-11-25 | 2023-08-29 | 雅马哈株式会社 | 音响处理方法、音响处理系统、电子乐器及程序 |
CN113488007A (zh) * | 2021-07-07 | 2021-10-08 | 北京灵动音科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3508470B2 (ja) * | 1996-05-29 | 2004-03-22 | ヤマハ株式会社 | 作詞支援装置、作詞支援方法および記憶媒体 |
JP3307283B2 (ja) * | 1997-06-24 | 2002-07-24 | ヤマハ株式会社 | 歌唱音合成装置 |
JPH11175082A (ja) * | 1997-12-10 | 1999-07-02 | Toshiba Corp | 音声対話装置及び音声対話用音声合成方法 |
JPH11219195A (ja) * | 1998-02-04 | 1999-08-10 | Atr Chino Eizo Tsushin Kenkyusho:Kk | 対話型詩朗読システム |
JP2001043126A (ja) * | 1999-07-27 | 2001-02-16 | Tadamitsu Ryu | ロボットシステム |
JP2002221978A (ja) * | 2001-01-26 | 2002-08-09 | Yamaha Corp | ボーカルデータ生成装置、ボーカルデータ生成方法および歌唱音合成装置 |
JP2002258872A (ja) * | 2001-02-27 | 2002-09-11 | Casio Comput Co Ltd | 音声情報サービスシステム及び音声情報サービス方法 |
JP2003131548A (ja) * | 2001-10-29 | 2003-05-09 | Mk Denshi Kk | 言語学習装置 |
JP2006227589A (ja) * | 2005-01-20 | 2006-08-31 | Matsushita Electric Ind Co Ltd | 音声合成装置および音声合成方法 |
KR20090046003A (ko) * | 2007-11-05 | 2009-05-11 | 주식회사 마이크로로봇 | 로봇 완구 장치 |
JP6267636B2 (ja) * | 2012-06-18 | 2018-01-24 | エイディシーテクノロジー株式会社 | 音声応答装置 |
JP6166889B2 (ja) * | 2012-11-15 | 2017-07-19 | 株式会社Nttドコモ | 対話支援装置、対話システム、対話支援方法及びプログラム |
JP6295531B2 (ja) * | 2013-07-24 | 2018-03-20 | カシオ計算機株式会社 | 音声出力制御装置、電子機器及び音声出力制御プログラム |
JP6596843B2 (ja) * | 2015-03-02 | 2019-10-30 | ヤマハ株式会社 | 楽曲生成装置および楽曲生成方法 |
-
2017
- 2017-06-14 JP JP2017116831A patent/JP6977323B2/ja active Active
-
2018
- 2018-06-14 WO PCT/JP2018/022816 patent/WO2018230670A1/ja active Application Filing
-
2021
- 2021-11-10 JP JP2021183657A patent/JP7424359B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2022017561A (ja) | 2022-01-25 |
JP2019003000A (ja) | 2019-01-10 |
WO2018230670A1 (ja) | 2018-12-20 |
JP7424359B2 (ja) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7424359B2 (ja) | 情報処理装置、歌唱音声の出力方法、及びプログラム | |
JP7363954B2 (ja) | 歌唱合成システム及び歌唱合成方法 | |
EP3675122B1 (en) | Text-to-speech from media content item snippets | |
AU2012213646B2 (en) | Semantic audio track mixer | |
JP2021516787A (ja) | オーディオ合成方法、並びにそのコンピュータプログラム、コンピュータ装置及びコンピュータ装置により構成されるコンピュータシステム | |
EP3759706B1 (en) | Method, computer program and system for combining audio signals | |
US20140046667A1 (en) | System for creating musical content using a client terminal | |
JP2014048472A (ja) | カラオケ用音声合成システム,及びパラメータ抽出装置 | |
Lesaffre et al. | The MAMI Query-By-Voice Experiment: Collecting and annotating vocal queries for music information retrieval | |
CN111354325A (zh) | 自动词曲创作系统及其方法 | |
JP3931442B2 (ja) | カラオケ装置 | |
JP2007140548A (ja) | 似顔絵出力装置およびカラオケ装置 | |
JP2022065554A (ja) | 音声合成方法およびプログラム | |
Bresin et al. | Rule-based emotional coloring of music performance | |
WO2022080395A1 (ja) | 音声合成方法およびプログラム | |
Dai et al. | An Efficient AI Music Generation mobile platform Based on Machine Learning and ANN Network | |
JP6611633B2 (ja) | カラオケシステム用サーバ | |
JP2002341862A (ja) | 対話式楽曲検索演奏装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6977323 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |