JP6619072B2 - 音合成装置、音合成方法、及びそのプログラム - Google Patents

音合成装置、音合成方法、及びそのプログラム Download PDF

Info

Publication number
JP6619072B2
JP6619072B2 JP2018191616A JP2018191616A JP6619072B2 JP 6619072 B2 JP6619072 B2 JP 6619072B2 JP 2018191616 A JP2018191616 A JP 2018191616A JP 2018191616 A JP2018191616 A JP 2018191616A JP 6619072 B2 JP6619072 B2 JP 6619072B2
Authority
JP
Japan
Prior art keywords
sound
stimulus
visual information
sound stimulus
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018191616A
Other languages
English (en)
Other versions
JP2019023747A (ja
Inventor
優 鎌本
優 鎌本
善史 白木
善史 白木
佐藤 尚
尚 佐藤
パブロ ナバ ガブリエル
パブロ ナバ ガブリエル
守谷 健弘
健弘 守谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018191616A priority Critical patent/JP6619072B2/ja
Publication of JP2019023747A publication Critical patent/JP2019023747A/ja
Application granted granted Critical
Publication of JP6619072B2 publication Critical patent/JP6619072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像を見るものによって入力されるテキスト情報を、その映像に重畳して表示する技術に関する。
映像を見るものによって入力されるテキスト情報を、その映像に重畳して表示する従来技術として非特許文献1が知られている。非特許文献1では、視聴者は、動画を視聴しながら、コメントを投稿することができる。
また、伝送元において収音された拍手や手拍子音、声援・掛け声などの環境音を効率よく伝送し、伝送先で伝送元の場の雰囲気を再現する従来技術として特許文献1が知られている。
特開2014−63145号公報
「動画の視聴 コメントの投稿」、[online]、NIWANGO.INC、[平成27年2月2日検索]、インターネット<URL : http://info.nicovideo.jp/help/player/howto/>
しかしながら、従来技術では、テキスト情報が重畳された映像の雰囲気を再現することは難しい。
本発明は、テキスト情報が重畳された映像の雰囲気を再現する音合成装置、音合成方法及びそのプログラムを提供することを目的とする。
上記の課題を解決するために、本発明の一態様によれば、音合成装置は、時系列の視覚情報に対し、当該視覚情報が表す意味に対応し、かつ、発話以外の音である音刺激を、当該時系列の視覚情報のタイミング及び数の少なくとも何れかに基づき、合成する音刺激合成部を含み、時系列の視覚情報は音刺激とは異なる時系列の音信号と対応付けられており、音刺激合成部は音刺激を時系列の音信号に重畳して出力し、音刺激合成部は、複数の視覚情報の中から、同じ意味を表す複数の視覚情報それぞれの入力時刻を抽出し、所定の時間区間毎に、抽出した入力時刻の平均値、最頻値、最小値及び最大値の少なくともいずれかである代表値に基づいて音刺激を重畳するタイミングを求める。
上記の課題を解決するために、本発明の他の態様によれば、音合成方法は、音刺激合成部が、時系列の視覚情報に対し、当該視覚情報が表す意味に対応し、かつ、発話以外の音である音刺激を、当該時系列の視覚情報のタイミング及び数の少なくとも何れかに基づき、合成する音刺激合成ステップを含み、時系列の視覚情報は音刺激とは異なる時系列の音信号と対応付けられており、音刺激合成ステップは音刺激を時系列の音信号に重畳して出力し、音刺激合成ステップは、複数の視覚情報の中から、同じ意味を表す複数の視覚情報それぞれの入力時刻を抽出し、所定の時間区間毎に、抽出した入力時刻の平均値、最頻値、最小値及び最大値の少なくともいずれかである代表値に基づいて音刺激を重畳するタイミングを求める。
本発明によれば、テキスト情報が重畳された映像の雰囲気を再現することができるという効果を奏する。
第一実施形態に係る音合成装置の機能ブロック図。 第一実施形態に係る音合成装置の処理フローの例を示す図。 テキスト情報付き映像信号の例を示す図。 合成した音刺激を重畳した音信号の例を示す図。 音刺激データベースのデータ例を示す図。 テキスト情報が表示されるタイミングで、音刺激を音信号に重畳する例を示す図。 テキスト情報の個数が多いタイミングに合わせて、音刺激を音信号に重畳する例を示す図。 音刺激合成部の音刺激合成手順を例示する図。 テキスト情報の個数に応じて、音刺激の音量を変更し、変更後の音刺激を音信号に重畳する例を示す図。 音刺激データベースのデータ例を示す図。
以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。
<第一実施形態>
図1は第一実施形態に係る音合成装置100の機能ブロック図を、図2はその処理フローを示す。
音合成装置100は、例えば、動画の視聴者によって操作される視聴者端末内に組み込まれる。なお、本実施形態において、動画とは、時間軸に同期させた音信号と共に提供される映像信号を意味する。視聴者端末は、入力部(キーボード、マウス、タッチパネル等)と、映像表示部(ディスプレイ、タッチパネル等)と音再生部(スピーカ等)を含み、例えば、パーソナルコンピュータ、スマートホン、タブレット等からなる。視聴者端末及び動画配信サーバ92は、通信回線を介して通信可能とされている。視聴者は、視聴者端末の入力部を介して、動画配信サーバ92に対して動画の再生を要求する(S1)ことができる。
<動画配信サーバ92>
動画配信サーバ92は、動画データベース及びビデオカメラから動画を受け取り、視聴者端末の要求に応じて、動画データベース内に格納されている動画、または、ビデオカメラで収録した動画をリアルタイムで配信する(S2)。また、ビデオカメラで収録された動画に限らず、リアルタイムで合成・編集されたCGやモーションキャプチャ等から合成されたCGをリアルタイム配信することもある。動画データベースには、動画と共に動画に付加されたテキスト情報が記憶され、動画と共に配信される。さらに、テキスト情報にはメタデータが付加されている。メタデータとしては、テキスト情報の入力時刻、テキスト情報の大きさ、その色、その出現方法、その移動速度や、移動位置等がある。例えば、大きさ、色、出現方法、移動速度、移動位置等は、テキスト情報の入力者が選択できるものとしてもよく、視聴者端末がメタデータとしてテキスト情報と一緒に送信し、動画データベースに動画と共に記憶される。なお、テキスト情報付き動画に含まれるテキスト情報、音信号及び映像信号は、時間軸において同期しており、それぞれ時系列において対応付けられている。
<音合成装置100>
音合成装置100には、テキスト情報付きの動画、より詳しく言うと、時間軸において同期しているテキスト情報、音信号及び映像信号が入力され、テキスト情報付き映像信号(図3参照)に合わせて、テキスト情報に対応する音刺激を合成し(S120)、合成した音刺激を重畳した音信号(図4参照)を出力する。時間軸において同期しているテキスト情報、映像信号、音刺激及び音信号を併せて音刺激及びテキスト情報付き動画ともいう。
視聴者端末の映像表示部及び音再生部は、音刺激及びコメント情報付きの動画を再生し(S4)、視聴者は、視聴者端末の映像表示部及び音再生部を介して、音刺激及びコメント情報付きの動画を視聴することができる。
例えば、非特許文献1のニコニコ動画(登録商標)では視聴者側から拍手や手拍子を表現するために「8」という文字を入力して手を打ったことを表現するテキスト情報が使われている。また、笑いを表すために「w」という文字が使われている。仮に、これらのテキスト情報に対して、従来の音声合成技術を適用した場合、これらのテキスト情報に対してそれぞれ、「ハチ」「ダブリュ」という音声が合成される。一方、本実施形態では、「8」は拍手音及び手拍子音の何れか、「w」は笑い声というように変換し合成音を出力する。
音合成装置100は、音刺激データベース110と、音刺激合成部120とを含む。
<音刺激データベース110>
音刺激データベース110には、テキスト情報と、そのテキスト情報が表す意味に対応する音刺激のテンプレートとが対応付けられて記憶されている(図5参照)。なお、本実施形態ではテキスト情報は所定の行為を意味するものとする。また、音刺激は、発話以外の音である。ここで、「発話以外の音」とは、「言語を音声として発し、その結果として発せられた音声」以外の音を意味し、例えば、笑い声、拍手音である。例えば、笑いを意味するテキスト情報「w」に対して、「ダブリュ」という音声波形のテンプレートではなく、「笑い声」の音の波形のテンプレート(笑い声の場合、例えば数秒分のテンプレート)が記憶されている。また、拍手及び手拍子の何れかを意味するテキスト情報「8」に対して、「ハチ」という音声波形のテンプレートではなく、「拍手音及び手拍子音の何れか」の音の波形のテンプレート(拍手音及び手拍子音の場合、例えば、数百ミリ秒分のテンプレート)が記憶されている。なお、図5の例では、テキスト情報と音刺激のテンプレートとが1対1で対応しているが、1対多、多対1、多対多で対応してもよい。つまり、(1)所定の意味(例えば笑い)を表す1つのテキスト情報(例えば「w」)とその意味に対応する複数の音刺激のテンプレート(複数の笑い声のバリエーションを用意する)とが1対多で対応してもよいし、(2)所定の意味(例えば笑い)を表す複数のテキスト情報(例えば「w」「(笑)」「(^o^)」)とその意味に対応する1つの音刺激のテンプレート(1つの笑い声を用意する)とが多対1で対応してもよいし、(3)所定の意味(例えば笑い)を表す複数のテキスト情報(例えば「w」「(笑)」「(^o^)」)とその意味に対応する複数の音刺激のテンプレート(複数の笑い声のバリエーションを用意する)とが多対多で対応してもよい。なお、拍手音、手拍子音及び笑い声等は、その時々により、異なるほうがより自然に聞こえるため、テキスト情報が重畳された映像の雰囲気をより自然に再現しようとするならば、複数の音刺激のテンプレートを用意するほうがよい。
<音刺激合成部120>
音刺激合成部120は、テキスト情報付き動画(テキスト情報+音信号+映像信号)を受け取り、時系列のテキスト情報に対し、テキスト情報が表す意味に対応する音刺激のテンプレートを音刺激データベース110から取り出し、時系列のテキスト情報のタイミングと数の少なくとも何れかに基づき、音刺激を合成し(S120)、時系列の音信号に対応付けて出力する。なお、あるテキスト情報が表す意味に対応する音刺激のテンプレートが複数存在する場合には、その中から1つをランダムに選択すればよい。音刺激合成部120は、選択した音刺激のテンプレートを、必要に応じて前のフレームと補間をして、所定の時間長のフレーム単位(例えば映像の1フレームに対応する時間長)で、1フレームごとに励起される音刺激を合成する。音刺激合成部120は、合成した音刺激を受け取った音信号に重畳して(時系列の音信号に対応付けて)、出力する。
例えば、拍手及び手拍子の何れかを意味するテキスト情報「8」に対し、音刺激データベース110から対応する拍手音及び手拍子音の何れかの音の波形のテンプレート(例えば数百ミリ秒分のテンプレート)を取り出し、必要に応じて前のフレームと補間をして、1フレームごとに励起される拍手音及び手拍子音の何れかの音刺激を合成する。そして、所定の時間分の拍手音及び手拍子音の何れかの音刺激を合成し、音信号に重畳する。同様の方法により、笑いを意味するテキスト情報「w」に対し、所定の時間分の笑い声の音刺激を合成し、音信号に重畳してもよい。
なお、発話を意味するテキスト情報に合わせて従来の音声合成装置を用いて音声を合成してもよい。この場合、テキスト情報に対して、まず、本実施形態の音刺激合成を行い、音刺激合成の対象とならないテキスト情報に対して従来の音声合成装置を用いて音声を合成すればよい。例えば「素晴らしい88」というテキスト情報が入力された場合、「すばらしいハチハチ」という音声を合成するのではなく、「すばらしい(音声)+拍手音(音刺激)」という音を合成し、音信号に重畳する。このような構成とすることで、音信号に対して、従来の音声合成により合成された音声(話し声)と共に、音刺激(拍手音、手拍子音及び笑い声等)が重畳され、テキスト情報が重畳された映像の雰囲気をより自然に再現することができる。
なお、上述の通り、テキスト情報「8」は拍手及び手拍子の何れかを意味する。何れも手を叩く行為であるが、「手拍子」は一定のテンポに合わせて手を叩く行為であり、「拍手」は一定のテンポを持たずに手を叩く行為である。ここで、「手拍子」と「拍手」とは、手を叩く時間的間隔や音量的差異が異なるため(参考文献1)、例えば、音信号等に基づいて、テキスト情報が何れの行為を意味するのかを判別することができる。
(参考文献1)鎌本優,河原一彦,尾本章,守谷健弘,「音楽鑑賞時に励起される拍手音・手拍子音の低遅延伝送に向けた基礎的検討」、日本音響学会 2014年秋季研究発表会, 1-Q-17、2014年.
例えば、音信号が曲を表し、一定のテンポがある場合には、テキスト情報「8」は手拍子を意味する可能性が高い。また、曲が終了後のテキスト情報「8」は拍手を意味する可能性が高い。また、テキスト情報「8」が一度の入力で連続している場合、つまりテキスト情報「88…」が入力された場合には、「パチパチ…」を意味し、拍手を意味する可能性が高い。また、テキスト情報「8」が周期的に入力される場合には、手拍子を意味する可能性が高い。
(音刺激を重畳するタイミング)
(1)テキスト情報が表示されるタイミング(例えばテキスト情報の入力時刻)で、音刺激を音信号に重畳する(図6参照)。
(2)テキスト情報の個数が多いタイミングに合わせて、音刺激を音信号に重畳する(図7参照)。
複数のテキスト情報の中から、同じ意味を表すテキスト情報を抽出する。例えば、音刺激データベース110を参照して、音刺激合成部120は、同じ意味を表すテキスト情報毎に分類し、テキスト情報の入力時刻を抽出する。
音刺激合成部120は、抽出した入力時刻の統計量に基づいて音刺激を音信号に重畳するタイミングを求める。例えば、抽出した入力時刻を用いて、所定の時間区間毎に、時間区間毎の代表値(平均値、最頻値、最小値及び最大値等の複数の入力時刻を代表する何らかの値)を求め、重畳するタイミングとして検出する。例えば、抽出した入力時刻を用いて、ヒストグラムを作成し、多数決により重畳するタイミングを求める。つまり、最頻値を重畳するタイミングとする。
例えば、テキスト情報が手拍子を意味し、動画がミュージックビデオであり、曲のテンポが148BPM(Beats per Minutes)の場合、一拍の間隔は405ms程度なので、所定の時間区間を405msとする。また、例えば、テキスト情報が「拍手」または「笑い」を意味する場合、所定の時間区間を一連の行為「拍手」または「笑い」が、継続しうる最大の時間に設定する。例えば、何らかの事象に対して、「拍手」を送るのは、長くとも30秒程度であろうと想定される場合、最初に「拍手」を意味するテキスト情報が表示されてから1分以内に表示される「拍手」を意味する他のテキスト情報から代表値を求め、重畳するタイミングとして検出する。
なお、この方法を用いる場合、所定の時間区間分のテキスト情報付き動画(テキスト情報+音信号+映像信号)をバッファリングしておき、音刺激を重畳して、音刺激及びテキスト情報付き動画を出力すればよい。
(繰り返し重畳する場合)
なお、一人の人間による一拍分の音刺激(拍手音、手拍子音、笑い声等)を音刺激データベース110に記憶しておき、音刺激を音信号に繰り返し重畳する構成としてもよい。その場合、(音刺激を重畳するタイミング)の(1)及び(2)で求めたタイミングを、一番初めに音刺激を重畳するタイミングとして利用する。所定の時間区間分(例えば、テキスト情報が映像表示部に表示されてから消えるまで)繰り返し重畳すればよい。
例えば、同じ意味を表すテキスト情報が映像表示部に表示される個数が1個の場合は、図8Aのように、所定の間隔毎(例えば、拍手の場合約300msごと)に、音刺激を重畳する。なお、音刺激を重畳するタイミングに揺らぎを持たせてもよい。例えば、音刺激が拍手の場合、所定の間隔は約300msでよいが、より好ましくは300msを中心として時間間隔に揺らぎを持たせる。時間間隔に揺らぎを持たせることによってさらに自然な拍手音を合成することができる(参考文献1参照)。たとえば300msを中心としてガウス分布にしたがう乱数により、±数10msの揺らぎを持たせればよい。例えば、フレームのインデックスをiとし、合成後の音刺激(拍手音)をYとし、フレームiに対して音刺激データベース110から取り出した音刺激のテンプレートをTとし、テンプレートTの長さ(テンプレートTに含まれる全フレームに含まれる、音刺激のデータのサンプル数)をPとし、音刺激合成部120は、テンプレートT=(t[1] t[2] … t[P])と拍手タイミングを表すインパルスδ(i・τ+σ)の畳み込み演算でYを出力とする。テンプレートの長さは所定の間隔(拍手の場合では約300ms程度)よりも短いほうが、音が重ならないため好ましい。
Figure 0006619072
ここで*は畳み込み演算を表す。ここで、τ=300msであり、σは−10ms≦σ≦+10msの範囲で生成した乱数である。音刺激を重畳するタイミングはフレーム間隔で特定し、1フレームごとに励起される音刺激を合成し、その結果として、音の波形のテンプレート分(例えば、笑い声の場合、数秒分、拍手音及び手拍子音の場合、数百ミリ秒分)の音刺激を合成し重畳する。1人分の手拍子を合成する場合、音刺激を重畳する間隔は、手拍子の対象に応じて変化し、曲のテンポが148BPM(Beats Per Minute)の場合、405ms前後とする。さらに、時間間隔の揺らぎは、拍手の場合よりも手拍子の場合のほうが小さく設定したほうがよく、例えば、手拍子の場合のσの範囲が拍手の場合のσの範囲よりも小さくなるように設定する。
同じ意味を表すテキスト情報が映像表示部に表示される個数に応じて、音刺激を重畳する時間間隔を変更してもよい。例えば、拍手を表すM個のテキスト情報が映像表示部に表示されている場合、図8Bのように、時間間隔を約300/M(ms)ごとに音刺激を重畳する。個数Mの逆数を使って、時間間隔を約300/M(ms)と設定することで、拍手を表すテキスト情報の個数Mが増えるに従って時間間隔が小さくなるように設定することができる。この場合もガウス分布やラプラス分布に従う乱数によって、揺らぎを持たせることができる。例えば音刺激合成部120は、
Figure 0006619072
によりテンプレートを変換した音刺激Y(i=0,1,2,・・・)を重畳する。テキスト情報の個数Mの手拍子を合成する場合、M個の手拍子のタイミングはほぼ同じなので、例えば、
Figure 0006619072
によりテンプレートを変換した音刺激Y(i=0,1,2,・・・)を重畳する。なお、この場合も時間間隔の揺らぎは、拍手の場合よりも手拍子の場合のほうが小さく設定したほうがよい(参考文献1参照)。
音刺激の例として拍手音及び手拍子音の何れかを対象として説明したが、これに限らず拍手音及び手拍子音以外の音刺激(たとえば、一人の人間による笑い声)を対象としても良い。
なお、音刺激合成部120において、音刺激のテンプレートT=(t[1] t[2] … t[P])と笑い声を表すインパルスδ(m・τ+σ)の畳み込み演算でYを出力としても良い。
Figure 0006619072
この場合、τは笑い声のテンプレートの長さ(数秒)に対応する値とする。
(揺らぎのバリエーション)
揺らぎを持たせる際のバリエーションについて説明する。
例えば、抽出した入力時刻を用いて、所定の時間区間毎に、入力時刻の平均値と分散とを求め、その平均値と分散とを持つガウス分布に従う乱数を重畳するタイミングとしてもよい。この方法により、音刺激を重畳するタイミングにゆらぎを与えることができ、より自然なタイミングで音刺激を再生することができる。
テキスト情報が手拍子を意味する場合、予め手拍子を行う際に一般的に生じる分散の値を求めておき、その分散に基づき、重畳するタイミングを求めてもよい。例えば、上述の方法で重畳するタイミングを求め、その重畳するタイミングを中心として、手拍子を行う際に一般的に生じる分散を持つガウス分布に従う乱数を新たな(最終的に用いる)重畳するタイミングとする。
(音刺激の音量を調整する方法)
音刺激の音量を調整する方法を説明する。
(1)テキスト情報の個数に応じて、音刺激の音量を変更し、変更後の音刺激を音信号に重畳する(図9参照)。例えば、映像表示部に表示されるテキスト情報の個数が多くなるほど音量が大きくなるように変更する。
(2)テキスト情報の大きさに応じて、音刺激の音量を変更し、変更後の音刺激を音信号に重畳する。例えば、映像表示部に表示されるテキスト情報の大きさが大きくなるほど音量が大きくなるように変更する。
(3)音刺激データベース110に個数に応じて異なる音量の音刺激を収音し記憶しておき、音刺激合成部120は、テキスト情報とその個数に応じて音刺激を選択してもよい。この場合、音刺激データベース110には、テキスト情報と、個数と、そのテキスト情報が表す意味に対応する音刺激とが対応付けられて記憶されている。例えば、テキスト情報「w」と、個数1と、1人分の笑い声からなる音刺激とが対応付けられて記憶されており、テキスト情報「w」と、個数2と、2人分の笑い声からなる音刺激とが対応付けられて記憶されている。なお、テキスト情報と個数と音刺激とが1対1対1で対応してもよいし、1対1対多、多対1対1、多対1対多で対応してもよい。
<効果>
以上の構成により、テキスト情報が重畳された映像の雰囲気を再現することができる。
<変形例>
本実施形態では、音合成装置100は、音刺激及びテキスト情報付き動画を出力しているが、本実施形態のポイントは、音刺激を合成することであり、少なくとも音刺激を出力すればよい。例えば、本実施例のように視聴者端末(パーソナルコンピュータ、スマートホン、タブレット等)内に本実施形態の音合成装置100が組み込まれてもよいし、動画配信サーバ内に音合成装置100が組み込まれてもよい。また、音合成装置100を独立した装置として構成してもよい。少なくとも時間軸において音信号または映像信号に同期しているテキスト情報を受け取り、音刺激を合成し、出力することができればよい。音刺激を音信号に同期させる処理等は別装置において行ってもよい。
本実施形態では、視聴者によって入力され、映像信号に重畳して表示される情報としてテキスト情報の例を示したが、他の視覚情報であってもよい。ここで、「視覚情報」とは、映像表示部を介して視覚的に認識可能な情報であって、例えば、文字、図形若しくは記号若しくはこれらの結合又はこれらと色彩との結合である。また、静止画に限らず、動く画像であってもよい。例えば、(1)本実施形態のように、「笑い」や「拍手」等の所定の行為を意味するテキスト情報(例えば「w」や「8」等)、(2)テキスト情報以外の「笑い」や「拍手」等の所定の行為を意味し、識別するためのコンピュータ上のビット情報、(3)顔文字、絵文字等、通常のテキスト情報で無いもの。例えば、キャリアの異なる携帯電話間で共通絵文字(参考文献2参照)、(4)アスキーアート等,全体としてはテキスト情報とテキスト情報の配置情報を用いた絵のようになっているもの(参考文献3参照)
(参考文献2)「docomo/au共通絵文字」、株式会社NTTドコモ、[online]、[平成27年2月9日検索]、インターネット<URL: https://www.nttdocomo.co.jp/service/developer/smart_phone/make_contents/pictograph/>
(参考文献3)「アスキーアート」、[online]、2015年2月2日、ウィキペディア、[平成27年2月9日検索]、インターネット<URL: http://ja.wikipedia.org/wiki/%E3%82%A2%E3%82%B9%E3%82%AD%E3%83%BC%E3%82%A2%E3%83%BC%E3%83%88>
このテキスト情報以外の視覚情報を含む場合の音刺激データベース110に格納されるデータの例を図10に示す。
<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (7)

  1. 時系列の視覚情報に対し、当該視覚情報が表す意味に対応し、かつ、発話以外の音である音刺激を、当該時系列の視覚情報のタイミング及び数の少なくとも何れかに基づき、合成する音刺激合成部を含み、
    上記時系列の視覚情報は上記音刺激とは異なる時系列の音信号と対応付けられており、上記音刺激合成部は上記音刺激を上記時系列の音信号に重畳して出力し、
    上記音刺激合成部は、複数の上記視覚情報の中から、同じ意味を表す複数の視覚情報それぞれの入力時刻を抽出し、所定の時間区間毎に、抽出した入力時刻の平均値、最頻値、最小値及び最大値の少なくともいずれかである代表値に基づいて音刺激を重畳するタイミングを求める、
    音合成装置。
  2. 請求項1の音合成装置であって、
    上記代表値は平均値であり、
    上記音刺激合成部は、上記視覚情報の中から、同じ意味を表す複数の視覚情報それぞれの入力時刻を抽出し、抽出した入力時刻の、所定の時間区間毎の平均値と分散とを持つガウス分布に従う乱数に基づいて上記音刺激を重畳するタイミングとする、
    音合成装置。
  3. 請求項2の音合成装置であって、
    音刺激が記憶される音刺激データベースを含み、
    上記音刺激合成部は、上記視覚情報が映像表示部に表示されてから消えるまでの時間繰り返して上記音刺激データベースに記憶された上記音刺激を重畳し、
    フレームのインデックスをiとし、合成後の音刺激をYとし、フレームiに対して音刺激データベースから取り出した音刺激のテンプレートをTとし、τを音刺激のテンプレートの長さに対応する値とし、前記乱数をσとし、音刺激を重畳するタイミングを表すインパルスをδ(i・τ+σ)とし、*を畳み込み演算を表す演算子とし、上記音刺激合成部は、
    Figure 0006619072
    により音刺激を合成する、もしくは、
    前記乱数をσとし、映像表示部に表示される同じ意味を表す視覚情報の個数をMとし、上記音刺激合成部は、
    上記音刺激が拍手の場合、音刺激を重畳するタイミングを表すインパルスを
    Figure 0006619072
    とし、
    Figure 0006619072
    により、音刺激を合成し、
    上記音刺激が手拍子の場合、音刺激を重畳するタイミングを表すインパルスをδ(τ+σ )とし、
    Figure 0006619072
    により、音刺激を合成し、
    上記音刺激が笑い声の場合、音刺激を重畳するタイミングを表すインパルスを
    Figure 0006619072
    とし、
    Figure 0006619072
    により、音刺激を合成する、
    音合成装置。
  4. 請求項1から請求項3の何れかの音合成装置であって、
    音刺激が記憶される音刺激データベースを含み、
    上記音刺激合成部は、前記代表値を、一番初めに音刺激を音信号に重畳するタイミングとして利用し、上記視覚情報が映像表示部に表示されてから消えるまでの時間繰り返して上記音刺激を重畳する、
    音合成装置。
  5. 請求項1から請求項の何れかの音合成装置であって、
    視覚情報と、個数と、視覚情報が表す意味に対応する、個数に応じた音量の音刺激とが対応付けて記憶される音刺激データベースを含み、
    上記音刺激合成部は、上記時系列の視覚情報の中から抽出される同じ意味を表す複数の視覚情報とその視覚情報が映像表示部に表示される個数とに対応する音刺激を上記音刺激データベースから選択し、重畳する、
    音合成装置。
  6. 音合成装置による音合成方法であって、
    音刺激合成部が、時系列の視覚情報に対し、当該視覚情報が表す意味に対応し、かつ、発話以外の音である音刺激を、当該時系列の視覚情報のタイミング及び数の少なくとも何れかに基づき、合成する音刺激合成ステップを含み、
    上記時系列の視覚情報は上記音刺激とは異なる時系列の音信号と対応付けられており、上記音刺激合成ステップは上記音刺激を上記時系列の音信号に重畳して出力し、
    上記音刺激合成ステップは、複数の上記視覚情報の中から、同じ意味を表す複数の視覚情報それぞれの入力時刻を抽出し、所定の時間区間毎に、抽出した入力時刻の平均値、最頻値、最小値及び最大値の少なくともいずれかである代表値に基づいて音刺激を重畳するタイミングを求める、
    音合成方法。
  7. 請求項1から請求項の何れかの音合成装置として、コンピュータを機能させるためのプログラム。
JP2018191616A 2018-10-10 2018-10-10 音合成装置、音合成方法、及びそのプログラム Active JP6619072B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018191616A JP6619072B2 (ja) 2018-10-10 2018-10-10 音合成装置、音合成方法、及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191616A JP6619072B2 (ja) 2018-10-10 2018-10-10 音合成装置、音合成方法、及びそのプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015080593A Division JP6495722B2 (ja) 2015-04-10 2015-04-10 音合成装置、音合成方法、及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2019023747A JP2019023747A (ja) 2019-02-14
JP6619072B2 true JP6619072B2 (ja) 2019-12-11

Family

ID=65368954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191616A Active JP6619072B2 (ja) 2018-10-10 2018-10-10 音合成装置、音合成方法、及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6619072B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111312210B (zh) * 2020-03-05 2023-03-21 云知声智能科技股份有限公司 一种融合图文的语音合成方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5634853B2 (ja) * 2010-12-22 2014-12-03 富士フイルム株式会社 電子コミックのビューワ装置、電子コミックの閲覧システム、ビューワプログラム、ならびに電子コミックの表示方法
JP6095223B2 (ja) * 2012-08-27 2017-03-15 日本電信電話株式会社 環境音合成装置、環境音伝送システム、環境音合成方法、環境音伝送方法、プログラム
JP6295494B2 (ja) * 2013-04-19 2018-03-20 株式会社ドワンゴ 端末装置、コメント配信システム、及びプログラム

Also Published As

Publication number Publication date
JP2019023747A (ja) 2019-02-14

Similar Documents

Publication Publication Date Title
US11158102B2 (en) Method and apparatus for processing information
JP6936298B2 (ja) 三次元仮想ポートレートの口形の変化を制御する方法および装置
CN110751940B (zh) 一种生成语音包的方法、装置、设备和计算机存储介质
JP2022534708A (ja) 動的に反応する仮想キャラクターのためのマルチモーダルモデル
US20210104169A1 (en) System and method for ai based skill learning
TW202009924A (zh) 音色可選之人聲播放系統、其播放方法及電腦可讀取記錄媒體
US10878799B2 (en) Information presenting apparatus and information presenting method
My-Thanh Nguyen et al. Design of online learning platform with Vietnamese virtual assistant
CN113923462A (zh) 视频生成、直播处理方法、设备和可读介质
US20170092253A1 (en) Karaoke system
KR20200045852A (ko) 음성 합성 또는 영상 편집을 통한 멀티미디어 컨텐츠 내 광고 서비스 플랫폼 및 음성 합성 서비스와 영상 편집 서비스를 제공하는 방법
Sexton et al. Automatic CNN-based enhancement of 360° video experience with multisensorial effects
JP2017064853A (ja) ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム
JP6619072B2 (ja) 音合成装置、音合成方法、及びそのプログラム
JP6367748B2 (ja) 認識装置、映像コンテンツ提示システム
JP6568351B2 (ja) カラオケシステム、プログラム及びカラオケ音声再生方法
JP6495722B2 (ja) 音合成装置、音合成方法、及びそのプログラム
JP5689774B2 (ja) 対話型情報発信装置、対話型情報発信方法、及びプログラム
US20200111475A1 (en) Information processing apparatus and information processing method
JP2020204683A (ja) 電子出版物視聴覚システム、視聴覚用電子出版物作成プログラム、及び利用者端末用プログラム
US20230230609A1 (en) Training machine learning frameworks to generate studio-quality recordings through manipulation of noisy audio signals
JP6411274B2 (ja) タイミング補正システム、その方法及びプログラム
JP5146974B1 (ja) 番組画像作成方法およびその装置
JPWO2019044534A1 (ja) 情報処理装置、及び情報処理方法
Iqbal et al. A GPT-based Practical Architecture for Conversational Human Digital Twins.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191113

R150 Certificate of patent or registration of utility model

Ref document number: 6619072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150