JP7480846B2 - 応援支援方法、応援支援装置、およびプログラム - Google Patents

応援支援方法、応援支援装置、およびプログラム Download PDF

Info

Publication number
JP7480846B2
JP7480846B2 JP2022538531A JP2022538531A JP7480846B2 JP 7480846 B2 JP7480846 B2 JP 7480846B2 JP 2022538531 A JP2022538531 A JP 2022538531A JP 2022538531 A JP2022538531 A JP 2022538531A JP 7480846 B2 JP7480846 B2 JP 7480846B2
Authority
JP
Japan
Prior art keywords
cheering
sound
viewers
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022538531A
Other languages
English (en)
Other versions
JPWO2022018828A1 (ja
Inventor
和則 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2022018828A1 publication Critical patent/JPWO2022018828A1/ja
Application granted granted Critical
Publication of JP7480846B2 publication Critical patent/JP7480846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

この発明は、多数の拠点に配信されるイベント等の視聴者が遠隔から応援する技術に関する。
近年、スポーツ等のイベントをインターネット等のネットワークを介して多数の拠点へ配信する利用形態が普及している(例えば、非特許文献1参照)。図1は、非特許文献1に開示された配信システムの概要を示す図である。この配信システムは、配信対象とするイベントを撮影した元映像に基づいて配信映像を生成し、インターネット上で配信する映像配信装置9を備える。ユーザ10-n(n=1,…,N、Nは1以上の整数)は、各自のユーザ端末8-nを用いて映像配信装置9から配信される映像を視聴する。ユーザ10-nは、配信映像をリアルタイムに視聴しながら、ユーザ端末8-nの入力部81から感想やコメント等を表す文字列を入力する。ユーザ端末8-nの送信部82は、入力された文字列を映像配信装置9へ送信する。映像配信装置9の文字列受信部91は、各ユーザ端末8-nから文字列を受信する。映像配信装置9の文字列追加部92は、元映像に対して受信した文字列を追加することで、配信映像を生成する。生成された配信映像は、各ユーザ端末8-nへ配信される。このようにすることで、非特許文献1の配信システムは、各ユーザの反応をイベントの配信者や他のユーザへ伝えることができる。
株式会社ドワンゴ、"視聴しよう - ニコニコ生放送"、[online]、[令和2年6月26日検索]、インターネット<URL: https://site.live.nicovideo.jp/>
しかしながら、非特許文献1に開示された配信システムでは、ユーザは感想やコメント等を文字列で入力しなければならず、煩雑である。また、例えば、スポーツのイベントの場合、プレーヤがユーザから送信される文字列を視認しながらプレーすることは困難である。
この発明の目的は、上記のような技術的課題を鑑みて、ユーザは文字列を入力することなく配信元に反応を伝えることができ、かつ、イベントの当事者はユーザの反応を進行の妨げとならないように自然に感得できる技術を実現することである。
上記の課題を解決するために、本発明の一態様の応援支援方法は、配信元の空間とは異なる複数の空間にいる視聴者が発した音に基づく音響信号および/または映像信号からなる応援を配信元の空間で再生する応援支援方法であって、応援を取得する取得ステップと、取得された応援を再生する再生ステップと、を有し、取得された応援は、複数の音種別のうち、発した視聴者が多い音種別に対応する応援ほど強調され、発した視聴者が少ない音種別に対応する応援ほど強調されず再生される。
この発明によれば、ユーザが発した音の種別に対応する音声および/または映像からなる応援を、その種別の音を発したユーザの数に基づいて強調して配信元で再生するため、ユーザは文字列を入力することなく配信元に反応を伝えることができ、かつ、イベントの当事者はユーザの反応を進行の妨げとならないように自然に感得できる。
図1は従来技術を説明するための図である。 図2は応援支援システムの機能構成を例示する図である。 図3はユーザ端末の機能構成を例示する図である。 図4は応援支援装置の機能構成を例示する図である。 図5は応援支援方法の処理手続きを例示する図である。 図6は集計部の機能構成を例示する図である。 図7は音声取得部および音声素材記憶部の機能構成を例示する図である。 図8は映像取得部および映像素材記憶部の機能構成を例示する図である。 図9はメータ表示を説明するための図である。 図10はコンピュータの機能構成を例示する図である。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
[実施形態]
この発明の実施形態は、多数の拠点に配信されるイベント等を視聴しているユーザが発した音に基づいて音響信号および/または映像信号からなる応援を生成し、その応援を配信元の拠点で再生する応援支援システムである。実施形態の応援支援システムは、図2に示すように、N個のユーザ空間100-1,…,100-Nと、1個の配信元空間200とからなる。例えばスポーツのイベントの場合、配信元空間はスポーツが行われる空間(例えばスタジアム等)であり、ユーザ空間はユーザがイベントを視聴する空間(例えば自宅等)である。各空間は、地理的に離隔した複数の建物に分散していてもよいし、1つの建物内の複数の部屋であってもよい。
各ユーザ空間100-nには、ユーザ10-nとユーザ端末1-nが存在する。ユーザ10-nはユーザ端末1-nを用いて配信される映像を視聴する。ユーザ端末1-nには、ユーザ10-nが発する音を集音するマイクロホンM-nが接続される。マイクロホンM-nは、ユーザ端末1-nの外部から有線または無線の各種インターフェイスで接続されていてもよいし、ユーザ端末1-nの筐体に内蔵されていてもよい。
配信元空間200には、少なくとも応援支援装置2が存在する。応援支援装置2には、音響信号である応援(以下、「応援音声」とも呼ぶ)を再生するスピーカSと、映像信号である応援(以下、「応援映像」とも呼ぶ)を再生するディスプレイDとが接続される。スピーカSおよびディスプレイDは、応援支援装置2の外部から有線または無線の各種インターフェイスで接続されていてもよいし、応援支援装置2の筐体に内蔵されていてもよいし、応援支援装置2の筐体と一体として形成されていてもよい。
ユーザ端末1-nは、図3に示すように、音種別検出部11および送信部14を備える。音種別検出部11は、特徴量変換部111および識別処理部112を備える。ユーザ端末1-nは、さらに、音声認識部12および音量計算部13を備えていてもよい。ユーザ端末1-nは、音種別検出部11、音声認識部12、および音量計算部13のうち、いずれか1つのみを備えていてもよいし、いずれか2つの組み合わせを備えていてもよいし、3つすべてを備えていてもよい。
応援支援装置2は、図4に示すように、集計部21、音声取得部22、音声再生部23、音声素材記憶部24、映像取得部25、映像再生部26、および映像素材記憶部27を備える。再生される応援が音響信号のみからなる場合、映像取得部25、映像再生部26、および映像素材記憶部27は備えなくともよい。再生される応援が映像信号のみからなる場合、音声取得部22、音声再生部23、および音声素材記憶部24は備えなくともよい。
ユーザ端末1-nおよび応援支援装置2は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。ユーザ端末1-nおよび応援支援装置2は、例えば、中央演算処理装置の制御のもとで各処理を実行する。ユーザ端末1-nおよび応援支援装置2に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。ユーザ端末1-nおよび応援支援装置2は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。応援支援装置2が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。
ユーザ端末1-nは、具体的には、スマートフォンやタブレットのようなモバイル端末、もしくはデスクトップ型やラップトップ型のパーソナルコンピュータなどの音声信号処理機能およびデータ通信機能を備えた情報処理装置である。応援支援装置2は、具体的には、デスクトップ型やラックマウント型のサーバコンピュータなどのデータ通信機能およびデータ処理機能を備えた情報処理装置である。
これらのユーザ端末1-nおよび応援支援装置2が協調して、図5に示す各ステップを実行することにより、実施形態の応援支援方法が実現される。以下、実施形態の応援支援システムが実行する応援支援方法について説明する。
ステップS10において、ユーザ端末1-nに接続されたマイクロホンM-nは、ユーザ10-nが発した音(以下、「ユーザの反応」とも呼ぶ)を集音する。ユーザの反応には、例えば、配信する映像がスポーツの試合である場合、拍手の音、歓声、応援の声などが含まれる。したがって、マイクロホンM-nが集音した音響信号は、ユーザの声が含まれている音声信号であることもあれば、ユーザの声が含まれていない音信号であることもある。マイクロホンM-nが集音した音響信号は、ユーザ端末1-nの音種別検出部11へ入力される。ユーザ端末1-nが音声認識部12および/または音量計算部13を備える場合、マイクロホンM-nが集音した音響信号は音声認識部12および/または音量計算部13へも入力される。
ステップS11において、ユーザ端末1-nは、マイクロホンM-nが集音した音響信号に基づいて、ユーザの反応を表す反応情報を生成する。反応情報の内容は、ユーザ端末1-nが音種別検出部11、音声認識部12、および音量計算部13のいずれを備えるかによって異なる。
ユーザ端末1-nが音種別検出部11を備える場合、反応情報は、ユーザが発した音が予め定めた複数の音種別のいずれであるかを識別した結果を含む。すなわち、音種別検出部11は、入力された音響信号を予め定めた複数の音種別のいずれかに識別し、その識別結果を反応情報として出力する。例えば、配信する映像がスポーツの試合である場合、予め定めた音種別は、例えば、拍手、歓声、応援などである。具体的には、まず、特徴量変換部111が、入力された音響信号を、例えば周波数スペクトルやケプストラムなどの音響特徴量へ変換する。次に、識別処理部112が、音響特徴量を事前に学習されたニューラルネットワークなどの識別器に入力することで、その音響特徴量が予め定めた音種別のいずれに該当するかを識別する。
ユーザ端末1-nが音声認識部12を備える場合、反応情報は、ユーザが発話した音声が表す文字列を含む。すなわち、音声認識部12は、入力された音響信号を音声認識することで文字列に変換し、その文字列を反応情報として出力する。
ユーザ端末1-nが音量計算部13を備える場合、反応情報は、ユーザが発した音の音量を含む。すなわち、音量計算部13は、入力された音響信号の音量を計算し、その音量を表す情報を反応情報として出力する。
ステップS14において、ユーザ端末1-nの送信部14は、音種別検出部11、音声認識部12、および音量計算部13のうち少なくとも1つが出力した反応情報を、応援支援装置2へ送信する。応援支援装置2は、各ユーザ端末1-nから受信した反応情報を集計部21へ入力する。
ステップS21において、応援支援装置2の集計部21は、各ユーザ端末1-nから受信した反応情報を集計し、その集計結果を出力する。集計部21は、例えば、図6に示すように、受信データバッファ211および音種別集計部212を備える。集計部21は、さらに、文字列集計部213および/または平均音量計算部214を備えていてもよい。集計部21が文字列集計部213および平均音量計算部214それぞれを備えるか否かは、ユーザ端末1-nから受信する反応情報の内容によって決定される。すなわち、反応情報が文字列を含む場合(すなわち、ユーザ端末1-nが音声認識部12を備える場合)、集計部21は文字列集計部213を備える。また、反応情報が音量を含む場合(すなわち、ユーザ端末1-nが音量計算部13を備える場合)、集計部21は平均音量計算部214を備える。
受信データバッファ211は、各ユーザ端末1-nから受信した反応情報を、一定時間分FIFOバッファにより蓄積する。蓄積する時間長は予め設定されており、例えば、1秒から数十秒程度である。音種別集計部212は、受信データバッファ211に蓄積された反応情報(すなわち、音種別の識別結果)を音種別ごとにカウントし、音種別ごとの受信数(すなわち、その音種別に該当する音を発した視聴者の数)を表す音種別集計結果を出力する。文字列集計部213は、受信データバッファ211に蓄積された反応情報(すなわち、音声認識結果)を文字列ごとにカウントし、文字列ごとの受信数(すなわち、その文字列を発話した視聴者の数)を表す文字列集計結果を出力する。平均音量計算部214は、受信データバッファ211に蓄積された反応情報(すなわち、音量)から一定時間内の音量の平均を表す平均音量計算結果を出力する。なお、音量集計結果は、視聴者全体の平均値であってもよいし、音種別ごとまたは文字列ごとの平均値であってもよい。
ステップS22において、応援支援装置2の音声取得部22は、集計部21が出力する集計結果に基づいて、配信元空間で再生する応援音声を取得し、出力する。音声取得部22は、事前に用意され音声素材記憶部24に記憶された音声素材を用いて、応援音声を取得する。
音声素材記憶部24は、図7に示すように、K種類の音声素材241-1,…,241-K(Kは音種別の数であり、2以上の整数)が予め記憶されている。各音声素材241-k(k=1,…,K)は、ユーザが発した音を識別した複数の音種別にそれぞれ対応して予め設定された音響信号である。例えば、配信する映像がスポーツの試合である場合、大勢の観客が拍手をしている音の音声素材241-1、歓声を上げている音の音声素材241-2、および応援している音の音声素材241-3等を用意しておけばよい。応援の音は、試合の進行状況(例えば、野球の試合であれば、打者ごとに応援歌が異なる場合や、得点圏に走者がおり得点の好機である場合等)に応じて変更してもよい。この場合、音声素材記憶部24はさらに選択部242を備える。選択部242は、予め定めたルールに従って自動的にもしくは手動で外部から入力される操作信号に応じて、応援している音の音声素材241-3を指定された音響信号に変更する。
音声取得部22は、図7に示すように、ゲイン値設定部220、K個のゲイン221-k、および加算部222を備える。各ゲイン221-kは、音声素材241-kにそれぞれ対応する。ゲイン値設定部220は、集計部21が出力する集計結果に基づいて、各音声素材241-kに対応するゲイン221-kを算出し設定する。例えば、音種別集計結果が表す各音種別の受信数に応じてゲインを設定する。この場合、音種別ごとの受信数をNkとしたとき、ゲインGkをGk=α・Nkで求める。ここで、αは予め定めた定数であり、例えば視聴者数の逆数である。また、最も受信数が多い音種別のみを有効とし、他の音種別のゲインを0に設定してもよい。また、例えば、平均音量計算結果が表す音種別ごとの平均音量も用いて、音種別の受信数に平均音量を乗じた値(すなわち、音種別ごとの視聴者の音量の総和)に応じてゲインを設定してもよい。この場合、音種別ごとの平均音量をVkとし、ゲインGkをGk=α・Vk・Nkで求める。加算部222は、音声素材241-kにゲイン221-kを乗じた各信号を加算して応援音声として出力する。
音声取得部22は、音声合成部223およびゲイン224をさらに備えていてもよい。音声合成部223およびゲイン224は、ユーザ端末10-nが音声認識部12を備える場合(すなわち、集計部21に入力される反応情報に音声認識結果の文字列が含まれ、集計部21が文字列集計結果を出力する場合)に必要となる。音声合成部223は、文字列集計結果のうち受信数が多い方から所定の数の文字列を抽出し、その文字列を音声合成する。ゲイン値設定部220は、各文字列の受信数やその平均音量に応じてゲイン224を算出し設定する。加算部222は、音声素材241-kにゲイン221-kを乗じた各信号に加えて、音声合成部223の出力信号にゲイン224を乗じた信号も加算して応援音声として出力する。このとき、加算後の信号がゲインの上限を超えないように、各ゲインの最大値を設定しておいてもよい。
ステップS23において、応援支援装置2の音声再生部23は、音声取得部22が出力する応援音声を、応援支援装置2に接続されたスピーカSから再生する。
ステップS25において、応援支援装置2の映像取得部25は、集計部21が出力する集計結果に基づいて、配信元空間で再生する応援映像を取得し、出力する。映像取得部25は、事前に用意され映像素材記憶部27に記憶された映像素材を用いて、応援映像を取得する。
映像素材記憶部27は、図8に示すように、K種類の映像素材271-1,…,271-Kが予め記憶されている。各映像素材271-kは、ユーザが発した音を識別した複数の音種別にそれぞれ対応して予め設定された映像信号である。例えば、配信する映像がスポーツの試合である場合、大勢の観客が拍手をしている映像の映像素材271-1、歓声を上げている映像の映像素材271-2、および応援をしている映像の映像素材271-3などを用意しておけばよい。応援の映像は、試合の進行状況に応じて変更してもよい。この場合、映像素材記憶部27はさらに選択部272を備える。選択部272は、予め定めたルールに従って自動的にもしくは手動で外部から入力される操作信号に応じて、応援している映像の映像素材271-3を指定された映像信号に変更する。
映像取得部25は、図8に示すように、映像選択部251を備える。映像選択部251は、集計部21が出力する集計結果に基づいて、各映像素材271-kのうち適切なものを選択する。例えば、音種別集計結果が表す各音種別の受信数Nkが最も大きい音種別に対応する映像素材を選択する。また、例えば、平均音量計算結果が表す音種別ごとの平均音量Vkも用いて、音種別の受信数Nkに平均音量Vkを乗じた値Vk・Nkが最も大きい音種別に対応する映像素材を選択してもよい。映像取得部25は、選択した映像素材を応援映像として出力する。
映像取得部25は、メータ表示部252をさらに備えていてもよい。メータ表示部252は、集計部21が出力する集計結果に基づいて算出した指標をメータ表示にして映像素材に合成することで、応援映像を生成する。集計結果に基づく指標は、例えば、映像素材を選択する際に用いた値である。例えば、音種別の受信数Nkであってもよいし、音種別の受信数Nkに平均音量Vkを乗じた値Vk・Nkであってもよい。メータ表示の例を、図9に示す。図9の例では、応援映像2501の右端に縦長矩形のメータ2502を表示する。メータ2502は、下辺を0、上辺を最大値(MAX)として、上側領域と下側領域とを塗り分けることで、指標の値を表す。なお、図9はメータ表示の一例であり、指標が容易に視認できるような表示であればどのようなものであっても構わない。
ステップS26において、応援支援装置2の映像再生部26は、映像取得部25が出力する応援映像を、応援支援装置2に接続されたディスプレイDから再生する。
上記のように構成することにより、実施形態の応援支援システムによれば、異なる拠点に分散している多数の視聴者の反応を集約した音声および/または映像を配信元の拠点に提示することができる。これにより、視聴者は文字列入力等の煩雑な操作を行う必要なく配信元へ反応を伝えることができ、イベントの当事者は視覚を奪われることなく視聴者の盛り上がり等の雰囲気を体感することができる。
[変形例1]
実施形態の映像取得部25は、予め用意した映像素材を選択することで応援映像を取得した。変形例1の映像取得部25は、集計結果等に基づいて動的に映像を生成することで、よりユーザの反応に適した応援映像を取得する。
変形例1の映像取得部25は、音声取得部22が取得した応援音声から人物の動作を表すモーションを生成し、予め設定した映像素材にそのモーションに従った動作をさせた映像信号を応援映像として取得する。音響信号からモーションを生成し、映像素材にモーションに従った動作をさせる技術は、例えば、参考文献1に開示された技術を用いて実現することができる。
〔参考文献1〕特開2018-32316号公報
例えば、ユーザごとに予め自身のアバターを設定しておき、そのアバターが応援音声として取得された応援歌等の音楽に合わせて振り付けられたモーションをとる映像を合成することで、大勢のユーザが音楽に合わせて踊る応援映像を生成することや、ユーザごとに反応に対応するモーションを行っている映像を生成することが可能となる。後者の映像は、例えば、ユーザ10-1は拍手するモーションを行い、ユーザ10-Nは叫んでいるモーションを行う映像である。このとき、集計部21が出力する集計結果に基づいて、応援映像中でモーションをとるユーザの数を制御するように構成してもよい。例えば、ユーザが発した音の半分が応援の音である場合、応援映像中に現れるユーザのうち半分程度がモーションをとるように構成することができる。
以下、参考文献1に記載の映像生成技術について説明する。この映像生成技術は、N種類の楽器の演奏または歌唱それぞれに係る音響信号であるN個の時系列音響信号を入力とし、その時系列音響信号全体を演奏または歌唱するエージェントの映像である時系列映像を得る。Nは1以上の整数のいずれかである。この映像生成技術では、深層学習を用いて、音と行動の関係をあらかじめニューラルネットワークを用いて記述することで、音を入力するだけで行動パターンを推定する。すなわち、事前に学習したニューラルネットワークに時系列音響信号、あるいはそれらを特徴量子化したベクトル群を入力することで、時系列音響信号に対応するエージェントの行動パターンを推定する。ここで、ニューラルネットワークは全結合型深層ニューラルネットワーク(Full-connected Deep Neural Networks)、再帰型ニューラルネットワーク(Recurrent Neural Networks)、畳み込みニューラルネットワーク(Convolutional Neural Networks)等のどれでもよい。つまり、この映像生成技術は、ニューラルネットワークの実装形態に依存しない。
参考文献1の映像生成技術では、まず、N個の時系列音響信号を入力とし、各時系列音響信号に含まれる各時間区間について、その時系列音響信号のその時間区間に対応するエージェントの演奏映像または歌唱映像である時間区間映像を得る。このとき、時系列音響信号と演奏または歌唱するエージェントの行動との関係を表す行動生成モデルを用いて、N個の各時系列音響信号に含まれる各時間区間についてのエージェントの時間区間映像を得る。行動生成モデルは、N種類の楽器の演奏または歌唱それぞれに係る学習用音響信号であるN個の学習用時系列音響信号と、N個の各学習用時系列音響信号に含まれる各時間区間の演奏または歌唱するエージェントの行動を示す行動ラベルとを用いて、事前に学習により得られる。次に、N個の各時系列音響信号について、その時系列音響信号について得た1個以上の時間区間映像を時系列順に組み合わせることにより、その時系列音響信号全体に対応するエージェントの演奏または歌唱に係る時系列映像を得る。
すなわち、音声素材記憶部24に記憶された音声素材を学習用時系列音響信号とし、各音声素材の各時間区間にエージェントの行動を示す行動ラベルを与えて、ニューラルネットワークで学習することで、ユーザが予め設定したアバターが音声素材に従ってモーションをとる応援映像を生成することができる。
[変形例2]
上記実施形態では、各ユーザ空間で1人のユーザがイベントを視聴していることを想定した。しかしながら、例えばスポーツバーなどのように、1つのユーザ空間において複数のユーザがイベントを視聴することも考えられる。この場合、あるユーザは拍手をしているが、他のあるユーザは歓声を上げているなど、同じユーザ空間に存在する各ユーザが様々な反応を示すことがあり得る。この場合、マイクロホンで集音された音響信号には、複数の音種別が混合することになる。
マイクロホンで集音された音響信号に複数種類の反応が含まれ得る場合、ユーザ端末1-nの音種別検出部11が、入力された音響信号を音種別ごとに分離し、分離後の各音響信号に対して上記実施形態の処理を行えばよい。また、例えば、「拍手+歓声」や「拍手+応援」など、複数の音種別が混合した状態を1つの音種別として定義しておき、入力された音響信号に対してそのまま上記実施形態の処理を行ってもよい。
[変形例3]
上記実施形態では、ユーザの反応の集計結果に基づいて応援音声および/または応援映像を選択する構成を示したが、各ユーザの反応に基づいて選択した音声素材および/または映像素材を、各ユーザに対応するように設置されたスピーカおよび/またはディスプレイへそれぞれ出力してもよい。このとき、ディスプレイへの映像出力に代えて人間の姿が描かれたパネルを設置しておいてもよい。例えば、スポーツが行われているスタジアムの観客席に小型のディスプレイを設置しておき、各ユーザの反応に対応した応援映像を出力すれば、スタジアム全体にユーザの雰囲気を再現することが可能となる。
[変形例4]
上記実施形態では、ユーザの反応をユーザ全体で集計して応援音声および/または応援映像を出力する構成を示したが、ユーザを複数の集合に分割しておき、各集合についてユーザの反応を集計して集合ごとに応援音声および/または応援映像を出力してもよい。例えば、スポーツが行われているスタジアムにおいてホーム側の観客席とアウェー側の観客席とに領域を分割しておき、ホーム側に関連付けられたユーザの反応と、アウェー側に関連付けられたユーザの反応とで、異なる応援音声および/または応援映像を出力することが可能となる。
[変形例5]
上記実施形態では、イベントの当事者に対してユーザの反応を提示する構成を示したが、同時に、ユーザの反応を同じイベントを視聴している他のユーザへ提示してもよい。具体的には、応援支援システムがユーザ端末1-nへ配信する映像に、集計部21が出力する集計結果に基づく指標を合成する。これにより、イベントの視聴者はそのイベントの視聴者全体の雰囲気を感じながら応援することができるようになる。
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムを図10に示すコンピュータの記憶部1020に読み込ませ、演算処理部1010、入力部1030、出力部1040などに動作させることにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体は、例えば、非一時的な記録媒体であり、磁気記録装置、光ディスク等である。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の非一時的な記憶装置である補助記録部1050に格納する。そして、処理の実行時、このコンピュータは、自己の非一時的な記憶装置である補助記録部1050に格納されたプログラムを一時的な記憶装置である記憶部1020に読み込み、読み込んだプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み込み、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (7)

  1. 配信元の空間とは異なる複数の空間にいる視聴者が発した音に基づく音響信号(応援音声)および/または映像信号(応援映像)からなる応援を前記配信元の空間で再生する応援支援方法であって、
    前記視聴者が発した音を予め定めた複数の音種別のいずれかに識別した識別結果を受信し、前記音種別ごとに発した視聴者の数を集計する集計ステップと、
    前記音種別に対応する応援音声を取得する取得ステップと、
    取得された応援音声を再生する再生ステップと、
    を有し、
    前記応援音声は、複数の音種別のうち、発した視聴者が多い音種別に対応する応援音声ほど強調され、発した視聴者が少ない音種別に対応する応援音声ほど強調されず再生される、
    応援支援方法。
  2. 請求項1に記載の応援支援方法であって、
    前記集計に基づき、前記音種別ごとに音量の総和を算出し、
    前記取得された応援音声は、前記視聴者の数の多寡に替えて、前記音量の総和が大きい音種別に対応する応援音声ほど大きな音量で再生される、
    応援支援方法。
  3. 請求項1に記載の応援支援方法であって、
    あらかじめ、前記音種別ごとに対応する応援映像を定め、
    前記集計に基づき、前記応援映像を選択して取得する
    応援支援方法。
  4. 配信元の空間とは異なる複数の空間にいる視聴者が発した音に基づく音響信号(応援音声)および/または映像信号(応援映像)からなる応援を前記配信元の空間で再生する応援支援方法であって、
    前記視聴者が発した音に含まれる前記視聴者の発話を音声認識した文字列を受信し、前記文字列ごとに発話した視聴者の数を集計する集計ステップと、
    前記応援音声として、受信数が多い方から所定の数の文字列を音声合成して取得する取得ステップと、
    取得された応援音声を再生する再生ステップと、
    を有し、
    前記応援音声は、発した視聴者が多い文字列に対応する応援音声ほど強調され、発した視聴者が少ない文字列に対応する応援音声ほど強調されず再生される、
    応援支援方法。
  5. 配信元の空間とは異なる複数の空間にいる視聴者が発した音に基づく音響信号(応援音声)および/または映像信号(応援映像)からなる応援を前記配信元の空間で再生する応援支援方法であって、
    前記視聴者が発した音を予め定めた複数の音種別のいずれかに識別した識別結果を受信し、前記音種別ごとに発した視聴者の数を集計する集計ステップと、
    前記視聴者が発した音の音量を受信し、前記音種別ごとに前記音量の統計値を計算する集計ステップと、
    前記音種別に対応する応援音声を取得する取得ステップと、
    取得された応援音声を再生する再生ステップと、
    を有し、
    前記集計と前記統計値に基づき、前記応援音声の強度を定める
    応援支援方法。
  6. 配信元の空間とは異なる複数の空間にいる視聴者が発した音に基づく音響信号(応援音声)および/または映像信号(応援映像)からなる応援を前記配信元の空間で再生する応援支援装置であって、
    前記視聴者が発した音を予め定めた複数の音種別のいずれかに識別した識別結果を受信し、前記音種別ごとに発した視聴者の数を集計する集計部と、
    前記音種別に対応する応援音声を取得する取得部と、
    取得された応援音声を再生する再生部と、
    を備え、
    前記応援音声は、複数の音種別のうち、発した視聴者が多い音種別に対応する応援音声ほど強調され、発した視聴者が少ない音種別に対応する応援音声ほど強調されず再生される、
    応援支援装置。
  7. 請求項1からのいずれかに記載の応援支援方法の各ステップをコンピュータに実行させるためのプログラム。
JP2022538531A 2020-07-21 2020-07-21 応援支援方法、応援支援装置、およびプログラム Active JP7480846B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/028303 WO2022018828A1 (ja) 2020-07-21 2020-07-21 応援支援方法、応援支援装置、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2022018828A1 JPWO2022018828A1 (ja) 2022-01-27
JP7480846B2 true JP7480846B2 (ja) 2024-05-10

Family

ID=79729105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022538531A Active JP7480846B2 (ja) 2020-07-21 2020-07-21 応援支援方法、応援支援装置、およびプログラム

Country Status (3)

Country Link
US (1) US20230353800A1 (ja)
JP (1) JP7480846B2 (ja)
WO (1) WO2022018828A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024047755A1 (ja) * 2022-08-30 2024-03-07 日本電信電話株式会社 音響情報出力制御装置、方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037670A (ja) 2011-07-08 2013-02-21 Dowango:Kk ステージ演出システム、演出制御サブシステム、ステージ演出システムの動作方法、演出制御サブシステムの動作方法、およびプログラム
WO2019229909A1 (ja) 2018-05-30 2019-12-05 株式会社ウフル 熱狂度表示システム、スタジアム熱狂度表示方法、プログラム、およびセンサ端末

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037670A (ja) 2011-07-08 2013-02-21 Dowango:Kk ステージ演出システム、演出制御サブシステム、ステージ演出システムの動作方法、演出制御サブシステムの動作方法、およびプログラム
WO2019229909A1 (ja) 2018-05-30 2019-12-05 株式会社ウフル 熱狂度表示システム、スタジアム熱狂度表示方法、プログラム、およびセンサ端末

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鎌本 優, 外6名,高臨場感ライブビューイングへ向けた合成拍手音伝送システムの評価,日本音響学会2018年春季研究発表会講演論文集,日本,一般社団法人日本音響学会,2018年03月,pp. 1555-1556

Also Published As

Publication number Publication date
US20230353800A1 (en) 2023-11-02
JPWO2022018828A1 (ja) 2022-01-27
WO2022018828A1 (ja) 2022-01-27

Similar Documents

Publication Publication Date Title
JP6855527B2 (ja) 情報を出力するための方法、及び装置
US20110214141A1 (en) Content playing device
Koepke et al. Sight to sound: An end-to-end approach for visual piano transcription
CN106488311B (zh) 音效调整方法及用户终端
TW202009924A (zh) 音色可選之人聲播放系統、其播放方法及電腦可讀取記錄媒體
CN110447071B (zh) 信息处理装置、信息处理方法和记录程序的可拆卸介质
JP7453712B2 (ja) オーディオ再生方法、装置、コンピュータ可読記憶媒体及び電子機器
JP6281503B2 (ja) 通信システム、配信装置及びプログラム
JP7480846B2 (ja) 応援支援方法、応援支援装置、およびプログラム
KR102550528B1 (ko) 고화질 카메라를 이용한 분할영상 선택 시스템 및 그 방법
JP6367748B2 (ja) 認識装置、映像コンテンツ提示システム
WO2022024898A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
WO2022163137A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7435119B2 (ja) 映像データ処理装置、映像配信システム、映像編集装置、映像データ処理方法、映像配信方法、及びプログラム
JP6958676B1 (ja) 制御方法および制御システム
JP6951610B1 (ja) 音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム
CN111627417B (zh) 播放语音的方法、装置及电子设备
US20220109911A1 (en) Method and apparatus for determining aggregate sentiments
JP7230085B2 (ja) 音声を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
WO2024047816A1 (ja) 映像関連音再生方法、映像関連音再生装置及び映像関連音再生プログラム
US11810543B2 (en) Method and apparatus for audio signal processing selection
WO2024047813A1 (ja) 音響情報出力制御装置、方法およびプログラム
WO2023157650A1 (ja) 信号処理装置および信号処理方法
WO2023120244A1 (ja) 伝送装置、伝送方法、およびプログラム
JP5424306B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240408

R150 Certificate of patent or registration of utility model

Ref document number: 7480846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150