JP7344610B2 - 管理サーバ - Google Patents

管理サーバ Download PDF

Info

Publication number
JP7344610B2
JP7344610B2 JP2022571018A JP2022571018A JP7344610B2 JP 7344610 B2 JP7344610 B2 JP 7344610B2 JP 2022571018 A JP2022571018 A JP 2022571018A JP 2022571018 A JP2022571018 A JP 2022571018A JP 7344610 B2 JP7344610 B2 JP 7344610B2
Authority
JP
Japan
Prior art keywords
distribution
audio
camera
video
management server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022571018A
Other languages
English (en)
Other versions
JPWO2022137606A1 (ja
JPWO2022137606A5 (ja
Inventor
宗久 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ALIEN MUSIC ENTERPRISE INC.
Original Assignee
ALIEN MUSIC ENTERPRISE INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ALIEN MUSIC ENTERPRISE INC. filed Critical ALIEN MUSIC ENTERPRISE INC.
Publication of JPWO2022137606A1 publication Critical patent/JPWO2022137606A1/ja
Publication of JPWO2022137606A5 publication Critical patent/JPWO2022137606A5/ja
Priority to JP2023113961A priority Critical patent/JP2023133328A/ja
Application granted granted Critical
Publication of JP7344610B2 publication Critical patent/JP7344610B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、ユーザ端末及び配信者端末に対しネットワークを介して接続される管理サーバに関する。
従来、オンラインで配信されるライブ・コンサートの映像を視聴する際、配信者が複数のカメラで撮影された映像を切り替えることで、ユーザは複数の視点からの映像を視聴できる。
しかし、音声については、カメラの切替えと無関係にミックスされた単一の音声を聞くため、ユーザは、ライブ・コンサート会場内の任意の視点毎に異なって聞こえるはずの臨場感のある音を体験できなかった。例えば、特許文献1には、映像データを取得した際に得られた音声データを取得し、映像データの状況に応じて、音声データを適切に処理するシステムが開示されている。
特開2018-117312号公報
本願発明者は、特許文献1に記載されているシステムによると、カメラの位置で実際に聞こえるライブ・コンサートの音声と、当該カメラの位置に応じた映像とを、適切に映像化してユーザ端末にすることが提供できない、という課題を認識した。
本開示の目的は、カメラによる撮影対象の位置における映像と、撮影対象の位置に応じた音声とを、撮影対象の位置に追従して整合させることの可能な管理サーバを提供することである。
本開示は、ユーザ端末及び配信者端末にネットワークを介して接続される管理サーバであって、ユーザが前記ユーザ端末を操作して選択する希望カメラを、前記ユーザ端末から受信するカメラ抽出部と、前記希望カメラによって撮影される撮影対象に対応する音声をマイクにより入手した音声生成用データを、前記配信者端末から受信する音声抽出部と、前記撮影対象に対応する映像生成用データを、前記配信者端末から受信する映像抽出部と、前記希望カメラから前記撮影対象までの距離を算出し、前記距離に応じて定まる係数を前記音声生成用データに乗算することにより、前記ユーザ端末に配信する配信用音声を生成する配信用音声生成部と、前記撮影対象の映像、及び前記配信用音声に基づいて、前記ユーザ端末に配信する配信用映像を生成する配信用映像生成部と、を有する。
本開示によれば、管理サーバは、希望カメラの位置で聞こえる音声を、希望カメラの位置に応じた映像とともに配信し、カメラで撮影する撮影対象の位置の音声を提供できる。
本発明の一実施の形態におけるライブ画面提供システムの構成例の概要を示す図である。 (a)は、本発明の一実施の形態における管理サーバのユーザ情報記憶部に記憶されているユーザ情報の概要を示す図、(b)は、希望配信画面情報の概要を示す図である。 (a)は、本発明の一実施の形態における管理サーバの配信者情報記憶部に記憶されている配信者情報の概要を示す図、(b)は、音声生成用データの概要を示す図である。 本発明の一実施の形態における全体処理の概要を示すフローチャート図である。 本発明の一実施の形態におけるユーザ情報取得処理およびユーザ情報記憶処理の概要を示す図である。 本発明の一実施の形態における配信者情報取得処理および配信者情報記憶処理の概要を示す図である。 (a)は、配信する映像がライブ・コンサートである時の、ステージおよび会場の平面図、(b)は、各カメラの位置情報と、各カメラから各マイクまでの距離と、オーディオトラック係数との関係を示す図表、(c)は、配信用音声を算出する処理の概要を示す図である。 本発明の一実施の形態における配信用音声生成処理の概要を示すフローチャートである。 本発明の一実施の形態における配信用映像生成処理の概要を示すフローチャートである。 本発明の一実施の形態における配信画面の概要を示す図である。 本発明の一実施の形態における配信画面生成処理の概要を示すフローチャートである。 本発明の一実施の形態における配信画面提供処理の概要を示すフローチャートである。 本発明の一実施の形態における切替後画面の概要を示す図である。 本発明の一実施の形態における映像切替処理の概要を示すフローチャートである。 本発明の一実施の形態における切替後画面提供処理の概要を示すフローチャートである。 本発明の一実施の形態における切替後画面提供処理の概要を示す図である。
以下、本発明を実施するための形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。また、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。
[第1の実施形態]
<システム構成>
図1は、本発明の一実施の形態におけるライブ画面提供システム30の構成例の概要を示す図である。
図1に示されるように、ライブ画面提供システム30は、ユーザ端末100と、配信者端末110と、ユーザ端末100と配信者端末110とネットワークを介して接続される管理サーバ120とを有する。ネットワークは、無線または有線の何れかによって構築されているもの、無線及び有線の両方によって構築されているもの、を含む。ユーザ端末100は、管理サーバ120に複数を接続可能であるが、図1では便宜上、単数のユーザ端末100が示されている。
管理サーバ120は、制御回路120Aと、ユーザ情報記憶部130と、配信者情報記憶部131と、配信用音声記憶部132と、配信用映像記憶部133と、配信画面記憶部134と、配信用音声生成部140と、配信用映像生成部150と、配信画面生成部160と、配信画面提供部170と、映像切替部180と、を有する。制御回路120Aは、通信部、入力ポート、出力ポート、中央演算処理装置、比較回路等を有するコンピュータである。ユーザ端末100及び配信者端末110から送信される信号は、通信部を介して入力ポートに入力される。制御回路120Aから出力される信号は、出力ポート及び通信部を介して、ユーザ端末100及び配信者端末110へ送信される。上記信号は、情報、データ、映像、画像、音声等を含む電気信号である。
制御回路120Aと、ユーザ情報記憶部130、配信者情報記憶部131、配信用音声記憶部132、配信用映像記憶部133、配信画面記憶部134、配信用音声生成部140、配信用映像生成部150、配信画面生成部160、配信画面提供部170、映像切替部180との間で信号の行き来が行われる。制御回路120Aは、ユーザ情報記憶部130、配信者情報記憶部131、配信用音声記憶部132、配信用映像記憶部133、配信画面記憶部134、配信用音声生成部140、配信用映像生成部150、配信画面生成部160、配信画面提供部170、映像切替部180を制御、管理及び監視する。
ユーザ情報記憶部130には、ユーザ端末100から送信されるユーザ情報200(後述、図2)が記憶されている。配信者情報記憶部131には、配信者端末110から送信される配信者情報300(後述、図3)が記憶されている。配信用音声記憶部132には、配信用音声800(後述、図7、図8)が記憶されている。配信用映像記憶部133には、配信用映像900(後述、図9)が記憶されている。配信画面記憶部134には、配信画面1000(後述、図10)および切替後画面1300(後述、図13)が記憶されている。
配信用音声生成部140は、ユーザ情報記憶部130に記憶されているユーザ情報200に基づいて、希望カメラ220を抽出し、配信者端末110から配信者情報300を取得し、配信者情報300から音声生成用データ310を抽出し、音声生成用データ310の中から希望カメラ220に応じたカメラ位置情報とマイク位置情報とを抽出し、カメラ位置情報とマイク位置情報とに基づいて各マイクからの距離を算出し、各マイクからの距離をボーカル用マイクからの距離で除算した数の逆数をオーディオトラック係数として算出し、オーディオトラック係数を各マイクで集音したトラック音の音量に乗算して得た各トラック音をミックスすることで配信用音声800を生成する。
配信用映像生成部150は、希望カメラ220を参照し取得した配信者情報300と配信用音声800とに基づいて配信用映像900を生成する。配信画面生成部160は、配信用音声800と配信用映像900とに基づいて、配信画面1000を生成する。配信画面提供部170は、生成した配信画面1000をユーザ端末100に提供する。
<ユーザ情報記憶部>
図2(a)は、本発明の一実施の形態における管理サーバ120のユーザ情報記憶部130に記憶されているユーザ情報200の構成例の概要を示す図である。図2(a)に示されるように、ユーザ情報200は、ユーザID、ユーザ名、年齢、住所、視聴履歴、希望配信画面情報210、等の項目により構成される。ユーザIDは、管理サーバ120が、ユーザを識別するための符号を示す。ユーザ名は、ユーザの氏名を示す。住所は、ユーザの住所を示す。
図2(b)は、本発明の一実施の形態における管理サーバ120の希望配信画面情報210の構成例の概要を示す図である。希望配信画面情報210は、希望ID、視聴日時、配信者ID、配信画面ID、希望カメラ220、等の情報を示す。
希望IDは、管理サーバ120が、ユーザの希望を識別するための符号を示す。視聴日時は、ユーザが配信画面1000(詳細は後述する)の視聴を希望する日時を示す。配信者IDは、配信者を識別するための符号を示す。配信画面IDは、配信画面1000を識別するための符号を示す。
「希望カメラ220」は、配信画面1000で視聴する映像を撮影している複数のカメラのうち、ユーザが視聴を希望する撮影位置にあるカメラを示す。希望カメラ220は、ユーザがユーザ端末100を操作して選択する。
例えば、希望カメラ220は、図7(a)のようにステージ全体を撮影するカメラ(Ct)、ボーカリストをアップして撮影するカメラ(Cb)、ギタリストをアップして撮影するカメラ(Cg)等のカメラからユーザによって選定されるカメラを示す。すなわち、例えばユーザが「ステージ全体を撮影するカメラ」(Ct)で撮影された映像の視聴を希望している場合、この時の希望カメラ220は「Ct」となる。カメラCt,Cb,Cgは、会場700内における位置がそれぞれ異なる。
<配信者情報記憶部>
図3は、本発明の一実施の形態における管理サーバ120の配信者情報記憶部131に記憶されている配信者情報300の概要を示す図である。
図3(a)に示されるように、配信者情報300は、配信者ID、配信者名、配信画面情報、音声生成用データ310、映像生成用データ、等の項目により構成される。
配信者IDは、管理サーバ120が、配信者を識別するための符号を示す。配信者名は、配信者の名称を示す。配信画面情報は、配信画面IDや配信日時等の情報を示す。
映像生成用データは、管理サーバ120が、配信画面1000に表示させる映像を生成するための情報を示す。例えば、映像生成用データは、希望カメラ220に対応するカメラについての情報や、撮影対象を撮影した映像、映像に関する画質等の各種データが含まれる。撮影対象は、撮影目標と定義することも可能である。
図3(b)に示されるように、音声生成用データ310は、データID、マイク情報、マイク位置情報、カメラ情報、カメラ位置情報、等の項目により構成される。データIDは、管理サーバ120が、音声生成用データ310を識別するための符号を示す。
マイク情報は、配信者が配信する際に用いるマイクの種類や集音対象、マイクの名称、属性等の情報を示す。例えば、配信者が配信する際に用いるマイクが、ボーカル、ギター、ベース、ドラムの音を集音する4本のマイクである場合、当該マイクのマイク情報は、図7(a)に示すVo用マイク(ボーカル用マイク)10が「Vo用」、Gt用マイク11が「Gt用」、Ba用マイク12が「Ba用」、Dr用マイク13が「Dr用」等と示される。Vo用マイク10、Gt用マイク11、Ba用マイク12、Dr用マイク13は、会場700内における位置がそれぞれ異なる。
マイク位置情報は、マイクの位置についての情報を示す。例えば、マイク位置情報は、平面座標を利用して表示される。すなわち、「Vo用マイク10」のマイク位置情報は、「x=〇〇、y=〇〇」のように示される。
カメラ情報は、配信者が配信する際に用いるカメラの種類や撮影対象、カメラの名称、属性等の情報を示す。例えば、配信者が配信する際に用いるカメラが、ステージ全体、ボーカリスト、ギタリスト、ベーシスト、ドラマーを撮影する5個のカメラである場合、当該カメラのカメラ情報は、「Ct」、「Cv」、「Cb」、「Cd」等と示される。
カメラ位置情報は、カメラの位置についての情報を示す。例えば、カメラ位置情報は、平面座標を利用して表示される。すなわち、「Ct」のカメラ位置情報は、「x=〇〇、y=〇〇」のように示される。
このように、マイク情報、マイク位置情報、カメラ情報、カメラ位置情報を得ることにより、管理サーバ120は、任意のカメラについて各マイクまでの距離を算出できる。そして算出した距離を利用することにより、管理サーバ120は、配信用音声800を生成できる(詳細は後述する)。
<全体処理>
図4は、本発明の一実施の形態における全体処理の概要を示す図である。
まず、ステップS401にて、管理サーバ120はユーザ情報取得処理およびユーザ情報記憶処理(図5で後述する)を行う。まず、ステップS402にて、管理サーバ120は配信者情報取得処理および配信者情報記憶処理(図6で後述する)を行う。
次に、ステップS403にて、管理サーバ120は配信用音声生成処理(図7、図8で後述する)を行う。次に、ステップS404にて、管理サーバ120は配信用映像生成処理(図9で後述する)を行う。次に、ステップS405にて、管理サーバ120は配信画面生成処理および配信画面記憶処理(図10、図11で後述する)を行う。次に、ステップS406にて、管理サーバ120は配信画面提供処理(図12で後述する)を行う。
次に、ユーザが映像の切替を行う場合、ステップS407にて、管理サーバ120は、映像切替処理(図13、図14で後述する)を行う。次に、ステップS408にて、管理サーバ120は切替後画面提供処理(図15で後述する)を行う。
<ユーザ情報記憶処理>
図5(a)は、図4のステップS401で行われるユーザ情報記憶処理の概要を示す図である。以下、管理サーバ120が、ユーザ情報200を記憶する方法について説明する。
まず、ステップS501にて、管理サーバ120は、ユーザ情報入力画面をユーザ端末100に提供する。次に、ステップS502にて、ユーザ端末100は、ユーザ情報入力画面をディスプレイ100Aに表示させる。
その後、ユーザがライブ画面提供システム30を初めて利用する場合、または、希望配信画面情報210を変更(更新)する場合、ステップS503にて、ユーザ端末100は、ユーザ情報200の入力をユーザから受け付ける。なお、この際ユーザから受け付けたユーザ情報200は、希望配信画面情報210を含む。また、ユーザが入力する情報には、外部アカウント(SNS等)のログイン情報や、パスワードを含めても良い。
次に、ステップS504にて、ユーザ端末100は、ステップS503で入力を受け付けたユーザ情報200を管理サーバ120に送信する。次に、ステップS505にて、管理サーバ120は、ステップS504で送信されたユーザ情報200を受信することにより、制御回路120Aがユーザ情報200を取得する。
次に、ステップS506にて、制御回路120Aは、取得または変更したユーザ情報200にユーザIDを付して、ステップS503にて入力を受け付けたユーザ情報200をユーザ情報記憶部130に記憶させる。
<ユーザ情報取得処理>
図5(b)は、本発明の一実施の形態におけるユーザ情報取得処理の概要を示す図である。以下、管理サーバ120が、ユーザ情報200を取得する方法について説明する。
ユーザがライブ画面提供システム30を2回目以降利用する場合、ステップS507にて、ユーザ端末100はユーザIDの入力をユーザから受け付ける。なお、ユーザIDは、ユーザ情報200に含まれる。
次に、ステップS508にて、ユーザ端末100は、ステップS507で入力を受け付けたユーザIDを管理サーバ120に送信する。
その後、ステップS509にて、管理サーバ120は、ステップS508で送信されたユーザIDのキーに対応するユーザ情報200をユーザ情報記憶部130から取得する。ステップS505,ステップS506,ステップS509の処理が、図4のステップS401の処理に相当する。
<配信者情報記憶処理>
図6(a)は、図4のステップS402で行われる配信者情報記憶処理の概要を示す図である。以下、管理サーバ120が、配信者情報300を記憶する方法について説明する。
まず、ステップS601にて、管理サーバ120は、配信者情報入力画面を配信者端末110に提供する。次に、ステップS602にて、配信者端末110は、配信者情報入力画面をディスプレイに表示させる。
その後、配信者がライブ画面提供システム30を初めて利用する場合、または、配信者情報300を変更(更新)する場合、ステップS603にて、配信者端末110は、配信者情報300の入力を配信者から受け付ける。なお、この際配信者から受け付けた配信者情報300は、配信者情報300を含む。また、配信者が入力する情報には、外部アカウント(SNS等)のログイン情報や、パスワードを含めても良い。
次に、ステップS604にて、配信者端末110は、ステップS603で入力を受け付けた配信者情報300を管理サーバ120に送信する。次に、ステップS605にて、管理サーバ120は、ステップS604で送信された配信者情報300を受信することにより、配信者情報300を取得する。
次に、ステップS606にて、管理サーバ120の制御回路120Aは、取得または変更した配信者情報300に配信者IDを付して、ステップS603にて入力を受け付けた配信者情報300を、配信者情報記憶部131に記憶させる。
<配信者情報取得処理>
図6(b)は、図4のステップS402で行われる配信者情報取得処理の概要を示す図である。以下、管理サーバ120が、配信者情報300を取得する方法について説明する。
配信者がライブ画面提供システム30を2回目以降利用する場合、ステップS607にて、配信者端末110は配信者IDの入力を配信者から受け付ける。なお、配信者IDは、配信者情報300に含まれる。次に、ステップS608にて、配信者端末110は、ステップS607で入力を受け付けた配信者IDを管理サーバ120に送信する。
その後、ステップS609にて、管理サーバ120は、ステップS608で送信された配信者IDのキーに対応する配信者情報300を配信者情報記憶部131から取得する。
<配信用音声>
図7は、本発明の一実施の形態における配信用音声800の概要を示す図である。図7(a)は、例えば、配信する映像がライブ・コンサートである時の、ステージおよび会場の平面図の概要を示す。図7(a)で示されるように、会場700には、ステージ部分にマイク710が設置され、客席部分にカメラ720が設置される。また、会場700には、所定の場所にアンプ・スピーカー730が設置される。会場700は、カメラ720の撮影対象である。なお、マイク710は客席部分に設置しても良い。また、カメラ720は、ステージ部分に設置しても良い。
図7で示されるように、例えば、カメラCtは、ステージ全体を撮影し、カメラCgは、ギタリストをアップして撮影する。また、Vo用マイク10は、ボーカルの音を集音し、Gt用マイク11は、ギターの音を集音する。このように、各マイク710とカメラ720を会場700内の所定の位置に設置することで、管理サーバ120は、演奏者ごとにアップして撮影し、演奏者ごとに異なる音を集音できる。また、管理サーバ120は、マイク位置情報、カメラ位置情報を得ることができる。
図7(b)は、各カメラCb,Cg,Ctについてのカメラ位置情報と、各マイクまでの距離(Ln)、オーディオトラック係数(α)、配信用音声800を示す。
図7(b)で示されるように、例えば、カメラCtは、Vo用マイク10までの距離L1が「3.0m」であり、Gt用マイク11までの距離L2が「5.0m」であった場合、Vo用マイク10のオーディオトラック係数αを「1.00」とすると、Gt用マイク11で集音した音に対するオーディオトラック係数αの数値は「0.6」と算出される。つまり、カメラからマイクまでの距離が遠くなるほど、オーディオトラック係数は小さくなる。また、カメラCb,Cgについても、同様にオーディオトラック係数αを算出する。図7(c)は、管理サーバ120が配信用音声800を生成するまでの流れの概要を示す。オーディオトラック係数αを算出するために必要なデータは、配信用音声生成部140、または図示しない記憶部に予め記憶されている。
まず、管理サーバ120は、オーディオトラック係数αを求めたいマイク710のマイク位置とカメラ位置とに基づいて距離(Ln)を算出する。次に、管理サーバ120は、当該マイク710からの距離LnをVo用マイクからの距離L1で除算して得た数の逆数をオーディオトラック係数αとして算出する。
なお、オーディオトラック係数αの算出方法は上記に限られない。例えば、オーディオトラック係数αは、「距離Lnを距離L1で除算して得た数の逆数」に対してさらに所定の定数を乗算することで算出してもよい。
次に、管理サーバ120は、算出したオーディオトラック係数αを、各マイク10,11,12,13で集音した音の音量に乗算する。これにより得た各トラック音をミックスすることで、管理サーバ120は、配信用音声800を生成する。
図7(b)および(c)で示されるように、例えば、カメラCtについての配信用音声800(Ht)は、「Vo」の音量が最も大きく、次いで「Gt」、「Ba」となり、「Dr」の音量が最も小さくミックスされる。これは、カメラCtの位置が、Vo用マイクとの距離が最も近く、次いでGt用マイク、Ba用マイクとなり、Dr用マイクとの距離が最も遠くなっているためである。すなわち、管理サーバ120は、カメラCtの位置で実際に聞こえる各楽器の音量バランスに近似した音声を配信用音声800として生成する。カメラCb,Cgについても、同様にして配信用音声800を生成する。カメラとマイクとの距離が近いほど、音量が大きくなる。
このようにして、管理サーバ120は、カメラ720のカメラCb,Ct,Cgの位置で、それぞれ実際に聞こえるライブ・コンサートの音声を配信用音声800として生成できる。
<配信用音声生成処理>
図8は、図4のステップS403で行われる配信用音声生成処理の概要を示す図である。まず、ステップS801にて、管理サーバ120の配信用音声生成部140は、ユーザ情報記憶部130からユーザ情報200を取得する。
次に、ステップS802にて、配信用音声生成部140は、ステップS801で取得したユーザ情報200に含まれる希望配信画面情報210のうち、配信者IDと配信画面IDと希望カメラ220を抽出する。
次に、ステップS803にて、配信用音声生成部140は、配信者情報記憶部131から配信者情報300を取得する。次に、ステップS804にて、配信用音声生成部140は、ステップS803で取得した配信者情報300の中からステップS802で抽出した配信者IDと配信画面IDとを含む配信者情報300を参照し、対応する音声生成用データ310を抽出する。
次に、ステップS805にて、配信用音声生成部140は、ステップS804で取得した音声生成用データ310の中からステップS802で抽出した希望カメラ220に応じたカメラ情報とカメラ位置情報を抽出し、当該データIDに紐づくマイク情報とマイク位置情報とからオーディオトラック係数αを算出する。
具体的には、まず、配信用音声生成部140は、オーディオトラック係数αを求めたいマイク710のマイク位置とカメラ位置とに基づいて距離(Ln)を算出する。次に、配信用音声生成部140は、当該マイク710からの距離LnをVo用マイク10からの距離L1で除算して得た数の逆数をオーディオトラック係数αとして算出する。
なお、オーディオトラック係数αの算出方法は上記に限られない。例えば、オーディオトラック係数αは、「距離Lnを距離L1で除算して得た数の逆数」に対してさらに所定の定数を乗算することで算出してもよい。
次に、ステップS806にて、配信用音声生成部140は、ステップS805で算出したオーディオトラック係数αに基づいて各トラック音をミックス及びマスタリングすることにより配信用音声800を生成する。
具体的には、配信用音声生成部140は、算出したオーディオトラック係数αを、各マイクで集音した音の音量に乗算する。これにより得た各トラック音をミックス等することで、配信用音声生成部140は、配信用音声800を生成する。
次に、ステップS807にて、配信用音声生成部140は、ステップS806で生成した配信用音声800を配信用音声記憶部132に記憶する。次に、ステップS808にて、配信用音声生成部140は、配信用映像900の生成を配信用映像生成部150に要求する。
<配信用映像生成処理>
図9は、図4のステップS404で行われる配信用映像生成処理の概要を示す図である。まず、ステップS901にて、管理サーバ120の配信用映像生成部150は、ステップS808で要求された配信用映像900の生成リクエストを受け付ける。
次に、ステップS902にて、配信用映像生成部150は、配信用映像900の生成を要求するユーザのユーザ情報200をユーザ情報記憶部130から取得する。
次に、ステップS903にて、配信用映像生成部150は、ステップS902で取得したユーザ情報200の希望配信画面情報210に含まれる、配信者IDと希望カメラ220を抽出する。
次に、ステップS904にて、配信用映像生成部150は、ステップS903で抽出した配信者IDと希望カメラ220を参照し、対応する配信者情報300を配信者情報記憶部131から取得して、対応する配信用音声800を配信用音声記憶部132から取得する。
例えば、配信者IDが「B0001」で、希望カメラ220が「カメラCt」である場合、配信用映像生成部150は、配信者IDがB0001である配信者について、カメラCtの配信用音声800を取得する。次に、ステップS905にて、配信用映像生成部150は、ステップS904で取得した配信者情報300と配信用音声800とに基づいて配信用映像900を生成する。
具体的には、配信者情報300に含まれる映像生成用データを参照し、希望カメラ220に対応した配信用音声800を映像に同期させて配信することにより配信用映像900を生成する。次に、ステップS906にて、配信用映像生成部150は、ステップS905で生成した配信用映像900を配信用映像記憶部133に記憶する。
次に、ステップS907にて、配信用映像生成部150は、配信画面1000の生成を配信画面生成部160に要求する。
<配信画面>
図10は、本発明の一実施の形態における配信画面1000の概要を示す図である。図10に示されるように、配信画面1000は、映像表示領域1010と、希望カメラ表示領域1020と、映像切替タブ1030と、を含む。なお、配信画面1000は、ユーザ端末100のディスプレイ100Aに表示される。
映像表示領域1010は、配信用映像900の内容を表示させる。なお、映像表示領域1010の表示のさせ方については特に限定されない。
希望カメラ表示領域1020は、ユーザが選定した希望カメラ220の内容を表示させる。例えば、ユーザがステージ全体を撮影した映像の視聴を希望している場合、希望カメラ220は「カメラCt」であり、希望カメラ表示領域1020は、「フロア」等の名称で表示させる。なお、「フロア」は、「カメラCt」に対応する名称である。また、希望カメラ表示領域1020の表示のさせ方については、特に限定されない。
また、希望カメラ表示領域1020は、ユーザが提供された配信画面1000に表示される映像の切替えを希望する場合にユーザが所望のカメラを選択するための機能を有する。すなわち、希望カメラ表示領域1020に複数のカメラCb,Ct,Cgが表示され、その中からユーザが所望のカメラを選択することができる。
映像切替タブ1030は、ユーザが提供された配信画面1000に表示される映像の切替えを希望する場合、映像切替指示を管理サーバ120に通知するためのタブを示す。すなわち、映像切替タブ1030がユーザからタップまたはクリックの入力を受け付けることにより、管理サーバ120は、映像切替指示を管理サーバ120に通知する。
このようにして、管理サーバ120は、カメラ720のうちカメラCb,Cg,Ctのそれぞれの位置で実際に聞こえるライブ・コンサートの音声を、当該カメラの位置に応じた映像とともに配信する配信画面1000をユーザ端末100に提供できる。
<配信画面生成処理>
図11は、図4のステップS405で行われる配信画面生成処理の概要を示す図である。まず、ステップS1101にて、管理サーバ120の配信画面生成部160は、ステップS907で要求された配信画面1000の生成リクエストを受け付ける。
次に、ステップS1102にて、配信画面生成部160は、配信画面1000の生成に必要な配信用音声800を配信用音声記憶部132から取得する。
次に、ステップS1103にて、配信画面生成部160は、配信画面1000の生成に必要な配信用映像900を配信用映像記憶部133から取得する。次に、ステップS1104にて、配信画面生成部160は、ステップS1102で取得した配信用音声800と、ステップS1103で取得した配信用映像900とに基づいて配信画面1000を生成する。
次に、ステップS1105にて、配信画面生成部160は、ステップS1104で生成した配信画面1000を配信画面記憶部134に記憶する。次に、ステップS1106にて、配信画面生成部160は、配信画面1000の提供を配信画面提供部170に要求する。
<配信画面提供処理>
図12は、図4のステップS406で行われる配信画面提供処理の構成例の概要を示す図である。まず、ステップS1201にて、管理サーバ120の配信画面提供部170は、ステップS1106で要求された配信画面1000の提供リクエストを受け付ける。
次に、ステップS1202にて、配信画面提供部170は、提供したい配信画面1000を配信画面記憶部134から抽出する。次に、ステップS1203にて、配信画面提供部170は、ステップS1202で抽出した配信画面1000を提供したいユーザについてのユーザ情報200をユーザ情報記憶部130から抽出する。
次に、ステップS1204にて、配信画面提供部170は、ユーザ端末100に配信画面1000を提供する。次に、ステップS1205にて、ユーザ端末100は、ステップS1204で管理サーバ120から提供された配信画面1000を、ディスプレイ100Aに表示させる。
次に、ステップS1206にて、ユーザ端末100は、ユーザが提供された配信画面1000に表示される映像の切替えを希望する場合、希望カメラ表示領域1020に表示される複数のカメラCb,Cg,Ctのうち、所望のカメラを選択したユーザから当該希望カメラ220の選択を受け付ける。
次に、ステップS1207にて、ユーザ端末100は、ユーザから映像切替タブ1030の押下入力を受付けたか否かを判定する。ユーザ端末100がステップS1207でYESと判断すると、管理サーバ120は、ステップS1208の処理を行う。ユーザ端末100がステップS1207でNOと判断すると、ユーザ端末100は、本工程を終了する。
ステップS1208にて、管理サーバ120は、ユーザが提供された配信画面1000に表示される映像の切替えを希望する場合、映像切替指示を管理サーバ120に通知する。その後、管理サーバ120は、配信画面1000の映像切替リクエストを映像切替部180に要求する。
このようにして、管理サーバ120は、ユーザの希望するカメラ720(希望カメラ220)の位置で実際に聞こえるライブ・コンサートの音声を、当該カメラの位置に応じた映像とともに配信画面1000としてユーザに提供できる。
<切替後画面>
図13は、本発明の一実施の形態における切替後画面1300の概要を示す図である。図13に示されるように、切替後画面1300は、映像表示領域1310と、希望カメラ表示領域1320と、再切替タブ1330と、を含む。なお、切替後画面1300は、ユーザ端末100のディスプレイ100Aに表示される。
映像表示領域1310は、カメラを切替えた後の配信用映像900の内容を表示させる。なお、映像表示領域1310の表示のさせ方については特に限定されない。
希望カメラ表示領域1320は、ユーザが新たに選定した希望カメラ220の内容を表示させる。なお、希望カメラ表示領域1320の表示のさせ方については特に限定されない。
また、希望カメラ表示領域1320は、ユーザが提供された切替後画面1300に表示される映像の再度の切替えを希望する場合、ユーザが所望のカメラを選択するための機能を有する。すなわち、希望カメラ表示領域1320に複数のカメラが表示され、その中からユーザが所望のカメラを選択することができる。
再切替タブ1330は、ユーザが提供された切替後画面1300に表示される映像の再度の切替えを希望する場合、再切替指示を管理サーバ120に通知するためのタブを示す。すなわち、再切替タブ1330がユーザからタップまたはクリックの入力を受け付けることにより、管理サーバ120は、再切替指示を管理サーバ120に通知する。
<映像切替処理>
図14は、図4のステップS407で行われる映像切替処理の概要を示す図である。まず、ステップS1401にて、管理サーバ120の映像切替部180は、ステップS1207で要求された配信画面1000の映像切替リクエストまたはステップS1508で要求された切替後画面1300の再切替リクエストを受け付ける。
次に、ステップS1402にて、映像切替部180は、ステップS1206またはステップS1506で選択された希望カメラ220に対応した配信用音声800を配信用音声記憶部132から取得する。次に、ステップS1403にて、映像切替部180は、ステップS1206またはステップS1506で選択された希望カメラ220に対応した配信用映像900を配信用映像記憶部133から取得する。
次に、ステップS1404にて、映像切替部180は、ステップS1402で取得した配信用音声800と、ステップS1403で取得した配信用映像900とに基づいて切替後画面1300を生成する。
次に、ステップS1405にて、映像切替部180は、ステップS1404で生成した切替後画面1300を配信画面記憶部134に記憶する。次に、ステップS1406にて、映像切替部180は、切替後画面1300の提供を配信画面提供部170に要求する。
<切替後画面提供処理>
図15は、図4のステップS408で行われる切替後画面提供処理の概要を示す図である。まず、ステップS1501にて、管理サーバ120の配信画面提供部170は、ステップS1406で要求された切替後画面1300の提供リクエストを受け付ける。
次に、ステップS1502にて、配信画面提供部170は、提供したい切替後画面1300を配信画面記憶部134から抽出する。次に、ステップS1503にて、配信画面提供部170は、ステップS1502で抽出した切替後画面1300を提供したいユーザについてのユーザ情報200をユーザ情報記憶部130から抽出する。
次に、ステップS1504にて、配信画面提供部170は、ユーザ端末100のディスプレイ100Aに切替後画面1300を提供する。次に、ステップS1505にて、ユーザ端末100は、ステップS1504で管理サーバ120から提供された切替後画面1300を、端末のディスプレイに表示させる。
次に、ステップS1506にて、ユーザ端末100は、ユーザが提供された切替後画面1300に表示される映像の再度の切替えを希望する場合、希望カメラ表示領域1320に表示される複数のカメラのうち、所望のカメラを選択したユーザから当該希望カメラ220の選択を受け付ける。
次に、ステップS1507にて、ユーザ端末100は、ユーザから再切替タブ1330の押下入力を受付けたか否かを判定する。ユーザ端末100は、ステップS1507でYESと判断すると、管理サーバ120は、ステップS1508の処理を行う。ユーザ端末100が、ステップS1507でNOと判断すると、ユーザ端末100は、本工程を終了する。
ステップS1508にて、管理サーバ120は、ユーザが提供された切替後画面1300に表示される映像の再度の切替えを希望する場合、再切替指示を管理サーバ120に通知する。その後、管理サーバ120は、切替後画面1300の再切替リクエストを映像切替部180に要求する。その後、管理サーバ120は、ステップS1401の工程へ進行し、以降の処理を繰り返し行う。
このようにして、管理サーバ120は、希望カメラ220の切替えに追従して、配信用音声800および配信用映像900を切替えた切替後画面1300をユーザに提供できる。
[第2の実施形態]
第2の実施形態におけるライブ画面提供システム30の構成は、第1の実施形態と同様である。
<配信用音声>
本実施形態における配信用音声810は、ステージ上で演奏している演者のモニター音、または当該演者にウェアラブルマイクを装着させ、そのウェアラブルマイクが集音した音をそのまま採用する。すなわち、本実施形態における配信用音声810は、図7で示されるようにカメラ位置、マイク位置、オーディオトラック係数を利用して生成されるものではない。
このようにして、管理サーバ120は、ユーザの希望するカメラ720(希望カメラ220)でアップしている演者が実際に聞いているライブ・コンサートの音声を、当該カメラの位置に応じた映像とともに配信画面1000としてユーザに提供できる。
例えば、ユーザがベーシストをアップする映像を希望している場合、当該映像とともに「ベーシストがステージ上で聞いている音」を視聴でき、ユーザ自身があたかもベーシストとしてステージ上に立って、そこで聞いている音を疑似体験することができる。
[第3の実施形態]
第3の実施形態におけるライブ画面提供システム30の構成は、第1および第2の実施形態と同様である。
本実施形態において、配信に係る音声と映像は「ライブ・コンサート」についてのものに限定されない。すなわち、配信に係る音声と映像は、「講演、セミナー、野球やサッカー等のスポーツ」など、カメラとマイクを用いてライブ配信を行うあらゆる活動を対象とし、第1および第2の実施形態と同様のシステムと実施に係る各処理を適用できる。
これにより、管理サーバ120は、ユーザの希望するカメラ720(希望カメラ220)の位置で実際に聞こえるスポーツ等の音声を、当該カメラの位置に応じた映像とともに配信画面1000としてユーザに提供できる。
<本実施の形態の効果>
以上説明した本発明の実施の形態によれば、管理サーバ120は、ユーザの希望するカメラ720(希望カメラ220)の位置で実際に聞こえるライブ・コンサートの音声を、当該カメラの位置に応じた映像とともに配信画面1000としてユーザ端末100に提供できる。
また、管理サーバ120は、希望カメラ220の切替えに追従して、配信用音声800および配信用映像900を切替えた切替後画面1300をユーザ端末100に提供できる。
このようにして、ユーザは、配信画面1000内で希望カメラ220を切替える操作を行うだけで、ライブ・コンサート会場内の所望の視点、具体的には、所定方向及び所定位置で聞こえる音を、臨場感をもって体験できる。
[第4の実施形態]
ライブ画面提供システム30を利用可能な第4の実施形態が、図16に示されている。図16は、例えば、配信する映像のステージおよび会場700の他の例を示す平面図である。会場700には、カメラ20及びマイク21が設けられた所定位置P1を囲むように、観客が居る第1エリア22、バックバンドが居る第2エリア23、オーケストラが居る第3エリア24、合唱隊が居る第4エリア25が区画されている。所定位置P1は、第1エリア22、第2エリア23、第3エリア24、第4エリア25から外れた第5エリア26に位置する。そして、所定位置P1を中心とする円周方向で360度の範囲内において、第1エリア22、第2エリア23、第3エリア24、第4エリア25は、それぞれ異なる角度の範囲内に位置する。所定位置P1は、第1エリア22、第2エリア23、第3エリア24、第4エリア25から見て前方に位置する。
図16においては、便宜上、所定位置P1を中心とする左側で略90度の範囲内に第1エリア22が位置し、所定位置P1を中心とする上側で略90度の範囲内に第2エリア23が位置し、所定位置P1を中心とする右側で略90度の範囲内に第3エリア24が位置し、所定位置P1を中心とする下側で略90度の範囲内に第4エリア25が位置している。また、図16に示す例では、第1エリア22、第2エリア23、第3エリア24、第4エリア25同士は、重なっていない。さらに、図16において、第1エリア22、第2エリア23、第3エリア24、第4エリア25は、会場700における平面形状がそれぞれ略四角形で表されているが、円形、楕円形、三角形などでもよい。さらに、所定位置P1を中心とする円周方向で、第1エリア22、第2エリア23、第3エリア24、第4エリア25同士の位置関係は、図16に示すものに限定されない。
カメラ20及びマイク21は、床に置かれていてもよいし、天井から吊り下げられていてもよい。カメラ20は、360度カメラであり、所定位置P1を中心として全方位360度の映像を撮影し、かつ、映像を信号化して、図1に示す配信者端末110へ送信する。また、カメラ20はズーム機能により、撮影しようとする方向が同じである状態において、レンズから被写体までの距離が異なる被写体のうち、レンズから任意の距離に位置する被写体を選択し、その被写体の映像を拡大、かつ、鮮明に撮影可能である。なお、カメラ20は、ユーザ端末100のディスプレイ100Aに希望カメラとして表示される。
配信者端末110から管理サーバ120へ映像情報が送信されると、管理サーバ120は、カメラ20を中心とする360度の範囲内で、カメラ20が撮影している映像の方向、具体的には、直線P2に対して角度θ1を有する方向Q1について、時計回りの角度θ1を算出可能である。また、管理サーバ120は、カメラ20から、カメラ20が撮影している方向Q1の映像に映る被写体までの距離を算出可能である。直線P2は、所定位置P1を通過する仮想線であり、図16では、便宜上、第1エリア22の略中央に位置しているが、この位置に限定されない。
マイク21は、超指向性360度マイクであり、所定位置P1を中心としする全方位360度のあらゆる方向での音声を録音する機能、かつ、所定位置P1から所定距離範囲内の音声を各位置毎に録音する機能を有する。マイク21で収音可能な距離は、マイク21の収音機能により定まる。マイク21は、録音した音声を信号化して配信者端末110へ送信する。
ユーザは、例えば、図13に示すような映像切替タブ1030を操作することにより、カメラ20から見た方向Q1を変更し、かつ、カメラ20からの距離L3を変更することにより、希望する位置P3を選択可能である。
そして、管理サーバ120が、図8と同様に配信用音声800を生成する場合、ステップS802における希望カメラ220としてカメラ20を抽出する。さらに、管理サーバ120は、図8のステップS805およびステップS806において、カメラ20で撮影した映像情報、及びマイク21から得られる音声情報を処理することにより、配信用音声800を生成する。
具体的には、方向Q1において、カメラ20からの距離L3における位置P3での配信用音声800を生成可能である。この場合、オーディオトラック係数は、所定位置P1から所定距離の位置で「1.00」に設定されており、距離L3が相対的に大きくなるほど、オーディオトラック係数が相対的に小さく設定される。第4実施形態においても、他の実施形態と同様の効果を得られる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。たとえば、ユーザ端末は、スマートフォン以外にも、ノート型PCや、タブレット端末、VR(Virtual Reality )ゴーグル等の様々な形態のユーザ端末を全て含むものである。
なお、ユーザ端末がVRゴーグルの場合、図10の配信画面1000は、VRゴーグルで表示される。希望カメラ表示領域1020及び映像切替タブ1030の機能は、VRゴーグルに付属されるコントーラ、または、VRゴーグルと通信可能なスマートフォン、タブレット端末等により達成される。
また、ユーザ端末がVRゴーグルの場合、図13の切替後画面1300は、VRゴーグルで表示される。希望カメラ表示領域1320及び再切替タブ1330の機能は、VRゴーグルに付属されるコントーラ、または、VRゴーグルと通信可能なスマートフォン、タブレット端末等により達成される。
また、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換しても良い。
また、上記の各構成、機能、処理部は、それらの一部又は全部を、ハードウェア(例えば、集積回路)で実現してもよい。また、上記の各構成、機能、処理部は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行するネットワーク経由もしくはディスク等記憶媒体によるインストール型のソフトウェア、また、ASPなどのネットワーク型アプリケーションで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive )等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
さらに、カメラで撮影する映像は、スポーツ、ドラマなどであってもよい。例えば、野球場の所定位置にカメラ及びマイクを設置し、応援席、ベンチ、内野、外野、ネット裏などをカメラで撮影する撮影対象とし、カメラに対する方向、及びカメラから所定距離における映像及び音声を処理し、ユーザ端末へ提供可能である。なお、配信者端末は、野球場またはテレビ局の何れに設けられていてもよい。さらに、駅伝またはマラソン競技などにおいて、カメラ及びマイクを中継車に搭載し、中継車の前方及び後方等を撮影対象とし、撮影対象における音声を、ユーザ端末へ提供可能である。なお、配信者端末は、中継車または、テレビ局の何れに設けられていてもよい。
さらに、会場700に設けられたメインステージでドラマを演じる場合、メインステージの位置と、バックヤード及び楽屋の位置とは異なる。そして、メインステージでの所定のシーンをカメラ20で撮影し、かつ、マイク21で音声を取得している状況から、シーンの切り替わりで、次の日の朝における一部演者の声が、楽屋から聞こえるような演出、または、バックヤードの袖から一部演者の声が聞こえる演出等が行われることがある。このような場合、カメラ20で撮影する目標位置を、メインステージから楽屋、またはバックヤードの袖に切り替え、かつ、マイク21でその音声を取得するように切り替えることが可能である。このように、カメラ20で撮影する位置を切り替えることにより、ユーザ端末100でディスプレイ100Aを見るユーザは、「実は、こんなことが行われていたんだ。」と感動することができる。
ユーザは、撮影対象の位置として、第2エリア23、第3エリア24、第4エリア25の何れかのエリア内の位置を選択することも可能である。また、所定位置P1は、第5エリア26内に配置されていてもよい。この場合、所定位置P1は、第1エリア22と第2エリア23との間、第2エリア23と第3エリア24との間、第3エリア24と第4エリア25との間、第1エリア22と第4エリア25との間の何れかに配置さえれていてもよい。さらに、所定位置P1は、第1エリア22の後方、第2エリア23の後方、第3エリア24の後方、第4エリア25の後方の何れかに配置されていてもよい。
さらに、図16に示された会場700の平面視において、カメラ20とマイク21とが異なる位置に配置されていてもよい。この場合、カメラ20とマイク21との位置関係、及びカメラ20とマイク21との距離が定まれば、図4のステップS404において、撮影対象の位置と、撮影対象の位置における音声とを整合させて配信用映像生成処理を行うことが可能である。
本開示で説明した事項の技術的意味の一例は、次の通りである、カメラ20は、希望カメラの一例であり、制御回路120Aは、カメラ抽出部、音声抽出部及び映像抽出部の一例である。位置P3は、撮影対象の一例である。撮影対象は、撮影目標と定義することも可能である。オーディオトラック係数は、所定の係数の一例である。カメラ20は、360度カメラの一例であり、マイク21は、360度マイクの一例である。Vo用マイク10は、ボーカルマイクの一例である。
本開示の管理サーバは、映像及び音声をユーザ端末に提供する分野で利用可能である。
100…ユーザ端末
110…配信者端末
120…管理サーバ
130…ユーザ情報記憶部
131…配信者情報記憶部
132…配信用音声記憶部
133…配信用映像記憶部
134…配信画面記憶部
140…配信用音声生成部
150…配信用映像生成部
160…配信画面生成部
170…配信画面提供部
180…映像切替部
200…ユーザ情報
300…配信者情報
800…配信用音声
900…配信用映像
1000…配信画面
1300…切替後画面

Claims (5)

  1. ユーザ端末及び配信者端末にネットワークを介して接続される管理サーバであって、
    ユーザが前記ユーザ端末を操作して選択する希望カメラを、前記ユーザ端末から受信するカメラ抽出部と、
    前記希望カメラによって撮影される撮影対象に対応する音声をマイクにより入手した音声生成用データを、前記配信者端末から受信する音声抽出部と、
    前記撮影対象に対応する映像生成用データを、前記配信者端末から受信する映像抽出部と、
    前記希望カメラから前記撮影対象までの距離を算出し、前記距離に応じて定まる係数を前記音声生成用データに乗算することにより、前記ユーザ端末に配信する配信用音声を生成する配信用音声生成部と、
    前記撮影対象の映像、及び前記配信用音声に基づいて、前記ユーザ端末に配信する配信用映像を生成する配信用映像生成部と、
    を有し、
    前記希望カメラは、位置が異なる前記撮影対象をそれぞれ撮影可能な複数のカメラのうちから前記ユーザ端末の操作により選択されるカメラであり、
    前記マイクは、位置が異なる前記撮影対象からそれぞれ音声を入手可能な複数のマイクを含み、
    前記配信用音声生成部は、前記希望カメラの位置情報と、複数の前記マイクのそれぞれの位置情報とに基づいて、前記希望カメラから各マイクまでの距離をそれぞれ算出し、前記希望カメラから前記マイクに含まれるボーカルマイク以外の前記マイクまでの距離を、前記希望カメラから前記ボーカルマイクまでの距離で除算した数の逆数を所定の前記係数として算出し、所定の前記係数を各マイクで集音したトラック音の音量に乗算して得た各トラック音をミックスすることで、前記配信用音声を生成する、管理サーバ。
  2. 請求項記載の管理サーバにおいて、
    前記配信用音声及び前記配信用映像に基づいて、配信画面を生成する配信画面生成部と、
    生成した前記配信画面を前記ユーザ端末に提供する配信画面提供部と、
    を有する、管理サーバ。
  3. 請求項記載の管理サーバにおいて、
    前記ユーザ端末が前記配信画面に含まれる映像切替タブの押下入力をユーザから受付けた場合に、ユーザによって新たに選択された前記希望カメラに対応した前記配信用音声と前記配信用映像とに基づいて切替後画面を生成する映像切替部を有し、
    前記配信画面提供部は、生成した前記切替後画面を前記ユーザ端末に提供する、管理サーバ。
  4. 請求項記載の管理サーバにおいて、
    前記映像切替部は、前記ユーザ端末が前記切替後画面に含まれる再切替タブの押下入力をユーザから受付けた場合に、ユーザによって新たに選択された前記希望カメラに対応した前記配信用音声と前記配信用映像とに基づいて、前記切替後画面を新たに生成する、管理サーバ。
  5. 請求項1記載の管理サーバにおいて、
    前記配信者端末は、前記希望カメラに接続され、かつ、前記撮影対象で発生する音声を入手するマイクに接続され、
    前記希望カメラは、所定位置を中心とする円周方向で360度の範囲内に存在する前記撮影対象を撮影可能な360度カメラを含み、
    前記マイクは、前記所定位置を中心とする円周方向で360度の範囲内に存在する前記撮影対象で発生する音声を入手可能な360度マイクを含む、管理サーバ。
JP2022571018A 2020-12-22 2021-06-11 管理サーバ Active JP7344610B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023113961A JP2023133328A (ja) 2020-12-22 2023-07-11 管理サーバ

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020212642 2020-12-22
JP2020212642 2020-12-22
PCT/JP2021/022285 WO2022137606A1 (ja) 2020-12-22 2021-06-11 管理サーバ

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023113961A Division JP2023133328A (ja) 2020-12-22 2023-07-11 管理サーバ

Publications (3)

Publication Number Publication Date
JPWO2022137606A1 JPWO2022137606A1 (ja) 2022-06-30
JPWO2022137606A5 JPWO2022137606A5 (ja) 2023-03-10
JP7344610B2 true JP7344610B2 (ja) 2023-09-14

Family

ID=82158903

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022571018A Active JP7344610B2 (ja) 2020-12-22 2021-06-11 管理サーバ
JP2023113961A Pending JP2023133328A (ja) 2020-12-22 2023-07-11 管理サーバ

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023113961A Pending JP2023133328A (ja) 2020-12-22 2023-07-11 管理サーバ

Country Status (3)

Country Link
US (1) US20240031618A1 (ja)
JP (2) JP7344610B2 (ja)
WO (1) WO2022137606A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219389A (ja) 2002-01-18 2003-07-31 Nippon Telegr & Teleph Corp <Ntt> 映像配信方法及びシステム及び装置及びユーザ端末及び映像配信プログラム及び映像配信プログラムを格納した記憶媒体
JP2008131379A (ja) 2006-11-21 2008-06-05 Yamaha Corp 配信システム、および端末装置
JP2013250838A (ja) 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5777185B1 (ja) 2014-05-16 2015-09-09 株式会社ユニモト 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
WO2015162947A1 (ja) 2014-04-22 2015-10-29 ソニー株式会社 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法
JP2016165162A (ja) 2016-06-16 2016-09-08 株式会社ハーツクリエイション 動画配信システム
JP2020167629A (ja) 2019-03-29 2020-10-08 日本放送協会 受信装置、配信サーバ及び受信プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526790B1 (en) * 2002-03-28 2009-04-28 Nokia Corporation Virtual audio arena effect for live TV presentations: system, methods and program products
US8767975B2 (en) * 2007-06-21 2014-07-01 Bose Corporation Sound discrimination method and apparatus
JP2012078422A (ja) * 2010-09-30 2012-04-19 Roland Corp 音信号処理装置
WO2017134706A1 (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219389A (ja) 2002-01-18 2003-07-31 Nippon Telegr & Teleph Corp <Ntt> 映像配信方法及びシステム及び装置及びユーザ端末及び映像配信プログラム及び映像配信プログラムを格納した記憶媒体
JP2008131379A (ja) 2006-11-21 2008-06-05 Yamaha Corp 配信システム、および端末装置
JP2013250838A (ja) 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
WO2015162947A1 (ja) 2014-04-22 2015-10-29 ソニー株式会社 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法
JP5777185B1 (ja) 2014-05-16 2015-09-09 株式会社ユニモト 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
JP2016165162A (ja) 2016-06-16 2016-09-08 株式会社ハーツクリエイション 動画配信システム
JP2020167629A (ja) 2019-03-29 2020-10-08 日本放送協会 受信装置、配信サーバ及び受信プログラム

Also Published As

Publication number Publication date
JP2023133328A (ja) 2023-09-22
WO2022137606A1 (ja) 2022-06-30
JPWO2022137606A1 (ja) 2022-06-30
US20240031618A1 (en) 2024-01-25

Similar Documents

Publication Publication Date Title
US9693009B2 (en) Sound source selection for aural interest
JP6558587B2 (ja) 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム
US20220279306A1 (en) Associated Spatial Audio Playback
JP6241802B1 (ja) 映像配信システム、ユーザ端末装置および映像配信方法
US10664225B2 (en) Multi vantage point audio player
CN110447071B (zh) 信息处理装置、信息处理方法和记录程序的可拆卸介质
CN109996060B (zh) 一种虚拟现实影院系统及信息处理方法
Prior et al. Designing a system for Online Orchestra: Peripheral equipment
JP7344610B2 (ja) 管理サーバ
CN113545096B (zh) 信息处理装置和信息处理系统
JP2010251920A (ja) コンテンツ制作管理装置、コンテンツ制作装置、コンテンツ制作管理プログラム、及びコンテンツ制作プログラム
KR20210034858A (ko) 고객 맞춤형 라이브 방송 시스템
Kato et al. Web360 $^ 2$: An Interactive Web Application for viewing 3D Audio-visual Contents
JP2013187841A (ja) 電子機器及び出力制御方法並びにプログラム
JP2018113546A (ja) 情報処理システム
RU2658893C1 (ru) Способ предоставления услуги виртуального посещения мероприятия
JP2007104540A (ja) 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法
JP7378851B2 (ja) 表示装置
JP7429266B2 (ja) イベントカスタム型のオーディオコンテンツをレンダリングするためのコンピュータシステムおよび方法
WO2022070379A1 (ja) 信号処理システム、信号処理装置、及び信号処理方法
JP2007134808A (ja) 音声配信装置、音声配信方法、音声配信プログラム、および記録媒体
WO2024084943A1 (ja) 情報処理装置、情報処理方法、プログラム
JP7089815B1 (ja) サーバ
JP2019102940A (ja) 仮想視点コンテンツ生成システム、音声処理装置、仮想視点コンテンツ生成システムの制御方法、及びプログラム
Batke et al. Spatial audio processing for interactive TV services

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230616

R155 Notification before disposition of declining of application

Free format text: JAPANESE INTERMEDIATE CODE: R155

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230828

R150 Certificate of patent or registration of utility model

Ref document number: 7344610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150