JP2022134182A - 映像出力方法、映像出力装置および映像出力システム - Google Patents

映像出力方法、映像出力装置および映像出力システム Download PDF

Info

Publication number
JP2022134182A
JP2022134182A JP2021033149A JP2021033149A JP2022134182A JP 2022134182 A JP2022134182 A JP 2022134182A JP 2021033149 A JP2021033149 A JP 2021033149A JP 2021033149 A JP2021033149 A JP 2021033149A JP 2022134182 A JP2022134182 A JP 2022134182A
Authority
JP
Japan
Prior art keywords
video data
video
effect
output
video output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021033149A
Other languages
English (en)
Inventor
真人 鈴木
Masato Suzuki
真太郎 野口
Shintaro Noguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2021033149A priority Critical patent/JP2022134182A/ja
Priority to US17/685,537 priority patent/US20220286733A1/en
Priority to PCT/IB2022/053556 priority patent/WO2022185296A1/en
Priority to CN202280032858.9A priority patent/CN117337571A/zh
Publication of JP2022134182A publication Critical patent/JP2022134182A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Abstract

【課題】ユーザがイベントとの一体感を得ることができる映像出力方法、映像出力装置および映像出力システムを提供する。【解決手段】映像出力方法は、複数のユーザのそれぞれの操作を受け付け、受け付けた前記操作に基づく演出画像と演出音とを生成し、第1の映像データを受け付け、前記第1の映像データと前記演出画像とを合成して出力映像データを生成し、前記出力映像データと前記演出音とを出力する。【選択図】図3

Description

この発明の一実施形態は、映像出力方法、映像出力装置および映像出力システムに関する。
特許文献1には、ライブ演奏などを行う会場に設置されるディスプレイに会場外の視聴者の動作を反映した映像を表示するシステムが開示されている。特許文献1のシステムは、会場のライブ演奏などの映像を会場外の視聴者の視聴端末にライブ送信し、会場外の視聴者の動作に応じた映像をディスプレイに表示する。
特許文献2の配信サーバは、受信部と、判定部と、合成部と、配信部とを備える。受信部は、配信者端末から生配信用の映像データを受信する。判定部は、演出条件が満足しているか否かを判定する。合成部は、演出条件が満足している時に、映像データに対して演出データを合成し合成映像データを生成する。配信部は、合成映像データを配信者端末および観客端末へ配信する。
特許文献3には、視聴者の盛り上がり度を取得し、盛り上がり度をもとに番組コンテンツのハイライトを抽出する情報処理装置が開示されている。
特開2013-21466号公報 特開2019-92146号公報 特開2010-16482号公報
この発明の一実施形態は、ユーザにイベントとの一体感を知覚させることができる映像出力方法、映像出力装置および映像出力システムを提供することを目的とする。
本発明の一実施形態に係る映像出力方法は、複数のユーザのそれぞれの操作を受け付け、受け付けた前記操作に基づく演出画像と演出音とを生成し、第1の映像データを受け付け、前記第1の映像データと前記演出画像とを合成して出力映像データを生成し、前記出力映像データと前記演出音とを出力する。
また、本発明の別の一実施形態に係る映像出力方法は、複数のユーザのそれぞれの操作を受け付け、受け付けた前記操作に基づく演出を行うデバイスを撮影した第1の映像データを受け付け、前記第1の映像データに基づく出力映像データを出力する。
本発明の一実施形態によれば、ユーザは、イベントとの一体感を得ることができる。
映像出力システム1の構成を示すブロック図である。 会場10の平面模式図である。 イベントの様子を示す模式図である。 映像出力装置11の構成を示すブロック図である。 ユーザ端末51Aの構成を示すブロック図である。 映像出力装置11の動作を示すフローチャートである。 イベントの様子を示す模式図である。 実施形態2に係る映像出力システム1Aの構成を示すブロック図である。 会場10の平面模式図である。 イベントの様子を示す模式図である。 実施形態3に係る映像出力システム1Bの構成を示すブロック図である。 イベントの様子を示す模式図である。 第4実施形態に係る映像出力システム1Cの構成を示すブロック図である。
(実施形態1)
図1は、映像出力システム1の構成を示すブロック図である。映像出力システム1は、映像出力装置11、スピーカ12L、スピーカ12R、表示器14、マイク15A、マイク15B、マイク25、ゲーム機17、ユーザ端末51A、ユーザ端末51B、およびユーザ端末51Cを備えている。なお、マイクの数、スピーカの数、およびユーザ端末の数等は、本実施形態で示す数に限るものではない。
図2は、会場10の平面模式図である。この例では、会場10は、イベントを行う会場である。図3は、イベントの様子を示す模式図である。会場10の正面には、表示器14が設置されている。表示器14の左側にはスピーカ12Lが設置され、表示器14の右側にはスピーカ12Lが設置されている。
第1演者13Aおよび第2演者13Bは、表示器14の前でパフォーマンスを行う。この例に示すイベントはゲームイベントであり、第1演者13Aおよび第2演者13Bは、パフォーマンスの一例としてゲーム対戦を行う。ゲーム対戦の内容は表示器14に表示される。
マイク15Aは、第1演者13Aの音声を取得する。マイク15Bは、第2演者13Bの音声を取得する。また、マイク25は、司会者21の音声を取得する。司会者21は、例えば実況、解説等を行う。
スピーカ12Lおよびスピーカ12Rは、ゲームの音、第1演者13Aの音声、第2演者13Bの音声、および司会者21の音を出力する。
会場10に居るユーザ31A、ユーザ31B、およびユーザ31Cは、表示器14に表示される映像およびスピーカ12Lおよびスピーカ12Rから出力される音を視聴することでイベントを楽しむ。
図4は、映像出力装置11の構成を示すブロック図である。映像出力装置11は、図1に示した様にスピーカ12L、スピーカ12R、表示器14、マイク15A、マイク15B、マイク25、ゲーム機17、ユーザ端末51A、ユーザ端末51B、およびユーザ端末51Cに接続されている。
映像出力装置11は、例えば汎用的なパーソナルコンピュータ等の情報処理装置からなる。映像出力装置11は、表示器101、ユーザI/F102、オーディオI/O(Input/Output)103、信号処理部(DSP)104、ネットワークI/F105、CPU106、フラッシュメモリ107、RAM108、および汎用通信I/F109を備えている。
CPU106は、映像出力装置11の動作を制御する制御部である。CPU106は、記憶媒体であるフラッシュメモリ107に記憶された所定のプログラムをRAM108に読み出して実行することにより各種の動作を行なう。CPU106は、該プログラムにより、本発明のユーザ操作受付部、映像データ受付部、映像データ生成部、演出データ生成部、および出力部を機能的に構成する。
なお、CPU106が読み出すプログラムは、自装置内のフラッシュメモリ107に記憶する必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU106は、該サーバから都度プログラムをRAM108に読み出して実行すればよい。
オーディオI/O103は、オーディオケーブルを介してマイク15A、マイク15B、マイク25、スピーカ12L、およびスピーカ12Rに接続される。
ネットワークI/F105は、無線または有線でユーザ端末51A、ユーザ端末51B、およびユーザ端末51Cに接続される。なお、マイク15A、マイク15B、マイク25、スピーカ12L、およびスピーカ12Rは、ネットワークI/F105を介して接続されていてもよい。
汎用通信I/F109は、例えばHDMI(登録商標)あるいはUSB等の規格に準じた通信I/Fである。汎用通信I/F109は、ゲーム機17および表示器14に接続される。なお、マイク15A、マイク15B、マイク25、スピーカ12L、およびスピーカ12Rは、汎用通信I/F109を介して接続されていてもよい。
信号処理部104は、音信号処理および映像信号処理を行なうためのDSPから構成される。信号処理部104は、オーディオI/O103を介してマイクから受け付けた音信号と、汎用通信I/F109を介して受け付けたゲームの音とをミキシングする。また、信号処理部104は、演出音の合成処理を行う。演出音の詳細は後述する。信号処理部104は、信号処理後の音信号を、オーディオI/O103を介して、スピーカ12Lおよびスピーカ12Rに出力する。これにより、スピーカ12Lおよびスピーカ12Rは、ゲームの音、第1演者13Aの音声、第2演者13Bの音声、および司会者21の音声を再生する。なお、第1演者13Aの音声、第2演者13Bの音声、および司会者21の音声を再生することは本発明において必須ではない。
また、信号処理部104は、汎用通信I/F109を介してゲーム機17からゲーム画面に係る映像信号を受け付ける。信号処理部104は、受け付けた映像信号に、演出画像を合成して出力映像信号を生成する。ゲーム機17から入力される映像信号は、本発明の第1の映像データの一例である。演出画像の詳細は後述する。信号処理部104は、信号処理後の映像信号を、汎用通信I/F109を介して、表示器14に出力する。
ユーザ端末51A、ユーザ端末51B、およびユーザ端末51Cは、それぞれユーザ31A、ユーザ31B、およびユーザ31Cの所有する情報処理端末(例えばスマートフォンやパーソナルコンピュータ等)である。
図5は、ユーザ端末51Aの構成を示すブロック図である。なお、ユーザ端末51A、ユーザ端末51B、およびユーザ端末51Cは、主たる構成は同じであり、同じ機能を実現する。したがって、図6は代表してユーザ端末51Aの構成を示す。
ユーザ端末51Aは、タッチパネルディスプレイ201、CPU202、RAM203、ネットワークI/F204、およびフラッシュメモリ205を備えている。
記憶媒体であるフラッシュメモリ205は、本実施形態の映像出力システム1に係るアプリケーションプログラムを記憶している。CPU202は、当該アプリケーションプログラムをRAM203に読み出して、所定の機能を実現する。なお、CPU202が読み出すプログラムも、自装置内のフラッシュメモリ205に記憶されている必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU202は、該サーバから都度プログラムをRAM203に読み出して実行すればよい。
CPU202は、タッチパネルディスプレイ201を介してユーザのタッチ操作を受け付ける。CPU202は、ユーザのタッチ操作受け付けた場合、ユーザ操作情報を、ネットワークI/F204を介して映像出力装置11に送信する。なお、CPU202は、タッチパネルディスプレイ201のタッチ位置の情報も受け付けてもよい。ユーザ操作情報は、タッチ位置の情報を含んでいてもよい。
図6は、映像出力装置11のCPU106の動作を示すフローチャートである。CPU106は、ネットワークI/F105を介して、ユーザ端末51A、ユーザ端末51B、およびユーザ端末51Cからそれぞれユーザ31A、ユーザ31B、およびユーザ31Cのユーザ操作情報を受け付ける(S11)。
CPU106は、受け付けたユーザ操作情報に基づいて演出画像と演出音を生成する(S12)。演出画像は、例えば図3に示す様なサムズアップ画像である。演出画像は、ゲーム画面内の一部を変更する様なエフェクト画像であってもよいし、「good」等の文字情報であってもよい。演出音は、例えば声援、拍手、呼びかけ、歓声、またはざわめき等の音である。また、演出音は、ユーザ端末51Aのマイク(不図示)で取得したユーザ毎の音声であってもよい。また、演出音は、「good」等の文字を読み上げた機械音声であってもよいし、人の読み上げた音声を録音したものであってもよい。
CPU106は、ゲーム画像の映像信号(第1の映像データ)を受け付けて(S13)、該映像データに演出画像を合成して出力映像データを生成する(S14)。そして、CPU106は、出力映像データと演出音とを出力する(S15)。
これにより、映像出力装置11は、ユーザの操作に応じた演出画像および演出音を再生する。例えば、ユーザ31Aがユーザ端末51Aのタッチパネルディスプレイ201を操作すれば、表示器14に演出画像のサムズアップ画像が表示され、スピーカ12Lまたはスピーカ12Rから演出音が再生される。これにより、ユーザ31Aは、自身の操作に応じて演出画像および演出音が再生されるため、イベントに参加していると知覚することができ、イベントとの一体感を得ることができる。
なお、映像出力装置11は、タッチパネルディスプレイ201のタッチ位置に応じて演出画像の表示位置を変更してもよい。この場合、ユーザ端末51Aは、タッチ位置を示す情報を映像出力装置11に送信する。例えば、ユーザがタッチパネルディスプレイ201の右側をタッチした場合、映像出力装置11は、表示器14に表示する映像の右側に演出画像を合成する。ユーザがタッチパネルディスプレイ201の左側をタッチした場合、映像出力装置11は、図7に示す様に表示器14に表示する映像の左側に演出画像を合成する。
また、ユーザがタッチパネルディスプレイ201の下側をタッチした場合、映像出力装置11は、表示器14に表示する映像の下側に演出画像を合成する。ユーザがタッチパネルディスプレイ201の上側をタッチした場合、映像出力装置11は、表示器14に表示する映像の上側に演出画像を合成する。
また、映像出力装置11は、タッチパネルディスプレイ201のタッチ位置に応じて演出音の音質を変更してもよい。音質は、ピッチおよびパニングを含む。例えば、ユーザがタッチパネルディスプレイ201の右側をタッチした場合、映像出力装置11は、演出音が右側に定位する様に、スピーカ12Rに出力する音信号のレベルをスピーカ12Lに出力する音信号のレベルより高くする。ユーザがタッチパネルディスプレイ201の左側をタッチした場合、映像出力装置11は、演出音が左側に定位する様に、スピーカ12Lに出力する音信号のレベルをスピーカ12Rに出力する音信号のレベルより高くする。この様にして映像出力装置11は、タッチ位置に応じてパニング処理を行い、演出音の定位を変更する。また、例えば、ユーザがタッチパネルディスプレイ201の下側をタッチした場合、映像出力装置11は、演出音が低い音になる様にピッチを低くする。ユーザがタッチパネルディスプレイ201の上側をタッチした場合、映像出力装置11は、演出音が高い音になる様にピッチを高くする。
これにより、ユーザは、タッチ位置を変更することで、演出画像および演出音を好きな位置および音質で再生させることができる。例えばユーザが第2演者13Bを応援したい場合にはタッチパネルディスプレイ201の右側をタッチすれば第2演者13Bの近くに演出画像および演出音が再生される。したがって、ユーザは、自身の操作に応じて応援したい演者の近くに演出画像を表示させることができる。また、ユーザは、自身の操作に応じて応援したい演者の近くに演出音を再生させることができる。これにより、ユーザは、よりイベントとの一体感を得ることができる。
演出画像および演出音は、ユーザ毎に異なってもよい。つまり、演出画像と演出音は、複数のユーザのそれぞれの操作に対応して生成された演出画像と演出音声とを含む演出情報により構成されていてもよい。例えば、映像出力装置11は、ユーザ端末51Aを介して操作を受け付けた場合とユーザ端末51Bを介して操作を受け付けた場合とで、異なる演出画像を表示してもよい。また、映像出力装置11は、ユーザ端末51Aを介して操作を受け付けた場合とユーザ端末51Bを介して操作を受け付けた場合とで、異なる演出音を再生してもよい。
(実施形態2)
次に、図8は、実施形態2に係る映像出力システム1Aの構成を示すブロック図である。図9は、会場10の平面模式図である。図10は、イベントの様子を示す模式図である。映像出力システム1Aは、映像出力システム1において、さらにカメラ16Aおよびカメラ16Bを備えている。その他の構成は、映像出力システム1と同一である。
カメラ16Aは、第1演者13Aおよびマイク15Aを撮影する。カメラ16Bは、第2演者13Bおよびマイク15Bを撮影する。映像出力装置11は、カメラ16Aの撮影した第1演者13Aの映像を含む第2の映像データと、カメラ16Bの撮影した第2演者13Bの映像を含む第3の映像データと、を更に受け付ける。映像出力装置11は、ゲーム画像(第1の映像データ)に第1演者13Aの映像データ(第2の映像データ)および第2演者13Bの映像データ(第3の映像データ)を合成し、出力映像データを生成する。これにより、図10に示す様に、表示器14には、ゲーム画像に第1演者13Aの映像および第2演者13Bの映像が合成されて表示される。図10の例では、映像出力装置11は、画面内の左側に第1演者13Aの映像を合成し、画面内の右側に第2演者13Bの映像を合成している。
映像出力装置11は、各ユーザのユーザ操作情報を受け付けた場合、受け付けたユーザ操作情報に基づいて演出画像と演出音を生成する。この時、映像出力装置11は、複数のユーザのそれぞれの操作に対応して生成された演出画像および演出音声(演出情報)を第1演者13Aまたは第2演者13Bに関連付ける。
例えばユーザ31Aがユーザ端末51Aのタッチパネルディスプレイ201の右側をタッチした場合、映像出力装置11は、演出情報を第2演者13Bに関連付ける。そして、映像出力装置11は、ユーザ端末51Aのユーザ操作に応じて生成した演出画像を第2演者13Bの映像の近くに合成する。また、映像出力装置11は、ユーザ端末51Aのユーザ操作に応じて生成した演出音が右側に定位する様に、スピーカ12Rに出力する音信号のレベルをスピーカ12Lに出力する音信号のレベルより高くする。例えば図10に示す様に、映像出力装置11は、第2演者13Bの映像の近くに、ユーザ端末51Aの操作に対応したサムズアップ画像を表示する。また、映像出力装置11は、第2演者13Bの映像の近くに、ユーザ端末51Aの操作に対応した「good」の音を再生する。
なお、各ユーザは、ユーザ端末を用いて、自身に関連付けられる演者を予め指定してもよい。この場合、ユーザがタッチパネルディスプレイのどの位置をタッチしても、指定された演者の近くに演出画像および演出音が再生される。例えば、ユーザ31Bがユーザ端末51Bを用いて第1演者13Aと関連付けを指定した場合、映像出力装置11は、ユーザ端末51Bのユーザ操作に応じて生成した演出画像を第1演者13Aの映像の近くに合成する。また、映像出力装置11は、ユーザ端末51Bのユーザ操作に応じて生成した演出音が左側に定位する様に、スピーカ12Lに出力する音信号のレベルをスピーカ12Lに出力する音信号のレベルより高くする。この場合、ユーザ31Bがユーザ端末51Bのタッチパネルディスプレイ201のどの位置をタッチしても、映像出力装置11は、第1演者13Aの映像の近くに、ユーザ端末51Bに対応したサムズアップ画像を表示する。また、映像出力装置11は、第1演者13Aの映像の近くに、ユーザ端末51Bに対応した「OK」の音を再生する。
このように、映像出力システム1Aは、各ユーザ操作を各演者に関連付けて演出画像および演出音を再生する。これにより、ユーザは、応援したい演者の近くに演出画像を表示させることができる。また、ユーザは、応援したい演者の近くに演出音を再生させることができる。これにより、ユーザは、よりイベントとの一体感を得ることができる。
なお、カメラは、表示器14に表示されているゲーム対戦の内容を含む画像を取得してもよい。この場合、カメラは1つであってもよい。カメラが1つであっても、映像出力装置11は、複数の演者とゲーム画像とを含む映像データ(第1の映像データ)を取得することができる。この場合、第1の映像データは、カメラの撮影した映像データであり、該映像にゲーム画面の映像データが含まれる。第1の映像データは演者を撮影した映像データを含んでいる。
(実施形態3)
次に、図11は、実施形態3に係る映像出力システム1Bの構成を示すブロック図である。図12は、イベントの様子を示す模式図である。映像出力システム1Bは、映像出力システム1Aにおいて、さらにマイク15Aおよびマイク15Bに代えて、マイク150Aおよびマイク150Bを備えている。その他の構成は、実施形態2における映像出力システム1Aと同一である。
マイク150Aおよびマイク150Bは、それぞれマイク15Aおよびマイク15Bの機能に加えて、さらにLED等の表示器を備える。映像出力装置11は、各ユーザのユーザ操作情報を受け付けた場合、受け付けたユーザ操作情報に基づいてマイク150Aおよびマイク150BのLEDの点灯制御を行う。すなわち、映像出力装置11は、各ユーザのユーザ操作情報を受け付けた場合、マイク150Aまたはマイク150BのLEDを点灯させる。
例えば、ユーザがタッチパネルディスプレイ201の右側をタッチした場合、映像出力装置11は、図12に示す様にマイク150BのLEDを点灯させる。ユーザがタッチパネルディスプレイ201の左側をタッチした場合、映像出力装置11は、マイク150AのLEDを点灯させる。
そして、映像出力装置11は、第1演者13Aを撮影した映像データ、第2演者13Bを撮影した映像データ、およびゲーム画像を含む映像データを取得する。つまり第2実施形態では、映像出力装置11は、ユーザ操作に基づく演出を行うデバイス(マイク150Aまたはマイク150B)を撮影した第1の映像データを受け付ける。そして、映像出力装置11は、第1の映像データに基づく出力映像データを出力する。
これにより、第2実施形態の映像出力装置11は、ユーザ操作に基づく演出を行うデバイス(マイク150Aまたはマイク150B)を撮影した映像を表示器14に表示する。したがって、ユーザは、自身の操作に応じて演出が行われるデバイスを視聴することができるため、イベントに参加していると知覚することができ、イベントとの一体感を得ることができる。
なお、各ユーザは、ユーザ端末を用いて、自身に関連付けられる演者のデバイスを予め指定してもよい。この場合、ユーザがタッチパネルディスプレイのどの位置をタッチしても、指定されたデバイスが点灯する。例えば、ユーザ31Bがユーザ端末51Bを用いて第1演者13Aのマイク150Aと関連付けを指定した場合、映像出力装置11は、ユーザ端末51Bのユーザ操作に応じてマイク150AのLEDを点灯する。
この場合、ユーザは、応援したい演者のマイクを点灯させることができる。これにより、ユーザは、よりイベントとの一体感を得ることができる。
なお、ユーザ操作に基づく演出を行うデバイスは、マイクのLEDに限らない。例えば、各演者が使用するゲームコントローラのLEDを点灯させてもよい。この場合、ゲームコントローラも、ユーザ操作に基づく演出を行うデバイスである。
なお、第3実施形態においても、カメラは、表示器14に表示されているゲーム対戦の内容を含む画像を取得してもよい。この場合、カメラは1つであってもよい。カメラが1つであっても、映像出力装置11は、ユーザ操作に基づく演出を行うデバイスを撮影した映像データ(第1の映像データ)を取得することができる。
なお、第3実施形態の映像出力装置11は、ユーザ操作に応じたデバイスの演出および演出画像を表示器14に表示してもよい。映像出力装置11は、ユーザ操作に応じたデバイスの演出を表示器14に表示、さらに演出音を再生してもよい。映像出力装置11は、ユーザ操作に応じたデバイスの演出および演出画像を表示器14に表示し、さらに演出音を再生してもよい。
また、例えば、映像出力装置11は、ユーザ操作を受け付けた場合に全てのデバイスに対して演出を行ってもよい。
(第4実施形態)
図13は、第4実施形態に係る映像出力システム1Cの構成を示すブロック図である。映像出力システム1Cは、配信サーバ20、ユーザ端末51D~51Fをさらに備える。その他の構成は、実施形態1における映像出力システム1と同一である。
配信サーバ20は、インターネットを介して映像出力装置11に接続される。映像出力装置11は、出力映像データおよび音データを配信サーバ20に送信する。音データは、ゲームの音、第1演者13Aの音声、第2演者13Bの音声、および司会者21の音声に係る音を含む。配信サーバ20は、出力映像データおよび音データを受信する。
ユーザ端末51D~51Fは、インターネットを介して配信サーバ20に接続される。ユーザ端末51D~51Fは、それぞれ異なる場所の異なるユーザに利用される。ユーザ端末51D~51Fは、図5に示したユーザ端末51Aと同じ構成および機能を有する。
配信サーバ20は、ユーザ端末51D~51Dに、出力映像データおよび音データを送信する。ユーザ端末51D~51Fは、それぞれ配信サーバ20から出力映像データおよび音データを受信し、再生する。これにより、ユーザ端末51D~51Fのユーザは、それぞれ遠隔地でイベントを視聴することができる。
映像出力装置11は、配信サーバ20を介して、ユーザ端末51D~51Fのそれぞれのユーザ操作情報を受け付ける。映像出力装置11は、受け付けたユーザ操作情報に基づいて演出画像と演出音を生成する。このとき、映像出力装置11は、ユーザ端末51D~51Fのタッチパネルディスプレイ201のタッチ位置に応じて演出画像の表示位置を変更してもよい。また、映像出力装置11は、ユーザ端末51D~51Fのタッチパネルディスプレイ201のタッチ位置に応じて演出音の音質を変更してもよい。
映像出力装置11は、演出画像を合成した出力映像データを生成する。映像出力装置11は、演出画像を合成した出力映像データを表示器14および配信サーバ20に送信する。また、映像出力装置11は、演出音を音データに含めて配信サーバ20に送信する。
これにより、映像出力装置11は、遠隔地のユーザの操作に応じた演出画像および演出音を再生する。演出画像および演出音は、配信サーバ20を介して、遠隔地のユーザ端末51D~51Fにも送信され、再生される。なお、演出音の音質を変更する場合、ユーザ端末51D~51Fがパニング処理、ピッチ変更処理を行ってもよい。
これにより、遠隔地のユーザも、自身の操作に応じて演出画像および演出音が再生されるため、イベントに参加していると知覚することができ、イベントとの一体感を得ることができる。
第4実施形態の映像出力システム1Cは、第1実施形態の映像出力システム1に配信サーバ20および遠隔地のユーザ端末51D~51Fを組み合わせる例を示したが、第4実施形態は、第2実施形態または第3実施形態と組み合わせることも可能である。
本実施形態の説明は、すべての点で例示であって、制限的なものではない。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
映像出力装置11は、同時に複数の演出画像および複数の演出音を生成してもよい。ただし、演出音の数が多くなると、ユーザは、各演出音を区別して聴くことができなくなる。そのため、演出音の数の上限は、演出画像の数の上限よりも少ないことが好ましい。
1,1A,1B,1C…映像出力システム
10…会場
11…映像出力装置
12L,12R…スピーカ
13A…第1演者
13B…第2演者
14…表示器
15A,15B…マイク
16A,16B…カメラ
17…ゲーム機
20…配信サーバ
21…司会者
25…マイク
31A,31B,31C…ユーザ
51A,51B,51C,51D,51E,51F…ユーザ端末
101…表示器
102…ユーザI/F
103…オーディオI/O
104…信号処理部
105…ネットワークI/F
106…CPU
107…フラッシュメモリ
108…RAM
109…汎用通信I/F
150A,150B…マイク
201…タッチパネルディスプレイ
202…CPU
203…RAM
204…ネットワークI/F
205…フラッシュメモリ

Claims (20)

  1. 複数のユーザのそれぞれの操作を受け付け、
    受け付けた前記操作に基づく演出画像と演出音とを生成し、
    第1の映像データを受け付け、
    前記第1の映像データと前記演出画像とを合成して出力映像データを生成し、
    前記出力映像データと前記演出音とを出力する、
    映像出力方法。
  2. 複数のユーザのそれぞれの操作を受け付け、
    受け付けた前記操作に基づく演出を行うデバイスを撮影した第1の映像データを受け付け、
    前記第1の映像データに基づく出力映像データを出力する、
    映像出力方法。
  3. 前記操作に基づいて前記出力映像データ内の前記演出画像の表示位置を変更する
    請求項1に記載の映像出力方法。
  4. 前記出力映像データは、複数の前記演出画像を含み、
    前記演出音は、複数の演出音を含み、
    前記演出音の数の上限は、前記演出画像の数の上限よりも少ない、
    請求項1または請求項3に記載の映像出力方法。
  5. 前記操作に基づいて前記演出音の音質を決定する、
    請求項1、請求項3または請求項4に記載の映像出力方法。
  6. 前記音質はピッチおよびパニングを含む
    請求項5に記載の映像出力方法。
  7. 第1演者の映像を含む第2の映像データと、第2演者の映像を含む第3の映像データと、を更に受け付け、
    前記出力映像データは、さらに前記第2の映像データおよび第3の映像データを含み、
    前記演出画像と演出音は、前記複数のユーザのそれぞれの操作に対応して生成された演出画像と演出音声とを含む演出情報により構成され、
    前記演出情報は、前記第1演者または前記第2演者のいずれかに関連付けられる
    請求項1、請求項3、請求項4、請求項5または請求項6に記載の映像出力方法。
  8. 前記関連付けは、前記出力映像データにおける、前記第2の映像データおよび前記第3の映像データと、前記演出情報とに基づいて決定する
    請求項7に記載の映像出力方法。
  9. 前記第1の映像データは演者を撮影した映像を含む
    請求項1乃至請求項8のいずれか1項に記載の映像出力方法。
  10. 複数のユーザのそれぞれの操作を受け付けるユーザ操作受付部と、
    受け付けた前記操作に基づく演出画像と演出音とを生成する演出データ生成部と、
    第1の映像データを受け付ける映像データ受付部と、
    前記第1の映像データと前記演出画像とを合成して出力映像データを生成する映像データ生成部と、
    前記出力映像データと前記演出音とを出力する出力部と、
    を備えた映像出力装置。
  11. 複数のユーザのそれぞれの操作を受け付けるユーザ操作受付部と、
    受け付けた前記操作に基づく演出を行うデバイスを撮影した第1の映像データを受け付ける映像データ受付部と、
    前記第1の映像データに基づく出力映像データを出力する出力部と、
    を備えた映像出力装置。
  12. 前記映像データ生成部は、前記操作に基づいて前記出力映像データ内の前記演出画像の表示位置を変更する
    請求項10に記載の映像出力装置。
  13. 複数の前記演出画像および前記演出音を含み、
    前記演出音の数の上限は、前記演出画像の上限よりも少ない、
    請求項10または請求項12に記載の映像出力装置。
  14. 前記演出データ生成部は、前記操作に基づいて前記演出音の音質を決定する、
    請求項10、請求項12または請求項13に記載の映像出力装置。
  15. 前記音質はピッチおよびパニングを含む
    請求項14に記載の映像出力装置。
  16. 前記映像データ受付部は、第1演者の映像を含む第2の映像データと、第2演者の映像を含む第3の映像データと、を更に受け付け、
    前記出力映像データは、さらに前記第2の映像データおよび第3の映像データを含み、
    前記演出画像と演出音は、前記複数のユーザのそれぞれの操作に対応して生成された演出画像と演出音声とを含む演出情報により構成され、
    前記演出情報は、前記第1演者または前記第2演者のいずれかに関連付けられる
    請求項10、請求項12、請求項13、請求項14または請求項15に記載の映像出力装置。
  17. 前記関連付けは、前記出力映像データにおける、前記第2の映像データおよび前記第3の映像データと、前記演出情報とに基づいて決定する
    請求項16に記載の映像出力装置。
  18. 前記第1の映像データは演者を撮影した映像を含む
    請求項10乃至請求項17のいずれか1項に記載の映像出力装置。
  19. 複数のユーザのそれぞれの操作を受け付けるユーザ端末と、映像出力装置と、を備えた映像出力システムであって、
    前記映像出力装置は、
    前記ユーザ端末で受け付けた前記操作に基づく演出画像と演出音とを生成し、
    第1の映像データを受け付け、
    前記第1の映像データと前記演出画像とを合成して出力映像データを生成し、
    前記出力映像データと前記演出音とを出力する、
    映像出力システム。
  20. 複数のユーザのそれぞれの操作を受け付け、受け付けた前記操作に基づく演出を行うデバイスと、
    前記デバイスを撮影した第1の映像データを受け付け、前記第1の映像データに基づく出力映像データを出力する映像出力装置と、
    を備えた映像出力システム。
JP2021033149A 2021-03-03 2021-03-03 映像出力方法、映像出力装置および映像出力システム Pending JP2022134182A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021033149A JP2022134182A (ja) 2021-03-03 2021-03-03 映像出力方法、映像出力装置および映像出力システム
US17/685,537 US20220286733A1 (en) 2021-03-03 2022-03-03 Video output method and video output apparatus
PCT/IB2022/053556 WO2022185296A1 (en) 2021-03-03 2022-04-15 Video output method and video output apparatus
CN202280032858.9A CN117337571A (zh) 2021-03-03 2022-04-15 视频输出方法和视频输出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021033149A JP2022134182A (ja) 2021-03-03 2021-03-03 映像出力方法、映像出力装置および映像出力システム

Publications (1)

Publication Number Publication Date
JP2022134182A true JP2022134182A (ja) 2022-09-15

Family

ID=83116504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021033149A Pending JP2022134182A (ja) 2021-03-03 2021-03-03 映像出力方法、映像出力装置および映像出力システム

Country Status (4)

Country Link
US (1) US20220286733A1 (ja)
JP (1) JP2022134182A (ja)
CN (1) CN117337571A (ja)
WO (1) WO2022185296A1 (ja)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6339842B1 (en) * 1998-06-10 2002-01-15 Dennis Sunga Fernandez Digital television with subscriber conference overlay
US6665002B2 (en) * 2001-05-11 2003-12-16 Leadtek Research Inc. Real-time video/audio quality adjustment method
US20030220143A1 (en) * 2002-05-24 2003-11-27 Koninklijke Philips Electronics N.V. On-line gaming spectator
US9246613B2 (en) * 2008-05-20 2016-01-26 Verizon Patent And Licensing Inc. Method and apparatus for providing online social networking for television viewing
US20110085018A1 (en) * 2009-10-09 2011-04-14 Culbertson W Bruce Multi-User Video Conference Using Head Position Information
US8698872B2 (en) * 2011-03-02 2014-04-15 At&T Intellectual Property I, Lp System and method for notification of events of interest during a video conference
US8848024B2 (en) * 2011-03-08 2014-09-30 CSC Holdings, LLC Virtual communal television viewing
US8832284B1 (en) * 2011-06-16 2014-09-09 Google Inc. Virtual socializing
US9030520B2 (en) * 2011-06-20 2015-05-12 Polycom, Inc. Automatic camera selection for videoconferencing
US20150294656A1 (en) * 2014-04-12 2015-10-15 Gregor Z. Hanuschak Method and system for generating sounds using portable and inexpensive hardware and a personal computing device such as a smart phone
US10051364B2 (en) * 2014-07-03 2018-08-14 Qualcomm Incorporated Single channel or multi-channel audio control interface
US9445048B1 (en) * 2014-07-29 2016-09-13 Google Inc. Gesture-initiated actions in videoconferences
US9818225B2 (en) * 2014-09-30 2017-11-14 Sony Interactive Entertainment Inc. Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
US10802787B2 (en) * 2016-09-30 2020-10-13 Sony Interactive Entertainment Inc. Integrating audience participation content into virtual reality content
US10341537B2 (en) * 2017-09-29 2019-07-02 Sony Interactive Entertainment America Llc Spectator view into an interactive gaming world showcased in a live event held in a real-world venue
WO2019143766A1 (en) * 2018-01-19 2019-07-25 ESB Labs, Inc. Enhanced gaming systems and methods
EP4136856A4 (en) * 2020-04-17 2024-02-21 Fredette Benoit VIRTUAL LOCATION
US20210337245A1 (en) * 2020-04-22 2021-10-28 Robert Meitus System and method for virtual attendance of live event
US11240469B1 (en) * 2020-12-18 2022-02-01 Frqncy, Inc. Systems and methods for audience interactions in real-time multimedia applications

Also Published As

Publication number Publication date
US20220286733A1 (en) 2022-09-08
WO2022185296A1 (en) 2022-09-09
CN117337571A (zh) 2024-01-02

Similar Documents

Publication Publication Date Title
JP2020504384A (ja) バーチャルリアリティ分野における装置および関連する方法
KR101873086B1 (ko) 정보 시스템, 정보 재현 장치, 정보 생성 방법, 및 기록 매체
JP2013062640A (ja) 信号処理装置、信号処理方法、およびプログラム
JP2024019661A (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR101414217B1 (ko) 실시간 영상합성 장치 및 그 방법
WO2018008434A1 (ja) 演奏上演装置
JP4786225B2 (ja) カラオケ装置、プログラム、およびランキング集計サーバ
JP5109496B2 (ja) データ配信装置、データ配信方法およびプログラム
JP2022134182A (ja) 映像出力方法、映像出力装置および映像出力システム
JP6951610B1 (ja) 音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム
WO2022024898A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP6220576B2 (ja) 複数人による通信デュエットに特徴を有する通信カラオケシステム
JP7442979B2 (ja) カラオケシステム
JP2013187841A (ja) 電子機器及び出力制御方法並びにプログラム
KR101405091B1 (ko) 개인영상 제작시스템
JP6007098B2 (ja) 歌唱動画生成システム
JP5803956B2 (ja) カラオケシステム及びカラオケ装置
JP6063739B2 (ja) 歌唱動画生成システム
JP2020008752A (ja) 生バンドカラオケライブ配信システム
WO2022208609A1 (ja) 配信システム、配信方法、及びプログラム
JP6051028B2 (ja) 歌唱動画データの取得システム
KR102111990B1 (ko) 웨어러블 장치를 이용한 컨텐츠 제어 방법, 장치 및 시스템
CN103916521A (zh) 一种移动通信终端
WO2022113289A1 (ja) ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
WO2023042671A1 (ja) 音信号処理方法、端末、音信号処理システム、管理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240125