JP2019179985A - 映像挿入装置、映像表示端末装置 - Google Patents

映像挿入装置、映像表示端末装置 Download PDF

Info

Publication number
JP2019179985A
JP2019179985A JP2018067287A JP2018067287A JP2019179985A JP 2019179985 A JP2019179985 A JP 2019179985A JP 2018067287 A JP2018067287 A JP 2018067287A JP 2018067287 A JP2018067287 A JP 2018067287A JP 2019179985 A JP2019179985 A JP 2019179985A
Authority
JP
Japan
Prior art keywords
video
audio
information
stream
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018067287A
Other languages
English (en)
Inventor
難波 秀夫
Hideo Nanba
秀夫 難波
宏道 留場
Hiromichi Tomeba
宏道 留場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018067287A priority Critical patent/JP2019179985A/ja
Priority to US17/041,925 priority patent/US20210144419A1/en
Priority to PCT/JP2019/009107 priority patent/WO2019188091A1/ja
Publication of JP2019179985A publication Critical patent/JP2019179985A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25883Management of end-user data being end-user demographical data, e.g. age, family status or address

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stereophonic System (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】視聴者のディスプレイ装置に合わせた複数の映像情報と音響情報をネットワーク側機器から提供し、ディスプレイ装置側で複数の映像情報の表示と共にオーディオオブジェクトを使用した音響情報を再生する事により、複数の映像情報に対する認識性を高める。【解決手段】映像挿入装置は、ストリームに含まれる映像の表示範囲の一部である1以上の表示領域に、挿入する所定の映像の大きさと位置を合わせるスケーリング処理部と、挿入する前記所定の映像に対応する所定の音声をオーディオオブジェクトに変換し、オーディオオブジェクトの設定位置を表示領域に設定するオーディオオブジェクト位置調整部とを含む。【選択図】図1

Description

本発明は、映像処理装置、映像表示装置に関する。
近年、ディスプレイ装置の解像度が向上し、超高解像度(Ultra High Density:UHD)表示が可能なディスプレイ装置が登場している。このUHDディスプレイの中で特に高解像度の表示が可能なディスプレイ装置を使用する、横方向に8千ピクセル前後のテレビジョン放送である8Kスーパーハイビジョン放送の実用化が進められている。この8Kスーパーハイビジョン放送に対応するディスプレイ装置(8Kディスプレイ装置)に映像を供給する信号は非常に帯域が広く、非圧縮時は70Gbpsを超える速度、圧縮時でも100Mbps程度の速度の信号を供給することが必要となる。
このような広帯域の信号を利用する映像信号を配信するために、新しい方式の放送衛星や光ファイバーの利用が検討されている(非特許文献1)。
超高解像度ディスプレイ装置は視聴者に提供可能な豊富な情報量を利用し、多種の情報を提供するサービスが可能である。また、超高解像度化ディスプレイ装置は画面の大きさを増やしても単位面積当たりの画素数が十分であり、ディスプレイ装置の一部を利用して映像情報を提供する場合も十分な情報量を有しており、従前の解像度のディスプレイ装置で同様のサービスを提供した場合と比較して視聴者のユーザ体験は大幅に向上する。
また、画面サイズを増やす事で得られる臨場感を更に高めるため、音響面からの取り組みも行われており、多数のスピーカーを用いる音響システムを合わせて使用する事が検討されている(非特許文献2)。
総務省."4K・8Kの推進に関する現状について".総務省ホームページ.<www.soumu.go.jp/main_content/000276941.pdf> Dolby(登録商標), "Dolby(登録商標) Atmos(登録商標) Next-Generation Audio for Cinema"
しかし、視聴者が大画面の超高解像度ディプレイ装置による視聴を行う場合、視界の殆どを映像によって覆われ、視界中央部に意識が集中する事になり、複数の映像情報を表示した時のそれぞれの映像情報に対する認識能力が低下してしまう。
本発明は以上の課題を鑑みてなされたものであり、視聴者が使用しているディスプレイ装置に合わせた複数の映像情報と音響情報をネットワーク側機器から提供し、ディスプレイ装置側で複数の映像情報の表示と共にオーディオオブジェクトを使用した音響情報を再生する事により、複数の映像情報に対する認識性を高める機器とその構成を開示するものである。
(1)上記の目的を達成するために、本発明の一観点によれば、映像と音声を含むストリームに、1以上の所定の映像と所定の音声を挿入し、映像表示端末装置に挿入後のスト
リームを送信する映像挿入装置であって、前記ストリームに含まれる映像の表示範囲の一部である1以上の表示領域に、挿入する前記所定の映像の大きさと位置を合わせるスケーリング処理部と、挿入する前記所定の映像に対応する所定の音声をオーディオオブジェクトに変換し、前記オーディオオブジェクトの設定位置を前記表示領域に設定するオーディオオブジェクト位置調整部を含む映像挿入装置が提供される。
(2)上記の目的を達成するために、本発明の一観点によれば、前記映像表示端末装置の端末情報を取得する端末インターフェース部をさらに備え、前記表示領域を、前記端末情報に基づいて設定する映像挿入装置が提供される。
(3)上記の目的を達成するために、本発明の一観点によれば、前記挿入後のストリームの送信先である映像表示端末装置を、エリアに関する情報とユーザグループに関する情報の少なくともいずれかに基づいてグループ化し、前記グループ化した映像表示端末装置に対して前記所定の映像と前記所定の音声を挿入する映像挿入装置が提供される。
(4)上記の目的を達成するために、本発明の一観点によれば、前記グループ化した映像表示端末装置に対して挿入した映像と音声に対し、少なくとも1つの挿入後のストリームを送信している前記映像表示端末装置から変更情報を受信したときに、前記複数のグループ化した映像表示端末装置に対して前記変更情報に基づいて前記表示領域と、前記所定の音声のオーディオオブジェクトの設定を変更する映像挿入装置が提供される。
(5)上記の目的を達成するために、本発明の一観点によれば、映像と音声の情報を含むストリームを受信し、映像と音声の再生を行う映像表示端末装置であって、前記映像表示端末装置が備える映像表示部の大きさに関する情報と、前記映像表示部と視聴者の距離に関する情報を含めた端末情報を、映像挿入装置に送る映像表示端末装置が提供される。
(6)上記の目的を達成するために、本発明の一観点によれば、前記端末情報に含める前記映像表示部の大きさの情報は、所定の種類に規格化されている映像表示端末装置が提供される。
(7)上記の目的を達成するために、本発明の一観点によれば、ユーザ入力装置をさらに備え、前記映像挿入装置によって挿入された映像に対する操作が前記ユーザ入力装置から入力されたときに、前記映像に対応する変更情報を前記映像挿入装置に送信する映像表示端末装置が提供される。
本発明によれば、視聴者が使用しているディスプレイ装置に合わせた複数の映像情報と音響情報をネットワーク側機器から提供し、ディスプレイ装置側で複数の映像情報の表示と共にオーディオオブジェクトを使用した音響情報を再生する事により、複数の映像情報に対する認識性を高めることができる。
本発明の一実施形態の機器構成例を示す図である。 オーディオオブジェクトの例を示す図である。 本発明の一実施形態のスピーカーの構成例を示す図である。 本発明の一実施形態の機器構成例を示す図である。 本発明の一実施形態のネットワークの構成例を示す図である。 本発明の一実施形態の機器構成例を示す図である。 本発明の一実施形態のエリア制御、グループ制御の例を示す図である。 本発明の一実施形態の挿入映像とオーディオオブジェクトの制御例を示す図である。 本発明の一実施形態の挿入映像とオーディオオブジェクトの制御例を示す図である。 本発明の一実施形態のグループ制御の例を示す図である。
以下、本発明の実施形態による無線通信技術について図面を参照しながら詳細に説明する。
(第1の実施形態)
以下、図を利用して本発明の一実施形態を詳細に説明する。図1は本実施の形態の機器構成の一例を示している。本実施の形態は映像サーバ101と映像挿入装置102、映像表示端末装置103、端末情報管理装置104から構成され、映像挿入装置102と映像表示端末装置103はネットワーク128で接続される。このネットワーク128はカッパケーブルや光ファイバーケーブルを利用する有線ネットワークや、セルラー無線通信網のような公衆無線ネットワーク、無線LANのような自営無線ネットワークのような様々な形態のネットワークを使用して良い。本実施の形態ではセルラー無線通信網を使用する事を想定する。
映像サーバ101は映像ストリームを供給する映像生成部105と、音声ストリームを生成する音声生成部106と、映像ストリームと音声ストリームを多重するマルチプレックス部107から構成される。音声ストリームは2以上の音声データから構成されてよい。音声ストリームの符号化方法は特に指定しないが、MPEG AACやMPEG SAOCなどを使用して良い。映像ストリームの符号化方法は特に指定しないが、H.264方式やH.265方式、VP9などを使用して良い。音声ストリームと映像ストリームを多重する方法は特に限定しないが、MPEG2 SystemsやMPEG Media
Transport(MMT)、MP4などを使用して良い。音声ストリームと映像ストリームを多重したストリームを、以降では複合ストリームと称す。
映像挿入装置102は映像サーバ101とネットワーク128の間に位置し、映像サーバ101から出力される複合ストリームに映像の大きさを制御した別の映像ストリームと音源の位置を制御されたオブジェクトオーディオを含む別の音声ストリームを挿入する。108は入力された複合ストリームを多重分離し、映像ストリーム音声ストリームを取り出すデマチプレクサ部、109はデマルチプレクサ部108から出力された映像ストリームに含まれる映像データにストリームキャッシュ部121から出力される挿入するための映像ストリームの映像データを合成する映像合成部である。映像の合成方法は特に指定しないが、デマルチプレクサ部108から出力された映像ストリームをデコードして生の映像データを生成し、ストリームキャッシュ部121から出力された映像ストリームをデコードして生の映像データを生成し、この二つの映像データを合成後に再エンコードして合成された映像ストリームを得ても良く、また、デマルチプレクサ部108から出力された映像ストリームとストリームキャッシュ部121から出力され映像ストリームの符号化単位で合成し、再エンコード処理を一部減らすような合成をしても良い。また、ストリームキャッシュ部121から出力された映像ストリームを別トラックとして合成する方法でも良い。110はデマルチプレクサ部108から出力された音声ストリームに、ストリームキャッシュ部121から出力された音声ストリームを合成する音声合成部である。この音声の合成方法は特に指定しないが、例えば、デマルチプレクサ部108から出力された音声ストリームがチャネルベース音源である場合、このチャネルベース音源をベッドとし、ストリームキャッシュ121から出力されるオーディオオブジェクトを加えたオブジェクト音源として合成しても良い。また、デマルチプレクサ部108から出力された音声ストリームがオブジェクト音源であった場合、このオブジェクト音源にオーディオオブジェク
トを追加しても良い。この時、オーディオオブジェクトの数の上限を超える場合はダウンミックスしても良い。また、合成する音声ストリームを別トラックとして合成しても良い。111はマルチプレクサ部で、映像合成部109から出力された合成後の映像ストリームと、音声合成部110から出力された合成後の音声ストリームを多重化するマルチプレクサ部である。再度多重化された複合ストリームはネットワーク128に出力される。
121はストリームキャッシュ部で、スケーラ/位置調整部114から出力される挿入用の映像ストリームと、オーディオオブジェクト位置調整部117から出力される挿入用の音声ストリームを、挿入ストリーム設定部113の制御によりそれぞれ映像合成部109と音声合成部110に送る。また、挿入ストリーム設定部の制御により、映像ストリームと音声ストリームの蓄積を行い、また蓄積した映像ストリームと音声ストリームをそれぞれ映像合成部109と音声合成部110に送る。114はスケーラ/位置調整部で、挿入ストリーム設定部113の制御により映像選択部115から出力される映像データにスケーリング処理を施し、表示位置を調整した映像ストリームを生成するブロックである。115は挿入ストリーム設定部113の制御により映像ライブラリ部116から選択した映像データをスケーラ/位置調整部114に送るブロックである。116は挿入用の複数の映像データを蓄積している映像ライブラリ部である。117はオーディオオブジェクト位置調整部で、挿入ストリーム設定部113の制御により音声選択部118から出力された音声データをオーディオオブジェクト化し、このオーディオオブジェクトの位置を設定した音声ストリームを出力する。118は音声選択部で、挿入ストリーム設定部113の制御により音声ライブラリ119から選択した音声データを出力する。119は音声ライブラリで、挿入用の複数の音声データを蓄積している。120はライブラリ更新部で、映像挿入装置102の外部から映像ライブラリ116と音声ライブラリ119の内容を更新し、更新した内容を挿入映像ストリーム設定部113に送るブロックである。
112は端末インターフェース部で、ネットワーク128を経由して接続する映像表示端末装置103と通信を行い、映像表示端末装置103のハードウェア、ソフトウェアに関する端末能力情報や、映像表示端末装置103のユーザ入力装置127を経由して入力されるユーザの操作情報などの各種情報を得て、また、端末情報管理装置104と通信する事で予め登録されている映像表示端末装置103に関する端末登録情報を得て、これらの情報を挿入映像ストリーム設定部113に送る。挿入映像ストリーム設定部113は、端末インターフェース112から得られる映像表示端末装置103の情報やユーザの操作情報、ライブラリ更新部120から得られる情報、その他映像サーバ101から取得する情報などに基づいて映像ライブラリ116から選択される映像ストリーム表示サイズと表示位置の設定と、音声ライブラリ119から選択される音声ストリームをオーディオオブジェクトに変換する際のパラメータを設定するブロックである。
次に映像表示端末装置103の構成例を説明する。122は入力された複合ストリームに対して逆多重処理を行い、映像ストリームと音声ストリームを出力するデマルチプレクサ部、123は映像ストリームをデコードして表示し、またネットワークサービスインターフェース部125が提供するユーザインターフェース用の画面を表示する映像表示部、124は音声ストリームをデコードしてマルチチャネル再生を行い、ネットワークサービスインターフェース部125が提供するユーザインターフェース用の音声を再生する音声再生部、125はネットワークサービスインターフェース部で、ネットワーク128を経由して映像挿入装置102の端末インターフェース部112と通信し、端末情報部126の情報やユーザ入力装置127の情報などの各種情報の交換を行う。126は端末情報部で、映像表示端末装置103の構成に特有な情報や、映像表示端末装置103を個別に識別するための固有情報、ネットワーク128を使用するための契約を識別する情報などの映像表示端末装置103に関する情報を格納し、ネットワークサービスインターフェース部125を経由して映像挿入装置102の端末インターフェース部112に格納している
情報を送信するブロックである。127はユーザ入力装置で、映像表示端末装置103に対するユーザの操作を受け付け、ネットワークサービスインターフェース部125を経由して映像挿入装置102の端末インターフェース部112にユーザの操作情報を伝え、またユーザインターフェース用の映像を生成して映像表示部123に出力し、ユーザインターフェース用の音声を生成して音声再生部124に対して出力するブロックである。
端末情報管理装置104は映像挿入装置102の端末インターフェース部112からの問い合わせを受け付け、問い合わせに含まれる映像表示端末装置103に関する情報に基づいて、映像挿入装置102が使用可能なサービスに関する情報を応答として送信する装置である。
映像表示端末装置103が備える音声再生部124はオブジェクトオーディオの再生が可能な構成とする。オブジェクトオーディオは、従来のチャネルベース音源とは異なり、再生音声を構成する複数の音源それぞれをオーディオオブジェクト(仮想音源)として定義し、再生空間の自由な位置に配置して再生する方式である。従来のチャネルベース音源は予め決められた複数の方向、一例として2チャンネルステレオ音源の場合は左と右の2方向、5チャンネルサラウンド音源の場合は左前方、前方中央、右前方、右後方、左後方にスピーカーを配置する事を前提に用意される音源である。多くの場合、チャネルベース音源で使用するスピーカーは水平面上に配置され、また、一部の実装においては水平面を複数設け、上方のあらかじめ決められた方向から到来する音を再現するものもある。これらのチャネルベース音源では、音源生成時に想定するスピーカー配置用に複数の音源をミックスするため、再生環境のスピーカーの配置位置の違いや、再生時のリスナーの位置の違いによってミックス時に意図した音が再現できない問題がある。これを音源のスイートスポットが狭いと表現することがある。これに対し、オブジェクトオーディオを使用する場合はスピーカーの配置位置やリスナーの位置によって、仮想音源を再生するスピーカーの選択、ミックスを適応的に行うことが可能となり、再生環境が変わっても音源生成時に意図した音場を再現することが可能となる。このオーディオオブジェクトを再生するスピーカーの選択、ミックスをサウンドレンダリングと称することがある。
仮想音源の定義方法は複数あるが、ある基準点からの相対位置に配置された複数の音源とすることが多い。本実施の形態では図2の201に示すように基準位置(原点)からr,
θ, φによる極座標表現された音源として定義するものとする。これにより視聴位置正
面の前方3m、右1m、上方2mなどの任意の位置に仮想音源を設定することが可能となる。オブジェクト還元の再生環境は特別に規定されるものではないが、一例として図3に示すように視聴位置302の前方に表示端末装置301を配置した場合、映像表示端末装置301の左右にメインスピーカー301−1,−2を、メインスピーカーの上方にトッ
プスピーカー304−1,−2を配置し、視聴位置301の左右から後方にかけて縦に長いスピーカーアレーで構成されたサテライトスピーカー305−1〜−4を配置し、水平面のみならずオーディオオブジェクトが上方に設定された時にはメインスピーカー303−1,−2だけではなくトップスピーカー304−1、−2やサテライトスピーカー305−1〜4を構成するスピーカーの上部に配置されたスピーカーを用い、サウンドレンダリングを行うことで設定された位置のオーディオオブジェクトを表現できる。これらのメインスピーカー303−1,−2、トップスピーカー304−1,−2、サテライトスピーカー305−1〜−4(以下、スピーカー群と称する)の配置位置を映像端末装置301の音声再生部が知る方法として、視聴位置302または所定の位置に校正用マイクロホンを設置し、スピーカー群から校正用の参照信号を再生させて校正用マイクロホンで収集することで、スピーカー群を構成する各スピーカーから視聴位置までの伝達関数を求めて配置位置に関する情報とすることができる。映像端末装置301の音声再生部はオブジェクトオーディオの再生時に、この伝達関数を使用してサウンドレンダリングを実行することができる。スピーカーの構成は図3に示したものに限らす、配置するスピーカーの数や
位置は異なってもよい。配置するスピーカーの数、位置に応じたサウンドレンダリングを行えばよい。
次に映像と音声の挿入について図8を使用して説明する。映像表示端末装置103はネットワーク128を経由し、映像挿入装置102の端末インターフェース112に対して映像表示端末装置103の映像表示部123の大きさと視聴距離に関する情報を通知する。図8において映像表示部123は801が相当し、映像表示部の大きさとして縦の大きさ807と横の大きさ806を送ってもよい。また、画面の対角長805と画面の縦横比(アスペクト比)を送ってもよい。視聴距離は映像祖表示部123と視聴者804との距離808が該当する。この視聴距離は映像表示端末装置103にカメラ等のセンサを設けて測定した値を用いてもよいし、映像表示部123の大きさによりあらかじめ設定された視聴距離を用いてもよい。映像表示部123の大きさと、このあらかじめ設定された視聴距離は比例関係としてもよい。一例として映像表示部123の縦の大きさの3〜5倍程度の値をあらかじめ設定された視聴距離としてもよい。また、映像表示部123の大きさを規格化し、いくつかの種類とすることで映像表示部123の大きさに関する情報の情報量を減らしてもよい。例えば映像表示部123の対角長を25インチ以下、32インチ以下、40インチ以下、50インチ以下、70インチ以下、100インチ以下、150インチ以下、150インチを超える大きさのように規格化してもよい。同様に視聴距離についても規格化してよい。映像表示部123の大きさを規格化することで、映像挿入装置102内で挿入する映像ストリームと音声ストリームの種類が限定され、予め生成しておくことが容易になる。
映像表示端末103の映像表示部123の大きさと視聴距離に関する情報を得た映像挿入装置102は、挿入映像ストリーム設定部113で挿入する映像データと音声データをそれぞれ映像選択部115と音声選択部118を経由して映像ライブラリ118、音声ライブラリ119から選択する。選択された映像データはスケーラ/位置調整部114でスケーリング処理と表示位置調整を行い、映像サーバ101から受信する複合ストリームに含まれる映像ストリームに対してオーバーラップ表示合成ができるようにする。スケーラ/位置調整部114は、スケーリング処理と表示位置調整を調整した映像データを映像ストリーム化してストリームキャッシュ部121に送る。選択された音声データはオーディオオブジェクト位置調整部117でオーディオオブジェクトに変換し、オーディオオブジェクトの位置を設定する。このオーディオオブジェクトの位置を、図8を用いて説明すると、挿入映像の表示が802で示される領域であったとすると、視聴者804の頭部が表示画面801の中央正面にあるものとし、映像表示部123の前面の領域803で示される空間にオーディオオブジェクトの位置を設定する。オーディオオブジェクトの位置を設定後、オーディオオブジェクト位置調整部は設定後のオーディオオブジェクトを音声ストリームに変換してストリームキャッシュ部112に送る。ストリームキャッシュ部112は映像合成部109に合成用の映像ストリームを、音声合成部110に合成用の音声ストリームを送る。挿入映像ストリーム設定部113は、ストリームキャッシュ部121に挿入する映像に相当する映像ストリームや音声ストリームが蓄積されている場合は、映像ライブラリ部116、音声ライブラリ119のデータを使用せず、ストリームキャッシュ部112に蓄積されている映像ストリームや音声ストリームを挿入映像として使用するようにストリームキャッシュ部121を制御してよい。映像合成部109は映像サーバ101から送られてきた映像ストリームにオーバーラップする形でストリームキャッシュ部が出力された映像ストリームを合成する。この合成方法は特に指定しないが、映像サーバから送られてきた映像ストリームとストリームキャッシュ部が送られてきたストリームを一度復号して映像データとして合成後に再符号化して合成された映像ストリームとしてもよく、また、別トラックの映像として合成してもよい。音声合成部110は映像サーバから送られてきた音声ストリームにストリームキャッシュ部121から出力される音声ストリームを合成する。オーディオオブジェクトの数に余裕があるときは新たなオーディオオブジ
ェクトを追加する形で合成し、オーディオオブジェクトの数の制限によりそのまま追加できない場合は映像サーバから送られてきた音声ストリームに含まれるオーディオオブジェクトに対してダウンミックス処理をし、その上でストリームキャッシュ部121から出力されたオーディオストリームに含まれるオーディオオブジェクトを追加して合成する。ストリームキャッシュ部121から出力された映像ストリームと音声ストリームを合成した映像ストリームと音声ストリームはマルチプレクサ部111で多重化処理を行い、合成ストリームとしてねっワーク128経由で映像端末装置103に送られ、図8に示した領域802に映像が、領域803の位置にオーディオオブジェクトが設定された音声が再生される。なお、挿入する映像、音声は1つでも複数でもよい。挿入する映像、音声が複数の場合、挿入する映像の大きさを変えてもよい。また、映像、音声は常時挿入してもよく、また、映像サーバから送られてきた複合ストリームの内容や、ライブラリの更新などのタイミングなど、外部からの情報によって挿入のOn/Offを切り替えてもよい。
映像表示端末103の表示装置123の大きさが小さく、挿入映像が表示される領域にオーディオオブジェクトを設定しても挿入映像に対する注意喚起効果が低い場合、表示装置123の範囲外に挿入する映像のオーディオオブジェクトを設定してもよい。一例として図8に表示装置123の表示領域811の外の領域813にオーディオオブジェクトの位置を設定する例を示す。表示装置123の大きさ、ここでは縦の大きさ817と横の大きさ816が所定の値より小さい場合、挿入する映像の領域812の位置ではなく、領域813に設定してもよい。側面から見た様子を図9に示す。表示装置123が大きい場合の一例を図9(a)に、表示装置123が小さい場合の一例を図9(b)に示す。901、908が視聴者、902、909が表示装置、903、910が挿入される映像、904、911が設定されるオーディオオブジェクトとなる。表示装置902の大きさ905が大きく、挿入映像903が視聴者の視線907に対して十分高く、挿入映像903の位置にオーディオオブジェクト904を設定したときに視線907の外から音が到来するように設定できる場合は挿入映像903が表示される付近にオーディオオブジェクト904を設定し、表示装置909の大きさ912が小さく、挿入映像910の位置にオーディオオブジェクトを設定したときに視線914に対して挿入映像190の位置があまり高くなく、視線914の外から音が到来するように設定できない場合は表示装置909の上方にオーディオオブジェクト911を設定してもよい。視線に対するオーディオオブジェクトの相対的な位置は視聴距離906、912も関係するので、表示装置902、909の大きさ905、912だけではなく、視聴距離906、913を考慮してオーディオオブジェクトの位置を設定してもよい。
以上は映像表示端末装置とネットワークで隔てられた映像挿入装置で挿入映像と挿入音声の合成を行う構成の一例を示したが、挿入映像と挿入音声の合成を映像表示端末装置で行う構成としてもよい。このような構成の一例を図4に示す。図1と機能が同じものについては同一の番号を付し、以下の説明を省略する。映像挿入装置401は映像ストリーム、音声ストリーム上の合成は行わず、挿入映像を別のサービス、番組(プログラム)として多重化する。ストリームキャッシュ121から出力される映像ストリームと音声ストリームを多重化部404で多重化して合成ストリームとし、映像サーバ101から送信される合成ストリームとマルチプレクサ部404から出力される合成ストリームをマルチプレクサ部405で複数のサービス、または番組として多重化し、ネットワーク128経由で映像表示端末装置404に送信する。映像表示端末装置403は複数のサービス、番組として受信した合成ストリームをデマルチプレクサ部406で個別のサービス、番組として分離し、映像ストリームから送られて来たサービス、番組をデマルチプレクサ部407で映像ストリームと音声ストリームに分離し、挿入映像のサービス、番組はデマルチプレクサ部408で映像ストリームと音声ストリームに分離し、それぞれの映像ストリームは映像合成部409で合成され、映像表示部123で表示される。また、それぞれの音声ストリームは音声合成部410で合成され、音声再生部124で再生される。端末情報部41
1はネットワークサービスインターフェース部125を経由して映像表示端末装置403の表示装置123の大きさと視聴距離に関する情報に加え、映像表示端末装置内で挿入映像ストリームの合成が可能であることを示す情報を映像挿入装置401の端末インターフェース部112に送信する。このような構成で、図1の構成で示した動作が可能となる。
上記に示したように、映像挿入装置で挿入する映像の表示位置付近、または挿入映像が表示されていることを認識できる位置にオーディオオブジェクトの位置を設定して音声を再生することで視聴者の注意を喚起し、映像が挿入されたことを伝えることが可能となる。また、表示される挿入映像から音が聞こえるようにオーディオオブジェクトを設定することで挿入映像に対するユーザ体験が向上する。
(第2の実施形態)
本実施の形態ではネットワークを複数のサブネットワーク、例えば特定の地域に設けられたネットワークに分割できる形態とし、分割したネットワーク内に映像挿入装置を配置して分割したネットワーク内でのみ有効な映像の挿入や、ネットワークに接続するユーザの情報に基づくグループでのみ有効な映像の挿入を行うことが可能な構成を説明する。図5はセルラー無線ネットワークの構成例を示す。ゲートウェイ部501はセルラネットワークを構成するコアネット506とインターネット502の間に位置し、インターネット502とコアネットの間でデータの交換を行う。コアネット506はサブネットに相当するコアネットワーク1・507とコアネットワーク2・508を含み、それぞれゲートウェイ部504、ゲートウェイ部505を経由して接続する。コアネットワーク506は映像挿入装置515を含み、映像挿入装置515は挿入用の映像ライブラリ、音声ライブラリを書き換えるためのライブラリ用ネットワーク503が接続されており、このネットワーク経由で映像ライブラリ、音声ライブラリのデータを書き換えることができる。コアネットワーク1・507は複数の基地局装置509、510を含み、さらに映像挿入装置511を含む。コアネットワーク2・508は複数の基地局装置512、513を含み、さらに映像挿入装置514を含む。これらのサブネットワークに相当するコアネットワークは特定の地域に対する通信サービスを提供するネットワークでもよく、例えば特定の地域の自治体や、特定の建物、特定の競技場などに対する通信サービスを提供するサブネットワークでもよい。映像挿入装置515、511、514は映像ライブラリ、音声ライブラリのデータのすべて、または一部を共有してもよい。データの共有方法は特に指定しない。ハッシュ値による管理などの一般的な分散キャッシュの共有方法を使用してよい。以下、セルラネットワークを例に説明するが、セルラネットワークに限らずイーサネット(登録商標)などを利用するローカルエリアネットワーク(LAN)や無線LANを用いる構成など、他の形態のネットワークにおいても実施可能である。
本実施の形態で使用する機器の構成を図6に示す。基本的な構成は図1で示した機器の構成と同様であり、同様の動作をするブロックには同じ番号を付し、以降の説明を省略する。映像サーバ101はインターネット上に接続されてもよく、またコアネットワーク内のいずれかのネットワーク上に接続されもよい。映像挿入装置604は図1に示した映像挿入装置102とほぼ同じ構成であるが、端末インターフェース部603はさらにグループ管理装置602に接続し、接続する映像表示端末装置の端末情報を利用したグループを行い、グループ単位で挿入する映像と音声の制御を行う。また、サブネットワークにあたるコアネットワーク内に接続された映像挿入装置604は、接続する映像表示端末装置がサブネットワークにあたるコアネットワーク内からの接続であるかによって挿入する映像と音声の制御を行う。映像表示端末装置601はグループ化の基づくユーザインターフェースを提供するネットワークサービスインターフェース部605を含む。
エリア制御、グループ制御の一例を、図7を利用して説明する。この例ではサブネットワークに相当するコアネットワーク1・701とコアネットワーク2・711があり、コ
アネットワーク1・701は基地局装置702を備え、基地局装置702に映像表示端末装置703、映像表示端末装置704が接続する。また、コアネットワーク2・711は基地局装置712を備え、基地局装置712に映像表示端末装置713、映像表示端末装置714が接続する。コアネットワーク1・701とコアネットワーク2・711はそれぞれ映像挿入装置を備え、それぞれが管理する基地局装置に接続している映像表示端末装置に対して個別に挿入する映像と音声を設定することができる。
この図7は1番の挿入映像は全映像表示端末に表示する挿入映像、2番の挿入映像は映像端末装置703のみに対する挿入映像、映像表示端末装置704と映像表示端末装置713がグループ化されおり、このグループに対して挿入する映像が3番、4番の映像がコアネットワーク2・711に接続している映像端末装置に表示する挿入映像である例を表している。これにより、映像表示端末装置703には1番の映像705と2番の映像706が表示され、それぞれの映像に対応する音声ストリームのオーディオオブジェクトが705、706の位置に設定される。映像端末装置704には1番の映像707と3番の映像708が表示され、それぞれの映像に対応する音声ストリームのオーディオオブジェクトが707、708の位置に設定される。映像表示端末装置713には1番の映像715と3番の映像716と4番の映像717が表示され、それぞれの映像に対応する音声ストリームのオーディオオブジェクトが715、716、717の位置に設定される。映像表示端末装置714には1番の映像718と4番の映像719が表示され、それぞれの映像に対応する音声ストリームのオーディオオブジェクトが718、719の位置に設定される。以上のように動作することで挿入する映像と音声のエリア制御、グループ制御が行われることでユーザ毎、エリア毎に固有な情報を効果的に提供することが可能になり、ユーザ体験が向上する。また、挿入する映像に関係する情報を、あらかじめ映像挿入装置604や、映像挿入装置604を経由して端末情報管理装置104やグループ管理装置602に登録しておくことで、ユーザの興味に関係がある映像、音声を挿入してもよい。また、挿入する映像、音声は映像ライブラリ116、音声ライブラリ119にあらかじめ蓄積されている映像、音声にかぎらず、映像サーバ101から送られてくる複合ストリームを利用した映像、音声にもとづいた映像、音声などの他の情報、一例として複合ストリームに含まれる映像、音声の一部を加工し、複合ストリームに含まれる特定の人物や構造物などの映像、音声を強調した映像、音声を挿入してもよい。
また、グループ化されている挿入映像について、ユーザはユーザ入力装置127を利用し、ネットワークサービスインターフェース603経由で映像挿入装置に604に働きかけることで挿入映像と挿入音声の挿入方法を変えてもよい。この動作の一例を、図10を使用して説明する。基地局装置1001に接続している映像表示端末装置1002と映像表示端末装置1003がグループ化されており、1番の挿入映像と2番の挿入映像がグループ内で共有されているものとする。映像表示端末装置1002では1番の映像を領域1004に、2番の映像を領域1005に表示し、映像表示端末装置1003では1番の映像を領域1006に、2番の映像を領域1007に表示し、それぞれの領域に1つのオーディオオブジェクトを設定して映像に対応する音声を再生しているものとする。この状態を図10(a)に示す。この状態で映像表示端末装置1002のユーザがユーザ入力装置を操作して領域1006に表示されている2番の映像の表示領域を領域1008で示される大きさに変更する。この変更情報は映像表示端末装置1002内のネットワークサービスインターフェース603を経由して映像挿入装置に送られ、映像表示端末装置1002と映像表示端末装置1003に対する挿入する映像と音声の設定を変更する。変更後の挿入映像の表示とオーディオオブジェクトの一例を図10(b)に示す。映像表示端末装置1002と映像表示端末装置1003に表示される2番の映像の表示領域はそれぞれ1009と1010に変更される。また、映像2番に対するオーディオオブジェクトの数を増やして2つとし、表示領域1009と1010の両端に位置するように設定する。これによりユーザにより操作された挿入映像であることが効果的にユーザに対して伝わり、ユー
ザ体験が向上する。
(全実施形態共通)
本発明に関わる装置で動作するプログラムは、本発明に関わる実施形態の機能を実現するように、Central Processing Unit(CPU)等を制御してコンピュータを機能させるプログラムであっても良い。プログラムあるいはプログラムによって取り扱われる情報は、一時的にRandom Access Memory(RAM)などの揮発性メモリあるいはフラッシュメモリなどの不揮発性メモリやHard Disk Drive(HDD)、あるいはその他の記憶装置システムに格納される。
尚、本発明に関わる実施形態の機能を実現するためのプログラムをコンピュータが読み取り可能な記録媒体に記録しても良い。この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。ここでいう「コンピュータシステム」とは、装置に内蔵されたコンピュータシステムであって、オペレーティングシステムや周辺機器等のハードウェアを含むものとする。また、「コンピュータが読み取り可能な記録媒体」とは、半導体記録媒体、光記録媒体、磁気記録媒体、短時間動的にプログラムを保持する媒体、あるいはコンピュータが読み取り可能なその他の記録媒体であっても良い。
また、上述した実施形態に用いた装置の各機能ブロック、または諸特徴は、電気回路、たとえば、集積回路あるいは複数の集積回路で実装または実行され得る。本明細書で述べられた機能を実行するように設計された電気回路は、汎用用途プロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはその他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタロジック、ディスクリートハードウェア部品、またはこれらを組み合わせたものを含んでよい。汎用用途プロセッサは、マイクロプロセッサであってもよいし、従来型のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンであっても良い。前述した電気回路は、デジタル回路で構成されていてもよいし、アナログ回路で構成されていてもよい。また、半導体技術の進歩により現在の集積回路に代替する集積回路化の技術が出現した場合、本発明の一または複数の態様は当該技術による新たな集積回路を用いることも可能である。
なお、本願発明は上述の実施形態に限定されるものではない。実施形態では、装置の一例を記載したが、本願発明は、これに限定されるものではなく、屋内外に設置される据え置き型、または非可動型の電子機器、たとえば、AV機器、オフィス機器、自動販売機、その他生活機器などの端末装置もしくは通信装置に適用出来る。
以上、この発明の実施形態に関して図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。また、本発明は、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。また、上記各実施形態に記載された要素であり、同様の効果を奏する要素同士を置換した構成も含まれる。
本発明は、映像挿入装置、映像表示端末装置に利用可能である。
101 映像サーバ
102 映像挿入装置
103 映像表示端末装置
104 端末情報管理装置
105 映像生成部
106 音声生成部
107、111 マルチプレクサ部
108、122 デマルチプレクサ部
109 映像合成部
110 音声合成部
112 端末インターフェース部
113 挿入映像ストリーム設定部
114 スケーラ/位置調整部
115 映像選択部
116 映像ライブラリ部
117 オーディオオブジェクト位置調整部
118 音声選択部
119 音声ライブラリ
120 ライブラリ更新部
123 映像表示部
124 音声再生部
125 ネットワークサービスインターフェース部
126 端末情報部
127 ユーザ入力装置
128 ネットワーク
201 オーディオオブジェクト
301図 映像表示端末装置
302 視聴位置
303−1、303−2 メインスピーカー
304−1、304−2 トップスピーカー
305−1〜304−4 サテライトスピーカー
401 映像挿入装置
404、405 マルチプレクサ部
406、407、408 デマルチプレクサ部
409 映像合成部
410 音声合成部
501,504,505 ゲートウェイ部
502 インターネット
503 ライブラリ用ネットワーク
511、514,515 映像挿入装置
506 コアネットワーク
507、508 コアネットワーク(サブネットワーク)
509、510、512,513 基地局装置
601 映像表示端末装置
602 グループ管理装置
603 端末インターフェース部
604 映像挿入装置
605 ネットワークサービスインターフェース部
701、711 コアネットワーク
702、712 基地局装置
703、704、713,714 映像表示端末装置
1001 基地局装置
1002、1003 映像表示端末装置

Claims (7)

  1. 映像と音声を含むストリームに、1以上の所定の映像と所定の音声を挿入し、映像表示端末装置に挿入後のストリームを送信する映像挿入装置であって、
    前記ストリームに含まれる映像の表示範囲の一部である1以上の表示領域に、挿入する前記所定の映像の大きさと位置を合わせるスケーリング処理部と、
    挿入する前記所定の映像に対応する所定の音声をオーディオオブジェクトに変換し、前記オーディオオブジェクトの設定位置を前記表示領域に設定するオーディオオブジェクト位置調整部と、
    を含むことを特徴とする映像挿入装置。
  2. 請求項1に記載の映像挿入装置であって、
    前記映像表示端末装置の端末情報を取得する端末インターフェース部をさらに備え、
    前記表示領域を、前記端末情報に基づいて設定することを特徴とする映像挿入装置。
  3. 請求項1に記載の映像挿入装置であって、
    前記挿入後のストリームの送信先である映像表示端末装置を、エリアに関する情報とユーザグループに関する情報の少なくともいずれかに基づいてグループ化し、前記グループ化した映像表示端末装置に対して前記所定の映像と前記所定の音声を挿入することを特徴とする映像挿入装置。
  4. 請求項3に記載の映像挿入装置であって、
    前記グループ化した映像表示端末装置に対して挿入した映像と音声に対し、少なくとも1つの挿入後のストリームを送信している前記映像表示端末装置から変更情報を受信したときに、前記複数のグループ化した映像表示端末装置に対して前記変更情報に基づいて前記表示領域と、前記所定の音声のオーディオオブジェクトの設定を変更することを特徴とする映像挿入装置。
  5. 映像と音声の情報を含むストリームを受信し、映像と音声の再生を行う映像表示端末装置であって、
    前記映像表示端末装置が備える映像表示部の大きさに関する情報と、
    前記映像表示部と視聴者の距離に関する情報を含めた端末情報を、映像挿入装置に送ることを特徴とする映像表示端末装置。
  6. 請求項5に記載の映像表示端末装置であって、
    前記端末情報に含める前記映像表示部の大きさの情報は、所定の種類に規格化されていることを特徴とする映像表示端末装置。
  7. 請求項5に記載の映像表示端末装置であって、
    ユーザ入力装置をさらに備え、
    前記映像挿入装置によって挿入された映像に対する操作が前記ユーザ入力装置から入力されたときに、前記映像に対応する変更情報を前記映像挿入装置に送信することを特徴とする映像表示端末装置。


JP2018067287A 2018-03-30 2018-03-30 映像挿入装置、映像表示端末装置 Pending JP2019179985A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018067287A JP2019179985A (ja) 2018-03-30 2018-03-30 映像挿入装置、映像表示端末装置
US17/041,925 US20210144419A1 (en) 2018-03-30 2019-03-07 Video insertion apparatus and video display terminal apparatus
PCT/JP2019/009107 WO2019188091A1 (ja) 2018-03-30 2019-03-07 映像挿入装置、映像表示端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018067287A JP2019179985A (ja) 2018-03-30 2018-03-30 映像挿入装置、映像表示端末装置

Publications (1)

Publication Number Publication Date
JP2019179985A true JP2019179985A (ja) 2019-10-17

Family

ID=68059944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018067287A Pending JP2019179985A (ja) 2018-03-30 2018-03-30 映像挿入装置、映像表示端末装置

Country Status (3)

Country Link
US (1) US20210144419A1 (ja)
JP (1) JP2019179985A (ja)
WO (1) WO2019188091A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3968643A1 (en) * 2020-09-11 2022-03-16 Nokia Technologies Oy Alignment control information for aligning audio and video playback

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008294591A (ja) * 2007-05-22 2008-12-04 Sharp Corp コンテンツデータ提供装置、及び、コンテンツ表示装置
JP2017139509A (ja) * 2014-06-23 2017-08-10 シャープ株式会社 表示装置及び表示システム
US10375448B2 (en) * 2015-06-30 2019-08-06 Sony Corporation Reception device, reception method, transmission device, and transmission method
EP3720135B1 (en) * 2015-12-18 2022-08-17 Sony Group Corporation Receiving device and receiving method for associating subtitle data with corresponding audio data

Also Published As

Publication number Publication date
WO2019188091A1 (ja) 2019-10-03
US20210144419A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
JP7251592B2 (ja) 情報処理装置、情報処理方法、およびプログラム
ES2871224T3 (es) Sistema y método para la generación, codificación e interpretación informática (o renderización) de señales de audio adaptativo
US11006181B2 (en) Method and apparatus for efficient delivery and usage of audio messages for high quality of experience
JP6992789B2 (ja) 再生装置および方法、並びにプログラム
JP2018532146A (ja) コーディングされたオーディオデータのトランスポート
WO2015182491A1 (ja) 情報処理装置および情報処理方法
KR101381396B1 (ko) 입체음향 조절기를 내포한 멀티 뷰어 영상 및 3d 입체음향 플레이어 시스템 및 그 방법
JP2012049836A (ja) 映像音声出力装置、および映像音声出力システム、およびマスタ装置
US11435977B2 (en) Method for transmitting and receiving audio data related to transition effect and device therefor
WO2015146647A1 (ja) 送信装置、送信方法、受信装置、受信方法、及び、プログラム
WO2019188091A1 (ja) 映像挿入装置、映像表示端末装置
Oldfield et al. An object-based audio system for interactive broadcasting
Mróz et al. A commonly-accessible toolchain for live streaming music events with higher-order ambisonic audio and 4k 360 vision
CN114827747B (zh) 一种流媒体数据切换方法、装置、设备及存储介质
Thomas et al. State‐of‐the‐Art and Challenges in Media Production, Broadcast and Delivery
US20230156421A1 (en) Virtual reality headset audio synchronisation system
JP7235590B2 (ja) 音声配信システム、配信サーバ、再生装置、及びプログラム
Batke et al. Spatial audio processing for interactive TV services
Kuwabara et al. Demonstration on Next-Generation Immersive Audio in a Live Broadcast Workflow
KR101810883B1 (ko) 라이브 스트리밍 시스템 및 그의 스트리밍 클라이언트
WO2024083525A1 (en) Video reproduction system and media reproduction system and method of synchronized reproducing of a video data stream of an audiovisual data stream and computer-readable storage medium
Kim et al. Requirements for developing ultra-realistic live streaming systems
CN114513698A (zh) 一种全景声播放系统及方法
Bauwens et al. ICoSOLE: Immersive coverage of spatially outspread live events
KR20160079339A (ko) 음향 서비스 제공 방법 및 시스템, 그리고 음향 전송 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180529