JP6473469B2 - Video distribution system - Google Patents

Video distribution system Download PDF

Info

Publication number
JP6473469B2
JP6473469B2 JP2017037638A JP2017037638A JP6473469B2 JP 6473469 B2 JP6473469 B2 JP 6473469B2 JP 2017037638 A JP2017037638 A JP 2017037638A JP 2017037638 A JP2017037638 A JP 2017037638A JP 6473469 B2 JP6473469 B2 JP 6473469B2
Authority
JP
Japan
Prior art keywords
video
distribution
input
unit
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017037638A
Other languages
Japanese (ja)
Other versions
JP2018142934A (en
Inventor
和秀 鬼頭
和秀 鬼頭
Original Assignee
株式会社ピクセラ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ピクセラ filed Critical 株式会社ピクセラ
Priority to JP2017037638A priority Critical patent/JP6473469B2/en
Publication of JP2018142934A publication Critical patent/JP2018142934A/en
Application granted granted Critical
Publication of JP6473469B2 publication Critical patent/JP6473469B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、複数の入力映像を一の映像領域内に配置して合成し、映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムに関するものである。   The present invention relates to a video distribution system including a distribution server and a viewer terminal for distributing and distributing a plurality of input videos in one video area and distributing the distribution video represented by the entire video area.

従来から、複数の入力映像を一の映像領域内に配置して合成し、映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムが知られている。   2. Description of the Related Art Conventionally, there is known a video distribution system including a distribution server and a viewer terminal that distribute and distribute a plurality of input videos arranged in one video area and distribute the distribution video represented by the entire video area.

例えば、非特許文献1及び2には、サーバにおいて複数の映像を1つの映像に結合して、ネットワークを介してクライアントへ配信する「fabric video(ファブリックビデオ)」(登録商標)という技術が開示されている。また、この技術に関連する技術として、特許文献1には、サーバにおいて、クライアントにおける視聴対象の映像領域を特定し、当該特定した映像領域に対応する伝送用のシングルストリームを、複数の映像ビットストリームから構成する技術が開示されている。   For example, Non-Patent Documents 1 and 2 disclose a technique called “fabric video (fabric video)” (registered trademark) in which a plurality of videos are combined into one video at a server and distributed to clients via a network. ing. As a technique related to this technique, Patent Document 1 discloses that a server specifies a video area to be viewed by a client in a server, and transmits a single stream for transmission corresponding to the specified video area as a plurality of video bitstreams. The technique which comprises is disclosed.

また、非特許文献1及び2には、サーバから受信した結合映像における各映像の配置やサイズを変更できることが開示されている。具体的には、クライアントからサーバへ、ネットワークを介して各映像の配置やサイズの変更を要求する。サーバでは、クライアントから各映像の配置やサイズの変更の要求がある度に、当該要求に従って各映像の再配置やサイズ変更を行って、伝送用の単一の映像を再生成し、再生成後の単一の映像をネットワークを介して配信(返信)することが開示されている。   Non-Patent Documents 1 and 2 disclose that the arrangement and size of each video in the combined video received from the server can be changed. Specifically, the arrangement and size change of each video is requested from the client to the server via the network. At the server, each time the client requests to change the arrangement or size of each video, the video is rearranged or resized according to the request to regenerate a single video for transmission. Is distributed (returned) via a network.

国際公開第2012/039404号International Publication No. 2012/039404

株式会社Gnzo、”fabric video”、[online]、[平成29年2月6日検索]、インターネット <URL:https://gnzo.com/fabricvideo/>Gnzo Co., Ltd., “fabric video”, [online], [February 6, 2017 search], Internet <URL: https: // gnzo. com / fabricvideo >> 株式会社キャンパスクリエイト、”「ファブリック・ビデオ」によるスポーツ映像・コンサート映像・イベント映像等の多視点ライブ映像サービス”、[online]、[平成29年2月6日検索]、インターネット <URL:http:// www.open−innovation−portal.com/corporate/it/post_2.html>Campus Create Co., Ltd., “Multi-view live video service such as sports video, concert video, event video, etc. by“ Fabric Video ”, [online], [Search February 6, 2017], Internet <URL: http: //Www.open-innovation-portal.com/corporate/it/post_2.html>

しかし、上記の従来技術では、例えばオリンピックの配信映像等、視聴者が非常に多い配信映像に対して、多くの視聴者が同時に複数の入力映像の表示領域の変更を要求した場合、サーバに多大な負荷がかかり、当該要求をした各視聴者端末において、複数の入力映像の表示領域が変更されるまでに多大な時間を要する虞がある。また、サーバに多大な負荷がかかると、入力映像の表示領域の変更を何ら要求していない視聴者端末においても、サーバから配信映像を受信するのに多大な時間を要し、配信映像の表示が中断される虞がある。   However, in the above-described conventional technology, when a large number of viewers simultaneously request a change in the display area of a plurality of input videos for a distribution video with a large number of viewers such as an Olympic distribution video, a large amount of data is sent to the server. Therefore, there is a possibility that it takes a long time until the display areas of a plurality of input videos are changed in each viewer terminal that makes the request. In addition, when a heavy load is applied to the server, a viewer terminal that does not request any change in the display area of the input video requires a long time to receive the distribution video from the server, and displays the distribution video. May be interrupted.

また、上記の従来技術を用いて、サーバで生成した配信映像をDVDやBD(ブルーレイディスク)等の記録媒体に記録し、当該記録媒体をクライアントへ提供することで、配信映像を配信することが考えられる。しかし、この場合、記録媒体に記録された配信映像を視聴した視聴者が、配信映像に含まれる複数の入力映像の表示領域の変更を望んだ場合、当該変更内容をサーバに通知する必要がある。サーバでは、当該変更内容に応じて複数の入力映像の表示領域を変更した配信映像を再生成し、当該再生成後の配信映像を記録媒体に記録する負担が生じる。また、当該再生成後の媒体を視聴者に提供するのに時間を要する。   In addition, using the above-described conventional technology, the distribution video generated by the server is recorded on a recording medium such as a DVD or a BD (Blu-ray Disc), and the distribution medium can be distributed to the client to distribute the distribution video. Conceivable. However, in this case, when the viewer who has viewed the distribution video recorded on the recording medium desires to change the display area of the plurality of input videos included in the distribution video, it is necessary to notify the server of the change contents. . In the server, there is a burden of regenerating the distribution video in which the display areas of the plurality of input videos are changed according to the change contents, and recording the regenerated distribution video on the recording medium. Further, it takes time to provide the regenerated media to the viewer.

本発明は、上記事情に鑑みてなされた発明であり、配信映像に含まれる複数の入力映像の視聴者端末における表示領域を、配信サーバに負担をかけることなく迅速に再編することができる映像配信システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and is a video distribution capable of quickly reorganizing a display area in a viewer terminal of a plurality of input videos included in a distribution video without placing a burden on the distribution server. The purpose is to provide a system.

本発明による映像配信システムは、複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、前記配信サーバは、前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、前記配信映像及び前記配信情報を配信する配信部と、を備え、前記視聴者端末は、所定の映像表示領域に映像を表示する表示部と、前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、を備え、前記設定部は、前記受付部が受け付けた前記編集操作で編集された前記表示領域によって、前記受付部による前記編集操作の受け付け前に設定した前記表示領域を更新し、前記表示領域の編集操作には、前記表示領域を削除する操作が含まれる。 The video distribution system according to the present invention is a video distribution system including a distribution server and a viewer terminal that distribute and distribute a plurality of input videos in one video area and distribute the distribution video represented by the entire video area. The distribution server stores a distribution unit including distribution information that defines an arrangement area of each of the plurality of input videos in the video area, and arranges each of the plurality of input videos. A viewer configured to generate and distribute the distribution video represented by the entire video region, and a distribution unit that distributes the distribution video and the distribution information; From the display unit that displays a video in a predetermined video display area, the acquisition unit that acquires the distribution video and the distribution information distributed by the distribution unit, and the distribution unit acquired by the acquisition unit, the acquisition unit Take An extraction unit that is arranged in the arrangement area indicated by the arrangement information included in the distribution information and that extracts and divides each of the plurality of input videos individually; and the plurality in the video display area A setting unit for setting each display area of the input video, and controlling the display unit to display each of the plurality of input videos extracted by the extraction unit in the display area set by the setting unit e Bei and a display control unit for the setting unit, by the display area that has been edited by the editing operation in which the receiving unit has received, the display area set before reception of the editing operation by the receiving unit The updating and editing operation of the display area includes an operation of deleting the display area.

本構成によれば、視聴者端末において配信サーバから取得した配信映像及び配信情報を用いて複数の入力映像が個別に分割されて抽出される。そして、抽出された複数の入力映像の其々が、視聴者端末が備える設定部によって設定された表示領域に表示される。このため、上記の従来技術とは異なり、配信映像に含まれる複数の入力映像の視聴者端末における表示領域を、配信サーバに負担をかけることなく、視聴者端末で設定した表示領域に迅速に再編することができる。
本構成によれば、視聴者による複数の入力映像其々の表示領域の編集操作が受け付けられた場合、当該編集操作で編集された表示領域によって、当該編集操作の受け付け前に設定されていた表示領域が更新される。このため、視聴者は、視聴者端末において、複数の入力映像其々の表示領域を編集操作することで、配信サーバに負担をかけることなく、複数の入力映像其々の表示領域を再編することができる。
本構成によれば、視聴者は、映像表示領域に表示されている入力映像の数が多すぎる場合等に表示領域を削除する操作を行って、当該表示領域に表示されている入力映像を非表示にすることができる。これにより、視聴者は、映像表示領域に表示されている、当該非表示にした入力映像とは異なる入力映像を視認し易くすることができる。
According to this configuration, a plurality of input videos are individually divided and extracted using the distribution video and distribution information acquired from the distribution server in the viewer terminal. Then, each of the extracted plurality of input videos is displayed in a display area set by a setting unit included in the viewer terminal. For this reason, unlike the above-described conventional technique, the display area of the plurality of input videos included in the distribution video is quickly reorganized into the display area set on the viewer terminal without imposing a burden on the distribution server. can do.
According to this configuration, when an editing operation of the display area of each of the plurality of input videos by the viewer is accepted, the display set before the editing operation is accepted by the display area edited by the editing operation. The area is updated. For this reason, the viewer can reorganize the display areas of the plurality of input videos without imposing a burden on the distribution server by editing the display areas of the plurality of input videos on the viewer terminal. Can do.
According to this configuration, the viewer performs an operation of deleting the display area when the number of input videos displayed in the video display area is too large, and the input video displayed in the display area is not displayed. Can be displayed. Thus, the viewer can easily view an input video that is displayed in the video display area and is different from the non-displayed input video.

また、前記配信情報は、前記表示領域の初期配置を定めた初期表示情報を更に含み、前記設定部は、前記取得部が取得した前記配信情報に含まれている前記初期表示情報が示す前記初期配置の通りに前記表示領域を設定してもよい。   The distribution information further includes initial display information that defines an initial arrangement of the display area, and the setting unit includes the initial display information indicated by the initial display information included in the distribution information acquired by the acquisition unit. The display area may be set according to the arrangement.

本構成によれば、取得部が配信サーバから取得した配信情報に含まれている初期表示情報が示す、複数の入力映像其々の表示領域の初期配置の通りに複数の入力映像其々の表示領域が設定される。このため、視聴者端末において、複数の入力映像其々の表示領域を個別に設定する手間を軽減することができる。   According to this configuration, the display unit displays each of the plurality of input videos according to the initial arrangement of the display areas of each of the plurality of input videos indicated by the initial display information included in the distribution information acquired from the distribution server by the acquisition unit. An area is set. For this reason, in a viewer terminal, the effort which sets each display area | region of several input image | video separately can be reduced.

また、前記表示領域の編集操作には、前記表示領域を拡大及び縮小する操作が含まれることが好ましい。   The editing operation for the display area preferably includes operations for enlarging and reducing the display area.

本構成によれば、視聴者は、表示領域を拡大又は縮小する操作を行って、当該表示領域に表示されている入力映像を視認し易いように拡大又は縮小させることができる。   According to this configuration, the viewer can perform an operation of enlarging or reducing the display area to enlarge or reduce the input video displayed in the display area so that it can be easily viewed.

また、前記表示領域の編集操作には、前記表示領域を移動する操作が含まれることが好ましい。   The display area editing operation preferably includes an operation of moving the display area.

本構成によれば、視聴者は、表示領域を移動する操作を行って、当該表示領域に表示されている入力映像を視認し易い位置に移動させることができる。   According to this configuration, the viewer can perform an operation of moving the display area to move the input video displayed in the display area to a position where it can be easily viewed.

また、本発明による映像配信システムは、複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、前記配信サーバは、前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、前記配信映像及び前記配信情報を配信する配信部と、を備え、前記視聴者端末は、所定の映像表示領域に映像を表示する表示部と、前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、視聴者が意図する前記映像表示領域の姿勢を検出する姿勢検出部と、を備え、前記複数の入力映像には、所定の撮影視点から全方位を撮影して得られた全方位映像が含まれ、前記表示制御部は、前記全方位映像に含まれている、前記撮影視点から前記姿勢検出部が検出した前記姿勢と同じ姿勢の平面に直交する方向を撮影方向として撮影して得られた仮想空間映像を、前記表示部を制御して、前記全方位映像の前記表示領域に表示させてもよい。 In addition, a video distribution system according to the present invention includes a distribution server and a viewer terminal that distribute and distribute a plurality of input videos in one video area and distribute the distribution video represented by the entire video area. The distribution server includes a storage unit that stores distribution information including arrangement information that defines an arrangement area of each of the plurality of input videos in the video area, and each of the plurality of input videos. A distribution unit configured to generate and distribute the distribution video represented by the entire video region, and a distribution unit to distribute the distribution video and the distribution information, The person terminal includes a display unit that displays video in a predetermined video display area, an acquisition unit that acquires the distribution video and the distribution information distributed by the distribution unit, and the distribution video acquired by the acquisition unit, Get In the video display area, an extraction unit that is arranged in the arrangement area indicated by the arrangement information included in the distribution information acquired by each of the plurality of input videos and separately extracts the input video, A setting unit that sets each display region of the plurality of input videos, and the display region that the setting unit sets each of the plurality of input videos extracted by the extraction unit by controlling the display unit A display control unit to be displayed on the screen, and a posture detection unit that detects the posture of the video display area intended by the viewer, and the plurality of input videos are obtained by shooting all directions from a predetermined shooting viewpoint. contains the omnidirectional image which is, before Symbol display control unit, taking a direction perpendicular said included in the omnidirectional image, the plane of the same position as the position where the posture detecting section detects from the shooting viewpoint Virtual obtained by shooting as a direction Between images, and it controls the display unit, the may be displayed on the display area of the omnidirectional image.

本構成によれば、全方位映像の表示領域には、全方位映像に含まれている、所定の撮影視点から視聴者が意図する映像表示領域の姿勢と同じ姿勢の平面に直交する方向を撮影方向として撮影して得られた仮想空間映像が表示される。このため、視聴者は、全方位映像の撮影場所において、頭部の姿勢を映像表示領域の姿勢と同様に変化させた場合に視認する映像と同様の映像を、全方位映像の表示領域において視認することができる。   According to this configuration, the omnidirectional video display area is captured in a direction orthogonal to a plane having the same posture as the posture of the video display region intended by the viewer from a predetermined shooting viewpoint included in the omnidirectional video. A virtual space image obtained by shooting as a direction is displayed. For this reason, the viewer visually recognizes in the omnidirectional video display area the same video as the video viewed when the head posture is changed in the same manner as the video display area at the omnidirectional video shooting location. can do.

また、本発明による映像配信システムは、複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、前記配信サーバは、前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、前記配信映像及び前記配信情報を配信する配信部と、を備え、前記視聴者端末は、所定の映像表示領域に映像を表示する表示部と、前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、前記設定部によって、前記表示領域を、前記映像表示領域の姿勢の変化に応じて移動させるか否かの選択を受け付ける選択部と、を備えてもよい。 In addition, a video distribution system according to the present invention includes a distribution server and a viewer terminal that distribute and distribute a plurality of input videos in one video area and distribute the distribution video represented by the entire video area. The distribution server includes a storage unit that stores distribution information including arrangement information that defines an arrangement area of each of the plurality of input videos in the video area, and each of the plurality of input videos. A distribution unit configured to generate and distribute the distribution video represented by the entire video region, and a distribution unit to distribute the distribution video and the distribution information, The person terminal includes a display unit that displays video in a predetermined video display area, an acquisition unit that acquires the distribution video and the distribution information distributed by the distribution unit, and the distribution video acquired by the acquisition unit, Get In the video display area, an extraction unit that is arranged in the arrangement area indicated by the arrangement information included in the distribution information acquired by each of the plurality of input videos and separately extracts the input video, A setting unit that sets each display region of the plurality of input videos, and the display region that the setting unit sets each of the plurality of input videos extracted by the extraction unit by controlling the display unit a display control unit for displaying on, by the setting unit, the display area, a selection unit for receiving a selection of whether to move in accordance with a change in the orientation of the image display area, may be provided.

本構成によれば、映像表示領域の姿勢の変化に応じて、複数の入力映像の其々の表示領域を移動させるか否かを適宜選択することができる。   According to this configuration, it is possible to appropriately select whether or not to move each display area of the plurality of input videos in accordance with a change in the attitude of the video display area.

また、本発明による映像配信システムは、複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、前記配信サーバは、前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、前記配信映像及び前記配信情報を配信する配信部と、を備え、前記視聴者端末は、所定の映像表示領域に映像を表示する表示部と、前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、を備え、前記配信情報は、前記複数の入力映像の其々が選択された場合に適用するアニメーション効果とその適用先の入力映像とを定めたアニメーション情報を更に含み、前記視聴者端末は、視聴者による前記複数の入力映像に含まれている一の入力映像の選択を受け付ける映像選択部と、前記映像選択部によって前記一の入力映像の選択が受け付けられた場合に、前記取得部が取得した前記配信情報に含まれている前記アニメーション情報が示す通りに、前記一の入力映像が選択された場合に適用する前記アニメーション効果を、前記適用先の入力映像に適用する適用部と、を更に備えてもよい。 In addition, a video distribution system according to the present invention includes a distribution server and a viewer terminal that distribute and distribute a plurality of input videos in one video area and distribute the distribution video represented by the entire video area. The distribution server includes a storage unit that stores distribution information including arrangement information that defines an arrangement area of each of the plurality of input videos in the video area, and each of the plurality of input videos. A distribution unit configured to generate and distribute the distribution video represented by the entire video region, and a distribution unit to distribute the distribution video and the distribution information, The person terminal includes a display unit that displays video in a predetermined video display area, an acquisition unit that acquires the distribution video and the distribution information distributed by the distribution unit, and the distribution video acquired by the acquisition unit, Get In the video display area, an extraction unit that is arranged in the arrangement area indicated by the arrangement information included in the distribution information acquired by each of the plurality of input videos and separately extracts the input video, A setting unit that sets each display region of the plurality of input videos, and the display region that the setting unit sets each of the plurality of input videos extracted by the extraction unit by controlling the display unit And the distribution information further includes animation information defining an animation effect to be applied when each of the plurality of input videos is selected and an input video to which the distribution is applied. The viewer terminal receives a selection of one input video included in the plurality of input videos by the viewer, and the selection of the one input video is received by the video selection unit. In this case, as indicated by the animation information included in the distribution information acquired by the acquisition unit, the animation effect applied when the one input video is selected is applied to the input video of the application destination. And an application unit to be applied.

本構成によれば、視聴者により一の入力映像が選択された場合に、配信情報に含まれるアニメーション情報が示す通りに、アニメーション効果が所定の適用先の入力映像に適用される。このため、視聴者は、一の入力映像を選択するだけで、前記適用先の入力映像をインタラクティブに動作させることができる。   According to this configuration, when one input video is selected by the viewer, the animation effect is applied to the input video of a predetermined application destination as indicated by the animation information included in the distribution information. For this reason, the viewer can interactively operate the input video of the application destination only by selecting one input video.

また、本発明による映像配信システムは、複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、前記配信サーバは、前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、前記配信映像及び前記配信情報を配信する配信部と、を備え、前記視聴者端末は、所定の映像表示領域に映像を表示する表示部と、前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、を備え、前記配信情報は、前記配信映像の表示中に再生され得る一以上の入力音声の其々を記録する音声記録領域を定めた音声記録情報と、前記一以上の入力音声の其々の再生方法を定めた再生情報と、を更に含み、前記生成部は、更に、前記一以上の入力音声の其々を前記音声記録情報が示す前記音声記録領域に記録して、前記一以上の入力音声の其々が記録された前記音声記録領域を有する一の配信音声を生成し、前記配信部は、更に、前記配信音声を配信し、前記取得部は、更に、前記配信音声を取得し、前記抽出部は、更に、前記取得部が取得した前記配信音声から、前記取得部が取得した前記配信情報に含まれている前記音声記録情報が示す前記音声記録領域に記録されている、前記一以上の入力音声の其々を個別に分割して抽出し、前記視聴者端末は、前記抽出部が抽出した前記一以上の入力音声の其々を、前記取得部が取得した前記配信情報に含まれている前記再生情報が示す前記再生方法で再生する再生部を更に備え、前記配信情報において、前記一以上の入力音声の其々は、前記複数の入力映像のうちの一の入力映像に対応付けられ、前記再生方法には、前記一以上の入力音声のうちの第一の入力音声に対応付けられた第一の入力映像が前記映像表示領域に表示された場合に、前記第一の入力音声を再生する第一再生方法が含まれてもよい。 In addition, a video distribution system according to the present invention includes a distribution server and a viewer terminal that distribute and distribute a plurality of input videos in one video area and distribute the distribution video represented by the entire video area. The distribution server includes a storage unit that stores distribution information including arrangement information that defines an arrangement area of each of the plurality of input videos in the video area, and each of the plurality of input videos. A distribution unit configured to generate and distribute the distribution video represented by the entire video region, and a distribution unit to distribute the distribution video and the distribution information, The person terminal includes a display unit that displays video in a predetermined video display area, an acquisition unit that acquires the distribution video and the distribution information distributed by the distribution unit, and the distribution video acquired by the acquisition unit, Get In the video display area, an extraction unit that is arranged in the arrangement area indicated by the arrangement information included in the distribution information acquired by each of the plurality of input videos and separately extracts the input video, A setting unit that sets each display region of the plurality of input videos, and the display region that the setting unit sets each of the plurality of input videos extracted by the extraction unit by controlling the display unit A display control unit for displaying the distribution information , wherein the distribution information includes audio recording information defining an audio recording area for recording each of one or more input sounds that can be reproduced during display of the distribution video; Reproduction information defining respective reproduction methods of the input voices, and the generation unit further records each of the one or more input voices in the voice recording area indicated by the voice recording information. And each of the one or more input voices One distribution sound having the recorded sound recording area is generated, the distribution unit further distributes the distribution sound, the acquisition unit further acquires the distribution sound, and the extraction unit includes: Further, the one or more input voices recorded in the voice recording area indicated by the voice recording information included in the delivery information acquired by the acquisition unit from the distribution voice acquired by the acquisition unit. The viewer terminal divides and extracts each of them, and the viewer terminal reproduces each of the one or more input sounds extracted by the extraction unit in the distribution information acquired by the acquisition unit A playback unit that plays back the playback method indicated by the information; and in the distribution information, each of the one or more input sounds is associated with one input video of the plurality of input videos, and the playback The method includes the one or more input voices A first reproduction method for reproducing the first input sound when a first input image associated with the first input sound is displayed in the image display area may be included .

本構成によれば、視聴者端末において配信サーバから取得した配信音声及び配信情報を用いて、配信映像の表示中に再生され得る一以上の入力音声が個別に分割されて抽出される。そして、抽出された一以上の入力音声の其々が、配信情報に含まれている再生情報が示す再生方法で再生される。このため、一以上の入力音声の其々を、配信サーバに負担をかけることなく、各入力音声固有の再生方法で再生することができる。   According to this configuration, one or more input sounds that can be reproduced during display of the distribution video are individually divided and extracted using the distribution sound and distribution information acquired from the distribution server in the viewer terminal. Then, each of the extracted one or more input voices is reproduced by the reproduction method indicated by the reproduction information included in the distribution information. For this reason, each of the one or more input voices can be reproduced by a reproduction method specific to each input voice without imposing a burden on the distribution server.

本構成によれば、再生情報によって第一再生方法で再生することが定められた第一の入力音声が、第一の入力音声に対応付けられた第一の入力映像が映像表示領域に表示された場合に再生される。   According to this configuration, the first input video that is determined to be played by the first playback method according to the playback information is displayed in the video display area. If it is played.

このため、例えば、映像表示領域に背景として表示される入力映像が配信映像に含まれている場合、当該入力映像に対応付けられた入力音声を第一再生方法で再生することを定めた再生情報を配信情報に含めることで、当該入力音声を、前記入力映像が背景として表示されている場合に再生することができる。   For this reason, for example, when an input video displayed as a background in the video display area is included in the distribution video, playback information that determines that the input audio associated with the input video is played back by the first playback method Is included in the distribution information, the input sound can be reproduced when the input video is displayed as a background.

また、前記視聴者端末は、視聴者による前記複数の入力映像に含まれている一の入力映像の選択を受け付ける映像選択部を含み、前記再生方法には、前記一以上の入力音声のうちの第二の入力音声に対応付けられた第二の入力映像の選択が前記映像選択部によって受け付けられた場合に、前記第二の入力音声を所定の第一音量で再生し、前記一以上の入力音声のうち、前記再生情報において前記第一再生方法で再生することが定められた入力音声を、前記第一音量よりも小さい第二音量で再生する第二再生方法が含まれてもよい。   In addition, the viewer terminal includes a video selection unit that accepts selection of one input video included in the plurality of input videos by the viewer, and the playback method includes the one of the one or more input sounds. When the selection of the second input video associated with the second input audio is accepted by the video selection unit, the second input audio is reproduced at a predetermined first volume, and the one or more inputs A second playback method may be included in which, among the voices, the input voice that is determined to be played back by the first playback method in the playback information is played back at a second volume lower than the first volume.

本構成によれば、再生情報によって第二再生方法で再生することが定められた第二の入力音声に対応付けられた第二の入力映像が視聴者により選択された場合に、第二の入力音声が第一音量で再生される。また、再生情報において第一再生方法で再生することが定められた入力音声が、第一音量よりも小さい第二音量で再生される。   According to this configuration, when the second input video associated with the second input audio that is determined to be played by the second playback method according to the playback information is selected by the viewer, the second input Audio is played at the first volume. In addition, the input sound that is determined to be reproduced by the first reproduction method in the reproduction information is reproduced at a second volume that is smaller than the first volume.

このため、例えば、背景として表示される第一の入力映像とこれに重畳して表示される第二の入力映像とが配信映像に含まれる場合に、第一の入力映像に対応付けられた第一の入力音声を第一再生方法で再生することを定め、第二の入力映像に対応付けられた第二の入力音声を第二再生方法で再生することを定めた再生情報を配信情報に含めることができる。   Thus, for example, when the first input video displayed as the background and the second input video displayed superimposed on the first input video are included in the distribution video, the first input video associated with the first input video is displayed. The distribution information includes reproduction information that defines that one input sound is reproduced by the first reproduction method, and that the second input sound associated with the second input video is reproduced by the second reproduction method. be able to.

これにより、視聴者は、第一の入力映像が背景として表示されている場合に、第一の入力音声を聞くことができる。その後、視聴者は、第二の入力映像を選択することで、第一の入力音声よりも大きい音量で第二の入力音声を再生させ、第二の入力音声を第一の入力音声よりも聞き易くすることができる。   Accordingly, the viewer can hear the first input sound when the first input video is displayed as the background. After that, the viewer selects the second input video to play the second input sound at a volume higher than the first input sound, and listens to the second input sound from the first input sound. Can be made easier.

また、前記視聴者端末は、視聴者による前記複数の入力映像に含まれている一の入力映像の選択を受け付ける映像選択部を含み、前記再生方法には、前記一以上の入力音声のうちの第三の入力音声に対応付けられた第三の入力映像の選択が前記映像選択部によって受け付けられた場合に、前記第三の入力音声のみを再生する第三再生方法が含まれてもよい。   In addition, the viewer terminal includes a video selection unit that accepts selection of one input video included in the plurality of input videos by the viewer, and the playback method includes the one of the one or more input sounds. When the selection of the third input video associated with the third input audio is accepted by the video selection unit, a third reproduction method for reproducing only the third input audio may be included.

本構成によれば、再生情報によって第三再生方法で再生することが定められた第三の入力音声に対応付けられた第三の入力映像が視聴者により選択された場合に、第三の入力音声のみが再生される。   According to this configuration, when the third input video associated with the third input sound that is determined to be played by the third playback method according to the playback information is selected by the viewer, the third input Only audio is played.

このため、例えば、背景として表示される第一の入力映像とこれに重畳して表示される第三の入力映像とが配信映像に含まれる場合に、第一の入力映像に対応付けられた第一の入力音声を第一再生方法で再生することを定め、第三の入力映像に対応付けられた第三の入力音声を第三再生方法で再生することを定めた再生情報を配信情報に含めることができる。   Thus, for example, when the first input video displayed as the background and the third input video displayed superimposed on the first input video are included in the distribution video, the first input video associated with the first input video is displayed. The distribution information includes reproduction information that defines that one input sound is reproduced by the first reproduction method, and that the third input sound associated with the third input video is reproduced by the third reproduction method. be able to.

これにより、視聴者は、第一の入力映像が背景として表示されている場合に、第一の入力音声を聞くことができる。その後、視聴者は、第三の入力映像を選択することで、第三の入力音声のみを再生させ、第三の入力音声を注力して聞くことができる。   Accordingly, the viewer can hear the first input sound when the first input video is displayed as the background. Thereafter, the viewer can reproduce only the third input sound by selecting the third input video, and can listen to the third input sound with focus.

また、前記視聴者端末は、前記映像表示領域における前記視聴者の視点を検出する視点検出部を更に備え、前記映像選択部は、前記視点検出部によって検出された前記視点が前記表示領域に存在する場合に、当該表示領域に表示されている前記入力映像の選択を受け付けてもよい。   The viewer terminal further includes a viewpoint detection unit that detects the viewer's viewpoint in the video display area, and the video selection unit includes the viewpoint detected by the viewpoint detection unit in the display area. In this case, the selection of the input video displayed in the display area may be accepted.

本構成によれば、視聴者は、入力映像が表示されている表示領域に視点を移動させるだけで、当該入力映像を容易に選択することができる。   According to this configuration, the viewer can easily select the input video only by moving the viewpoint to the display area where the input video is displayed.

本発明によれば、配信映像に含まれる複数の入力映像の視聴者端末における表示領域を、配信サーバに負担をかけることなく迅速に再編することができる映像配信システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the video delivery system which can reorganize rapidly the display area in the viewer terminal of the several input video contained in a delivery video, without putting a burden on a delivery server can be provided.

本発明の第一実施形態に係る映像配信システムの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the video delivery system which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係る配信情報の一例を示す図である。It is a figure which shows an example of the delivery information which concerns on 1st embodiment of this invention. 配信映像の一例を示す図である。It is a figure which shows an example of a delivery image | video. 映像表示領域における複数の入力映像の其々の表示領域の初期配置の一例を示す図である。It is a figure which shows an example of the initial arrangement | positioning of each display area of the some input video | video in a video display area. 表示領域を縮小した場合の一例を示す図である。It is a figure which shows an example at the time of reducing a display area. 表示領域を移動、削除及び拡大した場合の一例を示す図である。It is a figure which shows an example at the time of moving, deleting, and enlarging a display area. 映像表示領域の姿勢に応じた仮想空間映像及び一方位映像の表示例を示す図であり、(A)は、映像表示領域の姿勢の変化前の表示例を示す図であり、(B)は、映像表示領域の姿勢の変化後の表示例を示す図であり、(C)は、映像表示領域の姿勢の変化後の(B)とは異なる表示例を示す図である。It is a figure which shows the example of a display of the virtual space image | video according to the attitude | position of an image | video display area, and a one-sided image, (A) is a figure which shows the example of a display before the attitude | position of an image display area changes, (B) FIG. 6C is a diagram showing a display example after the change of the posture of the video display region, and FIG. 6C is a diagram showing a display example different from (B) after the change of the posture of the video display region. 配信サーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a delivery server. 視聴者端末における配信映像の初期表示の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the initial display of the delivery image | video in a viewer terminal. 視聴者端末における配信映像の初期表示後の動作を示すフローチャートである。It is a flowchart which shows the operation | movement after the initial display of the delivery image | video in a viewer terminal. 本発明の第二実施形態に係る映像配信システムの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the video delivery system which concerns on 2nd embodiment of this invention. 配信音声の構成の一例を示す図である。It is a figure which shows an example of a structure of a delivery audio | voice. 本発明の第二実施形態に係る配信情報の一例を示す図である。It is a figure which shows an example of the delivery information which concerns on 2nd embodiment of this invention.

(第一実施形態)
以下、本発明の第一実施形態に係る映像配信システムについて図面に基づいて説明する。図1は、本発明の第一実施形態に係る映像配信システム100の機能構成の一例を示すブロック図である。
(First embodiment)
Hereinafter, a video distribution system according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of a functional configuration of a video distribution system 100 according to the first embodiment of the present invention.

(映像配信システム100の構成)
図1に示すように、映像配信システム100は、配信サーバ1と視聴者端末2とを備えている。配信サーバ1と視聴者端末2とは、LANやインターネットや放送データ網等の不図示のネットワークを介して通信可能に接続されている。
(Configuration of video distribution system 100)
As shown in FIG. 1, the video distribution system 100 includes a distribution server 1 and a viewer terminal 2. The distribution server 1 and the viewer terminal 2 are communicably connected via a network (not shown) such as a LAN, the Internet, or a broadcast data network.

(配信サーバ1の構成)
配信サーバ1は、複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する。具体的には、配信サーバ1は、複数の映像出力部11と、記憶部12と、生成部13と、配信部14と、を備えている。
(Configuration of distribution server 1)
The distribution server 1 arranges and synthesizes a plurality of input videos in one video area, and distributes the distribution video represented by the entire video area. Specifically, the distribution server 1 includes a plurality of video output units 11, a storage unit 12, a generation unit 13, and a distribution unit 14.

映像出力部11は、静止画や動画等の映像を表す映像データを生成部13へ出力する。具体的には、映像出力部11は、所定の一方位を撮影して得られた静止画や動画(以降、一方位映像と記載する)を表す映像データを出力するカメラや、所定の撮影視点から全方位を撮影して得られた静止画や動画(以降、全方位映像と記載する)を表す映像データを出力する全方位カメラ(360度カメラ)や、テロップやロゴ等の静止画やアニメーション等の動画の編集操作が可能であり、且つ、編集した静止画や動画を表す映像データを出力可能なパソコン等の映像編集装置等で構成される。以降、生成部13に入力される、映像出力部11が出力した映像データが表す映像を入力映像と記載する。   The video output unit 11 outputs video data representing a video such as a still image or a moving image to the generation unit 13. Specifically, the video output unit 11 is a camera that outputs video data representing a still image or a moving image (hereinafter referred to as a one-sided video) obtained by shooting a predetermined one direction, or a predetermined shooting viewpoint. Omnidirectional camera (360-degree camera) that outputs video data representing still images and moving images (hereinafter referred to as omnidirectional video) obtained by shooting omnidirectional images, and still images and animations such as telops and logos The video editing apparatus such as a personal computer that can output video data representing the edited still image or moving image is possible. Hereinafter, the video represented by the video data output from the video output unit 11 and input to the generation unit 13 is referred to as an input video.

記憶部12は、配信映像に関連する配信情報を記憶する。具体的には、記憶部12は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置で構成される。   The storage unit 12 stores distribution information related to the distribution video. Specifically, the storage unit 12 includes a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

配信情報には、配信映像の識別情報、タイトル及びURLが含まれる。配信情報には、更に、配信映像に含まれる複数の入力映像のぞれぞれの識別情報や、複数の入力映像の其々に関連する映像区分情報、配置情報、初期表示情報、アニメーション情報及び領域追従情報等が含まれる。   The distribution information includes distribution video identification information, a title, and a URL. The distribution information further includes identification information of each of the plurality of input videos included in the distribution video, video classification information, arrangement information, initial display information, animation information and the like related to each of the plurality of input videos. Area follow-up information and the like are included.

映像区分情報とは、複数の入力映像の其々が、背景映像であるか、サブ映像であるかを示す情報である。背景映像とは、視聴者端末2に設けられた映像を表示するための所定の映像表示領域全体に、背景として表示される映像である。サブ映像とは、前記映像表示領域内の一部の領域に表示される映像である。   Video segment information is information indicating whether each of a plurality of input videos is a background video or a sub video. The background video is a video displayed as a background in the entire predetermined video display area for displaying the video provided in the viewer terminal 2. The sub video is a video displayed in a part of the video display area.

配置情報とは、前記映像領域における複数の入力映像の其々の配置領域を定めた情報である。初期表示情報とは、前記映像表示領域における複数の入力映像の其々の表示領域の初期配置を定めた情報である。   The arrangement information is information that defines each arrangement area of a plurality of input videos in the video area. The initial display information is information that defines an initial arrangement of display areas of a plurality of input videos in the video display area.

アニメーション情報とは、複数の入力映像の其々が選択された場合に適用するアニメーション効果とその適用先の入力映像とを定めた情報である。領域追従情報とは、複数の入力映像の其々の表示領域を、前記映像表示領域の姿勢の変化に応じて移動させるか否かを定めた情報である。   The animation information is information that defines an animation effect to be applied when each of a plurality of input videos is selected and an input video of the application destination. The area following information is information that determines whether or not to move each display area of a plurality of input videos in accordance with a change in the attitude of the video display area.

図2は、本発明の第一実施形態に係る配信情報PFの一例を示す図である。図3は、配信映像Vの一例を示す図である。例えば、記憶部12は、図3に示す配信映像Vに関連する、図2に示す配信情報PFを記憶しているものとする。配信映像Vは、図3に示すように、4個の入力映像VB、V1、V2、V3を映像領域VA内に配置して合成することで生成される、映像領域VA全体が表す映像であるものとする。入力映像VBは、全方位カメラによって所定の撮影視点から全方位を撮影して得られた動画を表す全方位映像であるものとする。ただし、図3には、前記全方位映像に含まれている、撮影視点から所定方向を撮影方向として撮影して得られた動画の一時点を表す仮想空間映像を、入力映像VBとして図示している。入力映像V1、V2、V3は、所定の一方位を撮影して得られた動画を表す一方位映像であるものとする。尚、図3に示す配信映像Vは、例示に過ぎない。例えば、背景映像としての入力映像(図3では入力映像VB)は、風景画や一色の画像等の静止画であってもよい。また、サブ映像としての入力映像(図3では入力映像V1、V2、V3)は、テロップやロゴ等の静止画であってもよい。   FIG. 2 is a diagram showing an example of the distribution information PF according to the first embodiment of the present invention. FIG. 3 is a diagram illustrating an example of the distribution video V. For example, it is assumed that the storage unit 12 stores the distribution information PF illustrated in FIG. 2 related to the distribution video V illustrated in FIG. As shown in FIG. 3, the distribution video V is a video representing the entire video area VA generated by arranging and synthesizing four input videos VB, V1, V2, and V3 in the video area VA. Shall. The input video VB is assumed to be an omnidirectional video representing a moving image obtained by shooting an omnidirectional image from a predetermined shooting viewpoint with an omnidirectional camera. However, in FIG. 3, a virtual space image that represents a point in time of a moving image obtained by shooting from a shooting viewpoint with a predetermined direction as a shooting direction included in the omnidirectional video is illustrated as an input video VB. Yes. Assume that the input videos V1, V2, and V3 are one-sided videos representing moving images obtained by photographing a predetermined direction. Note that the distribution video V shown in FIG. 3 is merely an example. For example, the input video (the input video VB in FIG. 3) as the background video may be a still image such as a landscape image or a single color image. Further, the input video as the sub video (input video V1, V2, V3 in FIG. 3) may be a still image such as a telop or a logo.

上述のように、配信映像Vが図3に示すように構成される場合、図2に示すように、配信情報PFには、配信映像Vの識別情報「V」、タイトル「猫目線の映像」及びURL「http:*****」が含まれる。   As described above, when the distribution video V is configured as shown in FIG. 3, as shown in FIG. 2, the distribution information PF includes the identification information “V” of the distribution video V and the title “video of the cat's eye”. And the URL “http: ***”.

配信情報PFには、配信映像Vに含まれる四個の入力映像VB、V1、V2、V3のぞれぞれの識別情報「VB」、「V1」、「V2」、「V3」が含まれている。配信情報PFには、四個の入力映像VB、V1、V2、V3の其々の映像区分情報「背景映像」、「サブ映像」、「サブ映像」、「サブ映像」が含まれる。つまり、入力映像VBは背景映像であり、三個の入力映像V1、V2、V3はサブ映像であることが定められている。   The distribution information PF includes identification information “VB”, “V1”, “V2”, and “V3” for each of the four input videos VB, V1, V2, and V3 included in the distribution video V. ing. The distribution information PF includes video segment information “background video”, “sub video”, “sub video”, and “sub video” of the four input videos VB, V1, V2, and V3. That is, it is determined that the input video VB is a background video and the three input videos V1, V2, and V3 are sub-videos.

配信情報PFには、図2の破線部に示すように、映像領域VA(図3)における四個の入力映像VB、V1、V2、V3のぞれぞれの配置領域PAB、PA1、PA2、PA3(図3)を定めた配置情報が含まれる。以降、映像領域VAにおける複数の入力映像の其々の配置領域を総称する場合、配置領域PAと記載する。   In the distribution information PF, as shown by the broken line portion in FIG. 2, the arrangement areas PAB, PA1, PA2, and the four input videos VB, V1, V2, and V3 in the video area VA (FIG. 3) Arrangement information defining PA3 (FIG. 3) is included. Hereinafter, the arrangement areas of a plurality of input videos in the video area VA are collectively referred to as arrangement areas PA.

例えば、配置領域PAは、映像領域VA(図3)の左上隅を基準点とし、映像領域VA(図3)における水平方向の位置をX座標で示し、映像領域VA(図3)における垂直方向の位置をY座標で示す二次元座標を用いて定められている。   For example, the arrangement area PA has the upper left corner of the video area VA (FIG. 3) as a reference point, the horizontal position in the video area VA (FIG. 3) is indicated by the X coordinate, and the vertical direction in the video area VA (FIG. 3). Is determined using a two-dimensional coordinate indicating the position of Y.

具体的には、映像領域VA(図3)における各入力映像(例:入力映像VB)の配置領域PA(例:配置領域PAB)は、各入力映像の左上隅の配置位置を示す前記二次元座標「clipX、clipY」(例:0、0)と、映像領域VAの水平方向の長さ(以降、水平方向の長さを幅と記載する)に対する各入力映像の幅の比率「clipW」(例:10000(100.00%))と、映像領域VAの垂直方向の長さ(以降、垂直方向の長さを高さと記載する)に対する各入力映像の高さの比率「clipH」(例:6667(66.67%))と、によって定められている。   Specifically, the placement area PA (eg, placement area PAB) of each input video (eg, input video VB) in the video area VA (FIG. 3) is the two-dimensional display indicating the placement position of the upper left corner of each input video. The ratio of the width of each input video to the coordinates “clipX, clipY” (eg, 0, 0) and the horizontal length of the video area VA (hereinafter, the horizontal length is referred to as the width) “clipW” ( (Example: 10000 (100.00%)) and the ratio of the height of each input video to the vertical length of the video area VA (hereinafter, the length in the vertical direction is referred to as height) “clipH” (example: 6667 (66.67%)).

図4は、映像表示領域VDAにおける複数の入力映像VB、V1、V2、V3の其々の表示領域DAB、DA1、DA2、DA3の初期配置の一例を示す図である。配信情報PFには、図2の二点鎖線部に示すように、視聴者端末2の映像表示領域VDA(図4)における三個の入力映像V1、V2、V3の其々の表示領域DA1、DA2、DA3(図4)の初期配置を定めた初期表示情報が含まれている。尚、図3と同様、図4においても、全方位映像に含まれている、全方位カメラによって撮影視点から所定方向を撮影方向として撮影して得られた仮想空間映像を、入力映像VBとして図示している。   FIG. 4 is a diagram illustrating an example of an initial arrangement of the display areas DAB, DA1, DA2, and DA3 of the plurality of input videos VB, V1, V2, and V3 in the video display area VDA. In the distribution information PF, as shown in the two-dot chain line portion of FIG. 2, the display areas DA1 of the three input videos V1, V2, and V3 in the video display area VDA (FIG. 4) of the viewer terminal 2, Initial display information defining the initial arrangement of DA2 and DA3 (FIG. 4) is included. Similar to FIG. 3, in FIG. 4, a virtual space image, which is included in the omnidirectional video and is obtained by photographing with the omnidirectional camera as the photographing direction from the photographing viewpoint, is illustrated as the input video VB. Show.

また、上述のように、入力映像VBは、背景映像として定められており、映像表示領域VDA(図4)全体に表示される。つまり、映像表示領域VDAにおける入力映像VBの表示領域DAB(図4)は、映像表示領域VDA(図4)全体であることは明らかである。このため、図2に示す初期表示情報では、映像表示領域VDAにおける入力映像VBの表示領域の初期配置の定義が省略されている。しかし、初期表示情報において、サブ映像と同様に、映像表示領域VDAを、背景映像である入力映像VBの表示領域の初期配置として定めてもよい。以降、映像表示領域VDA(図4)における複数の入力映像の其々の表示領域を総称する場合、表示領域DAと記載する。   Further, as described above, the input video VB is defined as a background video and is displayed on the entire video display area VDA (FIG. 4). That is, it is clear that the display area DAB (FIG. 4) of the input video VB in the video display area VDA is the entire video display area VDA (FIG. 4). For this reason, in the initial display information shown in FIG. 2, the definition of the initial arrangement of the display area of the input video VB in the video display area VDA is omitted. However, in the initial display information, the video display area VDA may be defined as the initial arrangement of the display area of the input video VB, which is the background video, like the sub video. Hereinafter, the display areas of a plurality of input videos in the video display area VDA (FIG. 4) are collectively referred to as the display area DA.

表示領域DAは、全方位映像のうち、所定の撮影視点から所定方向を撮影方向として撮影して得られた仮想空間映像を、平面状のディスプレイ(スクリーン)に表示する場合に一般的に用いられる、視点座標系等の三次元座標を用いて定められている。しかし、これに限らず、表示領域DAは、配置領域PAと同様に、映像表示領域VDA(図4)の左上隅を基準点とし、映像表示領域VDA(図4)における水平方向の位置をX座標で示し、映像表示領域VDA(図4)における垂直方向の位置をY座標で示す二次元座標を用いて定めてもよい。   The display area DA is generally used when a virtual space image obtained by capturing a predetermined direction from a predetermined shooting viewpoint among omnidirectional images is displayed on a flat display (screen). It is determined using three-dimensional coordinates such as a viewpoint coordinate system. However, the display area DA is not limited to this, and the display area DA has the horizontal position in the video display area VDA (FIG. 4) as the reference point with the upper left corner of the video display area VDA (FIG. 4) as the reference point, similarly to the arrangement area PA. The position in the vertical direction in the video display area VDA (FIG. 4) may be determined using a two-dimensional coordinate indicated by a Y coordinate.

図2に示す表示領域DAは、視点座標系の三次元座標を用いて定められている。つまり、表示領域DAは、仮想空間映像(例:図4に図示の入力映像VB)が映像表示領域VDA(図4)全体に表示されていることを前提として、当該仮想空間映像の中心(視点)を基準点とし、当該仮想空間映像における水平方向、垂直方向、及び奥行(視線)方向の位置を、其々、X座標、Y座標及びZ座標で示す三次元座標を用いて定められている。尚、仮想空間映像の水平方向、垂直方向、及び奥行(視線)方向其々の両端の位置の座標は「1」と「−1」としている。Z座標「1」の位置は、仮想空間映像における最も奥側の位置であり、Z座標「−1」の位置は、仮想空間映像における最も手前側の位置である。   The display area DA shown in FIG. 2 is defined using the three-dimensional coordinates of the viewpoint coordinate system. That is, the display area DA is based on the assumption that the virtual space video (eg, the input video VB shown in FIG. 4) is displayed on the entire video display area VDA (FIG. 4). ) As a reference point, the positions in the horizontal direction, vertical direction, and depth (line-of-sight) direction in the virtual space image are determined using three-dimensional coordinates indicated by an X coordinate, a Y coordinate, and a Z coordinate, respectively. . Note that the coordinates of the positions of both ends of the horizontal direction, the vertical direction, and the depth (line of sight) direction of the virtual space image are “1” and “−1”. The position of the Z coordinate “1” is the farthest position in the virtual space image, and the position of the Z coordinate “−1” is the furthest position in the virtual space image.

具体的には、映像表示領域VDA(図4)における各入力映像(例:入力映像V1)の表示領域DA(例:DA1)の初期配置は、各入力映像の中心の表示位置を示す三次元座標「posX、posY、posZ」(例:−0.8、0.25、0.7)と、各入力映像を表示する際に、三次元座標の各座標軸(X軸、Y軸、Z軸)を回転軸として時計回りに回転させる角度(度)「rotX、rotY、rotZ」(例:−15(度)、−45(度)、0(度))と、各入力映像を表示する際に、各入力映像を拡大又は縮小する比率「scale」(例:1.457)と、によって定められている。   Specifically, the initial arrangement of the display area DA (eg, DA1) of each input video (eg, input video V1) in the video display area VDA (FIG. 4) is a three-dimensional display that indicates the center display position of each input video. When displaying the coordinates “posX, posY, posZ” (for example, −0.8, 0.25, 0.7) and each input video, each coordinate axis of the three-dimensional coordinates (X axis, Y axis, Z axis) ) As a rotation axis (degrees) “rotX, rotY, rotZ” (for example, −15 (degrees), −45 (degrees), 0 (degrees)) and when displaying each input video And a ratio “scale” (for example, 1.457) for enlarging or reducing each input video.

配信情報PFには、三個の入力映像V1、V2、V3の其々が選択された場合に適用するアニメーション効果とその適用先の入力映像とを定めたアニメーション情報「animation」が含まれている。   The distribution information PF includes animation information “animation” that defines an animation effect to be applied when each of the three input videos V1, V2, and V3 is selected and an input video of the application destination. .

具体的には、図2に示すように、入力映像V1に対応するアニメーション情報(”animation”:”点滅”)では、入力映像V1が選択された場合、当該選択された入力映像V1に、アニメーション効果「点滅」を適用することが定められている。また、入力映像V2に対応するアニメーション情報(”animation”:”ズームアウト”)では、入力映像V2が選択された場合、当該選択された入力映像V2に、アニメーション効果「ズームアウト」を適用することが定められている。このように、選択された入力映像と同じ入力映像をアニメーション効果の適用先にする場合のアニメーション情報は、適用するアニメーション効果(例:ズームアウト)のみによって定められる。   Specifically, as shown in FIG. 2, in the animation information (“animation”: “blinking”) corresponding to the input video V1, when the input video V1 is selected, an animation is displayed on the selected input video V1. It is stipulated that the effect “blinking” is applied. In addition, in the animation information (“animation”: “zoom out”) corresponding to the input video V2, when the input video V2 is selected, the animation effect “zoom out” is applied to the selected input video V2. Is stipulated. As described above, the animation information in the case where the same input video as the selected input video is used as the application destination of the animation effect is determined only by the animation effect to be applied (eg, zoom out).

また、入力映像V3に対応するアニメーション情報(”animation”:”点滅:VB”)では、入力映像V3が選択された場合、当該選択された入力映像V3ではなく、入力映像VBに、アニメーション効果「点滅」を適用することが定められている。このように、選択された入力映像とは異なる入力映像をアニメーション効果の適用先にする場合のアニメーション情報は、適用するアニメーション効果(例:点滅)と、所定の区切文字(例:「:」)と、アニメーション効果の適用先の入力映像の識別情報(例:VB)と、によって定められる。尚、これと同様にして、選択された入力映像と同じ入力映像をアニメーション効果の適用先にする場合のアニメーション情報も、適用するアニメーション効果(例:ズームアウト)と、所定の区切文字(例:「:」)と、アニメーション効果の適用先の入力映像の識別情報(例:V2)と、によって定めてもよい。   In addition, in the animation information (“animation”: “blinking: VB”) corresponding to the input video V3, when the input video V3 is selected, the animation effect “ It is stipulated to apply “blinking”. As described above, the animation information in the case where an input video different from the selected input video is used as the application destination of the animation effect includes the animation effect to be applied (eg, blinking) and a predetermined delimiter (eg, “:”). And identification information (for example, VB) of the input video to which the animation effect is applied. In the same manner, the animation information when the same input video as the selected input video is used as the application destination of the animation effect is also applied to the animation effect to be applied (eg, zoom out) and a predetermined delimiter (eg: “:”) And identification information (eg, V2) of the input video to which the animation effect is applied.

アニメーション効果「点滅」を入力映像に適用した場合、所定時間、当該入力映像が表示された後、所定時間、当該入力映像が非表示になることが繰り返される。アニメーション効果「ズームアウト」を入力映像に適用した場合、当該入力映像は所定時間毎に所定の縮小率で縮小され、非表示になる。   When the animation effect “blinking” is applied to the input video, after the input video is displayed for a predetermined time, the input video is not displayed for a predetermined time. When the animation effect “zoom out” is applied to an input video, the input video is reduced at a predetermined reduction rate every predetermined time and is not displayed.

入力映像に適用可能なアニメーション効果は、「点滅」及び「ズームアウト」に限らず、「ズームイン」、「拡大」、「縮小」、「スライドイン」、「映像変更(変更後の映像の識別情報)」等の他のアニメーション効果であってもよい。   The animation effects that can be applied to the input video are not limited to “blinking” and “zoom-out”, but “zoom-in”, “enlargement”, “reduction”, “slide-in”, “video change (video identification information after change) Other animation effects such as “)” may be used.

例えば、アニメーション効果「ズームイン」を入力映像に適用した場合、アニメーション効果「ズームアウト」とは反対に、当該入力映像は、所定の初期サイズに縮小された後、所定時間毎に所定の拡大率で拡大され、当該入力映像の表示領域と同じ大きさになる。アニメーション効果「拡大(縮小)」を入力映像に適用した場合、当該入力映像は、所定時間、所定の拡大率(縮小率)で拡大(縮小)される。   For example, when the animation effect “zoom-in” is applied to the input video, the input video is reduced to a predetermined initial size and then at a predetermined magnification every predetermined time, contrary to the animation effect “zoom-out”. It is enlarged and becomes the same size as the display area of the input video. When the animation effect “enlargement (reduction)” is applied to an input video, the input video is enlarged (reduction) at a predetermined enlargement rate (reduction rate) for a predetermined time.

アニメーション効果「スライドイン」を入力映像に適用した場合、当該入力映像は、映像表示領域VDA(図4)の所定の一辺から、当該入力映像の表示領域DAまで直線的に移動される。   When the animation effect “slide-in” is applied to an input video, the input video is linearly moved from a predetermined side of the video display area VDA (FIG. 4) to the display area DA of the input video.

アニメーション効果「映像変更(変更後の映像の識別情報)」を入力映像に適用した場合、当該入力映像は、括弧内に記載された識別情報によって識別される映像に変更される。例えば、入力映像V2に対応するアニメーション情報が、「”animation”:”映像変更(V2):VB”」であるとする。この場合、入力映像V2が選択されると、入力映像VBが、括弧内に記載された入力映像V2に変更される。このように、アニメーション効果を表す文字列(例:映像変更)に括弧を連結し、当該括弧内に当該アニメーション効果を適用する際に必要なパラメータ(例:V2)を記載する等して、アニメーション情報において、アニメーション効果を適用する際に必要なパラメータを定めるようにしてもよい。   When the animation effect “video change (video identification information after change)” is applied to the input video, the input video is changed to a video identified by the identification information described in parentheses. For example, it is assumed that the animation information corresponding to the input video V2 is ““ animation ”:“ video change (V2): VB ””. In this case, when the input video V2 is selected, the input video VB is changed to the input video V2 described in parentheses. In this way, animation is performed by connecting parentheses to a character string representing an animation effect (eg, video change) and describing parameters (eg, V2) necessary for applying the animation effect in the parenthesis. In the information, parameters necessary for applying the animation effect may be determined.

尚、図2に示す配信情報PFには、背景映像である入力映像VBに対応するアニメーション情報を定めていない。しかし、サブ映像である三個の入力映像V1、V2、V3と同様に、背景映像である入力映像VBに対応するアニメーション情報を定めてもよい。入力映像にアニメーション効果を適用したときの態様については、後述する。   The distribution information PF shown in FIG. 2 does not define animation information corresponding to the input video VB that is the background video. However, as with the three input videos V1, V2, and V3 that are sub-videos, animation information corresponding to the input video VB that is a background video may be determined. A mode when the animation effect is applied to the input video will be described later.

配信情報PFには、三個の入力映像V1、V2、V3の其々の表示領域DA1、DA2、DA3(図4)を、映像表示領域VDA(図4)の姿勢の変化に応じて移動させるか否かを示す領域追従情報「headTrackMoving」(例:0、1、0)が含まれている。   In the distribution information PF, the display areas DA1, DA2, and DA3 (FIG. 4) of the three input videos V1, V2, and V3 are moved according to the change in the posture of the video display area VDA (FIG. 4). Region tracking information “headTrackMoving” (for example, 0, 1, 0) indicating whether or not.

表示領域DA(例:表示領域DA1)の領域追従情報が「0」に定められている場合、当該表示領域DAは、映像表示領域VDA(図4)の姿勢の変化に応じて移動する。表示領域DA(例:表示領域DA2)の領域追従情報が「1」に定められている場合、当該表示領域DAは、映像表示領域VDA(図4)の姿勢が変化しても移動しない。   When the area follow-up information of the display area DA (for example, the display area DA1) is set to “0”, the display area DA moves according to the change in the posture of the video display area VDA (FIG. 4). When the area follow-up information of the display area DA (eg, display area DA2) is set to “1”, the display area DA does not move even if the posture of the video display area VDA (FIG. 4) changes.

尚、図2に示す配信情報PFには、背景映像である入力映像VBの表示領域DABを、映像表示領域VDA(図4)の姿勢の変化に応じて移動させるか否かを示す領域追従情報を定めていない。しかし、例えば、風景画等の静止画を表す入力映像が背景映像である場合等に、サブ映像である三個の入力映像V1、V2、V3と同様にして、背景映像である入力映像の表示領域の領域追従情報を定めてもよい。表示領域DAを、映像表示領域VDA(図4)の姿勢に応じて移動させたときの態様については後述する。   Note that the distribution information PF shown in FIG. 2 includes area following information indicating whether or not the display area DAB of the input video VB, which is the background video, is moved according to the change in the attitude of the video display area VDA (FIG. 4). Is not defined. However, for example, when an input video representing a still image such as a landscape image is a background video, the input video that is a background video is displayed in the same manner as the three input videos V1, V2, and V3 that are sub-videos. You may determine the area | region tracking information of an area | region. A mode in which the display area DA is moved according to the attitude of the video display area VDA (FIG. 4) will be described later.

図1に参照を戻す。生成部13は、複数の入力映像(例:VB、V1、V2、V3(図3))の其々を、記憶部12が記憶している配信情報PF(図2)に含まれている配置情報(図2の破線部)が示す、配置領域(例:PAB、PA1、PA2、PA3(図2、図3))に配置して合成する。これにより、生成部13は、映像領域VA(図3)全体が表す一の配信映像V(図3)を生成する。具体的には、生成部13は、スイッチャー等によって構成される。   Returning to FIG. The generation unit 13 includes a plurality of input videos (for example, VB, V1, V2, and V3 (FIG. 3)) included in the distribution information PF (FIG. 2) stored in the storage unit 12. Arranged in the arrangement area (example: PAB, PA1, PA2, PA3 (FIGS. 2 and 3)) indicated by the information (broken line portion in FIG. 2) and synthesized. Thereby, the production | generation part 13 produces | generates one delivery video V (FIG. 3) which the whole video area VA (FIG. 3) represents. Specifically, the generation unit 13 is configured by a switcher or the like.

配信部14は、生成部13が生成した配信映像V(図3)を所定の方式(例:MPEG−4、HLS(HTTP Live Streaming)等)で符号化して、配信映像Vを表す映像データを生成する。配信部14は、当該生成した配信映像Vを表す映像データ及び記憶部12が記憶している当該配信映像Vに関連する配信情報PF(図2)を、前記ネットワークを介して配信する。具体的には、配信部14は、エンコーダーと前記ネットワークを介して視聴者端末2との間で通信を行う通信インターフェイス回路とによって構成される。   The distribution unit 14 encodes the distribution video V (FIG. 3) generated by the generation unit 13 using a predetermined method (eg, MPEG-4, HLS (HTTP Live Streaming), etc.), and generates video data representing the distribution video V. Generate. The distribution unit 14 distributes the generated video data representing the distribution video V and the distribution information PF (FIG. 2) related to the distribution video V stored in the storage unit 12 via the network. Specifically, the distribution unit 14 includes an encoder and a communication interface circuit that performs communication between the viewer terminal 2 via the network.

ここで、配信映像V及び配信情報PFを配信するとは、所謂オンデマンド配信とライブ配信の二態様を含む。つまり、オンデマンド配信では、配信部14は、生成部13に配信情報PFを用いて配信映像Vを生成させた後、配信映像Vの表示が許可された視聴者端末2に前記ネットワークを介して配信情報PFを送信する。その後、当該視聴者端末2において、配信情報PFに含まれている配信映像VのURL(図2)へのアクセスがあった場合に、配信部14は、配信映像Vを表す映像データを視聴者端末2に返信する。   Here, the distribution of the distribution video V and the distribution information PF includes two modes of so-called on-demand distribution and live distribution. That is, in the on-demand distribution, the distribution unit 14 causes the generation unit 13 to generate the distribution video V using the distribution information PF, and then to the viewer terminal 2 permitted to display the distribution video V via the network. Distribution information PF is transmitted. Thereafter, when the viewer terminal 2 accesses the URL (FIG. 2) of the distribution video V included in the distribution information PF, the distribution unit 14 transmits the video data representing the distribution video V to the viewer. Reply to terminal 2.

一方、ライブ配信では、配信部14は、テレビ番組の映像データの放送等と同様、所定時刻になると、事前に生成した配信情報PFを用いて、生成部13にリアルタイムに配信映像Vを生成させ、当該配信映像Vを表す映像データ及び配信情報PFを、前記ネットワークに含まれる放送データ網を用いて放送する。   On the other hand, in the live distribution, the distribution unit 14 causes the generation unit 13 to generate the distribution video V in real time using the distribution information PF generated in advance at a predetermined time, similarly to the broadcast of the video data of the TV program. The video data representing the distribution video V and the distribution information PF are broadcast using a broadcast data network included in the network.

複数の映像出力部11、記憶部12、生成部13及び配信部14は、一台のサーバ装置に備えてもよいし、互いに通信可能に接続された複数台のサーバ装置に適宜分散して備えるようにしてもよい。また、配信部14は、配信映像Vを表す映像データを配信する配信部14と、当該配信映像Vに関連する配信情報PFを配信する配信部14と、を互いに異なるサーバ装置に分散して備えるようにしてもよい。   The plurality of video output units 11, the storage unit 12, the generation unit 13, and the distribution unit 14 may be provided in one server device, or may be appropriately distributed and provided in a plurality of server devices connected to be communicable with each other. You may do it. In addition, the distribution unit 14 includes a distribution unit 14 that distributes video data representing the distribution video V and a distribution unit 14 that distributes distribution information PF related to the distribution video V in different server devices. You may do it.

(視聴者端末2の構成)
一方、視聴者端末2は、配信サーバ1から、配信映像Vを表す映像データ及び配信映像Vに関連する配信情報PFを取得する。視聴者端末2は、取得した映像データが表す配信映像Vを、取得した配信情報PFに基づき、所定の映像表示領域VDA(図4)に表示する。具体的には、視聴者端末2は、スマートフォン、タブレット端末、パソコン、或いは、テレビ等、視聴者が使用する情報通信装置によって構成される。
(Configuration of viewer terminal 2)
On the other hand, the viewer terminal 2 acquires from the distribution server 1 video data representing the distribution video V and distribution information PF related to the distribution video V. The viewer terminal 2 displays the distribution video V represented by the acquired video data in a predetermined video display area VDA (FIG. 4) based on the acquired distribution information PF. Specifically, the viewer terminal 2 is configured by an information communication device used by the viewer, such as a smartphone, a tablet terminal, a personal computer, or a television.

前記情報通信装置は、CPU、RAM、ROM等を備えたマイクロコンピューター、前記ネットワークを介して配信サーバ1との間で通信を行う通信インターフェイス回路、符号化された映像データを復号化するデコーダー、映像を表示するための平面状の映像表示領域VDA(図4)を有する、液晶ディスプレイ等の表示装置、視聴者に視聴者端末2の各種操作を行わせるための、タッチパネルや、リモコンや、キーボード及びマウス等の操作装置を備えている。   The information communication apparatus includes a microcomputer having a CPU, a RAM, a ROM, etc., a communication interface circuit that communicates with the distribution server 1 via the network, a decoder that decodes encoded video data, a video A display device such as a liquid crystal display having a planar video display area VDA (FIG. 4), a touch panel, a remote controller, a keyboard, and a keyboard for causing the viewer to perform various operations of the viewer terminal 2 An operation device such as a mouse is provided.

尚、前記表示装置は、前記情報通信装置に接続され、前記情報通信装置による制御の下で映像を表示するHMD(ヘッドマウントディスプレイ)であってもよい。前記表示装置は、映像表示領域VDA(図4)の姿勢を検出する角速度(ジャイロ)センサーを備えている。また、前記表示装置は、映像表示領域VDA(図4)における視聴者の視点を、赤外線等を用いて検出する視線追跡センサーを備えている。   The display device may be an HMD (head mounted display) that is connected to the information communication device and displays an image under the control of the information communication device. The display device includes an angular velocity (gyro) sensor that detects the posture of the video display area VDA (FIG. 4). In addition, the display device includes a line-of-sight tracking sensor that detects the viewer's viewpoint in the video display area VDA (FIG. 4) using infrared rays or the like.

または、前記表示装置に前記角速度(ジャイロ)センサーを備えずに、前記表示装置を操作するためのリモコンに、当該リモコンの姿勢を検出する角速度(ジャイロ)センサーを備えるようにしてもよい。また、前記表示装置に前記視線追跡センサーを備えずに、前記表示装置を操作するためのリモコンに、前記視線追跡センサーを備えるようにしてもよい。   Alternatively, the display device may not include the angular velocity (gyro) sensor, and the remote controller for operating the display device may include an angular velocity (gyro) sensor that detects the attitude of the remote controller. In addition, the visual line tracking sensor may be provided in a remote controller for operating the display device without providing the visual line tracking sensor in the display device.

視聴者端末2は、図1に示すように、表示部21、操作部22、取得部23、抽出部24、設定部25及び表示制御部26として機能する。   As shown in FIG. 1, the viewer terminal 2 functions as a display unit 21, an operation unit 22, an acquisition unit 23, an extraction unit 24, a setting unit 25, and a display control unit 26.

表示部21は、前記表示装置によって構成され、前記マイクロコンピューターによる制御の下、前記表示装置が有する映像表示領域VDA(図4)に映像を表示する。操作部22は、前記操作装置によって構成され、視聴者に視聴者端末2の各種操作を行わせる。   The display unit 21 is configured by the display device, and displays an image on the image display area VDA (FIG. 4) included in the display device under the control of the microcomputer. The operation unit 22 includes the operation device, and allows the viewer to perform various operations on the viewer terminal 2.

取得部23は、前記マイクロコンピューター及び前記通信インターフェイス回路によって構成され、配信サーバ1と通信を行うことにより、配信映像V(図3)を表す映像データ及び当該配信映像Vに関連する配信情報PF(図2)を取得する。   The acquisition unit 23 is configured by the microcomputer and the communication interface circuit, and communicates with the distribution server 1 to perform video data representing the distribution video V (FIG. 3) and distribution information PF ( 2) is acquired.

具体的には、配信部14が、配信映像V及び配信情報PFを上述のオンデマンド配信の態様で配信する場合、取得部23は、先ず、配信部14が送信した配信映像Vに関連する配信情報PFを受信する。取得部23は、当該受信した配信情報PFを前記マイクロコンピューターが備えるRAMやROM等に記憶しておく。その後、視聴者が操作部22を用いて、所定の配信映像Vの取得操作を行った場合、取得部23は、当該配信映像Vに関連する配信情報PFをRAMやROM等から取得し、当該配信情報PFに含まれる配信映像VのURLにアクセスする。そして、取得部23は、配信部14から返信された配信映像Vを表す映像データを取得する。   Specifically, when the distribution unit 14 distributes the distribution video V and the distribution information PF in the above-described on-demand distribution mode, the acquisition unit 23 first distributes the distribution video V transmitted by the distribution unit 14. The information PF is received. The acquisition unit 23 stores the received distribution information PF in a RAM, a ROM, or the like included in the microcomputer. Thereafter, when the viewer performs an operation for acquiring a predetermined distribution video V using the operation unit 22, the acquisition unit 23 acquires the distribution information PF related to the distribution video V from the RAM, the ROM, or the like. The URL of the distribution video V included in the distribution information PF is accessed. Then, the acquisition unit 23 acquires video data representing the distribution video V returned from the distribution unit 14.

一方、配信部14が、配信映像V及び配信情報PFを上述のライブ配信の態様で配信する場合、取得部23は、所定時刻以降に、配信部14によって前記放送データ網を用いて放送される、配信映像Vを表す映像データ及び配信情報PFを取得する。   On the other hand, when the distribution unit 14 distributes the distribution video V and the distribution information PF in the above-described live distribution mode, the acquisition unit 23 is broadcast by the distribution unit 14 using the broadcast data network after a predetermined time. The video data representing the distribution video V and the distribution information PF are acquired.

抽出部24は、前記デコーダー及び前記マイクロコンピューターによって構成され、取得部23が取得した映像データを復号化して配信映像V(図3)を生成する。抽出部24は、公知の画像抽出処理を実行することにより、前記生成した配信映像V(図3)から、取得部23が取得した配信情報PFに含まれている配置情報(図2の破線部)が示す配置領域PA(例:PAB、PA1、PA2、PA3(図2、図3))に配置されている、複数の入力映像(例:VB、V1、V2、V3(図3))の其々を個別に分割して抽出する。   The extraction unit 24 includes the decoder and the microcomputer, and generates the distribution video V (FIG. 3) by decoding the video data acquired by the acquisition unit 23. The extraction unit 24 executes a known image extraction process to thereby arrange the arrangement information (broken line part in FIG. 2) included in the distribution information PF acquired by the acquisition unit 23 from the generated distribution video V (FIG. 3). ) Of a plurality of input images (example: VB, V1, V2, V3 (FIG. 3)) arranged in the arrangement area PA (example: PAB, PA1, PA2, PA3 (FIG. 2, FIG. 3)). Each is divided and extracted individually.

設定部25は、前記マイクロコンピューターによって構成され、映像表示領域VDA(図4)における複数の入力映像(例:VB、V1、V2、V3(図4))の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))を設定する。   The setting unit 25 is configured by the microcomputer, and each display area DA (for example, each of the plurality of input videos (for example, VB, V1, V2, and V3 (for example, FIG. 4)) in the video display area VDA (FIG. 4). DAB, DA1, DA2, DA3 (FIG. 4)) are set.

具体的には、設定部25は、取得部23が取得した配信情報PF(図2)に含まれている初期表示情報(図2の二点鎖線部)が示す、複数の入力映像の其々の表示領域DAの初期配置(例:入力映像V1の表示領域DA1の初期配置「posX:−0.8、posY:0.25、posZ:0.7、rotX:−15、rotY:−45、rotZ:0、scale:1.457」(図2))の通りに、複数の入力映像の其々の表示領域DA(例:入力映像V1の表示領域DA1(図4))を設定する。   Specifically, the setting unit 25 represents each of a plurality of input videos indicated by the initial display information (two-dot chain line portion in FIG. 2) included in the distribution information PF (FIG. 2) acquired by the acquisition unit 23. (For example, initial arrangement of display area DA1 of input video V1 “posX: −0.8, posY: 0.25, posZ: 0.7, rotX: −15, rotY: −45, rotZ: 0, scale: 1.457 ”(FIG. 2)), each display area DA of a plurality of input videos (eg, display area DA1 of input video V1 (FIG. 4)) is set.

尚、初期表示情報(図2の二点鎖線部)において、背景映像として定められた入力映像(例:入力映像VB(図4))の表示領域DAの初期配置が定義されていない場合、設定部25は、映像表示領域VDA(図4)全体を、当該入力映像の表示領域(例:表示領域DAB(図4))として設定する。   If the initial arrangement of the display area DA of the input video (eg, input video VB (FIG. 4)) defined as the background video is not defined in the initial display information (two-dot chain line portion in FIG. 2), the setting is made. The unit 25 sets the entire video display area VDA (FIG. 4) as a display area of the input video (eg, display area DAB (FIG. 4)).

表示制御部26は、前記マイクロコンピューターによって構成され、表示部21を制御して、抽出部24が抽出した複数の入力映像(例:VB、V1、V2、V3(図4))の其々を、設定部25が設定した複数の入力映像の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))に表示させる。   The display control unit 26 is configured by the microcomputer, and controls the display unit 21 to display each of a plurality of input images (for example, VB, V1, V2, and V3 (FIG. 4)) extracted by the extraction unit 24. The display unit DA displays a plurality of input videos set by the setting unit 25 (for example, DAB, DA1, DA2, DA3 (FIG. 4)).

視聴者端末2は、更に、受付部27、姿勢検出部91、選択部28、視点検出部92、映像選択部20、及び適用部29として機能する。   The viewer terminal 2 further functions as a reception unit 27, a posture detection unit 91, a selection unit 28, a viewpoint detection unit 92, a video selection unit 20, and an application unit 29.

受付部27は、前記マイクロコンピューターによって構成され、視聴者が操作部22を用いて行った、複数の入力映像(例:VB、V1、V2、V3(図4))の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))の編集操作を受け付ける。これに合わせて、設定部25は、受付部27が受け付けた編集操作で編集された表示領域DAによって、受付部27による当該編集操作の受け付け前に設定した表示領域DAを更新する。   The reception unit 27 is configured by the microcomputer, and each display area DA of a plurality of input images (for example, VB, V1, V2, and V3 (FIG. 4)) performed by the viewer using the operation unit 22. (Example: DAB, DA1, DA2, DA3 (FIG. 4)). In accordance with this, the setting unit 25 updates the display area DA set before accepting the editing operation by the accepting unit 27 with the display area DA edited by the editing operation accepted by the accepting unit 27.

具体的には、表示領域DAの編集操作には、表示領域DAを縮小する操作が含まれる。また、表示領域DAの編集操作には、表示領域DAを、拡大する操作、移動する操作、及び削除する操作が含まれる。   Specifically, the editing operation for the display area DA includes an operation for reducing the display area DA. The editing operation for the display area DA includes an operation for enlarging, moving, and deleting the display area DA.

例えば、図4に示すように、四個の入力映像VB、V1、V2、V3の其々が表示領域DAB、DA1、DA2、DA3に表示されているとする。   For example, as shown in FIG. 4, it is assumed that four input images VB, V1, V2, and V3 are displayed in the display areas DAB, DA1, DA2, and DA3, respectively.

この場合に、視聴者が、操作部22を用いて、三個の入力映像V1、V2、V3の其々の表示領域DA1、DA2、DA3を縮小する操作を行ったとする。尚、表示領域DAを縮小する操作は、特に限定されず、マウスやタッチパネルを用いた一般的な図形を縮小する操作と同様の操作であればよい。   In this case, it is assumed that the viewer uses the operation unit 22 to perform an operation of reducing the display areas DA1, DA2, and DA3 of the three input videos V1, V2, and V3. The operation for reducing the display area DA is not particularly limited as long as it is the same as the operation for reducing a general figure using a mouse or a touch panel.

この場合、受付部27は、表示領域DA1、DA2、DA3を縮小する操作を受け付ける。図5は、表示領域DAを縮小した場合の一例を示す図である。設定部25は、図5に示すように、三個の表示領域DA1、DA2、DA3を、受付部27が受け付けた操作で縮小された表示領域DA1a、DA2a、DA3aによって更新する。   In this case, the accepting unit 27 accepts an operation for reducing the display areas DA1, DA2, and DA3. FIG. 5 is a diagram showing an example when the display area DA is reduced. As shown in FIG. 5, the setting unit 25 updates the three display areas DA1, DA2, and DA3 with the display areas DA1a, DA2a, and DA3a that are reduced by the operation received by the receiving unit 27.

一方、視聴者が、操作部22を用いて、入力映像V2、V3の表示領域DA2、DA3を削除する操作を行ったとする。また、視聴者が、操作部22を用いて、入力映像V1の表示領域DA1を、図4に示す表示領域DA2の位置まで移動させ、当該移動後の表示領域DA1を拡大する操作を行ったとする。尚、表示領域DAを、削除する操作、移動する操作、及び拡大する操作は、特に限定されず、マウスやタッチパネルを用いた一般的な図形を削除する操作、移動する操作、及び拡大する操作と同様の操作であればよい。   On the other hand, it is assumed that the viewer uses the operation unit 22 to delete the display areas DA2 and DA3 of the input videos V2 and V3. Further, it is assumed that the viewer uses the operation unit 22 to move the display area DA1 of the input video V1 to the position of the display area DA2 shown in FIG. 4 and perform an operation of enlarging the display area DA1 after the movement. . The operation for deleting, moving, and enlarging the display area DA is not particularly limited, and includes operations for deleting, moving, and enlarging general figures using a mouse or a touch panel. The same operation may be used.

この場合、受付部27は、表示領域DA2、DA3を削除する操作と、表示領域DA1を移動する操作及び拡大する操作と、を受け付ける。図6は、表示領域DAを移動、削除及び拡大した場合の一例を示す図である。設定部25は、図6に示すように、表示領域DA2、DA3を削除し、表示領域DA1を、受付部27が受け付けた操作で移動及び拡大された表示領域DA1bによって更新する。   In this case, the accepting unit 27 accepts an operation for deleting the display areas DA2 and DA3, and an operation for moving and enlarging the display area DA1. FIG. 6 is a diagram illustrating an example when the display area DA is moved, deleted, and enlarged. As illustrated in FIG. 6, the setting unit 25 deletes the display areas DA2 and DA3, and updates the display area DA1 with the display area DA1b that has been moved and enlarged by the operation received by the receiving unit 27.

このようにして、視聴者は、表示領域DAを拡大又は縮小する操作を行って、当該表示領域DAに表示されている入力映像を視認し易いように拡大又は縮小させることができる。また、視聴者は、表示領域DAを移動する操作を行って、当該表示領域DAに表示されている入力映像を視認し易い位置に移動させることができる。また、視聴者は、映像表示領域VDAに表示されている入力映像の数が多すぎる場合等に表示領域DAを削除する操作を行って、当該表示領域DAに表示されている入力映像を非表示にすることができる。これにより、視聴者は、映像表示領域VDAに表示されている、当該非表示にした入力映像とは異なる入力映像を視認し易くすることができる。   In this way, the viewer can perform an operation of enlarging or reducing the display area DA to enlarge or reduce the input video displayed in the display area DA so that it can be easily viewed. In addition, the viewer can perform an operation of moving the display area DA to move the input video displayed in the display area DA to a position where it can be easily viewed. In addition, the viewer performs an operation of deleting the display area DA when the number of input videos displayed in the video display area VDA is too large, and the input video displayed in the display area DA is not displayed. Can be. Thus, the viewer can easily view an input video that is displayed in the video display area VDA and is different from the non-displayed input video.

姿勢検出部91は、前記表示装置又は前記表示装置を操作するための前記リモコンが備える前記角速度(ジャイロ)センサーによって構成され、視聴者が意図する映像表示領域VDA(図4)の姿勢を検出する。   The posture detection unit 91 is configured by the angular velocity (gyro) sensor provided in the display device or the remote controller for operating the display device, and detects the posture of the video display area VDA (FIG. 4) intended by the viewer. .

具体的には、姿勢検出部91は、視聴者が実際に映像表示領域VDA(図4)の姿勢を視聴者が意図する姿勢に変化させた場合に、前記表示装置が備える前記角速度(ジャイロ)センサーによって、前記映像表示領域VDA(図4)の変化後の姿勢を検出する。又は、姿勢検出部91は、視聴者が、例えばテレビ等が有する映像表示領域VDA(図4)の姿勢を実際に変化させる代わりに、前記リモコンの姿勢を視聴者が意図する姿勢に変化させた場合に、前記リモコンの変化後の姿勢を、前記映像表示領域VDA(図4)の変化後の姿勢として、前記リモコンが備える前記角速度(ジャイロ)センサーによって検出する。   Specifically, the posture detection unit 91 is configured to provide the angular velocity (gyro) included in the display device when the viewer actually changes the posture of the video display area VDA (FIG. 4) to the posture intended by the viewer. The posture after the change of the video display area VDA (FIG. 4) is detected by the sensor. Alternatively, the posture detection unit 91 changes the posture of the remote controller to the posture intended by the viewer instead of actually changing the posture of the video display area VDA (FIG. 4) of the television or the like, for example. In this case, the post-change posture of the remote controller is detected by the angular velocity (gyro) sensor included in the remote controller as the post-change posture of the video display area VDA (FIG. 4).

これに合わせて、表示制御部26は、抽出部24が抽出した複数の入力映像に全方位映像(例:VB(図3))が含まれている場合、当該全方位映像に含まれている、当該全方位映像を撮影した全方位カメラの撮影視点から所定方向を撮影方向として撮影して得られた仮想空間映像(例:図3に示す符号VBの映像)を取得する。所定方向とは、姿勢検出部91が検出した姿勢と同じ姿勢の平面に直交する方向である。そして、表示制御部26は、表示部21を制御して、設定部25が設定した当該全方位映像の表示領域DA(例:DAB(図4))に、当該取得した仮想空間映像を表示させる。   Accordingly, when the omnidirectional video (eg, VB (FIG. 3)) is included in the plurality of input videos extracted by the extraction unit 24, the display control unit 26 is included in the omnidirectional video. Then, a virtual space image (for example, an image indicated by a symbol VB shown in FIG. 3) obtained by capturing a predetermined direction as the capturing direction from the capturing viewpoint of the omnidirectional camera that captured the omnidirectional image is acquired. The predetermined direction is a direction orthogonal to a plane having the same posture as the posture detected by the posture detection unit 91. Then, the display control unit 26 controls the display unit 21 to display the acquired virtual space video in the omnidirectional video display area DA (eg, DAB (FIG. 4)) set by the setting unit 25. .

尚、表示制御部26が、全方位映像に含まれている、前記撮影視点から前記所定方向を撮影方向として撮影して得られた仮想空間映像を取得する方法は、特に限定されず、全方位カメラに付属のソフトウェアに実装されている方法と同様の方法で実現すればよい。   The display control unit 26 includes a omnidirectional video, and the method for acquiring the virtual space video obtained by shooting the predetermined direction from the shooting viewpoint as the shooting direction is not particularly limited. What is necessary is just to implement | achieve by the method similar to the method mounted in the software attached to a camera.

図7(A)及び図7(B)は、映像表示領域VDAの姿勢に応じた仮想空間映像VBa、VBb及び一方位映像V4の表示例を示す図であり、図7(A)は、映像表示領域VDAの姿勢の変化前の表示例を示す図であり、図7(B)は、映像表示領域VDAの姿勢の変化後の表示例を示す図である。   FIGS. 7A and 7B are diagrams showing display examples of the virtual space images VBa and VBb and the one-sided video V4 in accordance with the posture of the video display area VDA. FIG. FIG. 7B is a diagram showing a display example before the change in the posture of the display area VDA, and FIG. 7B is a diagram showing a display example after the change in the posture of the video display region VDA.

例えば、図7(A)に示すように、抽出部24が抽出した全方位映像に含まれている仮想空間映像VBaが、背景映像として、設定部25によって設定された当該全方位映像の表示領域DABaである映像表示領域VDA全体に表示されているとする。仮想空間映像VBaは、抽出部24が抽出した全方位映像に含まれている、姿勢検出部91が検出した映像表示領域VDAの姿勢と同じ姿勢の平面に直交する方向を撮影方向として撮影して得られた映像である。また、抽出部24が抽出した一方位映像である入力映像V4が、設定部25によって設定された表示領域DA4に表示されているとする。   For example, as shown in FIG. 7A, the virtual space video VBa included in the omnidirectional video extracted by the extraction unit 24 is displayed as the omnidirectional video display area set by the setting unit 25 as a background video. It is assumed that the image is displayed on the entire video display area VDA which is DABa. The virtual space video VBa is shot by taking a direction orthogonal to a plane having the same posture as the posture of the video display area VDA detected by the posture detection unit 91 included in the omnidirectional video extracted by the extraction unit 24 as a shooting direction. It is the obtained image. Further, it is assumed that the input video V4 that is the one-sided video extracted by the extraction unit 24 is displayed in the display area DA4 set by the setting unit 25.

この場合に、視聴者が、映像表示領域VDAを図7(A)における右方向に回転させ、且つ、映像表示領域VDAの図7(A)における裏面(図7(A)の奥側の面)が地面に対向するように回転させて、映像表示領域VDAの姿勢を変化させたとする。   In this case, the viewer rotates the video display area VDA in the right direction in FIG. 7A, and the back surface of the video display area VDA in FIG. 7A (the back surface in FIG. 7A). ) Is rotated so as to face the ground, and the posture of the video display area VDA is changed.

この場合、姿勢検出部91は、上記変化後の映像表示領域VDA(図4)の姿勢を検出する。表示制御部26は、抽出部24が抽出した全方位映像に含まれている、姿勢検出部91が検出した上記変化後の映像表示領域VDAの姿勢と同じ姿勢の平面に直交する方向を撮影方向として撮影して得られた仮想空間映像VBbを取得する。表示制御部26は、当該取得した仮想空間映像VBbを、背景映像として、当該全方位映像の表示領域DABaである映像表示領域VDA全体に表示する。   In this case, the posture detection unit 91 detects the posture of the video display area VDA (FIG. 4) after the change. The display control unit 26 captures a direction orthogonal to the plane of the same posture as the posture of the changed video display area VDA detected by the posture detection unit 91 included in the omnidirectional video extracted by the extraction unit 24. As a result, a virtual space video VBb obtained by photographing is acquired. The display control unit 26 displays the acquired virtual space video VBb as a background video on the entire video display area VDA that is the display area DABa of the omnidirectional video.

選択部28は、前記マイクロコンピューターによって構成され、設定部25によって、表示領域DAを、映像表示領域VDAの姿勢の変化に応じて移動させるか否かの選択を受け付ける。   The selection unit 28 is configured by the microcomputer, and accepts selection of whether or not to move the display area DA in accordance with the change in the posture of the video display area VDA by the setting unit 25.

例えば、取得部23が取得した配信情報PF(図2)に含まれている入力映像V4(図7(A))の表示領域DA4(図7(A))の領域追従情報(図2の長破線部)が「0」であるとする。この場合、選択部28は、設定部25によって、入力映像V4の表示領域DA4を、映像表示領域VDAの姿勢の変化に応じて移動させないことの選択を受け付ける。   For example, the area following information (length of FIG. 2) of the display area DA4 (FIG. 7A) of the input video V4 (FIG. 7A) included in the distribution information PF (FIG. 2) acquired by the acquisition unit 23. It is assumed that the broken line part) is “0”. In this case, the selection unit 28 accepts a selection by the setting unit 25 not to move the display area DA4 of the input video V4 in accordance with the change in the attitude of the video display area VDA.

この場合、図7(A)及び図7(B)に示すように、映像表示領域VDAに表示されていた仮想空間映像VBaが、映像表示領域VDAの姿勢の変化に応じて、仮想空間映像VBbに変化したとしても、設定部25は、表示領域DA4を移動させない。これにより、表示領域DA4は、視聴者が向いている方向に追従して移動したようになる。   In this case, as shown in FIGS. 7A and 7B, the virtual space image VBa displayed in the image display area VDA is changed into the virtual space image VBb according to the change in the attitude of the image display area VDA. Even if the setting has been changed, the setting unit 25 does not move the display area DA4. As a result, the display area DA4 appears to move following the direction in which the viewer is facing.

一方、取得部23が取得した配信情報PF(図2)に含まれている入力映像V4(図7(A))の表示領域DA4(図7(A))の領域追従情報(図2の長破線部)が「1」であるとする。この場合、選択部28は、設定部25によって、入力映像V4の表示領域DA4を、映像表示領域VDAの姿勢の変化に応じて移動させることの選択を受け付ける。   On the other hand, the area follow-up information (length of FIG. 2) of the display area DA4 (FIG. 7A) of the input video V4 (FIG. 7A) included in the distribution information PF (FIG. 2) acquired by the acquisition unit 23. It is assumed that the broken line portion is “1”. In this case, the selection unit 28 accepts a selection by the setting unit 25 to move the display area DA4 of the input video V4 in accordance with the change in the attitude of the video display area VDA.

尚、選択部28が、設定部25によって、表示領域DAを、映像表示領域VDAの姿勢の変化に応じて移動させるか否かの選択を受け付ける方法は、上記の方法に限らない。例えば、視聴者が操作部22を用いて当該選択の操作を行えるようにし、視聴者が操作部22を用いて行った当該選択の操作を行った場合に、選択部28が、当該選択の操作による選択の結果を受け付けるようにしてもよい。   Note that the method by which the selection unit 28 receives the selection as to whether or not the setting unit 25 moves the display area DA according to the change in the posture of the video display area VDA is not limited to the above method. For example, when the viewer can perform the selection operation using the operation unit 22 and the viewer performs the selection operation performed using the operation unit 22, the selection unit 28 performs the selection operation. You may make it receive the result of selection by.

図7(C)は、映像表示領域VDAの姿勢の変化後の図7(B)とは異なる表示例を示す図である。この場合、設定部25は、図7(A)及び図7(C)に示すように、映像表示領域VDAに表示されていた仮想空間映像VBaが、映像表示領域VDAの姿勢の変化に応じて、仮想空間映像VBbに変化することに合わせて、表示領域DA4を映像表示領域VDAの姿勢の変化の方向とは反対方向に、当該変化の度合に相応する度合だけ移動させる。これにより、映像表示領域VDAの左上隅近傍の表示領域DA4は、映像表示領域VDAの外側に移動し、入力映像V4が表示されなくなる。   FIG. 7C is a diagram showing a display example different from FIG. 7B after the posture of the video display area VDA is changed. In this case, as shown in FIGS. 7A and 7C, the setting unit 25 changes the virtual space video VBa displayed in the video display area VDA according to the change in the attitude of the video display area VDA. In accordance with the change to the virtual space video VBb, the display area DA4 is moved in a direction opposite to the direction of the change in the attitude of the video display area VDA by an amount corresponding to the change. As a result, the display area DA4 near the upper left corner of the video display area VDA moves outside the video display area VDA, and the input video V4 is not displayed.

つまり、この場合、設定部25は、表示領域DA4を映像表示領域VDAの姿勢を変化させる前の仮想空間映像VBa(図7(A))と一体化させ、仮想空間映像VBaが映像表示領域VDAの姿勢の変化に応じて当該変化の方向とは反対の方向に移動することに追従するようにして、表示領域DA4を移動させる。   That is, in this case, the setting unit 25 integrates the display area DA4 with the virtual space image VBa (FIG. 7A) before changing the attitude of the image display area VDA, and the virtual space image VBa is integrated with the image display area VDA. The display area DA4 is moved so as to follow the movement in the direction opposite to the direction of the change according to the change in the posture.

このように、第一実施形態の構成では、映像表示領域VDA(図4)の姿勢の変化に応じて、複数の入力映像の其々の表示領域DAを移動させるか否かを適宜選択することができる。   As described above, in the configuration of the first embodiment, whether or not to move each display area DA of the plurality of input videos is appropriately selected according to the change in the posture of the video display area VDA (FIG. 4). Can do.

図1に参照を戻す。視点検出部92は、前記視線追跡センサーによって構成され、映像表示領域VDA(図4)における視聴者の視点を検出する。   Returning to FIG. The viewpoint detection unit 92 includes the line-of-sight tracking sensor, and detects the viewer's viewpoint in the video display area VDA (FIG. 4).

映像選択部20は、前記マイクロコンピューターによって構成され、視聴者による複数の入力映像に含まれている一の入力映像の選択を受け付ける。具体的には、映像選択部20は、視聴者が操作部22を用いて、映像表示領域VDAに表示されている複数の入力映像の中から一の入力映像を選択操作した場合に、当該一の入力映像の選択を受け付ける。   The video selection unit 20 is configured by the microcomputer, and accepts selection of one input video included in a plurality of input videos by the viewer. Specifically, the video selection unit 20 uses the operation unit 22 to select one input video from a plurality of input videos displayed in the video display area VDA. The selection of the input video is accepted.

又は、映像選択部20は、視点検出部92によって検出された視点が、映像表示領域VDA内の一の表示領域DAに存在する場合に、当該一の表示領域DAに表示されている一の入力映像の選択を受け付ける。このため、視聴者は、入力映像が表示されている表示領域DAに視点を移動させるだけで、当該入力映像を容易に選択することができる。   Alternatively, when the viewpoint detected by the viewpoint detection unit 92 exists in one display area DA in the video display area VDA, the video selection unit 20 displays one input displayed in the one display area DA. Accept video selection. For this reason, the viewer can easily select the input video only by moving the viewpoint to the display area DA where the input video is displayed.

適用部29は、前記マイクロコンピューターによって構成され、映像選択部20によって一の入力映像の選択が受け付けられた場合に、取得部23が取得した配信情報PF(図2)に含まれているアニメーション情報(図2の一点鎖線部)が示す通りに、前記一の入力映像が選択された場合に適用するアニメーション効果を、適用先の入力映像に適用する。   The application unit 29 is configured by the microcomputer, and when the selection of one input video is received by the video selection unit 20, the animation information included in the distribution information PF (FIG. 2) acquired by the acquisition unit 23. As indicated by the one-dot chain line portion in FIG. 2, the animation effect applied when the one input video is selected is applied to the input video of the application destination.

例えば、図4に示すように、三個の表示領域DA1、DA2、DA3に、其々、入力映像V1、V2、V3が表示されているとする。また、図2の一点鎖線部に示すように、取得部23が取得した配信情報PFに含まれているアニメーション情報が示す、三個の入力映像V1、V2、V3の其々が選択された場合に適用するアニメーション効果は、「点滅」、「ズームアウト」、「点滅」であるとする。また、当該アニメーション情報が示す、入力映像V1、V2、V3の其々が選択された場合に適用するアニメーション効果の適用先の入力映像は、其々、入力映像V1、V2、VBであるとする。   For example, as shown in FIG. 4, it is assumed that input images V1, V2, and V3 are displayed in three display areas DA1, DA2, and DA3, respectively. In addition, as shown in the alternate long and short dash line in FIG. 2, when each of the three input videos V1, V2, and V3 indicated by the animation information included in the distribution information PF acquired by the acquisition unit 23 is selected. It is assumed that the animation effects applied to are “blinking”, “zoom-out”, and “blinking”. In addition, it is assumed that the input images to which the animation effect is applied when the input images V1, V2, and V3 indicated by the animation information are selected are the input images V1, V2, and VB, respectively. .

この場合に、映像選択部20によって入力映像V1(V3)の選択が受け付けられたとする。この場合、適用部29は、入力映像V1(VB)に、アニメーション効果「点滅」を適用する。具体的には、適用部29は、入力映像V1(VB)を所定時間表示した後に入力映像V1(VB)を所定時間非表示にすることを、繰り返し行う。   In this case, it is assumed that selection of the input video V1 (V3) is accepted by the video selection unit 20. In this case, the application unit 29 applies the animation effect “flashing” to the input video V1 (VB). Specifically, the application unit 29 repeatedly performs the display of the input video V1 (VB) for a predetermined time after the input video V1 (VB) is displayed for a predetermined time.

一方、映像選択部20によって入力映像V2の選択が受け付けられたとする。この場合、適用部29は、入力映像V2に、アニメーション効果「ズームアウト」を適用する。具体的には、適用部29は、所定時間毎に所定の縮小率で入力映像V2を縮小し、入力映像V2を非表示にする。   On the other hand, it is assumed that selection of the input video V2 is accepted by the video selection unit 20. In this case, the application unit 29 applies the animation effect “zoom out” to the input video V2. Specifically, the application unit 29 reduces the input video V2 at a predetermined reduction rate every predetermined time and hides the input video V2.

以下、配信サーバ1及び視聴者端末2の動作について説明する。図8は、配信サーバ1の動作を示すフローチャートである。図9は、視聴者端末2における配信映像Vの初期表示の動作を示すフローチャートである。図10は、視聴者端末2における配信映像Vの初期表示後の動作を示すフローチャートである。   Hereinafter, operations of the distribution server 1 and the viewer terminal 2 will be described. FIG. 8 is a flowchart showing the operation of the distribution server 1. FIG. 9 is a flowchart showing the initial display operation of the distribution video V in the viewer terminal 2. FIG. 10 is a flowchart showing an operation after the initial display of the distribution video V in the viewer terminal 2.

(配信サーバ1の動作)
図8に示すように、配信サーバ1では、映像出力部11から、配信映像V(図3)に含める複数の入力映像(例:VB、V1、V2、V3(図3))を表す映像データが生成部13に入力されると(S11)、生成部13は、記憶部12が記憶している配信映像Vに関連する配信情報PF(図2)を取得する(S12)。
(Operation of distribution server 1)
As shown in FIG. 8, in the distribution server 1, video data representing a plurality of input videos (eg, VB, V1, V2, V3 (FIG. 3)) included in the distribution video V (FIG. 3) from the video output unit 11. Is input to the generation unit 13 (S11), the generation unit 13 acquires distribution information PF (FIG. 2) related to the distribution video V stored in the storage unit 12 (S12).

生成部13は、複数の入力映像(例:VB、V1、V2、V3(図3))の其々を、S12で取得した配信情報PF(図2)に含まれている配置情報(図2の破線部)が示す配置領域(例:PAB、PA1、PA2、PA3(図2、図3))に配置して合成することで、配信映像V(図3)を生成する(S13)。   The generation unit 13 arranges each of a plurality of input videos (eg, VB, V1, V2, V3 (FIG. 3)) included in the distribution information PF (FIG. 2) acquired in S12 (FIG. 2). The distribution video V (FIG. 3) is generated by arranging and synthesizing in the arrangement area (example: PAB, PA1, PA2, PA3 (FIGS. 2 and 3)) indicated by the broken line portion (S13).

次に、配信部14は、S13で生成された配信映像V(図3)を表す映像データを生成し、生成した配信映像Vを表す映像データ及び記憶部12が記憶している当該配信映像Vに関連する配信情報PF(図2)を、前記ネットワークを介して配信する(S14)。   Next, the distribution unit 14 generates video data representing the distribution video V (FIG. 3) generated in S13, the video data representing the generated distribution video V, and the distribution video V stored in the storage unit 12. The distribution information PF (FIG. 2) related to is distributed via the network (S14).

(視聴者端末2の動作)
図9に示すように、視聴者端末2では、取得部23が、配信部14によって配信された配信映像V(図3)に関連する配信情報PF(図2)を取得し(S21)、配信映像Vを表す映像データを取得する(S22)。
(Operation of the viewer terminal 2)
As shown in FIG. 9, in the viewer terminal 2, the acquisition unit 23 acquires the distribution information PF (FIG. 2) related to the distribution video V (FIG. 3) distributed by the distribution unit 14 (S21), and distributes it. Video data representing the video V is acquired (S22).

抽出部24は、S22で取得された映像データを復号化して生成した配信映像Vから、S21で取得された配信情報PFに含まれている配置情報(図2の破線部)が示す配置領域PA(例:PAB、PA1、PA2、PA3(図2、図3))に配置されている、複数の入力映像(例:VB、V1、V2、V3(図3))の其々を個別に分割して抽出する(S23)。   The extraction unit 24 arranges the arrangement area PA indicated by the arrangement information (broken line part in FIG. 2) included in the distribution information PF acquired in S21 from the distribution video V generated by decoding the video data acquired in S22. (Example: PAB, PA1, PA2, PA3 (Figs. 2 and 3)), each of a plurality of input videos (example: VB, V1, V2, V3 (Fig. 3)) is divided individually. To extract (S23).

設定部25は、S21で取得された配信情報PF(図2)に含まれている初期表示情報(図2の二点鎖線部)を用いて、映像表示領域VDA(図4)におけるS23で抽出された複数の入力映像(例:VB、V1、V2、V3(図3))の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))を設定する(S24)。このため、視聴者端末2において、S23で抽出された複数の入力映像其々の表示領域DAを個別に設定する手間を軽減することができる。   The setting unit 25 uses the initial display information (two-dot chain line portion in FIG. 2) included in the distribution information PF (FIG. 2) acquired in S21 to extract in S23 in the video display area VDA (FIG. 4). Each display area DA (eg, DAB, DA1, DA2, DA3 (FIG. 4)) of the plurality of input videos (eg: VB, V1, V2, V3 (FIG. 3)) is set (S24). For this reason, in the viewer terminal 2, the effort which sets individually the display area DA of each of the some input video extracted by S23 can be reduced.

表示制御部26は、表示部21を制御して、S23で抽出された複数の入力映像の其々を、S24で設定された複数の入力映像の其々の表示領域DAに表示させる(S25)。   The display control unit 26 controls the display unit 21 to display each of the plurality of input videos extracted in S23 in each display area DA of the plurality of input videos set in S24 (S25). .

S25の後、受付部27によって、複数の入力映像の其々の表示領域DA(例:DAB、DA1、DA2、DA3(図4))の編集操作が受け付けられた場合(S26;YES)、設定部25は、S26で受け付けられた編集操作で編集された表示領域DAによって、当該編集操作の受け付け前に設定した表示領域DAを更新する(S27)。このため、視聴者は、視聴者端末2において、S23で抽出された複数の入力映像其々の表示領域DAを編集操作することで、配信サーバ1に負担をかけることなく、当該複数の入力映像其々の表示領域DAを再編することができる。   After S25, when the receiving unit 27 receives an editing operation for each display area DA (eg, DAB, DA1, DA2, DA3 (FIG. 4)) of a plurality of input videos (S26; YES), setting The unit 25 updates the display area DA set before accepting the editing operation with the display area DA edited by the editing operation accepted in S26 (S27). For this reason, the viewer edits the display area DA of each of the plurality of input videos extracted in S23 on the viewer terminal 2, so that the plurality of input videos are not burdened on the distribution server 1. Each display area DA can be reorganized.

表示制御部26は、表示部21を制御して、S23で抽出された複数の入力映像の其々を、S27で更新された複数の入力映像の其々の表示領域DAに表示させる(S28)。   The display control unit 26 controls the display unit 21 to display each of the plurality of input videos extracted in S23 in each display area DA of the plurality of input videos updated in S27 (S28). .

図10に示すように、姿勢検出部91によって検出される映像表示領域VDA(図4)の姿勢が変化した場合において(S31;YES)、S23で抽出された複数の入力映像に全方位映像(例:VBa(図7(A)))が含まれていたとする(S32;YES)。   As shown in FIG. 10, when the posture of the video display area VDA (FIG. 4) detected by the posture detection unit 91 is changed (S31; YES), the omnidirectional video ( Example: Assume that VBa (FIG. 7A)) is included (S32; YES).

この場合、表示制御部26は、上述のように、表示部21を制御して、当該全方位映像に含まれている、当該全方位映像を撮影した全方位カメラの撮影視点から前記所定方向を撮影方向として撮影して得られた仮想空間映像(例:VBb(図7(B)、図7(C)))を、当該全方位映像の表示領域DA(例:DABa(図7(B)、図7(C)))に表示させる(S33)。   In this case, as described above, the display control unit 26 controls the display unit 21 to change the predetermined direction from the shooting viewpoint of the omnidirectional camera that captured the omnidirectional video included in the omnidirectional video. A virtual space video (eg, VBb (FIG. 7B, FIG. 7C)) obtained by shooting as the shooting direction is displayed in the display area DA (eg, DABa (FIG. 7B) of the omnidirectional video. 7C)) (S33).

これにより、視聴者は、全方位映像の撮影場所において、頭部の姿勢を映像表示領域VDAの姿勢と同様に変化させた場合に視認する映像と同様の映像を、全方位映像の表示領域DAにおいて視認することができる。   As a result, the viewer can view the same image as the image visually recognized when the head posture is changed in the same manner as the posture of the video display area VDA at the omnidirectional video shooting location. Can be visually recognized.

S28(図9)の後、姿勢検出部91によって検出される映像表示領域VDAの姿勢が変化したが(S31;YES)、S23で抽出された複数の入力映像に全方位映像が含まれていない場合(S32;NO)、及び、S33の後、選択部28は、設定部25によって、S23で抽出された入力映像の表示領域DAを、映像表示領域VDAの姿勢の変化に応じて移動させるか否かの選択を受け付ける(S34)。   After S28 (FIG. 9), the attitude of the video display area VDA detected by the attitude detector 91 has changed (S31; YES), but the omnidirectional video is not included in the plurality of input videos extracted in S23. In the case (S32; NO) and after S33, the selection unit 28 causes the setting unit 25 to move the display area DA of the input video extracted in S23 according to the change in the attitude of the video display area VDA. A selection of whether or not is accepted (S34).

S34において、選択部28が、S21(図9)で取得された配信情報PF(図2)に含まれている、S23で抽出された入力映像(例:V4(図7(A)))の表示領域DA(例:DA4(図7(A)))の領域追従情報(図2の長破線部)に基づき、設定部25によって、当該表示領域DAを映像表示領域VDAの姿勢の変化に応じて移動させることの選択を受け付けたとする(S34;YES)。この場合、設定部25は、前記表示領域DAを、映像表示領域VDAの姿勢の変化に応じて移動させる(図7(C)参照)(S35)。その後は、S36以降の処理が行われる。   In S34, the selection unit 28 includes the input video (eg, V4 (FIG. 7A)) extracted in S23 included in the distribution information PF (FIG. 2) acquired in S21 (FIG. 9). Based on the area following information (long broken line part in FIG. 2) of the display area DA (eg, DA4 (FIG. 7A)), the setting unit 25 causes the display area DA to change according to the change in the posture of the video display area VDA. It is assumed that selection of movement is accepted (S34; YES). In this case, the setting unit 25 moves the display area DA according to the change in the posture of the video display area VDA (see FIG. 7C) (S35). Thereafter, the processing after S36 is performed.

S28(図9)の後、姿勢検出部91によって検出される映像表示領域VDAの姿勢が変化しなかった場合(S31;NO)、及び、S34において、選択部28が、設定部25によって表示領域DAを映像表示領域VDAの姿勢の変化に応じて移動させないことの選択を受け付けた場合(S34;NO)、S36以降の処理が行われる。   After S28 (FIG. 9), when the attitude of the video display area VDA detected by the attitude detection unit 91 has not changed (S31; NO), and in S34, the selection unit 28 causes the setting unit 25 to display the display area. When the selection not to move the DA in accordance with the change in the posture of the video display area VDA is received (S34; NO), the processes after S36 are performed.

S36において、映像選択部20は、視聴者による一の入力映像の選択の受け付けを開始する(S36)。適用部29は、S36において、映像選択部20が一の入力映像の選択を受け付けた場合(S36;YES)、S21(図9)で取得された配信情報PF(図2)に、当該一の入力映像に対応するアニメーション情報(図2の一点鎖線部)が含まれているか否かを判定する(S37)。   In S36, the video selection unit 20 starts accepting selection of one input video by the viewer (S36). When the video selection unit 20 accepts selection of one input video in S36 (S36; YES), the application unit 29 adds the one of the distribution information PF (FIG. 2) acquired in S21 (FIG. 9) to the one. It is determined whether or not animation information corresponding to the input video (dotted line portion in FIG. 2) is included (S37).

適用部29は、S37において、前記一の入力映像(例:V3(図2))に対応するアニメーション情報(図2の一点鎖線部)が含まれていると判定すると(S37;YES)、当該アニメーション情報が示す通りに、アニメーション効果(例:点滅(図2))を所定の適用先の入力映像(例:VB(図2))に適用する(S38)。   When the application unit 29 determines in S37 that the animation information (the one-dot chain line portion in FIG. 2) corresponding to the one input video (example: V3 (FIG. 2)) is included (S37; YES), As the animation information indicates, an animation effect (eg, blinking (FIG. 2)) is applied to an input video (eg, VB (FIG. 2)) of a predetermined application destination (S38).

これにより、視聴者により一の入力映像が選択された場合に、配信情報PFに含まれるアニメーション情報が示す通りに、アニメーション効果が所定の適用先の入力映像に適用される。このため、視聴者は、一の入力映像に視点を移動させる、又は、一の入力映像を選択操作するだけで、前記適用先の入力映像をインタラクティブに動作させることができる。   Thus, when one input video is selected by the viewer, the animation effect is applied to the input video of a predetermined application destination as indicated by the animation information included in the distribution information PF. For this reason, the viewer can interactively operate the input video of the application destination simply by moving the viewpoint to one input video or selecting and operating the one input video.

S36において、映像選択部20が一の入力映像の選択を受け付けなかった場合(S36;NO)、適用部29がS37において前記一の入力映像に対応するアニメーション情報が含まれていないと判定した場合(S37;NO)、及び、S38の実行後、視聴者が操作部22を用いて、配信映像Vの視聴を終了するための所定の終了指示の入力操作を行わなかった場合(S39;NO)、S26(図9)以降の処理が行われる。一方、視聴者が操作部22を用いて、前記終了指示の入力操作を行った場合(S39;YES)、視聴者端末2における図9及び図10に示す動作は終了する。   When the video selection unit 20 does not accept selection of one input video in S36 (S36; NO), the application unit 29 determines in S37 that animation information corresponding to the one input video is not included (S37; NO) and after the execution of S38, the viewer does not perform a predetermined end instruction input operation for ending viewing of the distribution video V using the operation unit 22 (S39; NO). , S26 (FIG. 9) and subsequent processes are performed. On the other hand, when the viewer uses the operation unit 22 to input the end instruction (S39; YES), the operations shown in FIGS. 9 and 10 in the viewer terminal 2 are ended.

このように、第一実施形態の構成によれば、視聴者端末2において配信サーバ1から取得した配信映像V及び配信情報PFを用いて複数の入力映像が個別に分割されて抽出される。そして、抽出された複数の入力映像の其々が、視聴者端末2が備える設定部25によって設定された表示領域DAに表示される。このため、上記の従来技術とは異なり、配信映像Vに含まれる複数の入力映像の視聴者端末2における表示領域DAを、配信サーバ1に負担をかけることなく、視聴者端末2で設定した表示領域DAに迅速に再編することができる。   As described above, according to the configuration of the first embodiment, a plurality of input videos are individually divided and extracted using the distribution video V and the distribution information PF acquired from the distribution server 1 in the viewer terminal 2. Then, each of the extracted plurality of input videos is displayed in the display area DA set by the setting unit 25 provided in the viewer terminal 2. For this reason, unlike the above-described conventional technique, the display area DA of the plurality of input videos included in the distribution video V on the viewer terminal 2 is set on the viewer terminal 2 without imposing a burden on the distribution server 1. It is possible to quickly reorganize the area DA.

(第二実施形態)
以下、本発明の第二実施形態に係る映像配信システムについて図面に基づいて説明する。尚、第二実施形態において第一実施形態と同一構成のものは同一の符号を付し、説明を省略する。
(Second embodiment)
Hereinafter, a video distribution system according to a second embodiment of the present invention will be described with reference to the drawings. In addition, in 2nd embodiment, the thing of the same structure as 1st embodiment attaches | subjects the same code | symbol, and abbreviate | omits description.

(映像配信システム100aの構成)
図11は、本発明の第二実施形態に係る映像配信システム100aの機能構成の一例を示すブロック図である。図12は、配信音声Aの構成の一例を示す図である。図13は、本発明の第二実施形態に係る配信情報PFaの一例を示す図である。図11に示すように、第二実施形態に係る映像配信システム100aは、配信サーバ1aと視聴者端末2aとを備えている。配信サーバ1aと視聴者端末2aとは、LANやインターネットや放送データ網等の不図示のネットワークを介して通信可能に接続されている。
(Configuration of video distribution system 100a)
FIG. 11 is a block diagram showing an example of a functional configuration of the video distribution system 100a according to the second embodiment of the present invention. FIG. 12 is a diagram illustrating an example of the configuration of the distribution sound A. FIG. 13 is a diagram showing an example of distribution information PFa according to the second embodiment of the present invention. As shown in FIG. 11, the video distribution system 100a according to the second embodiment includes a distribution server 1a and a viewer terminal 2a. The distribution server 1a and the viewer terminal 2a are communicably connected via a network (not shown) such as a LAN, the Internet, or a broadcast data network.

(配信サーバ1aの構成と動作)
配信サーバ1aは、第一実施形態で説明した配信映像V(図3)と、第一実施形態で説明した配信情報PF(図2)とは異なる構成の配信情報PFa(図13)と、配信映像Vの表示中に再生され得る一以上の入力音声を含む配信音声A(図12)と、を配信する。具体的には、配信サーバ1aは、第一実施形態で説明した複数の映像出力部11及び記憶部12と、一以上の音声出力部15と、生成部13aと、配信部14aと、を備えている。
(Configuration and operation of distribution server 1a)
The distribution server 1a includes distribution video V (FIG. 3) described in the first embodiment, distribution information PFa (FIG. 13) having a configuration different from the distribution information PF (FIG. 2) described in the first embodiment, and distribution. The distribution audio A (FIG. 12) including one or more input audios that can be reproduced during the display of the video V is distributed. Specifically, the distribution server 1a includes a plurality of video output units 11 and storage units 12, one or more audio output units 15, a generation unit 13a, and a distribution unit 14a described in the first embodiment. ing.

音声出力部15は、配信映像Vの表示中に再生され得る音声を表す音声データを生成部13aへ出力する。具体的には、音声出力部15は、映像出力部11を構成するカメラの周囲の音声を集音し、当該集音した音声を表す音声データを出力するマイクや、音声の編集操作が可能であり、且つ、編集した音声を表す音声データを出力可能なパソコン等の音声編集装置等で構成される。以降、生成部13aに入力される、音声出力部15が出力した音声データが表す音声を入力音声と記載する。   The audio output unit 15 outputs audio data representing audio that can be reproduced while the distribution video V is displayed to the generation unit 13a. Specifically, the audio output unit 15 collects audio around the camera constituting the video output unit 11 and outputs a sound data representing the collected audio, and audio editing operation is possible. And a voice editing device such as a personal computer that can output voice data representing the edited voice. Hereinafter, the voice represented by the voice data output from the voice output unit 15 and input to the generation unit 13a is referred to as input voice.

第二実施形態では、記憶部12が記憶する、配信映像Vに関連する配信情報PFa(図13)には、更に、音声記録情報(破線部)及び再生情報(二点鎖線部)が含まれている。音声記録情報とは、配信映像Vの表示中に再生され得る一以上の入力音声の其々を記録する音声記録領域を定めた情報である。再生情報とは、前記一以上の入力音声の其々の再生方法を定めた情報である。また、配信情報PFaにおいて、一以上の入力音声の其々は、配信映像Vに含まれる複数の入力映像のうちの一の入力映像に対応付けられている。   In the second embodiment, the distribution information PFa (FIG. 13) related to the distribution video V stored in the storage unit 12 further includes audio recording information (dashed line portion) and reproduction information (two-dot chain line portion). ing. The audio recording information is information that defines an audio recording area in which each of one or more input sounds that can be reproduced during display of the distribution video V is recorded. The reproduction information is information that defines a reproduction method for each of the one or more input sounds. Further, in the distribution information PFa, each of the one or more input sounds is associated with one input video among a plurality of input videos included in the distribution video V.

例えば、記憶部12は、図12に示す配信音声Aに含まれる四個の入力音声AB、A1、A2、A3に関連する音声記録情報及び再生情報を含んだ、図13に示す配信情報PFaを記憶しているものとする。   For example, the storage unit 12 stores the distribution information PFa shown in FIG. 13 including the audio recording information and the reproduction information related to the four input sounds AB, A1, A2, and A3 included in the distribution audio A shown in FIG. It shall be remembered.

図12に示すように、配信音声Aは、配信映像V(図3)の表示中に再生され得る四個の入力音声AB、A1、A2、A3を含むものとする。入力音声ABは、入力映像VB(図3)を撮影する全方位カメラの周囲で集音した6チャンネルの音声であるものとする。つまり、入力音声ABは、入力映像VB(図3)に対応付けられた音声であるものとする。三個の入力音声A1、A2、A3は、其々、入力映像V1、V2、V3(図3)を撮影するカメラの周囲で集音した2チャンネル(ステレオ)の音声であるものとする。つまり、三個の入力音声A1、A2、A3は、其々、入力映像V1、V2、V3(図3)に対応付けられた音声であるものとする。   As shown in FIG. 12, it is assumed that the distribution sound A includes four input sounds AB, A1, A2, and A3 that can be reproduced while the distribution video V (FIG. 3) is displayed. The input audio AB is assumed to be 6-channel audio collected around the omnidirectional camera that captures the input video VB (FIG. 3). That is, the input audio AB is assumed to be audio associated with the input video VB (FIG. 3). The three input voices A1, A2, and A3 are assumed to be two-channel (stereo) voices collected around the camera that captures the input videos V1, V2, and V3 (FIG. 3), respectively. That is, the three input voices A1, A2, and A3 are voices associated with the input videos V1, V2, and V3 (FIG. 3), respectively.

また、配信音声Aは、三個の音声トラックAT0、AT1、AT2を有するものとする。音声トラックAT0には、6チャンネルの入力音声ABが記録され、音声トラックAT1には、2チャンネルの入力音声A1と、2チャンネルの入力音声A2と、が記録され、音声トラックAT2には、2チャンネルの入力音声A3が記録されるものとする。   Further, it is assumed that the distribution sound A has three sound tracks AT0, AT1, and AT2. The audio track AT0 records 6-channel input audio AB, the audio track AT1 records 2-channel input audio A1 and 2-channel input audio A2, and the audio track AT2 stores 2 channels. It is assumed that the input voice A3 is recorded.

尚、図12に示す配信音声Aは、例示に過ぎない。例えば、配信音声Aは、一個の音声トラックのみを有し、背景映像又はサブ映像としての入力映像に対応付けられた1チャンネルのモノラルの入力音声だけを、当該音声トラックに記録するものであってもよい。   The delivery sound A shown in FIG. 12 is merely an example. For example, the distribution audio A has only one audio track, and records only one channel monaural input audio associated with the input image as the background image or sub-image on the audio track. Also good.

上述のように、配信音声Aが図12に示すように構成される場合、図13の破線部に示すように、配信情報PFaには、四個の入力音声AB、A1、A2、A3(図12)の其々を記録する音声記録領域RAB、RA1、RA2、RA3(図12)を定めた音声記録情報が含まれる。以降、一以上の入力音声の其々の音声記録領域を総称する場合、音声記録領域RAと記載する。   As described above, when the distribution sound A is configured as shown in FIG. 12, the distribution information PFa includes four input sounds AB, A1, A2, A3 (see FIG. 13). 12) includes audio recording information defining audio recording areas RAB, RA1, RA2, and RA3 (FIG. 12) for recording each of the above. Hereinafter, when each voice recording area of one or more input voices is generically referred to as a voice recording area RA.

また、図13の二点鎖線部に示すように、配信情報PFaには、四個の入力音声AB、A1、A2、A3(図12)の其々の再生方法「audioPlayMode」を定めた再生情報が含まれる。   Further, as indicated by the two-dot chain line portion in FIG. 13, the distribution information PFa includes reproduction information that defines the respective reproduction methods “audioPlayMode” of the four input voices AB, A1, A2, and A3 (FIG. 12). Is included.

図13に示すように、配信情報PFaにおいて、入力音声(例:入力音声A2)を記録する音声記録領域RA(例:RA2)及び当該入力音声の再生方法「audioPlayMode」(例:SelectedOnly)は、当該入力音声に対応付けられた一の入力映像(例:入力映像V2(図3))の識別情報(例:V2)に続く括弧内に記載されることで、当該一の入力映像と対応付けられている。これにより、配信情報PFaにおいて、一以上の入力音声の其々(例:入力音声A2(図12))と、複数の入力映像のうちの一の入力映像(例:入力映像V2(図3))と、の対応付けが定められている。   As shown in FIG. 13, in the distribution information PFa, an audio recording area RA (eg, RA2) for recording an input audio (eg, input audio A2) and a playback method “audioPlayMode” (eg, SelectedOnly) of the input audio are: By being described in parentheses following identification information (eg, V2) of one input video (eg, input video V2 (FIG. 3)) associated with the input audio, it is associated with the one input video. It has been. Thereby, in the distribution information PFa, each of one or more input sounds (for example, input sound A2 (FIG. 12)) and one input image (for example, input image V2 (FIG. 3)) of the plurality of input images. ) Is defined.

入力音声(例:A2(図12))を記録する音声記録領域RA(例:RA2)は、当該入力音声を記録する音声トラックの識別情報「audioTrackName」(例:AT1)と、当該入力音声を音声トラック内の一以上のチャンネルに記録するときの、当該一以上のチャンネルの先頭のチャンネルの番号(以降、開始チャンネルインデックスと記載する)「audioChannelNumber」(例:2)と、当該入力音声の種類「audioType」(例:Stereo)と、によって定められている。   An audio recording area RA (eg, RA2) that records input audio (eg, A2 (FIG. 12)) includes identification information “audioTrackName” (eg, AT1) of the audio track that records the input audio, and the input audio. The number of the first channel of the one or more channels (hereinafter referred to as the start channel index) “audioChannelNumber” (eg, 2) and the type of the input audio when recording on one or more channels in the audio track “AudioType” (for example, Stereo).

尚、図13に示す音声記録領域RAB、RA3のように、入力音声の開始チャンネルインデックス「audioChannelNumber」は「−1」によって定めることができる。これは、入力音声を音声トラック内の全てのチャンネルに記録することを示している。   As in the audio recording areas RAB and RA3 shown in FIG. 13, the input audio start channel index “audioChannelNumber” can be determined by “−1”. This indicates that the input sound is recorded on all channels in the sound track.

また、入力音声の種類「audioType」は、入力音声のチャンネル数が識別可能なように定められている。具体的には、入力音声の種類「audioType」が「Stereo」の場合、当該入力音声の種類が2チャンネルのステレオ音声であることが定められている。このため、当該入力音声のチャンネル数が2であると識別できる。入力音声の種類「audioType」が「Spacial−6」の場合、当該入力音声の種類が6チャンネルの特別な音声であることが定められている。この場合、当該入力音声の種類に数字「6」が含まれているので、当該入力音声のチャンネル数が6であると識別できる。ただし、これに限らず、入力音声(例:AB)の種類「audioType」を、入力音声のチャンネル数(例:6)によって定める(例:”audioType”:”6”)ようにしてもよい。   The type of audio input “audioType” is determined so that the number of channels of input audio can be identified. Specifically, when the input audio type “audioType” is “Stereo”, it is determined that the input audio type is two-channel stereo audio. For this reason, it can be identified that the number of channels of the input sound is two. When the input audio type “audioType” is “Spacial-6”, it is determined that the input audio type is 6-channel special audio. In this case, since the number “6” is included in the type of the input voice, it can be identified that the number of channels of the input voice is six. However, the present invention is not limited to this, and the type “audioType” of the input voice (eg, AB) may be determined by the number of channels (eg, “6”) of the input voice (eg, “audioType”: “6”).

入力音声の再生方法「audioPlayMode」は、所定の三個の再生方法「Normal」(第一再生方法)、「SelectedMix」(第二再生方法)、「SelectedOnly」(第三再生方法)のうちの何れか一の再生方法によって定められている。   The input audio playback method “audioPlayMode” is one of three predetermined playback methods “Normal” (first playback method), “SelectedMix” (second playback method), and “SelectedOnly” (third playback method). Or one playback method.

具体的には、入力音声の再生方法「audioPlayMode」が再生方法「Normal」に定められているとする。この場合、当該入力音声(第一の入力音声)に対応付けられた入力映像(第一の入力映像)が映像表示領域VDA(図4)に表示された場合に、当該入力音声が再生される。   Specifically, it is assumed that the playback method “audioPlayMode” of the input sound is defined as the playback method “Normal”. In this case, when the input video (first input video) associated with the input voice (first input voice) is displayed in the video display area VDA (FIG. 4), the input voice is reproduced. .

例えば、図13に示す再生情報では、入力音声ABの再生方法「audioPlayMode」が再生方法「Normal」に定められている。つまり、入力音声AB(図12)に対応付けられた入力映像VB(図3)が映像表示領域VDA(図4)に表示された場合に、入力音声ABを再生することが定められている。   For example, in the reproduction information shown in FIG. 13, the reproduction method “audioPlayMode” of the input sound AB is defined as the reproduction method “Normal”. That is, when the input video VB (FIG. 3) associated with the input audio AB (FIG. 12) is displayed in the video display area VDA (FIG. 4), it is determined that the input audio AB is reproduced.

入力音声の再生方法「audioPlayMode」が再生方法「SelectedMix」に定められているとする。この場合、当該入力音声(第二の入力音声)に対応付けられた入力映像(第二の入力映像)の選択が映像選択部20(図11)によって受け付けられた場合に、当該入力音声が所定の第一音量で再生される。また、前記一以上の入力音声のうち、再生情報において再生方法「Normal」で再生することが定められた入力音声が、前記第一音量よりも小さい第二音量で再生される。   Assume that the playback method “audioPlayMode” of the input sound is defined as the playback method “SelectedMix”. In this case, when the selection of the input video (second input video) associated with the input audio (second input audio) is received by the video selection unit 20 (FIG. 11), the input audio is predetermined. Is played at the first volume. In addition, among the one or more input sounds, an input sound that is determined to be reproduced by the reproduction method “Normal” in the reproduction information is reproduced at a second volume smaller than the first volume.

例えば、図13に示す再生情報では、入力音声ABの再生方法「audioPlayMode」が再生方法「Normal」に定められ、入力音声A3の再生方法「audioPlayMode」が再生方法「SelectedMix」に定められている。つまり、入力音声A3に対応付けられた入力映像V3(図3)の選択が映像選択部20(図1)によって受け付けられた場合に、入力音声A3を所定の第一音量で再生し、入力音声ABを第一音量よりも小さい第二音量で再生することが定められている。   For example, in the reproduction information shown in FIG. 13, the reproduction method “audioPlayMode” of the input audio AB is defined as the reproduction method “Normal”, and the reproduction method “audioPlayMode” of the input audio A3 is defined as the reproduction method “SelectedMix”. That is, when selection of the input video V3 (FIG. 3) associated with the input audio A3 is accepted by the video selection unit 20 (FIG. 1), the input audio A3 is reproduced at a predetermined first volume, and the input audio It is determined that AB is reproduced at a second volume that is smaller than the first volume.

入力音声の再生方法「audioPlayMode」が再生方法「SelectedOnly」に定められているとする。この場合、当該入力音声(第三の入力音声)に対応付けられた入力映像(第三の入力映像)の選択が映像選択部20(図1)によって受け付けられた場合に、当該入力音声のみが再生される。   Assume that the playback method “audioPlayMode” of the input sound is defined as the playback method “SelectedOnly”. In this case, when the selection of the input video (third input video) associated with the input audio (third input audio) is received by the video selection unit 20 (FIG. 1), only the input audio is received. Played.

例えば、図13に示す再生情報では、入力音声ABの再生方法「audioPlayMode」が再生方法「Normal」に定められ、入力音声A1(A2)の再生方法「audioPlayMode」が再生方法「SelectedOnly」に定められている。つまり、入力音声A1(A2)に対応付けられた入力映像V1(V2)の選択が映像選択部20によって受け付けられた場合に、入力音声ABの音量を0にして(ミュートして)、入力音声A1(A2)のみを再生することが定められている。   For example, in the reproduction information shown in FIG. 13, the reproduction method “audioPlayMode” of the input audio AB is defined as the reproduction method “Normal”, and the reproduction method “audioPlayMode” of the input audio A1 (A2) is defined as the reproduction method “SelectedOnly”. ing. That is, when selection of the input video V1 (V2) associated with the input audio A1 (A2) is accepted by the video selection unit 20, the volume of the input audio AB is set to 0 (muted), and the input audio is It is determined that only A1 (A2) is reproduced.

生成部13aは、スイッチャー及びミキサー等によって構成される。生成部13aは、、S13(図8)において、上述のように配信映像V(図3)を生成し、更に、一以上の入力音声(例:AB、A1、A2、A3(図12))の其々を、記憶部12が記憶している配信情報PFa(図12)に含まれている音声記録情報(図13の破線部)が示す音声記録領域(例:RAB、RA1、RA2、RA3(図12))に記録し、一以上の入力音声の其々が記録された音声記録領域(例:RAB、RA1、RA2、RA3(図12))を有する一の配信音声A(図12)を生成する。   The generation unit 13a includes a switcher and a mixer. In S13 (FIG. 8), the generation unit 13a generates the distribution video V (FIG. 3) as described above, and further, one or more input sounds (eg, AB, A1, A2, A3 (FIG. 12)). Are recorded in the audio recording area (example: RAB, RA1, RA2, RA3) indicated by the audio recording information (broken line portion in FIG. 13) included in the distribution information PFa (FIG. 12) stored in the storage unit 12. (FIG. 12)), and one distribution sound A (FIG. 12) having a sound recording area (for example, RAB, RA1, RA2, RA3 (FIG. 12)) in which each of one or more input sounds is recorded. Is generated.

配信部14aは、エンコーダーと前記ネットワークを介して視聴者端末2aとの間で通信を行う通信インターフェイス回路とによって構成される。配信部14aは、S14(図8)において、上述のようにS13で生成された配信映像V(図3)を表す映像データを生成し、更に、S13で生成された配信音声A(図12)を所定の方式(例:MP3、AAC等)で符号化して、配信音声A(図12)を表す音声データを生成する。   The distribution unit 14a includes an encoder and a communication interface circuit that performs communication between the viewer terminal 2a via the network. In S14 (FIG. 8), the distribution unit 14a generates video data representing the distribution video V (FIG. 3) generated in S13 as described above, and further, the distribution audio A (FIG. 12) generated in S13. Is encoded by a predetermined method (eg, MP3, AAC, etc.) to generate audio data representing the distribution audio A (FIG. 12).

そして、配信部14aは、生成した配信映像Vを表す映像データ、生成した配信音声Aを表す音声データ、及び記憶部12が記憶している当該配信映像Vに関連する配信情報PFa(図13)を、前記ネットワークを介して配信する。   The distribution unit 14a then generates video data representing the generated distribution video V, audio data representing the generated distribution audio A, and distribution information PFa related to the distribution video V stored in the storage unit 12 (FIG. 13). Are distributed via the network.

(視聴者端末2aの構成と動作)
一方、視聴者端末2aは、配信サーバ1aから、配信映像Vを表す映像データ及び配信映像Vに関連する配信情報PFaを取得し、更に、配信音声Aを取得する。視聴者端末2aは、上述のように、取得した映像データが表す配信映像Vを、取得した配信情報PFに基づき、所定の映像表示領域VDA(図4)に表示し、更に、取得した配信情報PFに基づき、配信音声Aを再生する。
(Configuration and operation of viewer terminal 2a)
On the other hand, the viewer terminal 2a acquires the video data representing the distribution video V and the distribution information PFa related to the distribution video V from the distribution server 1a, and further acquires the distribution audio A. As described above, the viewer terminal 2a displays the distribution video V represented by the acquired video data on the predetermined video display area VDA (FIG. 4) based on the acquired distribution information PF, and further acquires the acquired distribution information. Based on the PF, the distribution sound A is reproduced.

具体的には、視聴者端末2aは、第一実施形態で説明した前記情報通信装置と、サラウンドスピーカーやヘッドフォン等のスピーカーと、一以上の音声トラックに記録されている一以上のチャンネル数の音声を、其々、所定の音量で同時に前記スピーカーに出力させることが可能な音声出力装置と、によって構成される。   Specifically, the viewer terminal 2a includes the information communication apparatus described in the first embodiment, speakers such as surround speakers and headphones, and audio of one or more channels recorded in one or more audio tracks. And a sound output device capable of simultaneously outputting to the speaker at a predetermined volume.

視聴者端末2aは、図11に示すように、第一実施形態で説明した表示部21、操作部22、設定部25、表示制御部26、受付部27、選択部28、適用部29、映像選択部20、姿勢検出部91及び視点検出部92として機能する。また、視聴者端末2aは、更に、取得部23a、抽出部24a、及び再生部31として機能する。   As shown in FIG. 11, the viewer terminal 2a includes the display unit 21, the operation unit 22, the setting unit 25, the display control unit 26, the reception unit 27, the selection unit 28, the application unit 29, and the video described in the first embodiment. It functions as the selection unit 20, the posture detection unit 91, and the viewpoint detection unit 92. Further, the viewer terminal 2a further functions as an acquisition unit 23a, an extraction unit 24a, and a playback unit 31.

取得部23aは、前記マイクロコンピューター及び前記通信インターフェイス回路によって構成される。取得部23aは、配信サーバ1aと通信を行うことにより、S21(図9)において、配信部14aによって配信された配信情報PFa(図12)を取得し、S22(図9)において、配信映像Vを表す映像データを取得し、更に、配信音声Aを表す音声データを取得する。   The acquisition unit 23a is configured by the microcomputer and the communication interface circuit. The acquisition unit 23a communicates with the distribution server 1a to acquire the distribution information PFa (FIG. 12) distributed by the distribution unit 14a in S21 (FIG. 9). In S22 (FIG. 9), the distribution video V Is acquired, and further audio data representing the distribution audio A is acquired.

抽出部24aは、前記デコーダー及び前記マイクロコンピューターによって構成される。抽出部24aは、S23(図9)において、上述のように、配信映像Vに含まれる複数の入力映像の其々を個別に分割して抽出し、更に、S22(図9)で取得された音声データを復号化して配信音声A(図12)を生成する。そして、抽出部24aは、前記生成した配信音声A(図12)から、S22(図9)で取得部23aが取得した配信情報PFa(図12)に含まれている音声記録情報が示す音声記録領域RA(例:RAB、RA1、RA2、RA3(図12、図13))に記録されている、一以上の入力音声(例:AB、A1、A2、A3(図12))の其々を個別に分割して抽出する。   The extraction unit 24a is configured by the decoder and the microcomputer. In S23 (FIG. 9), the extraction unit 24a individually divides and extracts each of the plurality of input videos included in the distribution video V as described above, and is further acquired in S22 (FIG. 9). The voice data is decoded to generate the distribution voice A (FIG. 12). Then, the extraction unit 24a performs the audio recording indicated by the audio recording information included in the distribution information PFa (FIG. 12) acquired by the acquisition unit 23a in S22 (FIG. 9) from the generated distribution audio A (FIG. 12). Each of one or more input voices (for example, AB, A1, A2, A3 (FIG. 12)) recorded in the area RA (for example, RAB, RA1, RA2, RA3 (FIG. 12, FIG. 13)) Separate and extract individually.

再生部31は、前記スピーカーと前記音声出力装置によって構成される。再生部31は、S25(図9)の後且つS26(図9)の実行前に、S23(図9)において抽出部24aが抽出した一以上の入力音声のうち、S22(図9)で取得部23aが取得した配信情報PFa(図13)に含まれている再生情報(図13の二点鎖線部)によって、再生方法「Normal」で再生することが定められた入力音声(例:AB(図12))を再生する。   The reproduction unit 31 includes the speaker and the audio output device. The reproduction unit 31 acquires, in S22 (FIG. 9), one or more input voices extracted by the extraction unit 24a in S23 (FIG. 9) after S25 (FIG. 9) and before execution of S26 (FIG. 9). Input audio (for example, AB ()) that is determined to be reproduced by the reproduction method “Normal” based on reproduction information (two-dot chain line portion in FIG. 13) included in the distribution information PFa (FIG. 13) acquired by the unit 23a. FIG. 12)) is reproduced.

この構成によれば、例えば、背景映像として定められた入力映像(例:VB(図2、図3))が配信映像V(図3)に含まれている場合、当該入力映像に対応付けられた入力音声(例:AB(図12))を再生方法「Normal」で再生することを定めた再生情報を配信情報PFaに含めることで、当該入力音声を、前記入力映像が背景映像として表示されている場合に再生することができる。   According to this configuration, for example, when an input video (for example, VB (FIGS. 2 and 3)) defined as a background video is included in the distribution video V (FIG. 3), it is associated with the input video. If the distribution information PFa includes reproduction information that determines that the input audio (eg, AB (FIG. 12)) is reproduced by the reproduction method “Normal”, the input audio is displayed as the background video. If you can play it.

また、S36(図10)において、映像選択部20によって視聴者による一の入力映像の選択が受け付けられたとする(S36;YES)。そして、当該一の入力映像が、S22(図9)で取得された配信情報PFa(図13)に含まれている再生情報(図13の二点鎖線部)によって、再生方法「SelectedMix」で再生することが定められた入力音声(例:A3(図12))に対応する入力映像(例:V3(図3))であったとする。   In S36 (FIG. 10), it is assumed that selection of one input video by the viewer is accepted by the video selection unit 20 (S36; YES). The one input video is reproduced by the reproduction method “SelectedMix” by the reproduction information (two-dot chain line portion in FIG. 13) included in the distribution information PFa (FIG. 13) acquired in S22 (FIG. 9). It is assumed that the input video (for example, V3 (FIG. 3)) corresponding to the input voice (for example, A3 (FIG. 12)) determined to be performed.

この場合、再生部31は、S36で選択された入力映像(例:V3(図3))に対応する入力音声(例:A3(図12))を所定の第一音量で再生し、S25(図9)の後且つS26(図9)の実行前に再生した、再生方法「Normal」で再生することが定められた入力音声(例:AB(図12))の音量を、第一音量よりも小さい第二音量に変更する。   In this case, the playback unit 31 plays back the input audio (eg, A3 (FIG. 12)) corresponding to the input video (eg: V3 (FIG. 3)) selected in S36 at a predetermined first volume, and S25 ( The volume of the input sound (eg, AB (FIG. 12)) that is determined to be played back by the playback method “Normal” played after S26 (FIG. 9) and after the execution of S26 (FIG. 9) is determined from the first volume. Also change to a lower second volume.

この構成によれば、例えば、背景映像として定められた第一の入力映像(例:VB(図2、図3))とこれに重畳して表示されるサブ映像として定められた第二の入力映像(例:V3(図2、図3))とが配信映像Vに含まれているとする。この場合に、第一の入力映像に対応付けられた第一の入力音声(例:AB(図12))を再生方法「Normal」で再生することを定め、第二の入力映像に対応付けられた第二の入力音声(例:A3(図12))を再生方法「SelectedMix」で再生することを定めた再生情報を、配信情報PFa(図13)に含めることができる。   According to this configuration, for example, a first input video (for example, VB (FIGS. 2 and 3)) defined as a background video and a second input defined as a sub video displayed superimposed thereon Assume that a video (example: V3 (FIGS. 2 and 3)) is included in the distribution video V. In this case, it is determined that the first input sound (for example, AB (FIG. 12)) associated with the first input image is reproduced by the reproduction method “Normal”, and is associated with the second input image. In addition, the distribution information PFa (FIG. 13) can include reproduction information that determines that the second input voice (eg, A3 (FIG. 12)) is reproduced by the reproduction method “SelectedMix”.

これにより、視聴者は、第一の入力映像が背景映像として表示されている場合に、第一の入力音声を聞くことができる。その後、視聴者は、第二の入力映像(例:V3(図13))を選択することで、第一の入力音声よりも大きい音量で、第二の入力映像に対応付けられた第二の入力音声(例:A3(図12))を再生させ、第二の入力音声を第一の入力音声(例:AB(図12))よりも聞き易くすることができる。   Thereby, the viewer can hear the first input sound when the first input video is displayed as the background video. Thereafter, the viewer selects the second input video (for example, V3 (FIG. 13)), so that the second input video associated with the second input video is louder than the first input audio. The input voice (example: A3 (FIG. 12)) is reproduced, and the second input voice can be made easier to hear than the first input voice (example: AB (FIG. 12)).

また、S36(図10)において、映像選択部20によって視聴者による一の入力映像の選択が受け付けられたとする(S36;YES)。そして、当該一の入力映像が、S22(図9)で取得された配信情報PFa(図13)に含まれている再生情報(図13の二点鎖線部)によって、再生方法「SelectedOnly」で再生することが定められた入力音声(例:A1(A2)(図12))に対応する入力映像(例:V1(V2)(図3))であったとする。   In S36 (FIG. 10), it is assumed that selection of one input video by the viewer is accepted by the video selection unit 20 (S36; YES). Then, the one input video is reproduced by the reproduction method “SelectedOnly” by the reproduction information (two-dot chain line portion in FIG. 13) included in the distribution information PFa (FIG. 13) acquired in S22 (FIG. 9). It is assumed that the input video (for example, V1 (V2) (FIG. 3)) corresponding to the input voice (for example: A1 (A2) (FIG. 12)) determined to be performed.

この場合、再生部31は、S25(図9)の後且つS26(図9)の実行前に再生した、再生方法「Normal」で再生することが定められた入力音声(例:AB(図12))の音量を0にして(ミュートして)、S36で選択された入力映像(例:V1(V2)(図3))に対応する入力音声(例:A1(A2)(図12))のみを所定の音量で再生する。   In this case, the playback unit 31 plays back the input sound (eg, AB (FIG. 12) that is determined to be played back by the playback method “Normal” played after S25 (FIG. 9) and before the execution of S26 (FIG. 9). )) Is set to 0 (muted), and the input audio corresponding to the input video (eg, V1 (V2) (FIG. 3)) selected in S36 (eg: A1 (A2) (FIG. 12)) Only play at a predetermined volume.

この構成によれば、例えば、背景映像として定められた第一の入力映像(例:VB(図2、図3))とこれに重畳して表示されるサブ映像として定められた第三の入力映像(例:V1、V2(図2、図3))とが配信映像Vに含まれているとする。この場合に、第一の入力映像に対応付けられた第一の入力音声(例:AB(図12))を再生方法「Normal」で再生することを定め、第三の入力映像に対応付けられた第三の入力音声(例:A1、A2(図12))を再生方法「SelectedOnly」で再生することを定めた再生情報を、配信情報PFa(図13)に含めることができる。   According to this configuration, for example, a first input video (for example, VB (FIGS. 2 and 3)) defined as a background video and a third input defined as a sub video displayed superimposed thereon Assume that videos (eg, V1 and V2 (FIGS. 2 and 3)) are included in the distribution video V. In this case, it is determined that the first input sound (eg, AB (FIG. 12)) associated with the first input image is reproduced by the reproduction method “Normal”, and is associated with the third input image. In addition, the distribution information PFa (FIG. 13) can include reproduction information that determines that the third input sound (eg, A1, A2 (FIG. 12)) is reproduced by the reproduction method “SelectedOnly”.

これにより、視聴者は、第一の入力映像が背景映像として表示されている場合に、第一の入力音声を聞くことができる。その後、視聴者は、第三の入力映像(例:V1、V2(図2、図3))を選択することで、第三の入力音声(例:A1、A2(図12))のみを再生させ、第三の入力音声を注力して聞くことができる。   Thereby, the viewer can hear the first input sound when the first input video is displayed as the background video. Thereafter, the viewer selects only the third input video (eg, V1, V2 (FIGS. 2 and 3)), thereby reproducing only the third input sound (eg, A1, A2 (FIG. 12)). And focus on the third input voice.

このように、第二実施形態の構成によれば、視聴者端末2aにおいて配信サーバ1aから取得した配信音声A(図12)及び配信情報PFa(図13)を用いて、配信映像V(図3)の表示中に再生され得る一以上の入力音声(例:AB、A1、A2、A3(図12))が個別に分割されて抽出される。そして、抽出された一以上の入力音声の其々が、配信情報PFaに含まれている再生情報が示す再生方法で再生される。このため、一以上の入力音声の其々を、配信サーバ1aに負担をかけることなく、各入力音声固有の再生方法で再生することができる。   Thus, according to the configuration of the second embodiment, the distribution video V (FIG. 3) is obtained using the distribution audio A (FIG. 12) and the distribution information PFa (FIG. 13) acquired from the distribution server 1a in the viewer terminal 2a. ), One or more input sounds (for example, AB, A1, A2, A3 (FIG. 12)) that can be reproduced while being displayed are individually divided and extracted. Then, each of the extracted one or more input voices is reproduced by the reproduction method indicated by the reproduction information included in the distribution information PFa. For this reason, each of the one or more input voices can be reproduced by a reproduction method specific to each input voice without placing a burden on the distribution server 1a.

(変形実施形態)
尚、上記第一及び第二実施形態は、本発明に係る実施形態の例示に過ぎず、本発明を上記第一及び第二実施形態に限定する趣旨ではない。例えば、以下に示す変形実施形態であってもよい。
(Modified embodiment)
In addition, said 1st and 2nd embodiment is only the illustration of embodiment which concerns on this invention, and is not the meaning which limits this invention to said 1st and 2nd embodiment. For example, the following modified embodiment may be used.

(1)視聴者端末2、2aが、視点検出部92(図1、図11)として機能しないようにしてもよい。つまり、映像選択部20(図1、図11)が、視聴者が操作部22(図1、図11)を用いて、映像表示領域VDAに表示されている複数の入力映像の中から一の入力映像を選択操作した場合にのみ、当該一の入力映像の選択を受け付けるようにしてもよい。   (1) The viewer terminals 2 and 2a may not function as the viewpoint detection unit 92 (FIGS. 1 and 11). That is, the video selection unit 20 (FIGS. 1 and 11) uses the operation unit 22 (FIGS. 1 and 11) and the viewer selects one of the plurality of input videos displayed in the video display area VDA. The selection of the one input video may be accepted only when the input video is selected.

(2)再生情報(図13の二点鎖線部)において、再生方法「SelectedOnly」を定められないようにしてもよい。更に、再生情報において、再生方法「SelectedMix」を定められないようにしてもよい。   (2) The reproduction method “SelectedOnly” may not be determined in the reproduction information (two-dot chain line portion in FIG. 13). Furthermore, the reproduction method “SelectedMix” may not be defined in the reproduction information.

(3)視聴者端末2、2aが、映像選択部20及び適用部29(図1、図11)として機能しないようにしてもよい。これに合わせて、配信情報PF(図2)、PFa(図13)に、アニメーション情報(図2の一点鎖線部)を含めないようにし、S36からS38(図10)を省略してもよい。   (3) The viewer terminals 2 and 2a may not function as the video selection unit 20 and the application unit 29 (FIGS. 1 and 11). In accordance with this, the distribution information PF (FIG. 2) and PFa (FIG. 13) may not include animation information (the chain line portion of FIG. 2), and S36 to S38 (FIG. 10) may be omitted.

(4)視聴者端末2、2aが、選択部28(図1、図11)として機能しないように構成してもよい。これに合わせて、配信情報PF(図2)、PFa(図13)に、領域追従情報(図2の長破線部)を含めないようにし、S34及びS35(図10)を省略してもよい。   (4) The viewer terminals 2 and 2a may be configured not to function as the selection unit 28 (FIGS. 1 and 11). Accordingly, the distribution information PF (FIG. 2) and PFa (FIG. 13) may not include the area following information (the long broken line portion in FIG. 2), and S34 and S35 (FIG. 10) may be omitted. .

(5)視聴者端末2、2aが、姿勢検出部91(図1、図11)として機能しないようにしてもよい。これに合わせて、S31、S32及びS33(図10)を省略してもよい。   (5) The viewer terminals 2 and 2a may not function as the posture detection unit 91 (FIGS. 1 and 11). In accordance with this, S31, S32 and S33 (FIG. 10) may be omitted.

(6)配信情報PF(図2)、PFa(図13)に、初期表示情報(図2の二点鎖線部)を含めないようにしてもよい。これに合わせて、例えば、設定部25が、S24(図9)において、映像表示領域VDAを入力映像の数で均等に分割し、分割後の各領域を各入力映像の表示領域DAとして自動的に設定するようにしてもよい。または、S21(図9)で取得された配信情報PF、PFaに含まれている配置情報(図2の破線部)が示す配置領域PA(例:PA1(図2))が、映像表示領域VDA(図4)において各入力映像の表示領域DAが配置されている領域を示すものであるとして、設定部25が、当該配置領域PAを表示領域DAとして設定するようにしてもよい。   (6) The initial display information (two-dot chain line portion in FIG. 2) may not be included in the distribution information PF (FIG. 2) and PFa (FIG. 13). In accordance with this, for example, in S24 (FIG. 9), the setting unit 25 divides the video display area VDA evenly by the number of input videos, and each divided area is automatically set as the display area DA of each input video. You may make it set to. Alternatively, the arrangement area PA (eg, PA1 (FIG. 2)) indicated by the arrangement information (broken line portion in FIG. 2) included in the distribution information PF and PFa acquired in S21 (FIG. 9) is the video display area VDA. In FIG. 4, the setting unit 25 may set the display area DA as the display area DA, assuming that the display area DA of each input video is shown.

つまり、配置領域PA(例:配置領域PA1(clipX「0」、clipY「6668」、clipW「3333」、clipY「3333」)(図2))を、映像表示領域VDA(図4)の左上隅を基準点とし、映像表示領域VDA(図4)における水平方向の位置をX座標で示し、映像表示領域VDA(図4)における垂直方向の位置をY座標で示す二次元座標を用いて定められた表示領域DAとして代用してもよい。   That is, the arrangement area PA (eg, the arrangement area PA1 (clipX “0”, clipY “6668”, clipW “3333”, clipY “3333”) (FIG. 2)) is set to the upper left corner of the video display area VDA (FIG. 4). Is a reference point, the horizontal position in the video display area VDA (FIG. 4) is indicated by an X coordinate, and the vertical position in the video display area VDA (FIG. 4) is determined using a two-dimensional coordinate. The display area DA may be substituted.

又は、設定部25が、S24(図9)において、表示部21を制御して、視聴者が複数の入力映像の其々の表示領域DAの編集操作を行うように案内するメッセージ(例:「入力映像の表示領域を編集して下さい。」)を、映像表示領域VDA(図4)内に表示させるようにしてもよい。そして、S26及びS27(図9)と同じ処理を行うようにしてもよい。   Alternatively, the setting unit 25 controls the display unit 21 in S24 (FIG. 9) to guide the viewer to perform an editing operation on each display area DA of a plurality of input videos (for example, “ Please edit the display area of the input video. ”) May be displayed in the video display area VDA (FIG. 4). And you may make it perform the same process as S26 and S27 (FIG. 9).

(7)配信サーバ1(1a)と視聴者端末2(2a)とが前記ネットワークを介して互いに通信できないようにしてもよい。これに合わせて、配信部14(14a)を、エンコーダーとDVDやBD(ブルーレイディスク)等の記録媒体にデータ及び情報を記録する記録装置とによって構成し、配信部14(14a)が、S14(図8)において、配信映像V及び配信情報PF(配信映像V、配信情報PFa及び配信音声A)を記録媒体に記録するようにしてもよい。そして、配信映像Vの提供者が、当該記録媒体を郵送等で視聴者端末2(2a)に提供するようにしてもよい。これにより、配信映像V及び配信情報PF(配信映像V、配信情報PFa及び配信音声A)を記録媒体で配信するようにしてもよい。   (7) The distribution server 1 (1a) and the viewer terminal 2 (2a) may not be able to communicate with each other via the network. Accordingly, the distribution unit 14 (14a) is configured by an encoder and a recording device that records data and information on a recording medium such as a DVD or a BD (Blu-ray Disc), and the distribution unit 14 (14a) In FIG. 8), the distribution video V and distribution information PF (distribution video V, distribution information PFa, and distribution audio A) may be recorded on a recording medium. Then, the provider of the distribution video V may provide the recording medium to the viewer terminal 2 (2a) by mail or the like. Accordingly, the distribution video V and the distribution information PF (distribution video V, distribution information PFa, and distribution audio A) may be distributed on the recording medium.

この場合、取得部23(23a)を、前記マイクロコンピューターとDVDやBD(ブルーレイディスク)等の記録媒体からデータ及び情報を取得する取得装置とによって構成すればよい。そして、当該取得部23(23a)が、S21及びS22(図9)において、前記提供者から提供された記録媒体から、配信映像V及び配信情報PF(配信映像V、配信情報PFa及び配信音声A)を取得するように構成すればよい。   In this case, the acquisition unit 23 (23a) may be configured by the microcomputer and an acquisition device that acquires data and information from a recording medium such as a DVD or a BD (Blu-ray disc). Then, in S21 and S22 (FIG. 9), the acquisition unit 23 (23a) receives the distribution video V and the distribution information PF (distribution video V, distribution information PFa, and distribution audio A from the recording medium provided by the provider. ).

100、100a 映像配信システム
1、1a 配信サーバ
12 記憶部
13、13a 生成部
14、14a 配信部
2、2a 視聴者端末
20 映像選択部
21 表示部
23、23a 取得部
24、24a 抽出部
25 設定部
26 表示制御部
27 受付部
28 選択部
29 適用部
31 再生部
91 姿勢検出部
92 視点検出部
DA 表示領域
PA 配置領域
PF、PFa 配信情報
V 配信映像
VB、V1〜V4 入力映像
VA 映像領域
VBa、VBb 仮想空間映像
VDA 映像表示領域
A 配信音声
AB、A1〜A4 入力音声
RA 音声記録領域
100, 100a Video distribution system 1, 1a Distribution server 12 Storage unit 13, 13a Generation unit 14, 14a Distribution unit 2, 2a Viewer terminal 20 Video selection unit 21 Display unit 23, 23a Acquisition unit 24, 24a Extraction unit 25 Setting unit 26 Display Control Unit 27 Reception Unit 28 Selection Unit 29 Application Unit 31 Playback Unit 91 Attitude Detection Unit 92 Viewpoint Detection Unit DA Display Area PA Arrangement Area PF, PFa Distribution Information V Distribution Video VB, V1 to V4 Input Video VA Video Area VBa, VBb Virtual space video VDA video display area A Distribution audio AB, A1-A4 Input audio RA Audio recording area

Claims (11)

複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、
前記配信サーバは、
前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、
前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、
前記配信映像及び前記配信情報を配信する配信部と、
を備え、
前記視聴者端末は、
所定の映像表示領域に映像を表示する表示部と、
前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、
前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、
前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、
前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、
視聴者による前記表示領域の編集操作を受け付ける受付部と、
を備え
前記設定部は、前記受付部が受け付けた前記編集操作で編集された前記表示領域によって、前記受付部による前記編集操作の受け付け前に設定した前記表示領域を更新し、
前記表示領域の編集操作には、前記表示領域を削除する操作が含まれる
映像配信システム。
A video distribution system comprising a distribution server and a viewer terminal for arranging and synthesizing a plurality of input videos in one video area and distributing the distribution video represented by the entire video area,
The distribution server
A storage unit for storing distribution information including arrangement information defining respective arrangement areas of the plurality of input videos in the video area;
Each of the plurality of input videos is arranged in the arrangement area indicated by the arrangement information and synthesized, and a generation unit that generates the distribution video represented by the entire video area;
A distribution unit for distributing the distribution video and the distribution information;
With
The viewer terminal is
A display unit for displaying video in a predetermined video display area;
An acquisition unit for acquiring the distribution video and the distribution information distributed by the distribution unit;
Each of the plurality of input videos that are arranged in the arrangement area indicated by the arrangement information included in the distribution information acquired by the acquisition unit from the distribution video acquired by the acquisition unit individually An extraction unit for dividing and extracting;
A setting unit for setting each display area of the plurality of input videos in the video display area;
A display control unit that controls the display unit to display each of the plurality of input videos extracted by the extraction unit in the display area set by the setting unit;
A reception unit that receives an editing operation of the display area by a viewer;
Equipped with a,
The setting unit updates the display area set before accepting the editing operation by the accepting unit with the display area edited by the editing operation accepted by the accepting unit,
The video distribution system includes an operation of deleting the display area in the editing operation of the display area .
複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、
前記配信サーバは、
前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、
前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、
前記配信映像及び前記配信情報を配信する配信部と、
を備え、
前記視聴者端末は、
所定の映像表示領域に映像を表示する表示部と、
前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、
前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、
前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、
前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、
視聴者が意図する前記映像表示領域の姿勢を検出する姿勢検出部と、
を備え
前記複数の入力映像には、所定の撮影視点から全方位を撮影して得られた全方位映像が含まれ、
前記表示制御部は、前記全方位映像に含まれている、前記撮影視点から前記姿勢検出部が検出した前記姿勢と同じ姿勢の平面に直交する方向を撮影方向として撮影して得られた仮想空間映像を、前記表示部を制御して、前記全方位映像の前記表示領域に表示させる
映像配信システム。
A video distribution system comprising a distribution server and a viewer terminal for arranging and synthesizing a plurality of input videos in one video area and distributing the distribution video represented by the entire video area,
The distribution server
A storage unit for storing distribution information including arrangement information defining respective arrangement areas of the plurality of input videos in the video area;
Each of the plurality of input videos is arranged in the arrangement area indicated by the arrangement information and synthesized, and a generation unit that generates the distribution video represented by the entire video area;
A distribution unit for distributing the distribution video and the distribution information;
With
The viewer terminal is
A display unit for displaying video in a predetermined video display area;
An acquisition unit for acquiring the distribution video and the distribution information distributed by the distribution unit;
Each of the plurality of input videos that are arranged in the arrangement area indicated by the arrangement information included in the distribution information acquired by the acquisition unit from the distribution video acquired by the acquisition unit individually An extraction unit for dividing and extracting;
A setting unit for setting each display area of the plurality of input videos in the video display area;
A display control unit that controls the display unit to display each of the plurality of input videos extracted by the extraction unit in the display area set by the setting unit;
A posture detection unit that detects a posture of the video display region intended by the viewer;
Equipped with a,
The plurality of input videos include an omnidirectional video obtained by shooting omnidirectional from a predetermined shooting viewpoint,
The display control unit is a virtual space obtained by photographing a direction perpendicular to a plane having the same posture as the posture detected by the posture detection unit from the photographing viewpoint, which is included in the omnidirectional video. A video distribution system that controls the display unit to display video in the display area of the omnidirectional video .
複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、
前記配信サーバは、
前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、
前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、
前記配信映像及び前記配信情報を配信する配信部と、
を備え、
前記視聴者端末は、
所定の映像表示領域に映像を表示する表示部と、
前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、
前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、
前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、
前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、
前記設定部によって、前記表示領域を、前記映像表示領域の姿勢の変化に応じて移動させるか否かの選択を受け付ける選択部と、
を備える映像配信システム。
A video distribution system comprising a distribution server and a viewer terminal for arranging and synthesizing a plurality of input videos in one video area and distributing the distribution video represented by the entire video area,
The distribution server
A storage unit for storing distribution information including arrangement information defining respective arrangement areas of the plurality of input videos in the video area;
Each of the plurality of input videos is arranged in the arrangement area indicated by the arrangement information and synthesized, and a generation unit that generates the distribution video represented by the entire video area;
A distribution unit for distributing the distribution video and the distribution information;
With
The viewer terminal is
A display unit for displaying video in a predetermined video display area;
An acquisition unit for acquiring the distribution video and the distribution information distributed by the distribution unit;
Each of the plurality of input videos that are arranged in the arrangement area indicated by the arrangement information included in the distribution information acquired by the acquisition unit from the distribution video acquired by the acquisition unit individually An extraction unit for dividing and extracting;
A setting unit for setting each display area of the plurality of input videos in the video display area;
A display control unit that controls the display unit to display each of the plurality of input videos extracted by the extraction unit in the display area set by the setting unit;
A selection unit that receives a selection as to whether or not to move the display area in accordance with a change in posture of the video display area by the setting unit;
A video distribution system.
複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、
前記配信サーバは、
前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、
前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、
前記配信映像及び前記配信情報を配信する配信部と、
を備え、
前記視聴者端末は、
所定の映像表示領域に映像を表示する表示部と、
前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、
前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、
前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、
前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、
を備え
前記配信情報は、前記複数の入力映像の其々が選択された場合に適用するアニメーション効果とその適用先の入力映像とを定めたアニメーション情報を更に含み、
前記視聴者端末は、
視聴者による前記複数の入力映像に含まれている一の入力映像の選択を受け付ける映像選択部と、
前記映像選択部によって前記一の入力映像の選択が受け付けられた場合に、前記取得部が取得した前記配信情報に含まれている前記アニメーション情報が示す通りに、前記一の入力映像が選択された場合に適用する前記アニメーション効果を、前記適用先の入力映像に適用する適用部と、
を更に備える映像配信システム。
A video distribution system comprising a distribution server and a viewer terminal for arranging and synthesizing a plurality of input videos in one video area and distributing the distribution video represented by the entire video area,
The distribution server
A storage unit for storing distribution information including arrangement information defining respective arrangement areas of the plurality of input videos in the video area;
Each of the plurality of input videos is arranged in the arrangement area indicated by the arrangement information and synthesized, and a generation unit that generates the distribution video represented by the entire video area;
A distribution unit for distributing the distribution video and the distribution information;
With
The viewer terminal is
A display unit for displaying video in a predetermined video display area;
An acquisition unit for acquiring the distribution video and the distribution information distributed by the distribution unit;
Each of the plurality of input videos that are arranged in the arrangement area indicated by the arrangement information included in the distribution information acquired by the acquisition unit from the distribution video acquired by the acquisition unit individually An extraction unit for dividing and extracting;
A setting unit for setting each display area of the plurality of input videos in the video display area;
A display control unit that controls the display unit to display each of the plurality of input videos extracted by the extraction unit in the display area set by the setting unit;
Equipped with a,
The distribution information further includes animation information defining an animation effect to be applied when each of the plurality of input videos is selected and an input video of the application destination,
The viewer terminal is
A video selection unit that receives selection of one input video included in the plurality of input videos by a viewer;
When the selection of the one input video is accepted by the video selection unit, the one input video is selected as indicated by the animation information included in the distribution information acquired by the acquisition unit. An application unit that applies the animation effect applied to a case to the input video of the application destination;
A video distribution system further comprising:
複数の入力映像を一の映像領域内に配置して合成し、前記映像領域全体が表す配信映像を配信する配信サーバと視聴者端末とを備えた映像配信システムであって、
前記配信サーバは、
前記映像領域における前記複数の入力映像の其々の配置領域を定めた配置情報を含む配信情報を記憶する記憶部と、
前記複数の入力映像の其々を前記配置情報が示す前記配置領域に配置して合成し、前記映像領域全体が表す前記配信映像を生成する生成部と、
前記配信映像及び前記配信情報を配信する配信部と、
を備え、
前記視聴者端末は、
所定の映像表示領域に映像を表示する表示部と、
前記配信部が配信する前記配信映像及び前記配信情報を取得する取得部と、
前記取得部が取得した前記配信映像から、前記取得部が取得した前記配信情報に含まれている前記配置情報が示す前記配置領域に配置されている、前記複数の入力映像の其々を個別に分割して抽出する抽出部と、
前記映像表示領域における前記複数の入力映像の其々の表示領域を設定する設定部と、
前記表示部を制御して、前記抽出部が抽出した前記複数の入力映像の其々を前記設定部が設定した前記表示領域に表示させる表示制御部と、
を備え
前記配信情報は、前記配信映像の表示中に再生され得る一以上の入力音声の其々を記録する音声記録領域を定めた音声記録情報と、前記一以上の入力音声の其々の再生方法を定めた再生情報と、を更に含み、
前記生成部は、更に、前記一以上の入力音声の其々を前記音声記録情報が示す前記音声記録領域に記録して、前記一以上の入力音声の其々が記録された前記音声記録領域を有する一の配信音声を生成し、
前記配信部は、更に、前記配信音声を配信し、
前記取得部は、更に、前記配信音声を取得し、
前記抽出部は、更に、前記取得部が取得した前記配信音声から、前記取得部が取得した前記配信情報に含まれている前記音声記録情報が示す前記音声記録領域に記録されている、前記一以上の入力音声の其々を個別に分割して抽出し、
前記視聴者端末は、
前記抽出部が抽出した前記一以上の入力音声の其々を、前記取得部が取得した前記配信情報に含まれている前記再生情報が示す前記再生方法で再生する再生部を更に備え、
前記配信情報において、前記一以上の入力音声の其々は、前記複数の入力映像のうちの一の入力映像に対応付けられ、
前記再生方法には、前記一以上の入力音声のうちの第一の入力音声に対応付けられた第一の入力映像が前記映像表示領域に表示された場合に、前記第一の入力音声を再生する第一再生方法が含まれる
映像配信システム。
A video distribution system comprising a distribution server and a viewer terminal for arranging and synthesizing a plurality of input videos in one video area and distributing the distribution video represented by the entire video area,
The distribution server
A storage unit for storing distribution information including arrangement information defining respective arrangement areas of the plurality of input videos in the video area;
Each of the plurality of input videos is arranged in the arrangement area indicated by the arrangement information and synthesized, and a generation unit that generates the distribution video represented by the entire video area;
A distribution unit for distributing the distribution video and the distribution information;
With
The viewer terminal is
A display unit for displaying video in a predetermined video display area;
An acquisition unit for acquiring the distribution video and the distribution information distributed by the distribution unit;
Each of the plurality of input videos that are arranged in the arrangement area indicated by the arrangement information included in the distribution information acquired by the acquisition unit from the distribution video acquired by the acquisition unit individually An extraction unit for dividing and extracting;
A setting unit for setting each display area of the plurality of input videos in the video display area;
A display control unit that controls the display unit to display each of the plurality of input videos extracted by the extraction unit in the display area set by the setting unit;
Equipped with a,
The distribution information includes audio recording information defining an audio recording area for recording each of one or more input sounds that can be reproduced during display of the distribution video, and a method for reproducing each of the one or more input sounds. Further including reproduction information that has been defined,
The generation unit further records each of the one or more input voices in the voice recording area indicated by the voice recording information, and stores the voice recording area in which each of the one or more input voices is recorded. Has one distribution voice,
The delivery unit further delivers the delivery audio,
The acquisition unit further acquires the delivery audio,
The extraction unit is further recorded in the audio recording area indicated by the audio recording information included in the distribution information acquired by the acquisition unit from the distribution audio acquired by the acquisition unit. Each of the above input speech is divided and extracted individually,
The viewer terminal is
A reproduction unit that reproduces each of the one or more input sounds extracted by the extraction unit by the reproduction method indicated by the reproduction information included in the distribution information acquired by the acquisition unit;
In the distribution information, each of the one or more input sounds is associated with one input video of the plurality of input videos,
In the reproduction method, the first input sound is reproduced when a first input image associated with the first input sound among the one or more input sounds is displayed in the image display area. A video distribution system including a first reproduction method .
前記配信情報は、前記表示領域の初期配置を定めた初期表示情報を更に含み、
前記設定部は、前記取得部が取得した前記配信情報に含まれている前記初期表示情報が示す前記初期配置の通りに前記表示領域を設定する
請求項1から5の何れか一項に記載の映像配信システム。
The distribution information further includes initial display information that defines an initial arrangement of the display area,
The said setting part sets the said display area as the said initial arrangement | positioning which the said initial display information contained in the said delivery information acquired by the said acquisition part shows as described in any one of Claim 1 to 5 Video distribution system.
前記表示領域の編集操作には、前記表示領域を拡大及び縮小する操作が含まれる
請求項に記載の映像配信システム。
Wherein the editing operation of the display area, the video delivery system of claim 1 including the operation of enlarging and reducing the display area.
前記表示領域の編集操作には、前記表示領域を移動する操作が含まれる
請求項又はに記載の映像配信システム。
The video distribution system according to claim 1 or 7 , wherein the editing operation of the display area includes an operation of moving the display area.
前記視聴者端末は、
視聴者による前記複数の入力映像に含まれている一の入力映像の選択を受け付ける映像選択部を含み、
前記再生方法には、前記一以上の入力音声のうちの第二の入力音声に対応付けられた第二の入力映像の選択が前記映像選択部によって受け付けられた場合に、前記第二の入力音声を所定の第一音量で再生し、前記一以上の入力音声のうち、前記再生情報において前記第一再生方法で再生することが定められた入力音声を、前記第一音量よりも小さい第二音量で再生する第二再生方法が含まれる
請求項に記載の映像配信システム。
The viewer terminal is
A video selection unit that accepts selection of one input video included in the plurality of input videos by a viewer;
In the reproduction method, when the selection of a second input video associated with a second input audio among the one or more input audios is received by the video selection unit, the second input audio is received. Of the one or more input sounds, the input sound that is determined to be reproduced by the first reproduction method in the reproduction information is a second volume smaller than the first volume. The video delivery system according to claim 5 , wherein a second playback method of playing back with the method is included.
前記視聴者端末は、
視聴者による前記複数の入力映像に含まれている一の入力映像の選択を受け付ける映像
選択部を含み、
前記再生方法には、前記一以上の入力音声のうちの第三の入力音声に対応付けられた第
三の入力映像の選択が前記映像選択部によって受け付けられた場合に、前記第三の入力音
声のみを再生する第三再生方法が含まれる
請求項又はに記載の映像配信システム。
The viewer terminal is
A video selection unit that accepts selection of one input video included in the plurality of input videos by a viewer;
In the reproduction method, when the selection of a third input video associated with a third input audio among the one or more input audios is received by the video selection unit, the third input audio is received. 10. The video distribution system according to claim 5 or 9 , wherein a third reproduction method for reproducing only video is included.
前記視聴者端末は、
前記映像表示領域における前記視聴者の視点を検出する視点検出部を更に備え、
前記映像選択部は、前記視点検出部によって検出された前記視点が前記表示領域に存在
する場合に、当該表示領域に表示されている前記入力映像の選択を受け付ける
請求項4、9及び10の何れか一項に記載の映像配信システム。
The viewer terminal is
A viewpoint detection unit for detecting the viewpoint of the viewer in the video display area;
The image selecting unit, when the viewpoint detected by the viewpoint detecting unit is present in the display area, any claim 4, 9 and 10 receives a selection of the input image displayed on the display area The video distribution system according to claim 1.
JP2017037638A 2017-02-28 2017-02-28 Video distribution system Active JP6473469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017037638A JP6473469B2 (en) 2017-02-28 2017-02-28 Video distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037638A JP6473469B2 (en) 2017-02-28 2017-02-28 Video distribution system

Publications (2)

Publication Number Publication Date
JP2018142934A JP2018142934A (en) 2018-09-13
JP6473469B2 true JP6473469B2 (en) 2019-02-20

Family

ID=63526884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037638A Active JP6473469B2 (en) 2017-02-28 2017-02-28 Video distribution system

Country Status (1)

Country Link
JP (1) JP6473469B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6937266B2 (en) * 2001-06-14 2005-08-30 Microsoft Corporation Automated online broadcasting system and method using an omni-directional camera system for viewing meetings over a computer network
JP2003319351A (en) * 2002-04-23 2003-11-07 Sony Corp Service providing system, broadcast apparatus and method, receiving apparatus and method, recording medium, and program
JP5918618B2 (en) * 2011-06-03 2016-05-18 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
WO2013019638A1 (en) * 2011-07-29 2013-02-07 Cisco Technology, Inc. Method, computer- readable storage medium, and apparatus for modifying the layout used by a video composing unit to generate a composite video signal
KR101955202B1 (en) * 2012-10-31 2019-03-07 삼성에스디에스 주식회사 Device for multipoing video conference and method for displaying multi-party image using the device
US10204658B2 (en) * 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
WO2016077057A2 (en) * 2014-10-24 2016-05-19 Bounce Imaging, Inc. Imaging systems and methods
JP6024002B2 (en) * 2016-06-16 2016-11-09 株式会社ハーツクリエイション Video distribution system

Also Published As

Publication number Publication date
JP2018142934A (en) 2018-09-13

Similar Documents

Publication Publication Date Title
US10880522B2 (en) Hybrid media viewing application including a region of interest within a wide field of view
US10171769B2 (en) Sound source selection for aural interest
JP6992789B2 (en) Playback equipment and methods, as well as programs
US20070025703A1 (en) System and method for reproducing moving picture
JP2019525628A (en) Video display device and operation method thereof
KR101905638B1 (en) Device and method for playing video
JP6809463B2 (en) Information processing equipment, information processing methods, and programs
JP6024002B2 (en) Video distribution system
KR101843025B1 (en) System and Method for Video Editing Based on Camera Movement
KR101430985B1 (en) System and Method on Providing Multi-Dimensional Content
WO2019004073A1 (en) Image placement determination device, display control device, image placement determination method, display control method, and program
US10764655B2 (en) Main and immersive video coordination system and method
JP6473469B2 (en) Video distribution system
EP3321795B1 (en) A method and associated apparatuses
KR102166054B1 (en) Method and Apparatus for Displaying Streaming Video Transmitted from Network
JP4017436B2 (en) 3D moving image data providing method and display method thereof, providing system and display terminal, execution program of the method, and recording medium recording the execution program of the method
WO2014129735A1 (en) System for providing complex-dimensional content, method for providing same, and complex-dimensional content file therefor
JP6970143B2 (en) Distribution server, distribution method and program
JP2015037290A (en) Video control device, video display device, video control system, and method
WO2022234699A1 (en) Moving image delivery device, display control device, moving image delivery system, moving image delivery method, and program
JP2022009636A (en) Distribution server, distribution method, and program
KR20230069016A (en) Apparatus and method for providing video
JP2022173052A (en) Moving image distribution device, display control unit, moving image distribution system, moving image distribution method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190125

R150 Certificate of patent or registration of utility model

Ref document number: 6473469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250