JP5500649B2 - Video distribution server - Google Patents

Video distribution server Download PDF

Info

Publication number
JP5500649B2
JP5500649B2 JP2010219728A JP2010219728A JP5500649B2 JP 5500649 B2 JP5500649 B2 JP 5500649B2 JP 2010219728 A JP2010219728 A JP 2010219728A JP 2010219728 A JP2010219728 A JP 2010219728A JP 5500649 B2 JP5500649 B2 JP 5500649B2
Authority
JP
Japan
Prior art keywords
zoom
video
encoding
macroblock
distribution server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010219728A
Other languages
Japanese (ja)
Other versions
JP2012075030A (en
Inventor
知彦 高橋
勝 菅野
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2010219728A priority Critical patent/JP5500649B2/en
Publication of JP2012075030A publication Critical patent/JP2012075030A/en
Application granted granted Critical
Publication of JP5500649B2 publication Critical patent/JP5500649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像配信サーバに係り、特に、映像配信サーバが映像再生端末からの要求に応じてストリーミング映像を部分的に拡大してズーム映像として配信する映像配信サーバに関する。 The present invention relates to a video distribution server, in particular, it relates to a video distribution server video distribution server distributes a zoom image by expanding the streaming video partly in response to a request from the video reproduction device.

ケールブルテレビ等の大画面向けコンテンツを、TVだけでなくPC、携帯電話、スタイラス型可搬端末等のデバイスでも視聴可能にする、いわゆるマルチスクリーンサービスが一般的になりつつある。非特許文献1には、ケーブルテレビ向けコンテンツをPC向けに配信する技術が開示されている。こうしたマルチスクリーンサービスにおいては、ディスプレイが大きなテレビ向けに作成された高解像度のコンテンツを、ディスプレイの小さな携帯電話等向けに低解像度に変換する必要がある。   A so-called multi-screen service that enables viewing of content for a large screen such as a cable television on not only a TV but also a device such as a PC, a mobile phone, and a stylus portable terminal is becoming popular. Non-Patent Document 1 discloses a technology for distributing content for cable television to a PC. In such a multi-screen service, it is necessary to convert high-resolution content created for a television with a large display to a low resolution for a mobile phone with a small display.

一般的なマルチスクリーンサービスでは、大画面向けコンテンツの全体がそのまま変換(トランスコード)されて携帯電話等にストリーミング配信される。しかしながら、携帯電話等ではディスプレイが小さいのでコンテンツの魅力を十分に発揮されないという問題があった。そのため、ユーザが視聴したい任意の領域を拡大して見ることができるような仕組みが求められていた。   In a general multi-screen service, the entire content for a large screen is converted (transcoded) as it is and streamed to a mobile phone or the like. However, mobile phones and the like have a problem that the attractiveness of content cannot be fully exhibited because the display is small. Therefore, there has been a demand for a mechanism that allows the user to enlarge and view an arbitrary area that the user wants to view.

映像コンテンツを拡大する技術として、映像中の任意の部分をトリミング(切り出し)して提示するデジタルズームが特許文献1に開示されている。しかしながら、このようなデジタルズーム機能は、映像撮影時の処理として行われるものであり、映像伝送におけるビットレートの制約やリアルタイムでのストリーミングに必要な低遅延性が考慮されておらず、また高負荷な処理が要求されるので、映像ストリーミングへの適用は困難である。   As a technique for enlarging video content, Patent Document 1 discloses a digital zoom for trimming (cutting out) and presenting an arbitrary part in a video. However, such a digital zoom function is performed as a process at the time of video shooting, and does not take into consideration the bit rate limitation in video transmission and the low delay required for streaming in real time, and has a high load. Since processing is required, application to video streaming is difficult.

このような技術課題の解決方法として、ユーザが希望する拡大映像を、サーバ側でリアルタイムにエンコードして送信する、リアルタイムエンコードを用いる方法が容易に想像できる。しかしながら、ユーザが希望する拡大映像を常にエンコードして送信しようとすればサーバの負荷が大きくなり、さらには、その負荷がサービスを受けるユーザ数に比例して大きくなるため、多数のユーザに対して同時にサービスを提供する用途では現実的では無い。   As a method for solving such a technical problem, a method using real-time encoding in which an enlarged image desired by the user is encoded and transmitted in real time on the server side can be easily imagined. However, if the user always wants to encode and transmit the enlarged video, the load on the server increases, and the load increases in proportion to the number of users receiving the service. At the same time, it is not practical to provide services.

さらに、上記の技術課題の別の解決方法として、非特許文献2には、映像コンテンツをタイル状に分割して符号化し、サーバ側からは全体のタイルの一部分を送信する一方、クライアント側では受信した各タイル毎に映像をデコードし、そのデコード結果を同時に表示することで拡大映像を得る方法が開示されている。しかしながら、この方法では、クライアント側でタイル状に分割された映像を個々にデコードし、同期をとって表示する必要があるので、携帯端末のような処理能力の低い端末への搭載は現実的では無い。   Furthermore, as another solution to the above technical problem, Non-Patent Document 2 divides and encodes video content into tiles, and transmits a part of the entire tile from the server side, while receiving it at the client side. A method is disclosed in which an enlarged image is obtained by decoding an image for each tile and displaying the decoding result at the same time. However, in this method, it is necessary to individually decode the video divided into tiles on the client side and display it in synchronization. Therefore, it is not practical to install it on a terminal with low processing capability such as a portable terminal. No.

特開2008-316739号公報JP2008-316739

Fancast(http://www.fancast.com/)Fancast (http://www.fancast.com/) インタラクティブ・パノラマ映像配信システムにおけるマルチ解像度配信方式の一検討(情報処理学会研究報告 Vol.2010-AVM-70 No.8)A Study on Multi-resolution Distribution Method for Interactive Panorama Video Distribution System (Information Processing Society of Japan Vol.2010-AVM-70 No.8)

このように、映像配信サーバから配信される映像ストリーミングを再生端末側からの要求に応じて拡大再生させようとすると、映像再生端末側に極めて高い処理能力が要求されたり、あるいはサーバで各ユーザ毎にリアルタイムエンコード処理を行うような、大規模ユーザには適用できない仕組みとなったりするので、映像ストリーミングを再生端末側からの要求に応じて拡大再生させることができなかった。   In this way, when video streaming distributed from the video distribution server is enlarged and reproduced in response to a request from the playback terminal side, extremely high processing capability is required on the video playback terminal side, or each user is requested by the server. In other words, video streaming cannot be enlarged and played in response to a request from the playback terminal.

本発明の目的は、上記した従来技術の課題を解決し、再生端末側に高い処理能力が要求されず、かつ大規模ユーザにサービス提供可能な形で、映像ストリーミングを再生端末側からの要求に応じて拡大再生できる映像配信サーバを提供することにある。 The object of the present invention is to solve the above-mentioned problems of the prior art, and to make video streaming a request from the playback terminal in a form that does not require a high processing capacity on the playback terminal and can provide services to a large-scale user. Accordingly, it is to provide a video distribution server that can be enlarged and reproduced accordingly.

上記の目的を達成するために、本発明は、ストリーミング形式で配信する映像をズーム要求に応答してズーム映像に切り換える映像配信サーバにおいて、以下のような手段を講じた点に特徴がある。   In order to achieve the above object, the present invention is characterized in that the following means is taken in a video distribution server that switches a video distributed in a streaming format to a zoom video in response to a zoom request.

(1)映像コンテンツごとに、配信解像度のズーム無し符号化ファイルおよび配信解像度よりも高解像度の少なくとも一つのズーム用符号化ファイルを記憶する手段と、ズーム倍率およびズーム位置の記述されたズーム要求を検知する手段と、配信中の符号化ファイルに対するズーム要求が検知されると、配信する符号化ファイルを前記ズーム倍率に応じた他の解像度のズーム用符号化ファイルに切り換える手段と、前記切り換えられたズーム用符号化ファイルの前記ズーム位置から前記配信解像度でズーム映像を切り出す手段と、
前記切り出されたズーム映像をストリーミング形式で配信する手段とを具備した。
(1) For each video content, means for storing a non-zoom encoded file having a distribution resolution and at least one zoom encoded file having a resolution higher than the distribution resolution, and a zoom request in which a zoom magnification and a zoom position are described. Means for detecting, and when a zoom request for the encoded file being distributed is detected, the means for switching the encoded file to be distributed to a zoom encoded file having a resolution corresponding to the zoom magnification; Means for cutting out a zoom image at the distribution resolution from the zoom position of a zoom encoded file;
Means for delivering the cut-out zoom video in a streaming format.

(b)ズーム用符号化ファイルは、論理的な境界線で仕切った複数の分割映像領域から構成されて当該分割映像領域ごとに符号化され、各分割映像領域はズーム位置に応じた複数の集合で前記配信解像度のズーム映像を構成できるように、その位置、形状およびサイズが規定され、ズーム映像を切り出す手段は、切り換えられたズーム用符号化ファイルから、前記ズーム位置に応じた複数の分割映像領域の集合をズーム映像として切り出すようにした。   (b) The encoding file for zoom is composed of a plurality of divided video areas divided by logical boundary lines and is encoded for each divided video area, and each divided video area includes a plurality of sets corresponding to the zoom position. The position, shape, and size of the zoom image are defined so that the zoom image of the distribution resolution can be configured with a plurality of divided images corresponding to the zoom position from the switched zoom encoding file. A set of areas was cut out as a zoom image.

(c)ズーム映像として切り出された複数の分割映像領域のマクロブロックのヘッダ情報を、ズーム映像における各マクロブロックの表示位置に応じて書き換える手段を具備した。   (c) There is provided means for rewriting the macro block header information of a plurality of divided video areas cut out as a zoom video in accordance with the display position of each macro block in the zoom video.

本発明によれば、以下のような効果が達成される。   According to the present invention, the following effects are achieved.

(1)映像配信サーバには、提供可能なズーム倍率の段階に応じて、解像度の異なる複数のズーム用符号化ファイルが予め用意されており、ズーム要求が検知されると、要求されたズーム倍率に応じたズーム用符号化ファイルからズーム位置の映像を切り出してズーム映像とするので、ズーム要求に対して低負荷でズーム映像を配信できるようになる。   (1) In the video distribution server, a plurality of encoded files for zoom having different resolutions are prepared in advance according to the stage of zoom magnification that can be provided, and when a zoom request is detected, the requested zoom magnification Since the zoom position video is cut out from the zoom encoding file corresponding to the zoom video, the zoom video can be distributed with a low load in response to the zoom request.

(2)ズーム用符号化ファイルは、論理的な境界線で仕切った複数の分割映像領域から構成されて当該分割映像領域ごとに符号化され、ズーム映像は複数の分割映像領域の集合として構成できるので、分割映像領域を単位としてズーム位置を設定することにより、ズーム映像の切り出しが容易になる。

(2) The encoding file for zoom is composed of a plurality of divided video areas divided by logical boundary lines and is encoded for each divided video area, and the zoom video can be configured as a set of a plurality of divided video areas. since, by setting the zoom position divided image area as a unit, cut out of the zoom image is facilitated.

(3)ズーム用符号化ファイルから切り出された複数の分割映像領域の映像ヘッダ情報が、処理能力の低い受信端末でも低負荷で再生できるように映像配信サーバ側で予め書き換えられてから配信されるので、受信端末側ではズーム映像の表示に際して高負荷な処理が不要となる。   (3) The video header information of a plurality of divided video regions cut out from the zoom encoded file is rewritten in advance on the video distribution server side so that it can be reproduced at a low load even by a receiving terminal with low processing capability, and then distributed. Therefore, high-load processing is not necessary on the receiving terminal side when displaying the zoom video.

本発明の第1実施形態に係る映像配信システムのブロック図である。1 is a block diagram of a video distribution system according to a first embodiment of the present invention. 第1実施形態の動作概要を示した図である。It is the figure which showed the operation | movement outline | summary of 1st Embodiment. 映像配信サーバに用意される符号化ファイルの一例を示した図である。It is the figure which showed an example of the encoding file prepared for a video delivery server. ズーム用符号化ファイルから複数のスライスを切り出してズーム映像を配信する方法を模式的に表現した図である。It is the figure which expressed typically the method of cutting out a some slice from the encoding file for zoom, and delivering a zoom image | video. ズーム位置に応じて複数の異なるスライスを切り出す方法を示した図である。It is the figure which showed the method of cutting out several different slices according to a zoom position. ズーム映像の再生例を示した図である。It is the figure which showed the example of reproduction | regeneration of a zoom image | video. 映像ヘッダ情報の書き換え方法を示した図である。It is the figure which showed the rewriting method of video header information. 映像ヘッダ情報の書き換え前後を比較した図である。It is the figure which compared before and after rewriting of video header information. エフェクト部の動作を示したシーケンスフローである。It is the sequence flow which showed the operation | movement of an effect part. 映像切り換え時に挿入されるエフェクトの一例を示した図である。It is the figure which showed an example of the effect inserted at the time of video switching. 第2実施形態の動作概要を示した図である。It is the figure which showed the operation | movement outline | summary of 2nd Embodiment. ズーム映像の移動例を示した図である。It is the figure which showed the example of a movement of a zoom image | video. ズーム位置の移動時に挿入されるエフェクトの一例を示した図である。It is a figure showing an example of an effect inserted at the time of movement of a zoom position. 第3実施形態の動作概要を示した図である。It is the figure which showed the operation | movement outline | summary of 3rd Embodiment. 第3実施形態に係る映像配信システムのブロック図である。It is a block diagram of the video delivery system which concerns on 3rd Embodiment. 第4実施形態に係る映像配信システムのブロック図である。It is a block diagram of the video delivery system which concerns on 4th Embodiment. 符号化パラメータの書き換え方法を示した図である。It is the figure which showed the rewriting method of an encoding parameter. IDRフレーム情報の一例を示した図である。It is the figure which showed an example of IDR frame information. IDRフレーム情報の他の一例を示した図である。It is the figure which showed another example of IDR frame information. ズーム要求メッセージの一例を示した図である。It is the figure which showed an example of the zoom request message.

[第1実施形態]
図1は、本発明の第1実施形態に係る映像配信システムの構成を示したブロック図であり、映像コンテンツをストリーミング形式で配信する映像配信サーバ1と、前記映像コンテンツを受信して再生する映像再生端末2とが、インターネット等の広域ネットワーク3を介して接続されている。
[First embodiment]
FIG. 1 is a block diagram showing the configuration of a video distribution system according to a first embodiment of the present invention, a video distribution server 1 that distributes video content in a streaming format, and a video that receives and reproduces the video content A playback terminal 2 is connected via a wide area network 3 such as the Internet.

図2は、第1実施形態の動作概要を示した図であり、前記映像配信サーバ1は、大型TV用に撮影、編集された高解像度(例えば、1440×1080画素)の映像コンテンツ[同図(a)]を、配信解像度すなわち映像再生端末2の表示解像度(例えば、640×480画素)に変換して配信[同図(b)]すると共に、端末ユーザからのズーム要求に応答してズーム映像を配信解像度で配信[同図(c)]する。   FIG. 2 is a diagram showing an outline of the operation of the first embodiment. The video distribution server 1 is a video content of high resolution (for example, 1440 × 1080 pixels) shot and edited for a large TV [the same figure] (a)] is converted into distribution resolution, that is, display resolution of the video playback terminal 2 (for example, 640 × 480 pixels) and distributed [FIG. (b)], and zoomed in response to a zoom request from the terminal user Distribute the video at the distribution resolution [(c)].

本発明では、このようなズーム映像の配信を、ビットレートや伝送遅延に悪影響を与えることなく、かつ映像再生端末2側に高い処理能力を要求することなく実現すべく、図3に示したように、配信解像度のズーム無し符号化ファイルFaと共に、画像領域の一部から配信解像度のズーム映像を切り出せる複数のズーム用符号化ファイルFb、Fcが、映像コンテンツごとに作成されて予め映像配信サーバ1に蓄積される。   In the present invention, as shown in FIG. 3, in order to achieve such zoom video distribution without adversely affecting the bit rate and transmission delay, and without requiring high processing capability on the video playback terminal 2 side. In addition, a plurality of encoded files Fb and Fc for zooming that can cut out a zoomed video having a distribution resolution from a part of the image area together with a non-zoom encoded file Fa having a distribution resolution are created for each video content in advance. 1 is accumulated.

本実施形態では、ズーム倍率として3種類(ズーム無し、ズーム率中、ズーム率大)を設定できるものとし、ズーム率中用の符号化ファイルFb[同図(b)]の解像度はズーム無し用符号化ファイルFa[同図(a)]の配信解像度よりも高く設定され、ズーム率大用の符号化ファイルFc[同図(c)]の解像度はズーム率中用の符号化ファイルFa[同図(a)]の解像度よりも更に高く設定されている。   In the present embodiment, three types of zoom magnifications (no zoom, medium zoom ratio, large zoom ratio) can be set, and the resolution of the encoded file Fb [zoom ratio medium (b)] for the zoom ratio is for no zoom. The resolution of the encoded file Fa [Fig. (A)] is set higher than the distribution resolution of the encoded file Fa [Fig. (C)]. The resolution of the encoded file Fc [Fig. The resolution is set higher than the resolution of FIG.

前記各ズーム用符号化ファイルFb,Fcに示されている格子線は、後述するスライス境界を表し、例えば、端末ユーザによりズーム率中の拡大再生が要求されると、図4に一例を示したように、ズーム率中用の符号化ファイルFbからズーム位置に応じて、スライス境界で仕切られた2行2列の映像範囲(配信解像度)のみが切り出されてズーム映像として配信される。各スライスは、ズーム位置に応じた複数の集合で配信解像度のズーム映像を構成できるように、その位置、形状およびサイズが規定される。   The grid lines shown in each of the zoom encoded files Fb and Fc represent slice boundaries to be described later. For example, when the terminal user requests enlargement reproduction during the zoom rate, an example is shown in FIG. In this way, only the video range (distribution resolution) of 2 rows and 2 columns partitioned by the slice boundary is cut out from the encoded file Fb for medium zoom ratio in accordance with the zoom position and distributed as a zoom image. The position, shape, and size of each slice are defined so that a zoom video having a distribution resolution can be configured by a plurality of sets according to the zoom position.

本実施形態では、図5に一例を示したように、ズーム用符号化ファイルごとにズーム基準点O1,O2,O3,O4…が予め設定されており、ズーム用符号化ファイルFbであれば、ズーム基準点O1にはスライス1-1,1-2,2-1、2-2が切り出し対象として対応付けられ、ズーム基準点O2にはスライス1-2,1-3,2-2、2-3が切り出し対象として対応付けられている。そして、要求されたズーム位置から最近傍のズーム基準点がO1であれば、当該ズーム基準点O1に対応した4つのスライス1-1,1-2,2-1、2-2が切り出されてズーム映像とされる。   In the present embodiment, as shown in FIG. 5, zoom reference points O1, O2, O3, O4,... Are preset for each zoom encoded file, and if it is a zoom encoded file Fb, Slices 1-1, 1-2, 2-1, 2-2 are associated with the zoom reference point O1, as slice targets, and slices 1-2, 1-3, 2-2, 2 are associated with the zoom reference point O2. -3 is associated as a clipping target. If the nearest zoom reference point from the requested zoom position is O1, four slices 1-1, 1-2, 2-1, 2-2 corresponding to the zoom reference point O1 are cut out. Zoomed image.

すなわち、図4(a)のズーム無し映像の再生中に、ズーム基準点O1の近傍を指定してズーム率中の拡大再生が要求されると、同図(b)に示したように、4つのスライス[1-1],[1-2],[2-1],[2-2]で構成される左上領域の映像領域がズーム映像として配信される。また、ズーム基準点O2の近傍を指定してズーム率中の拡大再生が要求されると、同図(c)に示したように、4つのスライス[1-2],[1-3],[2-2],[2-3]で構成される右上領域の映像領域がズーム映像として配信される。以下同様に、ズーム基準点O3の近傍が指定されると、同図(d)に示したように、4つのスライス[2-1],[2-2],[3-1],[3-2]で構成される左下領域の映像領域がズーム映像として配信され、ズーム基準点O4の近傍が指定されると、同図(e)に示したように、4つのスライス[2-2],[2-3],[3-2],[3-3]で構成される右下領域の映像領域がズーム映像として配信される。   That is, during playback of the non-zoom video shown in FIG. 4A, if enlargement playback is requested during the zoom ratio by designating the vicinity of the zoom reference point O1, as shown in FIG. A video area in the upper left area composed of two slices [1-1], [1-2], [2-1], and [2-2] is distributed as a zoom video. Further, when enlargement reproduction is requested during the zoom ratio by designating the vicinity of the zoom reference point O2, as shown in FIG. 4C, four slices [1-2], [1-3], The video area in the upper right area composed of [2-2] and [2-3] is distributed as a zoom video. Similarly, when the vicinity of the zoom reference point O3 is designated, as shown in FIG. 4D, four slices [2-1], [2-2], [3-1], [3 -2] is distributed as a zoom image, and when the vicinity of the zoom reference point O4 is designated, as shown in FIG. 4E, four slices [2-2] , [2-3], [3-2], and [3-3] are distributed as zoomed images in the lower right region.

図6は、前記ズーム映像の再生例を示した図であり、映像配信サーバ1から受信したズーム無し用の符号化ファイルFaを復号して再生中[同図(a)]の映像再生端末2においてズーム率中への拡大が要求[同図(b)]されると、映像配信サーバ1では、配信ファイルが前記ズーム無し用の符号化ファイルFaからズーム率中用の符号化ファイルFbに切り換えられ、当該符号化ファイルFbからズーム位置に応じて切り出されたズーム映像が配信される。その結果、映像再生端末2ではズーム率中の映像[同図(c)]が再生される。   FIG. 6 is a diagram showing an example of playback of the zoom video. The video playback terminal 2 during decoding [FIG. 6 (a)] while decoding and playing back the non-zoom encoded file Fa received from the video distribution server 1. When the enlargement to the zoom ratio is requested [(b) in FIG. 2], the video distribution server 1 switches the distribution file from the non-zoom encoded file Fa to the intermediate zoom ratio encoded file Fb. Then, the zoom video clipped according to the zoom position from the encoded file Fb is distributed. As a result, the video playback terminal 2 plays back the video with the zoom ratio [(c)].

このズーム映像の再生中に、更にズーム率大への拡大が要求[同図(c)]されると、映像配信サーバ1では配信ファイルが前記ズーム率中の符号化ファイルFbからズーム率大用の符号化ファイルFcに切り換えられ、当該符号化ファイルFcからズーム位置に応じて切り出されたズーム映像が配信される。その結果、映像再生端末2ではズーム率大の映像が再生[同図(d)]される。   If a further enlargement to a higher zoom ratio is requested during playback of the zoom video [(c)], the video distribution server 1 uses a larger zoom ratio from the encoded file Fb in the zoom ratio. Is switched to the encoded file Fc, and a zoom image cut out from the encoded file Fc according to the zoom position is distributed. As a result, the video playback terminal 2 plays back a video with a large zoom rate [(d)].

なお、ズーム無し用の符号化ファイルFaを再生中[同図(a)]にズーム率大への切り換えが要求[同図(e)]された場合も同様に、映像配信サーバ1では配信ファイルが前記ズーム無し用の符号化ファイルFaからズーム率大用の符号化ファイルFcに切り換えられ、当該符号化ファイルFcからズーム位置に応じて切り出されたズーム映像が配信される。その結果、映像再生端末2ではズーム率大の映像コンテンツが再生[同図(d)]される。   When the encoded file Fa for non-zoom is being reproduced [FIG. (A)], when a request to switch to a large zoom rate is requested [(e)], the video distribution server 1 similarly distributes the file. Is switched from the encoded file Fa for non-zoom to the encoded file Fc for large zoom ratio, and a zoom video clipped from the encoded file Fc according to the zoom position is distributed. As a result, the video playback terminal 2 plays back video content with a large zoom rate [(d)].

次いで、前記図1を参照して本発明の構成を詳細に説明する。映像配信サーバ1において、映像分割符号化部101は、配信対象の映像コンテンツ4を符号化圧縮する。本実施形態ではH.264符号化方式が採用され、そのイントラフレームであるIDRフレームの情報がIDRフレーム情報DB102に蓄積され、AudioデータがAudioデータ保存DB103に蓄積され、VideoデータがVideoデータ保存DB104に蓄積される。前記IDRフレーム情報は、IDRフレームが一定間隔で挿入される場合は図18の形式で蓄積され、一定間隔で挿入されない場合には、図19に示したように、全てのIDRフレームのフレーム番号を列挙する様式で蓄積される。   Next, the configuration of the present invention will be described in detail with reference to FIG. In the video distribution server 1, the video division encoding unit 101 encodes and compresses the video content 4 to be distributed. In this embodiment, the H.264 encoding method is adopted, information of the IDR frame that is the intra frame is accumulated in the IDR frame information DB 102, audio data is accumulated in the audio data storage DB 103, and video data is stored in the video data storage DB 104. Accumulated in. The IDR frame information is stored in the format shown in FIG. 18 when IDR frames are inserted at regular intervals. When the IDR frame information is not inserted at regular intervals, the frame numbers of all IDR frames are stored as shown in FIG. Accumulated in the manner listed.

前記Videoデータ保存DB104には、設定可能なズーム倍率の種類に応じて解像度の異なる複数の符号化ファイルが映像コンテンツごとに生成されて蓄積される。本実施形態では、前記図3に示したように、ズーム無し用の符号化ファイルFaと共に、ズーム率中用の符号化ファイルFbおよびズーム率大用の符号化ファイルFcの計3つの符号化ファイルが作成、蓄積される。ズーム用の2つの符号化ファイルFb,Fcに関しては、映像コンテンツが論理的な境界線で仕切られた所定の分割映像領域(本実施形態では、H.264符号化方式を採用するのでスライス)ごとに符号化され、フレーム内予測符号化(イントラ符号化)およびフレーム間予測符号化(インター符号化)のいずれのプロセスにおいても、スライス境界を跨ぐ予測が禁止される。これにより、前記図4を参照して説明したように、ズーム位置に応じて複数の異なるスライスを切り出してズーム映像を構築する場合でも、各スライスを復号する際に他のスライス内のマクロブロックが参照されることがないので、復号に破綻が生じることはない。   In the video data storage DB 104, a plurality of encoded files having different resolutions according to types of zoom magnifications that can be set are generated and stored for each video content. In the present embodiment, as shown in FIG. 3, there are a total of three encoded files, that is, an encoded file Fa for non-zoom, an encoded file Fb for medium zoom ratio, and an encoded file Fc for large zoom ratio. Is created and accumulated. With respect to the two encoded files Fb and Fc for zooming, for each predetermined divided video area (in this embodiment, since the H.264 encoding method is used, the video content is partitioned by logical boundary lines) In both processes of intra-frame prediction encoding (intra encoding) and inter-frame prediction encoding (inter encoding), prediction across slice boundaries is prohibited. Accordingly, as described with reference to FIG. 4, even when a zoom video is constructed by cutting out a plurality of different slices according to the zoom position, macroblocks in other slices are not decoded when each slice is decoded. Since there is no reference, there is no failure in decoding.

ただし、このようにスライス境界を跨ぐ予測を一律に禁止してしまうと符号化効率が低下してしまう懸念がある。一方、前記図4を参照すれば明らかなように、例えばスライスが3行3列に設定されたズーム用符号化ファイルFbから、ズーム位置に応じて2行2列を切り出してズーム映像を生成する場合、スライス1-1が切り出される場合はスライス1-2、2-1、2-2も必ず切り出される。また、スライス1-2が切り出される場合、スライス2-2も必ず切り出される。したがって、常に同時に切り出されるスライスを予め定義できるならば、当該スライス間ではフレーム内予測符号化およびフレーム間予測符号化のいずれのプロセスにおいても、スライス境界を跨ぐ予測を許容することで符号化効率を向上させることが可能になる。   However, there is a concern that if the prediction across the slice boundary is uniformly prohibited in this way, the encoding efficiency is lowered. On the other hand, as is clear from FIG. 4, for example, a zoom image is generated by cutting out 2 rows and 2 columns according to the zoom position from the zoom encoding file Fb in which the slice is set to 3 rows and 3 columns. In this case, when slice 1-1 is cut out, slices 1-2, 2-1, and 2-2 are also cut out. When slice 1-2 is cut out, slice 2-2 is also cut out. Therefore, if slices that are always cut out at the same time can be defined in advance, encoding efficiency can be improved by allowing prediction across slice boundaries in both intra-frame predictive coding and inter-frame predictive coding between the slices. It becomes possible to improve.

これを一般化すると、ズーム用符号化ファイルのスライス構成がXnum行Ynum列であり、そこから切り出されるズーム映像のスライス構成がw行h列であるとき、注目スライスのIDをx-yとすると、   Generalizing this, when the slice configuration of the zoom encoding file is Xnum rows and Ynum columns, and the slice configuration of the zoom video extracted from there is w rows and h columns, and the ID of the slice of interest is x-y,

(1)ID x-yのスライスが右方向に予測参照可能なスライスの数Bright = w-x, (但し、負の場合はBright =0, また、Bright≦Xnum - x)   (1) Number of slices whose ID x-y slice can be predicted in the right direction Bright = w-x, (Bright = 0 and Bright ≤ Xnum-x if negative)

(2)ID x-yのスライスが左方向に予測参照可能なスライスの領域Bleft = w-(Xnum -x)-1, (但し、負の場合はBleft =0, また、Bleft≦x-1)   (2) Slice area where ID x-y slice can be predicted in the left direction Bleft = w- (Xnum -x) -1, (Bleft = 0, Bleft ≤ x-1 if negative)

(3)ID x-yのスライスが上方向に予測参照可能なスライスの数Bup = h-(Ynum -y)-1, (但し、負の場合はBup =0, また、Bup≦y-1)   (3) Number of slices whose ID x-y slice can be predicted and referenced in the upward direction Bup = h- (Ynum -y) -1, (However, if negative, Bup = 0, and Bup ≤ y-1)

(4)ID x-yのスライスが下方向に予測参照可能なスライスの数Bdown = h-y, (但し、負の場合はBdown =0, また、Bdown≦Ynum - y)
の各条件が成立する。したがって、上記の条件(1)〜(4)を満足できるスライス同士はスライス境界を跨ぐ予測を符号化に用いることを許容するようにしてもよい。
(4) Number of slices whose ID xy slice can be predicted downward Bdown = hy, (However, if down, Bdown = 0, and Bdown ≤ Ynum-y)
These conditions are satisfied. Therefore, slices that can satisfy the above conditions (1) to (4) may be allowed to use prediction that crosses the slice boundary for encoding.

ユーザ操作受信部105は、映像再生端末2から送信されたユーザ操作を受信し、当該ユーザ操作がズーム倍率Zfおよびズーム位置Zpの記述された「ズーム要求」であれば、これを映像切換制御部106へ通知する。   The user operation receiving unit 105 receives the user operation transmitted from the video reproduction terminal 2, and if the user operation is a “zoom request” in which the zoom magnification Zf and the zoom position Zp are described, this is displayed as a video switching control unit. 106 is notified.

映像切換制御部106は、前記Videoデータ保存DB104から読み出して配信する映像を、前記ユーザ操作受信部105で受信されたズーム要求のズーム倍率Zfに対応したズーム用符号化ファイルに切り換える。切り換えられたズーム用符号化ファイルは、前記Audioデータ保存DB103から読み出されるAudioデータと共に出力される。すなわち、ズーム率中のズーム要求であればズーム率中用の符号化ファイルFbに切り換えられ、ズーム率大のズーム要求であればズーム率大用の符号化ファイルFcに切り換えられる。このような映像切換は、全てイントラフレーム(本実施形態では、IDRフレーム)のタイミングで行われる。   The video switching control unit 106 switches the video read and distributed from the video data storage DB 104 to a zoom encoded file corresponding to the zoom factor Zf of the zoom request received by the user operation receiving unit 105. The switched zoom encoding file is output together with the audio data read from the audio data storage DB 103. That is, if the zoom request is in the zoom ratio, the encoded file Fb is switched to the medium zoom ratio, and if the zoom request is in the large zoom ratio, the encoded file Fc is switched to the large zoom ratio. Such video switching is all performed at the timing of an intra frame (in this embodiment, an IDR frame).

ズーム映像切出部107は、前記図4を参照して詳述したように、ズーム要求に記述されたズーム位置Zpに応じた複数のスライスを前記切り換えられたズーム用符号化ファイルから切り出し、ズーム映像に変換してスライスデータバッファ108に蓄積する。なお、このようなズーム映像の切り出しは、前記ズーム用符号化ファイルの映像ヘッダ情報を書き換えて単一スライス構造のズーム映像を生成することにより実施される。   As described in detail with reference to FIG. 4, the zoom video cutout unit 107 cuts out a plurality of slices corresponding to the zoom position Zp described in the zoom request from the switched zoom encoded file, and zooms in. The video is converted into video and stored in the slice data buffer 108. Note that such a cutout of the zoom image is performed by rewriting the image header information of the zoom encoding file to generate a zoom image having a single slice structure.

図7は、前記映像ヘッダ情報の書き換え方法を模式的に表現した図であり、ここでは、ズーム率中の符号化ファイルFbから、その左上領域の4つのスライス1-1,1-2,2-1,2-2を切り出して単一スライス構造のズーム映像を生成する場合を例にして説明する。   FIG. 7 is a diagram schematically showing the video header information rewriting method. Here, four slices 1-1, 1-2, and 2 in the upper left area of the encoded file Fb in the zoom rate are shown. A case where a zoom image having a single slice structure is generated by cutting out -1 and 2-2 will be described as an example.

ズーム用の符号化ファイルFbでは、同図(a)に示したように、スライス1-1,1-2,2-1,2-2ごとに全てのマクロブロックがラスター順の連番で管理されている。しかしながら、処理能力の低い映像再生端末2では、任意形状のスライスを組み合わせて構成される映像をそのまま復号することができない。そこで、本実施形態では各スライスの全てのマクロブロックに、単一スライス構造におけるラスター順で連番を付け直すことで、映像再生端末2では、符号化ファイルFbを単一スライス構造として復号できるようにしている。   In the encoded file Fb for zooming, as shown in (a) of the figure, all macroblocks are managed in raster order for each slice 1-1, 1-2, 2-1, 2-2. Has been. However, the video playback terminal 2 having a low processing capability cannot decode a video configured by combining slices having an arbitrary shape as it is. Therefore, in this embodiment, the video playback terminal 2 can decode the encoded file Fb as a single slice structure by renumbering all the macroblocks of each slice in the raster order in the single slice structure. I have to.

図8は、書き換え前の符号化ファイルFbの映像ヘッダと書き換え後のズーム映像の映像ヘッダとを比較した図であり、同図(a)の符号化ファイルFbでは、一つのフレームが複数のスライスから構成され、スライスごとに全てのマクロブロックに対して1番から始まる序数が付されている。これに対して、同図(b)のズーム映像では、一つのフレームが前記4つのスライスを連結した一つのスライスで構成され、全てのマクロブロックに一貫した連番(1から1180)が付されている。   FIG. 8 is a diagram comparing the video header of the encoded file Fb before rewriting with the video header of the zoomed video after rewriting. In the encoded file Fb in FIG. 8A, one frame includes a plurality of slices. An ordinal number starting from 1 is assigned to every macroblock for each slice. On the other hand, in the zoom image of FIG. 4B, one frame is composed of one slice obtained by concatenating the four slices, and a consistent serial number (1 to 1180) is assigned to all macroblocks. ing.

なお、SPS(Sequence Parameter Set)は、映像シーケンス全体の符号化にかかわる情報が記述されるヘッダであり、映像を符号化する際に使われたツールの種類(プロファイル:profile_idc)、対象とするデコーダの処理能力を表すレベル(level_idc)、画面サイズ(マクロブロックの数で表現された画面サイズ:pic_width_in_mbs_minus1、pic_height_in_map_units_minus1)に関する情報等が含まれる。本実施形態では、このSPSに関しても、プロファイル等の画像サイズに依存しない情報については符号化ファイルFbのSPSがそのままズーム映像にも付与されるが、符号化レベル、画サイズ等の値は、生成されるズーム映像のサイズに応じた値に書き換えられる。   Note that SPS (Sequence Parameter Set) is a header in which information related to the encoding of the entire video sequence is described. The type of tool (profile: profile_idc) used for encoding the video and the target decoder Information on the level (level_idc) representing the processing capacity of the image, the screen size (screen size expressed by the number of macroblocks: pic_width_in_mbs_minus1, pic_height_in_map_units_minus1), and the like. In the present embodiment, the SPS of the encoded file Fb is also added to the zoom video as it is for the information that does not depend on the image size such as the profile in this embodiment, but the values such as the encoding level and the image size are generated. Is rewritten to a value corresponding to the size of the zoom image to be displayed.

さらに、PPS(Picture Parameter Set)は、フレームの符号化に関する情報が記述されるヘッダであり、フレームの符号化に使われている符号化手法の種類(entropy_coding_mode_flag)、フレームを構成するスライスの枚数(num_slice_groups_minus1)、スライスの配置(slice_group_map_type)などの情報が含まれる。本実施形態では、このPPSに関しても、符号化ファイルFbでは、1フレームを複数のスライスで構成するための配置およびスライス数が記述されているが、ズーム映像では、単一スライスが一つのフレームで構成されるように書き換えられる。   Furthermore, PPS (Picture Parameter Set) is a header in which information related to frame encoding is described. The type of encoding method (entropy_coding_mode_flag) used for frame encoding and the number of slices constituting the frame ( num_slice_groups_minus1) and information such as slice arrangement (slice_group_map_type) are included. In the present embodiment, regarding this PPS, the encoded file Fb describes the arrangement and the number of slices for constituting one frame by a plurality of slices, but in a zoom image, a single slice is composed of one frame. Rewritten to be configured.

さらに、マクロブロックの輝度成分を量子化するための量子化パラメータ(QP)の値がマクロブロック毎に制御される場合、スライス境界の右に隣接するマクロブロックについては、そのQPを導出するための差分情報を書き換えることも望ましい。例えば、H.264符号化においては、スライス中のマクロブロックのQPYは次式(1)で与えられる。   Furthermore, when the value of the quantization parameter (QP) for quantizing the luminance component of the macroblock is controlled for each macroblock, the macroblock adjacent to the right of the slice boundary is used to derive the QP. It is also desirable to rewrite the difference information. For example, in H.264 encoding, the QPY of a macroblock in a slice is given by the following equation (1).

ここで、QPY,PREVは図7の順番で数えた場合に直前に位置するマクロブロックのQPYの値、mb_qp_deltaはマクロブロック中に記載されたQPの差分情報、QpBdOffsetYはオフセット値であり、スライスの先頭に位置するマクロブロックでは、QPY,PREVは初期値を取る。そこで、図17に示すように、デフォルトのQP値が24、図中のマクロブロックの格子に記載された値が各マクロブロックのQPだとすると、複数のスライスで構成された映像から単一スライスの映像に変換するときに、マクロブロックの順番が変わることに伴って直前に位置するマクロブロックが変更となる。そこで、mb_qp_deltaの値を以下の通りに変換することで、各マクロブロックのQPYの値を保ち、マクロブロックについて再符号化を不要にできる。   Here, QPY and PREV are the QPY value of the macroblock located immediately before counting in the order of FIG. 7, mb_qp_delta is the QP difference information described in the macroblock, QpBdOffsetY is the offset value, In the first macroblock, QPY and PREV take initial values. Therefore, as shown in FIG. 17, assuming that the default QP value is 24 and the value described in the macroblock lattice in the figure is the QP of each macroblock, a single slice video from a video composed of a plurality of slices When converting to, the macroblock located immediately before is changed as the order of the macroblocks changes. Therefore, by converting the value of mb_qp_delta as follows, the QPY value of each macroblock can be maintained, and re-encoding of the macroblock can be made unnecessary.

即ち、あるマクロブロックがmb_qp_delta_oldを持ち、そのマクロブロックが参照するQPY,PREVの値がQPY,PREV_AからQPY,PREV_Bに変更される場合、そのmb_qp_delta_newを次式(2)で算出する。   That is, when a certain macroblock has mb_qp_delta_old and the values of QPY and PREV referred to by the macroblock are changed from QPY and PREV_A to QPY and PREV_B, the mb_qp_delta_new is calculated by the following equation (2).

このような計算を、スライス境界の右端に位置するマクロブロックに対して行うことで、既に計算済みの最適な量子化パラメータをQPYを、最低限の処理で再利用することが可能となる。なお、当然ながら、フレームを構成するマクロブロックが全て同一の値を取るような場合は、この処理は不要なので実行する必要はない。   By performing such a calculation on the macroblock located at the right end of the slice boundary, it is possible to reuse the already-calculated optimal quantization parameter with a minimum amount of processing. Of course, if all the macroblocks constituting the frame have the same value, this processing is unnecessary and need not be executed.

また、画面内の他のマクロブロックの情報を参照して符号化を行う、イントラ予測の符号化が用いられている場合、スライス境界の右端あるいは上端に隣接するマクロブロックについては、符号化された輝度信号や色差信号についても、マクロブロックの位置に応じて必要な変更を行うことが望ましい。   In addition, when intra prediction encoding is used in which encoding is performed with reference to information on other macroblocks in the screen, the macroblock adjacent to the right end or upper end of the slice boundary is encoded. It is desirable to make necessary changes to the luminance signal and the color difference signal according to the position of the macroblock.

すなわち、イントラ符号化の平均値予測を行う場合、通常は当該マクロブロックの上および左に隣接する32個(16×16マクロブロックの場合)の画素の平均値を用いて当該マクロブロックの信号を符号化するが、スライスの上端に位置するマクロブロックについては、その左に隣接する16個の画素の平均値のみを用いて符号化を行う。したがって、図7に示したように、複数スライスの映像を単一スライスの映像に変換する際に、スライス境界の右端あるいは上端に隣接するマクロブロックでイントラ符号化の平均値予測が用いられている場合は、その予測に用いる平均値を変更し、マクロブロック中の輝度値を再計算することが望ましい。色差信号についても同様である。   That is, when the average value prediction of intra coding is performed, the signal of the macro block is usually obtained using the average value of 32 pixels (in the case of 16 × 16 macro block) adjacent to the top and left of the macro block. Encoding is performed, but the macroblock located at the upper end of the slice is encoded using only the average value of 16 pixels adjacent to the left. Therefore, as shown in FIG. 7, when converting a multi-slice video to a single-slice video, average value prediction of intra coding is used in a macroblock adjacent to the right end or the upper end of a slice boundary. In this case, it is desirable to change the average value used for the prediction and recalculate the luminance value in the macroblock. The same applies to the color difference signal.

このような処理を、スライス境界の右端あるいは上端に隣接するマクロブロックについてのみ行い、それ以外のマクロブロックについては、符号化された輝度信号、色差信号をそのまま活用することで、単一スライス化に伴う計算量を最小限に抑えることが可能となる。   Such processing is performed only for the macroblock adjacent to the right end or the upper end of the slice boundary, and for the other macroblocks, the encoded luminance signal and color difference signal are used as they are to obtain a single slice. The amount of calculation involved can be minimized.

エフェクト部109は、ストリーミング形式で配信する映像のズーム率を切り換える際に、その切り換え前後の映像間にエフェクト効果を挿入する。エフェクト効果を挿入する際には、その元となる復号済み画像フレームが必要となる。そこで、至近の復号済み画像フレームとして、直後のIDRフレームを取得する。   When the effect unit 109 switches the zoom ratio of the video to be distributed in the streaming format, the effect unit 109 inserts the effect between the videos before and after the switching. When an effect is inserted, a decoded image frame as a base is required. Therefore, the next IDR frame is acquired as the nearest decoded image frame.

図9は、前記エフェクト部109の動作を示したシーケンスフローであり、ズーム要求が検知されると、その直後(n番目)のIDRフレームの配信タイミングである時刻t1において、配信映像を現在のズーム無し映像からエフェクト映像に切り換え、更に次(n+1番目)のIDRフレームの配信タイミングである時刻t2において、配信映像を前記エフェクト映像からズーム映像に切り換える。   FIG. 9 is a sequence flow showing the operation of the effect unit 109. When a zoom request is detected, the distribution video is displayed at the current zoom at time t1, which is the distribution timing of the (n-th) IDR frame. The non-video image is switched to the effect video image, and the distribution video image is switched from the effect video image to the zoom video image at time t2, which is the distribution timing of the next (n + 1) th IDR frame.

図10は、映像再生端末2に表示されるエフェクト効果の一例を示した図であり、同図(a)のズーム無し映像上でズーム再生が要求されると、次のIDRフレームの配信タイミングである時刻t1において、同図(b)に示したように、ズーム領域以外がモザイク処理され、さらに同図(c)に示したように、次のIDRフレームの配信タイミングである時刻t2まで、前記ズーム領域が段階的に拡大され、当該時刻t2において、配信映像がズーム映像に切り換えられる。この際、エフェクト効果の変化に合わせて効果音を発生させるようにしても良い。   FIG. 10 is a diagram showing an example of the effect displayed on the video playback terminal 2. When zoom playback is requested on the non-zoom video in FIG. 10 (a), the next IDR frame is delivered. At a certain time t1, as shown in the same figure (b), except the zoom area is mosaic processed, and as shown in the same figure (c), until the time t2, which is the delivery timing of the next IDR frame, The zoom area is enlarged step by step, and the distribution video is switched to the zoom video at the time t2. At this time, a sound effect may be generated in accordance with a change in the effect effect.

前記エフェクト画像は、n番目のIDRフレームから(n+1)番目のIDRフレームまで徐々に変化するフレーム画像として生成され、映像データとしてエンコードしてスライスデータバッファ108に書き込まれる。図10のエフェクト画像は、拡大が指示された領域を、例えば線形補間法によって徐々に拡大する一方、その他の領域は、一定領域のセルに分割、等間隔にセルの母点を配置し、モザイクタイル化するような処理を段階的に行うことで実現できる。上記のズーム無し映像、エフェクト映像およびズーム映像は、エフェクトの効果音を重畳する多重化部110および配信部111を経由して映像再生端末2へストリーミング形式で配信される。   The effect image is generated as a frame image that gradually changes from the nth IDR frame to the (n + 1) th IDR frame, encoded as video data, and written into the slice data buffer 108. The effect image in FIG. 10 gradually enlarges the area instructed to be enlarged by, for example, linear interpolation, while the other areas are divided into cells of a certain area, and the mother points of the cells are arranged at equal intervals, This can be realized by performing a process such as tiling step by step. The non-zoom video, the effect video, and the zoom video are distributed in a streaming format to the video reproduction terminal 2 via the multiplexing unit 110 and the distribution unit 111 that superimpose the effect sound.

図1へ戻り、映像再生端末2において、映像受信部201は、ストリーミング形式で配信される映像ストリームを受信する。この映像ストリームには付帯情報として、送信中の映像のズーム率、および送信中の映像の領域の座標がH.264のSEI(Supplemental Enhancement Information)として送信される。   Returning to FIG. 1, in the video playback terminal 2, the video receiving unit 201 receives a video stream distributed in a streaming format. In this video stream, as a supplementary information, the zoom ratio of the video being transmitted and the coordinates of the area of the video being transmitted are transmitted as SEI (Supplemental Enhancement Information) of H.264.

表示バッファ202は、受信された映像を一時記憶し、所定のビットレートで読み出して表示部203へ出力する。ユーザ操作受付部204は、映像コンテンツの配信要求、再生中の映像に対するズーム要求、およびズーム再生中の映像に関する移動要求等に関するユーザ操作を受け付ける。前記ズーム要求は、表示部203がタッチパネル機能を備えていれば、拡大したい領域のピンチアウト等によって受け付けることができる。   The display buffer 202 temporarily stores the received video, reads it at a predetermined bit rate, and outputs it to the display unit 203. The user operation accepting unit 204 accepts user operations related to a video content distribution request, a zoom request for a video being played back, a movement request related to a video being zoom played, and the like. If the display unit 203 has a touch panel function, the zoom request can be accepted by pinching out the area to be enlarged.

操作判定部205は、受け付けられたズーム要求を映像配信サーバ1が応答できるか否かを判定し、例えば、現在配信中の映像がズーム率中用の符号化ファイルFbに係るストリーミング映像であれば、さらなるズームが可能なので、前記ズーム要求をユーザ操作送信部206から映像配信サーバ1へ送信する。このようなズーム要求は、図20に一例を示したように、RTSPのSET_PARAMETERメッセージに、要求されたズーム倍率Zfおよびズーム位置(座標)Zpを記述して送信される。   The operation determination unit 205 determines whether or not the video distribution server 1 can respond to the accepted zoom request. For example, if the video currently being distributed is a streaming video related to the encoded file Fb for the zoom ratio, Since further zooming is possible, the zoom request is transmitted from the user operation transmission unit 206 to the video distribution server 1. Such zoom request is transmitted by describing the requested zoom magnification Zf and zoom position (coordinate) Zp in the SET_PARAMETER message of RTSP as shown in FIG.

なお、上記の実施形態では、主にズーム無し映像からズーム有り映像へのズームイン時の切り換えを例にして説明したが、本発明はこれのみに限定されるものではなく、解像度の異なるズーム有り映像間での切り換え、およびズーム有り映像からズーム無し映像へのズームアウト時にも同様に適用できる。   In the above-described embodiment, description has been made mainly on the switching at the time of zooming in from the image without zoom to the image with zoom. However, the present invention is not limited to this, and the image with zoom with different resolution is used. It can be applied in the same way when switching between and zooming out from an image with zoom to an image without zoom.

本実施形態によれば、映像配信サーバ1には、提供可能なズーム倍率の段階に応じて、解像度の異なる複数のズーム用符号化ファイルが予め用意されており、ズーム要求が検知されると、要求されたズーム倍率Zfに応じたズーム用符号化ファイルからズーム位置Zpの映像を切り出してズーム映像とするので、ズーム要求に対して低負荷でズーム映像を配信できるようになる。
[第2実施形態]
According to the present embodiment, the video distribution server 1 is prepared in advance with a plurality of zoom encoded files having different resolutions according to the stage of zoom magnification that can be provided, and when a zoom request is detected, Since the video at the zoom position Zp is cut out from the encoded file for zooming corresponding to the requested zoom magnification Zf and used as the zoom video, the zoom video can be distributed with a low load in response to the zoom request.
[Second Embodiment]

次いで、本発明の第2実施形態について説明する。上記の実施形態では、再生中の映像をズームする際の映像切り換えについて説明したが、本発明はこれのみに限定されるものではなく、ズーム映像の再生中にズーム倍率を変更することなくズーム位置のみを移動させる場合にも同様に適用できる。   Next, a second embodiment of the present invention will be described. In the above embodiment, the video switching when zooming the video being played back has been described. However, the present invention is not limited to this, and the zoom position can be changed without changing the zoom magnification during playback of the zoom video. The same can be applied to the case of moving only.

図11は、第2実施形態の動作概要を示した図であり、前記映像配信サーバ1は、大型TV用に撮影、編集された高解像度の映像コンテンツ[同図(a)]を、配信解像度すなわち映像再生端末2の表示解像度に変換して配信[同図(b)]すると共に、端末ユーザからのズーム要求に応答して配信解像度のズーム映像を配信[同図(c)]し、さらには端末ユーザからの移動要求に応答して移動先のズーム映像(同じく、配信解像度)を配信[同図(d)]する。   FIG. 11 is a diagram showing an outline of the operation of the second embodiment. The video distribution server 1 displays high-resolution video content shot and edited for a large TV [the same figure (a)] as distribution resolution. That is, the image is converted to the display resolution of the video playback terminal 2 and distributed [FIG. (B)], and the zoom video of the distribution resolution is distributed [FIG. (C)] in response to a zoom request from the terminal user. In response to the movement request from the terminal user, the zoom image of the movement destination (also distribution resolution) is distributed [(d)].

図12は、第2実施形態におけるズーム映像の移動方法を示した図であり、ここでは、ズーム率大の符号化ファイルFcから切り出されたズーム映像の位置を移動する場合を例にして説明する。   FIG. 12 is a diagram illustrating a zoom video moving method according to the second embodiment. Here, a case where the position of the zoom video cut out from the encoded file Fc with a large zoom ratio is moved will be described as an example. .

前記映像配信サーバ1は、符号化ファイルFcから同図(a)に黒枠で示した領域の6つのスライスを切り出して生成した同図(c)のズーム映像をストリーミング形式で配信している。映像配信サーバ1では、この配信中に、同図(d)に示したように右側への移動を指定する移動要求が受信されると、当該移動要求に応答して、前記符号化ファイルFcから同図(b)に黒枠で示した範囲の6つのスライスが切り出される。そして、この6つのスライスから同図(e)に示した新たなズーム映像が作成され、配信映像が前記移動前のズーム映像から移動後のズーム映像に切り換えられる。   The video distribution server 1 distributes in a streaming format the zoom video shown in FIG. 7C, which is generated by cutting out six slices of the area indicated by the black frame in FIG. In the video distribution server 1, during this distribution, when a movement request designating movement to the right side is received as shown in FIG. 4D, the video distribution server 1 responds to the movement request from the encoded file Fc. Six slices in the range indicated by the black frame in FIG. Then, a new zoom image shown in FIG. 5E is created from these six slices, and the distribution image is switched from the zoom image before the movement to the zoom image after the movement.

なお、本実施形態でも図13に一例を示したように、移動前のズーム映像[同図(a)]から移動後のズーム映像[同図(c)]に切り換える際にはエフェクト映像[同図(b)]を挿入することが望ましい。このようなエフェクト映像は、元データの画素値を左方向にずらすと同時に画面の右端については元画像の右端境界部のピクセル値をコピーすることで生成できる。   In this embodiment as well, as shown in FIG. 13 as an example, when switching from the zoom image before movement [FIG. 13 (a)] to the zoom image after movement [FIG. It is desirable to insert the figure (b)]. Such an effect video can be generated by shifting the pixel value of the original data to the left and simultaneously copying the pixel value at the right edge boundary of the original image for the right edge of the screen.

本実施形態によれば、映像配信サーバ1が映像再生端末2から、移動先のズーム位置が記述された移動要求の受信に応答して、移動先のズーム位置に応じたスライスを切り出してズーム映像を生成するので、ズーム位置の移動を簡単に実現できるようになる。
[第3実施形態]
According to this embodiment, the video distribution server 1 cuts out a slice corresponding to the zoom position of the movement destination in response to receiving a movement request describing the zoom position of the movement destination from the video playback terminal 2, and zooms in the video. Therefore, the zoom position can be easily moved.
[Third embodiment]

次いで、本発明の第3実施形態について説明する。上記の各実施形態では、設定可能なズーム率の上限が、前記映像配信サーバ1に蓄積されているズーム用の符号化ファイルの解像度に依存し、それ以上のズーム率での再生を要求することができなかった。   Next, a third embodiment of the present invention will be described. In each of the above-described embodiments, the upper limit of the settable zoom rate depends on the resolution of the encoded file for zoom stored in the video distribution server 1 and requires playback at a zoom rate higher than that. I could not.

これに対して、本実施形態では映像配信サーバ1に蓄積されているズーム用符号化ファイルによるズーム率を超えるズーム率が指定されると、映像再生端末2がこれを検知し、周知のデジタルズーム機能により前記表示バッファ202上で映像をトレミングして見かけ上の高倍率ズームを実現する。   On the other hand, in the present embodiment, when a zoom rate exceeding the zoom rate by the zoom encoded file stored in the video distribution server 1 is designated, the video playback terminal 2 detects this, and the well-known digital zoom function As a result, the video is tremmed on the display buffer 202 to realize an apparent high magnification zoom.

図14は、本実施形態のズーム方法を説明するための図であり、ズーム再生が要求されていなければ、映像配信サーバ1からは同図(a)のズーム無し符号化ファイルFaが配信され、映像再生端末2では同図(b)のズーム無し映像が再生される。   FIG. 14 is a diagram for explaining the zoom method of the present embodiment. If zoom playback is not requested, the video distribution server 1 distributes the non-zoom encoded file Fa of FIG. The video playback terminal 2 plays back the non-zoom video shown in FIG.

ズーム率中のズームが要求されると、映像配信サーバ1からは同図(c)のズーム率中の符号化ファイルFbから切り出されたズーム映像が配信され、映像再生端末2では同図(d)のズーム率中の映像が再生される。また、ズーム率大のズームが要求されると、映像配信サーバ1からは同図(e)のズーム率大の符号化ファイルFcから切り出されたズーム映像が配信され、映像再生端末2では同図(f)のズーム率大の映像が再生される。   When zooming at the zoom rate is requested, the video delivery server 1 delivers the zoomed video clipped from the encoded file Fb at the zoom rate shown in FIG. ) Is played back at the zoom rate. When zoom with a large zoom rate is requested, the video distribution server 1 distributes the zoom image cut out from the encoded file Fc with the large zoom rate shown in FIG. The image with the large zoom factor (f) is played back.

さらに高倍率のズームが要求されると、同図(g)に示したように、映像再生端末2では表示バッファ202上の映像がズーム位置Zpを中心に要求倍率に応じたサイズにトレミングされて切り出される。切り出されたトレミング画像は、その解像度を補間処理等により配信解像度まで嵩上げすることでリサイズされ、同図(h)のように見かけ上高倍率にズームされているように表示される。   When zooming at a higher magnification is required, the video on the display buffer 202 is tremmed to the size corresponding to the required magnification around the zoom position Zp in the video playback terminal 2 as shown in FIG. Cut out. The trimmed tremming image is resized by raising its resolution to the distribution resolution by interpolation processing or the like, and is displayed as if it has been zoomed to a high magnification as shown in FIG.

図15は、本実施形態の機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。   FIG. 15 is a functional block diagram of the present embodiment, and the same reference numerals as those described above represent the same or equivalent parts, and thus description thereof is omitted.

ローカルズーム部207は、ユーザ操作として受け付けられたズーム要求の倍率が、映像配信サーバ1に用意されているズーム用符号化ファイルからのズーム映像の切り出しにより対応できる範囲を超えていると判定すると、表示バッファ202に展開されているズーム映像を、指定されたズーム位置Zpを中心に、要求されたズーム率Zfに応じたサイズでトレミングし、トレミング画像の画素数が配信解像度の画素数と一致するように、前記トレミング画像に補間処理等を実施することでリサイズする。   When the local zoom unit 207 determines that the magnification of the zoom request accepted as a user operation exceeds the range that can be handled by cutting out the zoom video from the zoom encoded file prepared in the video distribution server 1, The zoom image developed in the display buffer 202 is tremmed with a size corresponding to the requested zoom ratio Zf with the designated zoom position Zp as the center, and the number of pixels of the tremming image matches the number of pixels of the distribution resolution. As described above, the tremming image is resized by performing an interpolation process or the like.

本実施形態によれば、映像配信サーバ1に予め用意されているズーム用符号化ファイルからのズーム映像の切り出しにより対応できるズーム倍率を超えた高倍率でのズーム再生が可能になる。
[第4実施形態]
According to the present embodiment, zoom reproduction at a high magnification exceeding the zoom magnification that can be handled by cutting out a zoom video from a zoom encoded file prepared in advance in the video distribution server 1 becomes possible.
[Fourth embodiment]

次いで、本発明の第4実施形態について説明する。上記の実施形態では、エフェクト画像が映像配信サーバ側で挿入されるものとして説明したが、本発明はこれのみに限定されるものではなく、図16に示したように、表示バッファ202に蓄積されている映像に対して加工を行うローカルエフェクト部208を設け、ユーザ操作受付部204に対するズーム要求が検知されると、その直後からの一定時間、ローカルエフェクト部208が表示バッファ202に格納された映像に対して、モザイク化等のエフェクトを挿入することで、ローカルな処理によりユーザに対して操作が受け付けられたことをわかりやすく伝えるようにしても良い。   Next, a fourth embodiment of the present invention will be described. In the above embodiment, the effect image is described as being inserted on the video distribution server side. However, the present invention is not limited to this, and is stored in the display buffer 202 as shown in FIG. A local effect unit 208 is provided for processing an image being processed, and when a zoom request to the user operation receiving unit 204 is detected, the local effect unit 208 is stored in the display buffer 202 for a certain period of time immediately after that. On the other hand, by inserting an effect such as mosaicing, it may be easily understood that the operation has been accepted by the local processing.

なお、上記の各実施形態では、映像配信サーバ1に蓄積されているコンテンツをユーザ端末からの要求に応じて配信するVDO(Video On Demand)を例にして説明したが、本発明はこれのみに限定されるものではなく、リアルタイムの放送にも同様に適用できる。   In each of the above embodiments, the VDO (Video On Demand) that distributes the content stored in the video distribution server 1 in response to a request from the user terminal has been described as an example. The present invention is not limited and can be similarly applied to real-time broadcasting.

1…映像配信サーバ,2…映像配信端末,101…映像分割符号化部,102…IDRフレーム情報DB,103…Audioデータ保存DB,104…Videoデータ保存DB,105…ユーザ操作受信部,106…映像切換制御部,107…ズーム映像切出部,108…スライスデータバッファ,109…エフェクト部,110…多重化部,111…配信部,201…映像受信部,202…表示バッファ,203…表示部,204…ユーザ操作受付部,205…操作判定部,206…ユーザ操作送信部,207…ローカルズーム部,208…ローカルエフェクト部   DESCRIPTION OF SYMBOLS 1 ... Video distribution server, 2 ... Video distribution terminal, 101 ... Video division | segmentation encoding part, 102 ... IDR frame information DB, 103 ... Audio data storage DB, 104 ... Video data storage DB, 105 ... User operation receiving part, 106 ... Video switching control unit 107 107 Zoom video cutting unit 108 Slice data buffer 109 Effect unit 110 Multiplexing unit 111 Distribution unit 201 Video receiving unit 202 Display buffer 203 Display unit , 204 ... User operation reception unit, 205 ... Operation determination unit, 206 ... User operation transmission unit, 207 ... Local zoom unit, 208 ... Local effect unit

Claims (9)

ストリーミング形式で配信する映像をズーム要求に応答してズーム映像に切り換える映像配信サーバにおいて、
映像コンテンツごとに、配信解像度のズーム無し符号化ファイルおよび配信解像度よりも高解像度の少なくとも一つのズーム用符号化ファイルを生成する符号化手段と、
映像コンテンツごとに、前記ズーム無し符号化ファイルおよびズーム用符号化ファイルを記憶する手段と、
ズーム倍率およびズーム位置の記述されたズーム要求を検知する手段と、
配信中の符号化ファイルに対するズーム要求が検知されると、配信する符号化ファイルを前記ズーム倍率に応じた他の解像度のズーム用符号化ファイルに切り換える手段と、
前記切り換えられたズーム用符号化ファイルの前記ズーム位置から前記配信解像度でズーム映像を切り出す手段と、
前記切り出されたズーム映像をストリーミング形式で配信する手段とを具備し、
前記符号化手段は、前記ズーム用符号化ファイルを、論理的な境界線で仕切られて複数のマクロブロックを含む複数の分割映像領域ごとに符号化し、
前記ズーム用符号化ファイルは、前記分割映像領域ごとに配信時の符号化方式で符号化され、
前記各分割映像領域は、前記ズーム位置に応じた複数の集合で前記配信解像度のズーム映像を構成できるように、その位置、形状およびサイズが規定され、
前記ズーム映像を切り出す手段は、前記切り換えられたズーム用符号化ファイルから、前記ズーム位置に応じた複数の分割映像領域の集合をズーム映像として切り出すことを特徴とする映像配信サーバ。
In a video distribution server that switches a video distributed in a streaming format to a zoom video in response to a zoom request,
Encoding means for generating, for each video content, a non-zoom encoded file having a distribution resolution and at least one zoom encoded file having a resolution higher than the distribution resolution;
Means for storing the non-zoom encoded file and the zoom encoded file for each video content;
Means for detecting a zoom request describing a zoom magnification and a zoom position;
When a zoom request for the encoded file being distributed is detected, means for switching the encoded file to be distributed to a zoom encoded file of another resolution corresponding to the zoom magnification;
Means for cutting out a zoom image at the distribution resolution from the zoom position of the switched zoom encoding file;
Means for delivering the cut-out zoom video in a streaming format,
The encoding means encodes the zoom encoding file for each of a plurality of divided video regions including a plurality of macroblocks partitioned by a logical boundary line,
The encoded file for zoom is encoded by the encoding method at the time of distribution for each of the divided video areas,
Each of the divided video areas is defined in position, shape, and size so that a zoom video of the distribution resolution can be configured by a plurality of sets according to the zoom position.
The video distribution server , wherein the means for cutting out the zoom video cuts out a set of a plurality of divided video areas corresponding to the zoom position from the switched zoom encoding file as a zoom video .
前記ズーム映像として切り出された複数の分割映像領域のマクロブロックのヘッダ情報を、ズーム映像における各マクロブロックの表示位置に応じて書き換える手段を具備したことを特徴とする請求項に記載の映像配信サーバ。 The video distribution according to claim 1 , further comprising means for rewriting header information of macroblocks of a plurality of divided video areas cut out as the zoom video in accordance with display positions of the macroblocks in the zoom video. server. 前記マクロブロックのヘッダ情報を書き換える手段は、ズーム映像として切り出された複数の分割映像領域が単一の映像領域となるように、各マクロブロックに付される序数を書き換えることを特徴とする請求項に記載の映像配信サーバ。 The means for rewriting the header information of the macroblock rewrites the ordinal number attached to each macroblock so that a plurality of divided video areas cut out as a zoom video become a single video area. 2. The video distribution server according to 2. 前記マクロブロックのヘッダ情報を書き換える手段は、各マクロブロックが持つ量子化パラメータ情報が、マクロブロックの復号順で直前のマクロブロックが持つ量子化パラメータ情報との差分として格納されている場合に、前記論理的な境界線の右隣りに位置するマクロブロックに対して、その差分情報を、変換された新たなマクロブロック復号順序に応じて書き換えることを特徴とする請求項に記載の映像配信サーバ。 The means for rewriting the header information of the macroblock, when the quantization parameter information possessed by each macroblock is stored as a difference from the quantization parameter information possessed by the immediately preceding macroblock in the decoding order of the macroblock, 3. The video distribution server according to claim 2 , wherein the difference information is rewritten in accordance with the converted new macroblock decoding order for the macroblock located on the right side of the logical boundary line. 前記符号化手段は、一の分割映像領域の各マクロブロックを符号化する際に他の一の分割領域のマクロブロックを参照しないことを特徴とする請求項に記載の映像配信サーバ。 2. The video distribution server according to claim 1 , wherein the encoding unit does not refer to a macroblock of another one divided region when encoding each macroblock of one divided video region. 3. 前記符号化手段は、一の分割映像領域の各マクロブロックを符号化する際に、当該一の分割映像領域と常に同時に切り出されてズーム映像を構成する他の分割映像領域のマクロブロックの参照は許容されることを特徴とする請求項に記載の映像配信サーバ。 When the encoding means encodes each macroblock of one divided video area, reference to macroblocks of other divided video areas that are always cut out simultaneously with the one divided video area and constitute a zoom video is 6. The video distribution server according to claim 5 , wherein the video distribution server is allowed. 前記符号化が、イントラ符号化およびインター符号化であることを特徴とする請求項5または6に記載の映像配信サーバ。 The video distribution server according to claim 5 or 6 , wherein the encoding is intra encoding or inter encoding. 前記切り換え前後のズーム映像間にエフェクト映像を挿入するエフェクト手段をさらに具備したことを特徴とする請求項1ないしのいずれかに記載の映像配信サーバ。 Video distribution server according to any one of claims 1 to 7, characterized in that further comprising an effect means for inserting an effect image between the switching of the front and rear zoom image. 前記映像切換がイントラフレームのタイミングで実行されることを特徴とする請求項1ないしのいずれかに記載の映像配信サーバ。 Video distribution server according to any one of claims 1 to 8, wherein the image switching is performed at the timing of the intra-frame.
JP2010219728A 2010-09-29 2010-09-29 Video distribution server Expired - Fee Related JP5500649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010219728A JP5500649B2 (en) 2010-09-29 2010-09-29 Video distribution server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010219728A JP5500649B2 (en) 2010-09-29 2010-09-29 Video distribution server

Publications (2)

Publication Number Publication Date
JP2012075030A JP2012075030A (en) 2012-04-12
JP5500649B2 true JP5500649B2 (en) 2014-05-21

Family

ID=46170763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010219728A Expired - Fee Related JP5500649B2 (en) 2010-09-29 2010-09-29 Video distribution server

Country Status (1)

Country Link
JP (1) JP5500649B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5941000B2 (en) * 2013-03-12 2016-06-29 日本電信電話株式会社 Video distribution apparatus and video distribution method
JP6225446B2 (en) * 2013-03-26 2017-11-08 富士通株式会社 Moving image data distribution apparatus, method, program, and system
US20150253974A1 (en) 2014-03-07 2015-09-10 Sony Corporation Control of large screen display using wireless portable computer interfacing with display controller
EP3193303B1 (en) * 2014-09-11 2024-01-31 Sony Group Corporation System and method for generating a relationship graphs
JP2016065958A (en) * 2014-09-24 2016-04-28 ブラザー工業株式会社 Display control system, display control device, and program
US20160098180A1 (en) * 2014-10-01 2016-04-07 Sony Corporation Presentation of enlarged content on companion display device
US10595069B2 (en) 2016-12-05 2020-03-17 Adobe Inc. Prioritizing tile-based virtual reality video streaming using adaptive rate allocation
KR102166054B1 (en) * 2019-03-22 2020-10-15 에스케이 텔레콤주식회사 Method and Apparatus for Displaying Streaming Video Transmitted from Network
CN114339290A (en) * 2021-12-30 2022-04-12 杭州当虹科技股份有限公司 Large screen management subsystem, large screen synchronous playing system and method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6873343B2 (en) * 2000-05-11 2005-03-29 Zoran Corporation Scalable graphics image drawings on multiresolution image with/without image data re-usage
JP2002027481A (en) * 2000-07-10 2002-01-25 Matsushita Electric Ind Co Ltd Picture coding system, method for coding picture, and recording medium
JP2002252844A (en) * 2001-02-26 2002-09-06 Megafusion Corp Data distribution system
JP2004289224A (en) * 2003-03-19 2004-10-14 Hitachi Information Systems Ltd Moving picture distribution server and moving picture distribution system
JP2005323044A (en) * 2004-05-07 2005-11-17 Uniden Corp Image transmitting apparatus and image receiving apparatus
JP2005341325A (en) * 2004-05-28 2005-12-08 Nippon Telegr & Teleph Corp <Ntt> Multi-point video conference system, multi-point video conference control method, server apparatus, multi-point video conference control program, and program recording medium thereof
JP2006345229A (en) * 2005-06-09 2006-12-21 Fujitsu Ltd Video image distribution method, video image viewing device, video image controller, and encoding device
JP2007194680A (en) * 2006-01-17 2007-08-02 Sharp Corp Moving picture viewing method, and communication terminal and program
FR2898236A1 (en) * 2006-03-03 2007-09-07 Thomson Licensing Sas METHOD OF TRANSMITTING AUDIOVISUAL FLOWS BY ANTICIPATING CONTROLS OF THE USER, RECEIVER AND TRANSMITTER FOR IMPLEMENTING THE METHOD
JP4569968B2 (en) * 2006-06-13 2010-10-27 Kddi株式会社 Moving picture composition apparatus and program
JP2008301335A (en) * 2007-06-01 2008-12-11 Kddi R & D Laboratories Inc Video signal switching apparatus

Also Published As

Publication number Publication date
JP2012075030A (en) 2012-04-12

Similar Documents

Publication Publication Date Title
JP5500649B2 (en) Video distribution server
JP6556868B2 (en) Video streaming apparatus, video stream, video streaming method, and computer program
US8249153B2 (en) Distributed synchronized video viewing and editing
US8069466B2 (en) Advanced digital TV system
US7893999B2 (en) Simultaneous video and sub-frame metadata capture system
JP5811097B2 (en) Moving image distribution system, moving image distribution method, and moving image distribution program
US20020021353A1 (en) Streaming panoramic video
US11792463B2 (en) Method of video transmission and display
CN102123259B (en) Method for displaying extra-large-resolution pictures on television
EP1871100A2 (en) Adaptive video processing using sub-frame metadata
US20140282800A1 (en) Video processing device, video reproduction device, video processing method, video reproduction method, and video processing system
US20080068500A1 (en) Methods, apparatus, and systems for insertion of overlay content into a video signal with transrating capabilities
CN101960844A (en) Application enhancement tracks
JP2011024018A (en) Transmitting apparatus, receiving apparatus, transmitting method, receiving method, and transmission system
KR20170044169A (en) Video composition
TW200427319A (en) Method for selecting the de-interlacing algorithm of dynamic image
KR20150029461A (en) Method of synchronizing tiled image in a streaming service providing system of panoramic image
JP6006680B2 (en) Video distribution apparatus and video distribution program
JP2014176017A (en) Image reproduction apparatus, image distribution apparatus, image reproduction method, and image distribution method
WO2009093557A1 (en) Multi-screen display
JP5594842B2 (en) Video distribution device
JP7417373B2 (en) Video encoding device, playback device and program
KR101242478B1 (en) Real time personal broadcasting system using media jockey based on multi-angle
De Praeter et al. Efficient encoding of interactive personalized views extracted from immersive video content
CN118283287A (en) Live broadcast method, device, medium and equipment for hundred million-level pixel video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140306

R150 Certificate of patent or registration of utility model

Ref document number: 5500649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees