JP5594842B2 - Video distribution device - Google Patents

Video distribution device Download PDF

Info

Publication number
JP5594842B2
JP5594842B2 JP2011040400A JP2011040400A JP5594842B2 JP 5594842 B2 JP5594842 B2 JP 5594842B2 JP 2011040400 A JP2011040400 A JP 2011040400A JP 2011040400 A JP2011040400 A JP 2011040400A JP 5594842 B2 JP5594842 B2 JP 5594842B2
Authority
JP
Japan
Prior art keywords
zoom
video
important
rectangle
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011040400A
Other languages
Japanese (ja)
Other versions
JP2012178702A (en
Inventor
知彦 高橋
整 内藤
勝 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2011040400A priority Critical patent/JP5594842B2/en
Publication of JP2012178702A publication Critical patent/JP2012178702A/en
Application granted granted Critical
Publication of JP5594842B2 publication Critical patent/JP5594842B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像コンテンツをストリーミング配信する映像配信装置に係り、特に、元映像の重要領域が含まれるズーム範囲を自動設定し、このズーム範囲を元映像から切り出してズーム映像として配信する映像配信装置に関する。   The present invention relates to a video distribution apparatus that distributes video content in a streaming manner, and in particular, a video distribution apparatus that automatically sets a zoom range including an important area of an original video, and cuts out the zoom range from the original video and distributes it as a zoom video. About.

ケールブルテレビ等の大画面向けコンテンツを、TVだけでなくPC、携帯電話、スタイラス型可搬端末等のデバイスでも視聴可能にする、いわゆるマルチスクリーンサービスが一般的になりつつある。非特許文献1には、ケーブルテレビ向けコンテンツをPC向けに配信する技術が開示されている。こうしたマルチスクリーンサービスにおいては、ディスプレイが大きなテレビ向けに作成された高解像度のコンテンツを、ディスプレイの小さな携帯電話等向けに低解像度に変換する必要がある。   A so-called multi-screen service that enables viewing of content for a large screen such as a cable television on not only a TV but also a device such as a PC, a mobile phone, and a stylus portable terminal is becoming popular. Non-Patent Document 1 discloses a technology for distributing content for cable television to a PC. In such a multi-screen service, it is necessary to convert high-resolution content created for a television with a large display to a low resolution for a mobile phone with a small display.

一般的なマルチスクリーンサービスでは、大画面向けコンテンツの全体がそのまま変換(トランスコード)されて携帯電話等にストリーミング配信される。しかしながら、携帯電話等ではディスプレイが小さいのでコンテンツの魅力を十分に発揮されないという問題があった。そのため、ユーザが視聴したい任意の領域を拡大して見ることができるような仕組みが求められていた。   In a general multi-screen service, the entire content for a large screen is converted (transcoded) as it is and streamed to a mobile phone or the like. However, mobile phones and the like have a problem that the attractiveness of content cannot be fully exhibited because the display is small. Therefore, there has been a demand for a mechanism that allows the user to enlarge and view an arbitrary area that the user wants to view.

映像コンテンツを拡大する技術として、映像中の任意の部分をトリミング(切り出し)して提示するデジタルズームが特許文献1に開示されている。しかしながら、このようなデジタルズーム機能は、映像撮影時の処理として行われるものであり、映像伝送におけるビットレートの制約やリアルタイムでのストリーミングに必要な低遅延性が考慮されておらず、また高負荷な処理が要求されるので、映像ストリーミングへの適用は困難である。   As a technique for enlarging video content, Patent Document 1 discloses a digital zoom for trimming (cutting out) and presenting an arbitrary part in a video. However, such a digital zoom function is performed as a process at the time of video shooting, and does not take into consideration the bit rate limitation in video transmission and the low delay required for streaming in real time, and has a high load. Since processing is required, application to video streaming is difficult.

このような技術課題の解決方法として、ユーザが希望する拡大映像を、サーバ側でリアルタイムにエンコードして送信する、リアルタイムエンコードを用いる方法が容易に想像できる。しかしながら、ユーザが希望する拡大映像を常にエンコードして送信しようとすればサーバの負荷が大きくなり、さらには、その負荷がサービスを受けるユーザ数に比例して大きくなるため、多数のユーザに対して同時にサービスを提供する用途では現実的では無い。   As a method for solving such a technical problem, a method using real-time encoding in which an enlarged image desired by the user is encoded and transmitted in real time on the server side can be easily imagined. However, if the user always wants to encode and transmit the enlarged video, the load on the server increases, and the load increases in proportion to the number of users receiving the service. At the same time, it is not practical to provide services.

さらに、上記の技術課題の別の解決方法として、非特許文献2には、映像コンテンツをタイル状に分割して符号化し、サーバ側からは全体のタイルの一部分を送信する一方、クライアント側では受信した各タイル毎に映像をデコードし、そのデコード結果を同時に表示することで拡大映像を得る方法が開示されている。しかしながら、この方法では、クライアント側でタイル状に分割された映像を個々にデコードし、同期をとって表示する必要があるので、携帯端末のような処理能力の低い端末への搭載は現実的では無い。   Furthermore, as another solution to the above technical problem, Non-Patent Document 2 divides and encodes video content into tiles, and transmits a part of the entire tile from the server side, while receiving it at the client side. A method is disclosed in which an enlarged image is obtained by decoding an image for each tile and displaying the decoding result at the same time. However, in this method, it is necessary to individually decode the video divided into tiles on the client side and display it in synchronization. Therefore, it is not practical to install it on a terminal with low processing capability such as a portable terminal. No.

このような技術課題に対して、本発明者等による特許文献2には、映像配信サーバには、提供可能なズーム倍率の段階に応じて、解像度の異なる複数のズーム用符号化ファイルを予め用意しておき、ズーム要求が検知されると、要求されたズーム倍率に応じたズーム用符号化ファイルからズーム位置の映像を矩形に切り出してズーム映像とすることにより、ズーム要求に対して低負荷でズーム映像を配信する技術が開示されている。   In response to such a technical problem, in Patent Document 2 by the present inventors, a plurality of encoded files for zoom having different resolutions are prepared in advance in the video distribution server according to the stage of the zoom magnification that can be provided. In addition, when a zoom request is detected, a zoom position image is cut out from a zoom encoding file corresponding to the requested zoom magnification into a rectangular image, thereby reducing the load on the zoom request. A technique for distributing zoom video is disclosed.

特開2008-316739号公報JP2008-316739 特願2010-219728号Japanese Patent Application No. 2010-219728

Fancast(http://www.fancast.com/)Fancast (http://www.fancast.com/) インタラクティブ・パノラマ映像配信システムにおけるマルチ解像度配信方式の一検討(情報処理学会研究報告 Vol.2010-AVM-70 No.8)A Study on Multi-resolution Distribution Method for Interactive Panorama Video Distribution System (Information Processing Society of Japan Vol.2010-AVM-70 No.8)

特許文献2では、元映像から切り出される矩形領域が固定的であったために、特に重要領域が画面内の複数箇所に分散されている映像からは、理想的なズーム映像を取得することが困難であった。   In Patent Document 2, since the rectangular area cut out from the original image is fixed, it is difficult to obtain an ideal zoom image from an image in which important areas are dispersed at a plurality of locations in the screen. there were.

図29は、このような技術課題を説明するための図であり、元映像[同図(a)]は3×3の9個のスライスP11〜P33に分割されており、ズーム映像は、この3×3の9スライスから2×2の4スライスを切り出すことで実現される。   FIG. 29 is a diagram for explaining such a technical problem. The original image [FIG. 29 (a)] is divided into nine 3 × 3 slices P11 to P33. This is realized by cutting out 4 slices of 2 × 2 from 9 slices of 3 × 3.

図示の例では、同図(b)のズーム無し映像に対してユーザによりズーム操作が行われ、一般的には、人物の表示領域が重要領域とされるので、5人の人物全員が含まれる同図(c)が理想的なズーム映像となる。しかしながら、図示の例では5人の人物が画面内で分散されているので、従来技術のようにスライスが固定的であると、人物をズーム映像に多く含ませようとしても、同図(d)のようにP12、P13、P22、P23の4スライス、または同図(e)のようにP22、P23、P32、P33の4スライス、のいずれかを選択せざるを得ず、理想的なズーム映像を得られなかった。   In the example shown in the figure, the zoom operation is performed by the user on the non-zoom image in FIG. 5B, and generally, the display area of the person is an important area, so all five persons are included. The figure (c) is an ideal zoom image. However, in the illustrated example, five persons are dispersed in the screen. Therefore, if the slice is fixed as in the prior art, even if many persons are included in the zoom image, the figure (d). It is necessary to select 4 slices of P12, P13, P22, and P23 as shown in Fig. 4 or 4 slices of P22, P23, P32, and P33 as shown in Fig. 3 (e). Could not get.

本発明は、上記した従来技術の課題を解決し、重要領域が含まれるようにズーム範囲が自動的に設定され、理想的なズーム映像が簡単に得られる映像配信装置を提供することにある。   An object of the present invention is to solve the above-described problems of the prior art and to provide a video distribution apparatus in which a zoom range is automatically set so as to include an important region and an ideal zoom video can be easily obtained.

上記の技術課題を解決するために、本発明は、映像コンテンツのズーム映像をストリーミング配信する映像配信装置において、以下のような手段を講じた点に特徴がある。   In order to solve the above technical problem, the present invention is characterized in that the following means is taken in a video distribution apparatus for streaming distribution of a zoom video of a video content.

(1)映像コンテンツごとにズーム率に応じて解像度の異なる複数のズーム用映像を記憶する手段と、映像コンテンツのフレームから重要領域を抽出する手段と、重要領域を含む矩形を配信アスペクト比の最小サイズまで拡張してズーム範囲に設定する手段と、ズーム範囲のサイズに応じてズーム率を決定する手段と、ズーム率に応じたズーム用映像およびズーム映像の切り出し範囲を含むズーム条件を設定する手段と、ズーム条件に基づいてズーム映像を切り出す手段と、切り出されたズーム映像を配信する手段とを具備した。   (1) Means for storing a plurality of zoom videos having different resolutions according to the zoom rate for each video content, means for extracting an important area from a frame of the video contents, and a rectangle including the important area is the minimum distribution aspect ratio Means for expanding to the size and setting the zoom range; means for determining the zoom rate according to the size of the zoom range; and means for setting zoom conditions including a zoom video and a cutout range of the zoom video according to the zoom rate And means for cutting out the zoom image based on the zoom condition and means for distributing the cut out zoom image.

(2)映像コンテンツをショット分割する手段と、各ショットから代表フレームを取得する手段とをさらに具備し、重要領域を抽出する手段は、各代表フレームから重要領域を抽出するようにした。   (2) The video content further includes means for dividing the shot content and means for obtaining a representative frame from each shot, and the means for extracting the important area extracts the important area from each representative frame.

(3)ズーム範囲を設定する手段は、代表フレームごとに前記重要領域を含む矩形を重要矩形に設定する手段と、各代表フレームの重要矩形の位置を時系列で比較し、前記重要矩形同士の距離が所定の閾値を下回る範囲ごとに各代表フレームの重要矩形を一つに統合する手段とを具備し、各重要矩形を配信アスペクト比の最小サイズまで拡張してズーム範囲に設定するようにした。   (3) The means for setting the zoom range is a means for setting the rectangle including the important region for each representative frame as an important rectangle, and the position of the important rectangle in each representative frame is compared in time series, A means for integrating the important rectangles of each representative frame into one for each range where the distance is below a predetermined threshold is provided, and each important rectangle is expanded to the minimum size of the distribution aspect ratio and set to the zoom range. .

(4)ズーム映像を切り出す手段は、ズーム率に応じたズーム用映像をn×mにスライスし、当該n×mにスライスされたズーム用映像から前記ズーム範囲を含むp×qのスライスをズーム映像として切り出すと共に、ズーム範囲を前記p×qのスライス内に含ませることができないときに、前記ズーム用映像を前記n×mよりも細かくスライスするようにした。   (4) The means for cutting out the zoom image slices the zoom image according to the zoom ratio into n × m, and zooms the p × q slice including the zoom range from the zoom image sliced into the n × m. In addition to cutting out as an image, the zoom image is sliced more finely than the n × m when the zoom range cannot be included in the p × q slice.

(5)ズーム映像の座標位置をズーム映像と共に送信する手段をさらに具備した。   (5) A means for transmitting the coordinate position of the zoom image together with the zoom image is further provided.

(6)ズーム映像の配信を要求する操作信号を映像再生端末から受信する手段と、操作信号を分析してズーム条件を取得する手段とを具備し、前記ズーム映像を切り出す手段は、前記ズーム条件を設定する手段により設定されたズーム条件よりも、前記操作信号を分析して取得されたズーム条件を優先させるようにした。   (6) comprising means for receiving an operation signal for requesting delivery of a zoom video from a video playback terminal; and means for analyzing the operation signal to obtain a zoom condition, wherein the means for cutting out the zoom video comprises the zoom condition The zoom condition obtained by analyzing the operation signal is prioritized over the zoom condition set by the means for setting.

本発明によれば、以下のような効果が達成される。   According to the present invention, the following effects are achieved.

(1)映像コンテンツから重要領域に基づいてズーム範囲が自動的に設定され、さらにズーム範囲の映像が元映像から自動的に切り出されてズーム映像として配信されるので、映像コンテンツを視聴するユーザに煩雑なズーム操作を要求することなく、映像コンテンツの内容に応じて最適なズーム映像をストリーミング配信できるようになる。   (1) The zoom range is automatically set based on the important area from the video content, and the video in the zoom range is automatically cut out from the original video and distributed as a zoom video. An optimal zoom video can be streamed according to the content of the video content without requiring a complicated zoom operation.

(2)重要領域がフレームごとに抽出されるので、ズーム条件をフレームごとに切り替えられるようになる。   (2) Since the important area is extracted for each frame, the zoom condition can be switched for each frame.

(3)同一フレーム内で重要矩形の位置が時系列で比較され、距離の近い重要矩形同士は一つの重要矩形に統合されるので、特徴量の僅かな相違のみでズーム条件が頻繁に切り替えられてしまうことを防止できるようになる。   (3) Since the positions of important rectangles in the same frame are compared in time series, and important rectangles that are close to each other are integrated into one important rectangle, the zoom condition can be switched frequently with only a slight difference in feature amount. Can be prevented.

(4)ズーム範囲をp×qのスライス内に含ませることができないときに、ズーム用映像を更に細かくスライスするようにしたので、ズーム範囲を包含する最小範囲をズーム映像として配信できるようになり、ズーム映像内で重要領域をより大きく表示できるようになる。   (4) When the zoom range cannot be included in the p × q slice, the zoom image is further sliced, so that the minimum range including the zoom range can be distributed as a zoom image. The important area can be displayed larger in the zoom image.

(5)ズーム映像の座標位置がズーム映像と共に再生端末側へ送信されるので、再生端末側では、元映像内でのズーム位置を簡単に認識できるようになる。   (5) Since the coordinate position of the zoom video is transmitted to the playback terminal side together with the zoom video, the playback terminal side can easily recognize the zoom position in the original video.

本発明の一実施形態に係る映像配信システムのブロック図である。1 is a block diagram of a video distribution system according to an embodiment of the present invention. 本発明の動作概要を示した図である。It is the figure which showed the operation | movement outline | summary of this invention. ズーム用映像の符号化ファイルの一例を示した図である。It is the figure which showed an example of the encoding file of the image | video for zooms. 元映像からズーム映像を切り出す方法を示した図である。It is the figure which showed the method of cutting out a zoom image from an original image. ズーム範囲を自動設定する方法を示したフローチャートである。5 is a flowchart illustrating a method for automatically setting a zoom range. ショット分割を説明するための図である。It is a figure for demonstrating shot division | segmentation. 重要領域の抽出例を示した図である。It is the figure which showed the example of extraction of an important area | region. 重要性が低いテロップの識別方法を示した図である。It is the figure which showed the identification method of telop with low importance. 重要矩形の設定方法を示した図である。It is the figure which showed the setting method of the important rectangle. 重要矩形を時系列で比較する方法(その1)を示した図である。It is the figure which showed the method (the 1) which compares an important rectangle in a time series. 重要矩形の統合方法(その1)を示した図である。It is the figure which showed the integration method (the 1) of the important rectangle. 重要矩形の統合をツリー形式で表現した図(その1)である。It is the figure (the 1) which expressed integration of the important rectangle in the tree form. 重要矩形を時系列で比較する方法(その2)を示した図である。It is the figure which showed the method (the 2) which compares an important rectangle in a time series. 重要矩形の統合方法(その2)を示した図である。It is the figure which showed the integration method (the 2) of an important rectangle. 重要矩形の統合をツリー形式で表現した図(その2)である。It is the figure (the 2) which expressed integration of the important rectangle in the tree form. 重要矩形を時系列で比較する方法(その3)を示した図である。It is the figure which showed the method (the 3) which compares an important rectangle in a time series. 重要矩形の統合方法(その3)を示した図である。It is the figure which showed the integration method (the 3) of an important rectangle. 重要矩形の統合をツリー形式で表現した図(その3)である。It is the figure (the 3) which expressed integration of the important rectangle in the tree form. 重要矩形を時系列で比較する方法(その4)を示した図である。It is the figure which showed the method (the 4) which compares an important rectangle in a time series. 重要矩形の統合方法(その4)を示した図である。It is the figure which showed the integration method (the 4) of an important rectangle. 重要矩形の統合をツリー形式で表現した図(その4)である。It is the figure (the 4) which expressed integration of the important rectangle in the tree form. 重要矩形を配信アスペクト比の最小サイズまで拡張してズーム範囲を設定する方法を示した図である。It is the figure which showed the method of extending an important rectangle to the minimum size of a delivery aspect ratio, and setting a zoom range. ズーム範囲をズーム用映像から切り出してズーム映像を配信する方法を示したフローチャートである。It is the flowchart which showed the method of cutting out a zoom range from the image | video for zooms, and delivering a zoom image | video. ズーム用映像の解像度と、配信サイズに対する倍率と、ズーム映像の表示範囲を元映像の解像度に換算した値との関係を示した図である。It is the figure which showed the relationship between the resolution of the image | video for zoom, the magnification with respect to a delivery size, and the value which converted the display range of the zoom image | video into the resolution of the original image | video. ズーム範囲の一例を示した図である。It is the figure which showed an example of the zoom range. ズーム範囲を包含できる切り出し範囲の設定方法を示した図である。It is the figure which showed the setting method of the extraction range which can include a zoom range. ズーム条件の一例を示した図である。It is the figure which showed an example of zoom conditions. 再生端末におけるズーム映像の再生例を示した図である。It is the figure which showed the example of reproduction | regeneration of the zoom image | video in a reproduction | regeneration terminal. 技術課題を説明するための図である。It is a figure for demonstrating a technical subject.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係る映像配信システムの構成を示したブロック図であり、映像コンテンツをストリーミング形式で配信する映像配信装置1と、前記映像コンテンツを受信して再生する映像再生端末2とが、インターネット等の広域ネットワークを介して接続されている。前記映像配信装置1は、映像コンテンツからズーム再生に適したシーンを検出して自動的に、あるいは再生端末2からのズーム要求に応答して、前記映像コンテンツのズーム映像を配信する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a video distribution system according to an embodiment of the present invention, in which a video distribution device 1 that distributes video content in a streaming format and video reproduction that receives and reproduces the video content The terminal 2 is connected via a wide area network such as the Internet. The video distribution device 1 detects a scene suitable for zoom playback from the video content and distributes the zoom video of the video content automatically or in response to a zoom request from the playback terminal 2.

図2は、本発明の動作概要を示した図であり、前記映像配信装置1は、大型TV用に撮影、編集された高解像度(例えば、1920×1056画素)の映像コンテンツ[同図(a)]を、配信解像度すなわち再生端末2の表示解像度(例えば、640×352画素)に変換して配信[同図(b)]し、さらにはズーム映像に切り替えて配信[同図(c)]する。   FIG. 2 is a diagram showing an outline of the operation of the present invention. The video distribution apparatus 1 is a video content of high resolution (for example, 1920 × 1056 pixels) captured and edited for a large-sized TV [the same figure (a )] Is converted into distribution resolution, that is, the display resolution of the playback terminal 2 (for example, 640 × 352 pixels) for distribution [FIG. (B)], and further switched to zoom video for distribution [FIG. (C)]. To do.

本発明では、このようなズーム映像の配信を、ビットレートや伝送遅延に悪影響を与えることなく、かつ再生端末2に高い処理能力を要求することなく実現すべく、映像コンテンツごとにズーム率に応じて解像度の異なる複数のズーム用映像の符号化ファイルが予め用意されている。   In the present invention, in order to realize such distribution of zoom video without adversely affecting the bit rate and transmission delay and without requiring high processing capability for the playback terminal 2, the zoom rate is determined for each video content. Encoding files for a plurality of zoom videos having different resolutions are prepared in advance.

本実施形態では、図3に示したように、ズーム倍率に応じて4つのズーム用映像(大ズーム用、中ズーム用、小ズーム用、ズーム無し用)ファイルが予め用意されている。大ズーム用映像[同図(a)]の解像度は、元映像と同じ1920×1056である。中ズーム用映像[同図(b)]の解像度は、1280×704である。小ズーム用映像[同図(c)]の解像度は、960×528である。ズーム無し映像[同図(d)]の解像度は、配信映像と同じ640×352である。   In the present embodiment, as shown in FIG. 3, four zoom image (large zoom, medium zoom, small zoom, and no zoom) files are prepared in advance according to the zoom magnification. The resolution of the image for large zoom [FIG. (A)] is 1920 × 1056, which is the same as the original image. The resolution of the medium zoom image [(b) in the same figure] is 1280 × 704. The resolution of the image for small zoom [FIG. (C)] is 960 × 528. The resolution of the non-zoom video [(d)] is 640 × 352, which is the same as the distribution video.

各ズーム用映像に示されている格子線はスライス境界を表し、例えば中ズームが要求されると、図4に一例を示したように、例えば3×3にスライスされた中ズーム用の映像ファイルから、ズーム位置に応じて2×2の映像範囲のみが切り出され、ズーム映像として配信される。各スライスは、ズーム位置に応じた複数の集合で配信解像度のズーム映像を構成できるように、その位置、形状およびサイズが規定される。   The grid lines shown in each zoom image represent slice boundaries. For example, when middle zoom is requested, as shown in FIG. 4, for example, a middle zoom image file sliced 3 × 3. From this, only the 2 × 2 video range is cut out according to the zoom position and distributed as a zoom video. The position, shape, and size of each slice are defined so that a zoom video having a distribution resolution can be configured by a plurality of sets according to the zoom position.

図示の例では、ズーム範囲が画面左上方であればスライス1-1,1-2,2-1、2-2が切り出され、ズーム範囲が画面右上方であればスライス1-2,1-3,2-2、2-3が切り出される。同様に、ズーム範囲が画面左下方であればスライス2-1、2-2、3-1、3-2が切り出され、ズーム範囲が画面右下方であればスライス2-2、2-3、3-2、3-3が切り出される。   In the example shown in the figure, slices 1-1, 1-2, 2-1, and 2-2 are cut out when the zoom range is at the upper left of the screen, and slices 1-2, 1 and 1 are cut out when the zoom range is at the upper right of the screen. 3, 2-2 and 2-3 are cut out. Similarly, slices 2-1, 2-2, 3-1, 3-2 are cut out if the zoom range is in the lower left of the screen, and slices 2-2, 2-3, if the zoom range is in the lower right of the screen. 3-2 and 3-3 are cut out.

次いで、元映像の特徴領域に基づいてズーム範囲を自動設定する方法について、図5のフローチャートに沿って説明する。   Next, a method of automatically setting the zoom range based on the feature region of the original video will be described with reference to the flowchart of FIG.

ステップS1では、図6に一例を示したように、元映像がショット境界においてショット分割される。ショット境界とは、映像編集によってカメラの視点が切り替わった点(映像がカットされた点)であり、例えば、特開2007−134986号公報に開示されているように、連続するフレーム間の差分量によって求めることができる。カメラの視点が変われば最適なズーム条件(ズーム位置およびズーム版率)も変わる可能性が高いので、本実施形態では、ショット境界がズーム切り替えの基本タイミングとされる。   In step S1, as shown in FIG. 6 as an example, the original video is divided into shots at shot boundaries. A shot boundary is a point at which the viewpoint of a camera is switched by video editing (a point at which a video is cut). For example, as disclosed in Japanese Patent Application Laid-Open No. 2007-134986, a difference amount between consecutive frames. Can be obtained. Since the optimal zoom condition (zoom position and zoom plate ratio) is likely to change if the camera viewpoint changes, in this embodiment, the shot boundary is set as the basic timing for zoom switching.

ステップS2では、前記ショット分割により得られた多数のショットから、今回の注目ショットが時系列で選択される。ステップS3では、注目ショットから代表フレームが選択される。ステップS4では、図7に一例を示したように、各代表フレームf1〜f5から重要領域(丸または楕円で表記)が抽出される。   In step S2, the current shot of interest is selected in time series from a number of shots obtained by the shot division. In step S3, a representative frame is selected from the target shot. In step S4, as shown in an example in FIG. 7, important regions (indicated by circles or ellipses) are extracted from the representative frames f1 to f5.

ここで、重要領域とは元映像の特徴を解析することで得られるROI(Region of interest)の一種であり、フレーム内の任意の場所に、任意の数、任意の面積で出現する。本実施形態では、以下の領域が重要領域として抽出される。   Here, the important region is a kind of ROI (Region of interest) obtained by analyzing the characteristics of the original video, and appears in an arbitrary number and an arbitrary area in an arbitrary place in the frame. In the present embodiment, the following areas are extracted as important areas.

(1)人物領域   (1) Person area

人物は多くの映像において重要な領域であり、例えば、特開2006−508461号公報に開示されている顔認識を適用して抽出される。   A person is an important area in many images, and is extracted by applying, for example, face recognition disclosed in Japanese Patent Laid-Open No. 2006-508461.

(2)テロップ領域   (2) Telop area

テロップには、映像中の重要な文字情報が含まれる場合が多い。そこで、特開平12−23062号公報に開示されているように、(a)テロップは画面の上部または下部の所定領域に表示される、(b)テロップの出現時および終了時には輝度変化が生じる、という特徴を用いてテロップ領域が抽出される。   The telop often includes important character information in the video. Therefore, as disclosed in JP-A-12-23062, (a) the telop is displayed in a predetermined area at the top or bottom of the screen, (b) a luminance change occurs at the time of appearance and termination of the telop, The telop area is extracted using the feature.

なお、本実施形態では、図8に一例を示したように、抽出されたテロップのうち、多数の代表フレームに跨って、比較的に長時間に渡って表示されるテロップは、重要性が低いと判断されて除外される。   In the present embodiment, as illustrated in FIG. 8, among the extracted telops, telops that are displayed for a relatively long time across a number of representative frames are less important. It is judged and excluded.

(3)顕著性の高い領域   (3) Highly remarkable area

人物やテロップ以外に、顕著性の高い領域が重要領域として抽出される。本実施形態では、顕著性の高さを示す下位の特徴量として、「特徴点」、「周波数成分」および「動き注視モデル」が参照される。   In addition to a person or a telop, a highly significant area is extracted as an important area. In the present embodiment, “feature points”, “frequency components”, and “motion gaze models” are referred to as lower-level feature amounts that indicate high saliency.

(1)特徴点   (1) Features

画面を一定の格子単位で分割し、単位面積当たりの特徴点の数が一定以上の格子の領域が顕著領域として抽出される。特徴点の多い領域には有意な情報が多く存在すると想定され、その抽出には、例えばコーナー(corner)検出技術のように画像の角を検出する技術として、例えばHarrisやStephensの方式を採用できる。   The screen is divided by a fixed grid unit, and a grid area in which the number of feature points per unit area is equal to or larger than a fixed value is extracted as a remarkable area. It is assumed that there is a lot of significant information in the region with many feature points, and for the extraction, for example, the technique of Harris or Stephens can be adopted as a technique for detecting the corner of the image like the corner detection technique. .

(2)周波数成分   (2) Frequency component

画像中では、変化の多い領域ほど有意な情報が多いことから、DCT係数のAC高周波成分の総エネルギー量に基づいて顕著領域が抽出される。一般的に、人間の眼の視覚特性は低周波成分に敏感であり、高周波成分には鈍感である。DCTとは、映像フレームの画素領域を、離散コサイン変換を用いて周波数領域に変換する技術であり、本実施形態では、ブロックあたりのDCTの高周波成分の総和(dAC)に基づいて顕著領域が抽出される。   In the image, since there is more significant information in the region with more change, a remarkable region is extracted based on the total energy amount of the AC high-frequency component of the DCT coefficient. In general, the visual characteristics of the human eye are sensitive to low frequency components and insensitive to high frequency components. DCT is a technology that converts a pixel region of a video frame into a frequency region using discrete cosine transform.In this embodiment, a salient region is extracted based on the sum of high-frequency components (dAC) of DCT per block. Is done.

(3)動き注視モデル   (3) Motion gaze model

画面中の局所領域の動き量によって、注視を集める領域の座標が、例えば非特許文献3のような手法で算出される。各代表フレームで取得された重要物体について、その空間的な位置および特徴量に応じて重みづけが行われる。   Depending on the amount of movement of the local area on the screen, the coordinates of the area to be watched are calculated by a technique such as that described in Non-Patent Document 3. The important object acquired in each representative frame is weighted according to its spatial position and feature amount.

(4)その他   (4) Other

映像中の特徴解析に基づく重要領域検出だけでなく、映像制作者が指定した、映像中の重要物体を顕著領域とすることも可能である。例えば、ある映像コンテンツにおいて、主演者の出現時刻およびその座標が映像制作者によって指定され、メタデータとして与えられる場合、上記の解析結果の代わりに、与えられた情報を使用して顕著領域を抽出する。   Not only the important area detection based on the feature analysis in the video, but also the important object in the video specified by the video producer can be set as the remarkable area. For example, in a certain video content, when the appearance time and the coordinates of the main performer are specified by the video producer and given as metadata, a remarkable area is extracted using the given information instead of the above analysis result To do.

図5へ戻り、ステップS5では、図9に一例を示したように、代表フレームfごとに全ての重要領域を包含する矩形の範囲が重要矩形C(C1,C2…C5)に設定される。ステップS6では、注目ショット内の時系列で2番目の重要矩形が今回の注目矩形として選択される。ここでは、2番目の代表フレームf2の重要矩形C2が注目矩形に選択される。   Returning to FIG. 5, in step S5, as shown in FIG. 9, for example, a rectangular range including all the important areas is set to the important rectangle C (C1, C2,... C5) for each representative frame f. In step S6, the second important rectangle in the time series in the shot of interest is selected as the current rectangle of interest. Here, the important rectangle C2 of the second representative frame f2 is selected as the target rectangle.

ステップS7では、前記注目矩形C2と、その前後に隣接する2つの重要矩形との論理和(OR)領域がそれぞれ算出される。ここでは、図10に示したように、注目矩形C2と代表フレームf1の重要矩形C1とのOR領域C1/2、および注目矩形C2と代表フレームf3の重要矩形C3とのOR領域C2/3が算出される。   In step S7, a logical sum (OR) area between the target rectangle C2 and two important rectangles adjacent to the target rectangle C2 is calculated. Here, as shown in FIG. 10, the OR region C1 / 2 between the target rectangle C2 and the important rectangle C1 of the representative frame f1, and the OR region C2 / 3 between the target rectangle C2 and the important rectangle C3 of the representative frame f3 Calculated.

ステップS8では、前記各OR領域C1/2,C2/3の面積が比較される。ステップS9では、OR領域の面積が小さい方の重要矩形ペアが一つの重要領域に統合される。ここでは、OR領域C2/3の面積の方が小さいため、図11に示したように、注目矩形C2と重要矩形C3とが一つの重要矩形C2-3に統合される。   In step S8, the areas of the OR regions C1 / 2 and C2 / 3 are compared. In step S9, the important rectangle pair having the smaller area of the OR region is integrated into one important region. Here, since the area of the OR region C2 / 3 is smaller, the target rectangle C2 and the important rectangle C3 are integrated into one important rectangle C2-3 as shown in FIG.

ステップS10では、図12に示したように、重要矩形C1〜C5を葉とする仮想的なノードツリーにおいて、前記統合された注目矩形C2の枝と重要矩形C3の枝とが連結され、その枝長L1(縦軸)が前記各OR領域C1/2,C2/3の面積差の絶対値に設定される。ステップS11では、全ての重要矩形がツリー化されたか否かが判定され、ここではツリー化が完了していないと判定されるのでステップS6へ戻る。   In step S10, as shown in FIG. 12, in the virtual node tree with the important rectangles C1 to C5 as leaves, the branch of the integrated rectangle of interest C2 and the branch of the important rectangle C3 are connected, and the branch length L1 (vertical axis) is set to the absolute value of the area difference between the OR regions C1 / 2 and C2 / 3. In step S11, it is determined whether or not all the important rectangles have been tree-formed. Here, it is determined that the tree-forming has not been completed, and the process returns to step S6.

ステップS6では、時系列で2番目の重要矩形として、前記統合された重要矩形C2-3が今回の注目矩形に選択される。ステップS7では、前記注目矩形C2-3と、その前後に隣接する2つの重要矩形とのOR領域がそれぞれ算出される。ここでは、図13に示したように、注目矩形C2-3と代表フレームf1の重要矩形C1とのOR領域C1/2-3、および注目矩形C2-3と代表フレームf4の重要矩形C4とのOR領域C2-3/4が算出される。   In step S6, the integrated important rectangle C2-3 is selected as the current attention rectangle as the second important rectangle in time series. In step S7, an OR region between the target rectangle C2-3 and two important rectangles adjacent to the target rectangle C2-3 is calculated. Here, as shown in FIG. 13, the OR region C1 / 2-3 between the target rectangle C2-3 and the important rectangle C1 of the representative frame f1, and the important rectangle C4 of the target rectangle C2-3 and the representative frame f4 OR region C2-3 / 4 is calculated.

ステップS8では、前記各OR領域の面積が比較され、ステップS9では、面積が小さい方のペアが統合される。ここでは、OR領域C1/2-3の面積の方が小さいため、図14に示したように、重要矩形C1と注目矩形C2-3とが重要矩形C1-3に統合される。ステップS10では、図15に示したように、重要矩形C1の枝と注目矩形C2-3の枝とが連結され、その枝長L2が前記OR領域C1/2-3,C2-3/4の面積差の絶対値に設定される。ステップS11では、重要矩形のツリー化が完了していないと判定されるので再びステップS6へ戻る。   In step S8, the areas of the OR regions are compared, and in step S9, the smaller pair is integrated. Here, since the area of the OR region C1 / 2-3 is smaller, the important rectangle C1 and the target rectangle C2-3 are integrated into the important rectangle C1-3 as shown in FIG. In step S10, as shown in FIG. 15, the branch of the important rectangle C1 and the branch of the target rectangle C2-3 are connected, and the branch length L2 is the area of the OR regions C1 / 2-3 and C2-3 / 4. Set to the absolute value of the difference. In step S11, since it is determined that the tree formation of the important rectangle is not completed, the process returns to step S6 again.

ステップS6では、時系列で2番目の重要矩形C4が今回の注目矩形に選択される。ステップS7では、前記注目矩形C4と、その前後に隣接する2つの重要矩形とのOR領域がそれぞれ算出される。ここでは、図16に示したように、注目矩形C4と重要矩形C1-3とのOR領域C1-3/4、および注目矩形C4と代表フレームf5の重要矩形C5とのOR領域C4/5が算出される。   In step S6, the second important rectangle C4 in time series is selected as the current attention rectangle. In step S7, OR regions of the noticed rectangle C4 and two important rectangles adjacent to it are calculated. Here, as shown in FIG. 16, the OR region C1-3 / 4 of the target rectangle C4 and the important rectangle C1-3, and the OR region C4 / 5 of the target rectangle C4 and the important rectangle C5 of the representative frame f5 Calculated.

ステップS8では、前記各OR領域の面積が比較され、ステップS9では、面積が小さい方の重要領域ペアが統合される。ここでは、OR領域C4/5の面積の方が小さいために、図17に示したように、重要矩形C4,C5が一つの重要矩形C4-5に統合される。ステップS10では、図18に示したように、矩形領域C4の枝と重要領域C5の枝とが連結され、その枝長L3が前記OR領域C1-3/4,C4/5の面積差の絶対値に設定される。ステップS11では、重要矩形のツリー化が完了していないと判定されるので再びステップS6へ戻る。   In step S8, the areas of the OR regions are compared. In step S9, the smaller important region pairs are integrated. Here, since the area of the OR region C4 / 5 is smaller, the important rectangles C4 and C5 are integrated into one important rectangle C4-5 as shown in FIG. In step S10, as shown in FIG. 18, the branch of the rectangular region C4 and the branch of the important region C5 are connected, and the branch length L3 is the absolute value of the area difference between the OR regions C1-3 / 4 and C4 / 5. Set to In step S11, since it is determined that the tree formation of the important rectangle is not completed, the process returns to step S6 again.

ステップS6では、時系列で2番目の重要矩形C4-5が今回の注目矩形に選択される。ステップS7では、前記注目矩形C4-5と、その前後に隣接する2つの重要矩形とのOR領域がそれぞれ算出される。ここでは、後に隣接する重要領域が存在しないので、図19に示したように、注目矩形C4-5と重要矩形C1-3とのOR領域C1-3/4-5のみが算出される。   In step S6, the second important rectangle C4-5 in time series is selected as the current attention rectangle. In step S7, an OR area between the target rectangle C4-5 and two important rectangles adjacent to the rectangle is calculated. Here, since there is no adjacent important region later, only the OR region C1-3 / 4-5 of the target rectangle C4-5 and the important rectangle C1-3 is calculated as shown in FIG.

ステップS8では、前記各OR領域の面積が比較され、ステップS9では、面積が小さい方の重要矩形ペアが統合される。ここでは、OR領域C1-3/4-5しか算出されていないので、図20に示したように、重要矩形C1-3,C4-5が一つの重要矩形C1-5に統合される。ステップS10では、図21に示したように、重要矩形C4の枝と重要領域C5の枝とが連結され、その枝長L4が前記重要矩形C1-3と注目矩形C4-5との面積差の絶対値に設定される。ステップS11では、重要矩形のツリー化が完了したと判定されるのでステップS12へ進む。   In step S8, the areas of the OR regions are compared, and in step S9, the important rectangular pairs with smaller areas are integrated. Here, since only the OR region C1-3 / 4-5 has been calculated, as shown in FIG. 20, the important rectangles C1-3 and C4-5 are integrated into one important rectangle C1-5. In step S10, as shown in FIG. 21, the branch of the important rectangle C4 and the branch of the important area C5 are connected, and the branch length L4 is the absolute difference in area between the important rectangle C1-3 and the target rectangle C4-5. Set to a value. In step S11, since it is determined that the tree formation of the important rectangle is completed, the process proceeds to step S12.

ステップS12では、図21のノードツリーに基づいてズーム切替点が検出される。本実施形態では、各枝長Lが閾値と比較され、ここでは枝長L4が閾値を越えているので、前記重要矩形C1-3,C4-5間にズーム切替点が設定される。したがって、当該ショットではショット内でも1箇所でズーム切替が発生することになる。   In step S12, a zoom switching point is detected based on the node tree of FIG. In this embodiment, each branch length L is compared with a threshold value, and here, since the branch length L4 exceeds the threshold value, a zoom switching point is set between the important rectangles C1-3 and C4-5. Therefore, zoom switching occurs at one location in the shot.

ステップS13では、図22に一例を示したように、前記統合された各重要矩形Cxが配信アスペクト比の最小サイズまで拡張されてズーム範囲Z(Cx)に設定される。ステップS14では、全てのショットに関してズーム切替点の検出およびズーム範囲の設定が終了したか否かが判定される。終了していなければステップS2へ戻り、注目ショットを変更しながら上記の各処理が繰り返される。   In step S13, as shown in an example in FIG. 22, the integrated important rectangles Cx are expanded to the minimum size of the distribution aspect ratio and set to the zoom range Z (Cx). In step S14, it is determined whether or not the detection of the zoom switching point and the setting of the zoom range have been completed for all shots. If not completed, the process returns to step S2, and the above processes are repeated while changing the shot of interest.

以上のようにして、重要矩形Cxを含むズーム範囲Z(Cx)が決定されると、当該ズーム範囲Z(Cx)が前記ズーム用映像から切り出されてズーム映像として配信される。   As described above, when the zoom range Z (Cx) including the important rectangle Cx is determined, the zoom range Z (Cx) is cut out from the zoom video and distributed as a zoom video.

次いで、図23のフローチャートを参照して、前記ズーム範囲Z(Cx)をズーム用映像から切り出してズーム映像を配信する方法について説明する。   Next, with reference to the flowchart of FIG. 23, a method of cutting out the zoom range Z (Cx) from the zoom video and distributing the zoom video will be described.

ここでも、元映像の解像度を1920×1056、携帯電話に配信される映像の解像度を640×352とし、ズーム映像が切り出されるズーム用映像ファイルとして、前記図3に関して説明した4つのズーム用映像(大ズーム用、中ズーム用、小ズーム用、ズーム無し用)が予め用意されているものとする   Also here, the resolution of the original video is 1920 × 1056, the resolution of the video delivered to the mobile phone is 640 × 352, and the four zoom videos described with reference to FIG. Large zoom, medium zoom, small zoom, and no zoom) are prepared in advance.

図24は、前記各ズーム用映像の解像度と、配信サイズ(640×352)に対する倍率と、ズーム映像の表示範囲を元映像の解像度に換算した値との関係を示している。例えば、中ズーム映像は、解像度が1280×704の中ズーム用映像[図3(b)]から切り出され、その表示範囲は元映像上で960×528の画素範囲に相当することを意味している。   FIG. 24 shows the relationship between the resolution of each zoom video, the magnification with respect to the distribution size (640 × 352), and the value obtained by converting the display range of the zoom video to the resolution of the original video. For example, a medium zoom image means that the resolution is cut out from a medium zoom image [FIG. 3 (b)] of 1280 × 704, and its display range corresponds to a pixel range of 960 × 528 on the original image. Yes.

ステップS21では、ズーム範囲Z(Cx)を包含できる最小の切出サイズに対応したズーム率が選択される。例えば、図25に一例を示したように、ズーム範囲Z(Cx)の元映像上でのサイズが1160×652であれば、ズーム映像として配信する切出サイズは、元映像上で当該1160×652のサイズを包含できる最小のサイズに設定することが望ましい。   In step S21, a zoom rate corresponding to the minimum cutout size that can include the zoom range Z (Cx) is selected. For example, as shown in FIG. 25, if the size of the zoom range Z (Cx) on the original video is 1160 × 652, the cut-out size to be distributed as the zoom video is 1160 × 652 on the original video. It is desirable to set it to the smallest size that can contain 652 sizes.

ここで、中ズームでは960×528のサイズしか切り出せないのでズーム範囲Z(Cx)の一部が欠けてしまう。また、ズーム無しでは1920×1056のサイズで切り出せるので前記ズーム範囲Z(Cx)を全て包含できるものの、ズーム範囲Z(Cx)以外の領域も多く含んでしまう。これに対して、小ズームでは1280×704のサイズで切り出せるので前記ズーム範囲Z(Cx)を全て包含でき、かつズーム範囲Z(Cx)以外の領域を最小限に抑えられる。そこで、ここでは小ズームが選択される。   Here, since only a size of 960 × 528 can be cut out with the middle zoom, a part of the zoom range Z (Cx) is lost. Further, since it can be cut out with a size of 1920 × 1056 without zooming, it can include the entire zoom range Z (Cx), but also includes many areas other than the zoom range Z (Cx). On the other hand, since the small zoom can be cut out with a size of 1280 × 704, the entire zoom range Z (Cx) can be included, and the area other than the zoom range Z (Cx) can be minimized. Therefore, the small zoom is selected here.

ステップS22では、小ズーム用の標準スライスで前記ズーム範囲Z(Cx)を切出サイズ内に収容できるか否かが判定される。本実施形態では、図26(a)に示したように、小ズーム用映像の標準スライスが3×3であるが、切出スライスは2×2なので、切出スライスの位置をどのように設定しても、切出スライス内に前記ズーム範囲Z(Cx)を完全に包含させることができないと判定されてステップS23へ進む。   In step S22, it is determined whether or not the zoom range Z (Cx) can be accommodated within the cut-out size with a standard slice for small zoom. In this embodiment, as shown in FIG. 26A, the standard slice of the small zoom video is 3 × 3, but the cut slice is 2 × 2, so how to set the position of the cut slice Even if it is determined that the zoom range Z (Cx) cannot be completely included in the cut slice, the process proceeds to step S23.

ステップS23では、図26(b)に示したように、スライス数が2倍の6×6に設定される。ステップS24では、前記6×6のスライスでズーム範囲Z(Cx)を切出スライスの4×4内に包含できるか否かが判定され、ここでは包含できると判定されるのでステップS25へ進む。ステップS25では、前記ズーム範囲Z(Cx)を包含できる4×4のスライスが切り出される。ステップS26では、前記切り出されたスライスがズーム映像として配信される。   In step S23, as shown in FIG. 26B, the number of slices is set to 6 × 6, which is double. In step S24, it is determined whether or not the zoom range Z (Cx) can be included in 4 × 4 of the cut slice in the 6 × 6 slice. Here, since it is determined that it can be included, the process proceeds to step S25. In step S25, a 4 × 4 slice that can include the zoom range Z (Cx) is cut out. In step S26, the cut slice is distributed as a zoom video.

図1を改めて参照し、映像配信装置1において、ズーム用映像生成部101は、元映像ごとにズーム率に応じて解像度の異なる複数のズーム用映像ファイルを生成し、H.264符号化方式により符号化されてズーム用映像DBに102に保存される。本実施形態では、前記大ズーム用映像、中ズーム用映像、小ズーム用映像およびズーム無し映像の各符号化ファイルが保存される。   Referring back to FIG. 1, in the video distribution apparatus 1, the zoom video generation unit 101 generates a plurality of zoom video files having different resolutions according to the zoom rate for each original video, and uses the H.264 encoding method. It is encoded and stored in the zoom video DB 102. In the present embodiment, the encoded files of the large zoom image, middle zoom image, small zoom image, and non-zoom image are stored.

ショット分割部103は、前記図6を参照して説明したように、元映像をショット境界においてショット分割する。ズーム範囲設定部104は、元映像から切り出してズーム映像として配信する前記ズーム範囲Z(Cx)を、元映像に含まれる重要領域に基づいて設定する。前記ズーム範囲設定部104において、代表フレーム取得部104aは、元映像から代表フレームを取得する。重要領域抽出部104bは、各代表フレームから重要領域を抽出する。重要矩形設定部104cは、代表フレーム毎に全ての重要領域を包含できる矩形範囲を重要矩形Cxとして設定する。   As described with reference to FIG. 6, the shot division unit 103 divides the original video into shots at shot boundaries. The zoom range setting unit 104 sets the zoom range Z (Cx) that is cut out from the original video and distributed as the zoom video based on the important area included in the original video. In the zoom range setting unit 104, the representative frame acquisition unit 104a acquires a representative frame from the original video. The important area extraction unit 104b extracts an important area from each representative frame. The important rectangle setting unit 104c sets, as the important rectangle Cx, a rectangular range that can include all the important areas for each representative frame.

ズーム切替点検出部104dは、前記矩形範囲の同一ショット内での時系列変化に基づいて、同一ショット内でズーム位置やズーム率を切り替えるズーム切替点を検出する。ズーム範囲拡張部104eは、前記重要矩形Cxを配信アスペクト比の最小範囲まで拡張してズーム範囲Z(Cx)に設定する。本実施形態では、重要矩形が時系列で変化するので、ズーム範囲も時系列で変化することになる。   The zoom switching point detection unit 104d detects a zoom switching point for switching the zoom position and the zoom rate in the same shot based on the time series change in the same shot in the rectangular range. The zoom range expansion unit 104e expands the important rectangle Cx to the minimum range of the distribution aspect ratio and sets it to the zoom range Z (Cx). In the present embodiment, since the important rectangle changes in time series, the zoom range also changes in time series.

ズーム率決定部105は、前記ズーム範囲Z(Cx)のサイズに応じてズーム率を決定する。ズーム条件決定部106は、前記ズーム率に応じたズーム用映像ファイルから前記ズーム範囲を包含するズーム映像を適正に切り出すズーム条件として、切り出し対象となるズーム用映像ファイル、当該ズーム用映像ファイルのスライス方法、およびズーム映像として切り出す座標データを決定してズーム条件DB107に蓄積する。   The zoom rate determination unit 105 determines the zoom rate according to the size of the zoom range Z (Cx). The zoom condition determination unit 106 uses a zoom video file to be cut out and a slice of the zoom video file as a zoom condition for appropriately cutting out a zoom video including the zoom range from the zoom video file according to the zoom rate. The method and coordinate data to be cut out as a zoom image are determined and stored in the zoom condition DB 107.

図27は、前記ズーム条件の一例を示した図であり、本実施形態では、ズーム条件が4つの数値で表現され、上位側から順に、「ズームの切り替えフレーム番号」、「表示指定座標1(ズーム範囲の左上座標)」、「表示指定座標2(ズーム範囲の右下座標)」、「拡大率(4段階)」を表現している。したがって、図中のズーム条件 [275,320,240,2] は、「第275フレームから、表示指定座標1が320で表示指定座標1が240のズーム範囲を拡大率「2」でズームする」ことを意味している。   FIG. 27 is a diagram showing an example of the zoom condition. In this embodiment, the zoom condition is expressed by four numerical values, and “zoom switching frame number” and “display designated coordinate 1 ( “Upper left coordinates of zoom range)”, “designated display coordinates 2 (lower right coordinates of zoom range)”, and “enlargement ratio (four steps)”. Therefore, the zoom condition [275,320,240,2] in the figure means that “from the 275th frame, the zoom range in which the display designation coordinate 1 is 320 and the display designation coordinate 1 is 240 is zoomed at the enlargement ratio“ 2 ””. ing.

ズーム制御部108は、前記ズーム条件に基づいて、前記ズーム範囲を包含するズーム映像をズーム用映像ファイルから切り出し、これを配信部109から再生端末2へ配信する。このとき、ズーム配信用の映像データは、その音声データと共に多重化され、例えばRTP等の伝送フォーマットで伝送される。この際、ズーム位置に関する座標情報が一定間隔(例えば1秒毎)で再生端末側へ送信されるようにしても良い。この座標情報は、例えばRTCP等を用いて映像データや音声データとは別に送信されるようにしても良いし、あるいは前記RTPのヘッダ等に記述して前記映像データや音声データと同一のパケットで送信されるようにしても良い。   Based on the zoom condition, the zoom control unit 108 cuts out a zoom video that includes the zoom range from the zoom video file, and distributes it from the distribution unit 109 to the playback terminal 2. At this time, the video data for zoom distribution is multiplexed with the audio data and transmitted in a transmission format such as RTP, for example. At this time, coordinate information regarding the zoom position may be transmitted to the playback terminal side at regular intervals (for example, every second). The coordinate information may be transmitted separately from the video data and audio data using, for example, RTCP, or may be described in the RTP header and the like in the same packet as the video data and audio data. It may be transmitted.

再生端末2において、映像受信部201は、前記映像配信システムからズーム映像を受信し、映像再生部202へ転送して再生させる。ユーザ操作受付部203は、ズーム再生を要求するキー入力などのユーザ操作を受け付けて操作信号に変換する。この操作信号は操作信号送信部204から映像配信装置1へ送信される。   In the playback terminal 2, the video reception unit 201 receives the zoom video from the video distribution system, transfers it to the video playback unit 202, and plays it back. The user operation reception unit 203 receives a user operation such as a key input requesting zoom reproduction and converts it into an operation signal. This operation signal is transmitted from the operation signal transmission unit 204 to the video distribution apparatus 1.

図28は、本実施形態における再生端末側での再生例を示した図であり、再生画面には、ズーム映像251と共に、当該ズーム映像の元映像上での範囲を示す案内表示252と、自動拡大の開始/中止を指示するスイッチ253が設けられている。前記案内表示252の内容は、前記映像配信装置1から送信されるズーム位置の座標情報に基づいて生成され、図示の例は、現在のズーム位置が中央上部であることを示している。   FIG. 28 is a diagram showing an example of playback on the playback terminal side in the present embodiment. On the playback screen, along with the zoom video 251, a guidance display 252 indicating the range of the zoom video on the original video, and automatic A switch 253 for instructing start / stop of enlargement is provided. The content of the guidance display 252 is generated based on the coordinate information of the zoom position transmitted from the video distribution device 1, and the illustrated example shows that the current zoom position is at the upper center.

また、本実施形態では端末ユーザが画面上でタッピング等によりズーム配信を要求すると、この操作信号が映像配信装置1へ送信され、操作信号受信部110により受信されてユーザ操作分析部111へ通知される。ユーザ操作分析部111は、前記ユーザ操作を分析して、端末ユーザにより要求されたズーム条件を識別する。前記ズーム制御部108は、前記ズーム条件設定部により自動的に設定されたズーム条件よりも、前記端末ユーサにより指定されたズーム条件を優先させてズーム映像を切り出す。   In this embodiment, when the terminal user requests zoom distribution on the screen by tapping or the like, this operation signal is transmitted to the video distribution apparatus 1, received by the operation signal receiving unit 110, and notified to the user operation analysis unit 111. The The user operation analysis unit 111 analyzes the user operation and identifies the zoom condition requested by the terminal user. The zoom control unit 108 prioritizes the zoom condition specified by the terminal user over the zoom condition automatically set by the zoom condition setting unit, and cuts out the zoom image.

1…映像配信装置,2…再生端末,101…ズーム用映像生成部,102…ズーム用映像DB,103…ショット分割部,104…ズーム範囲設定部,105…ズーム率決定部,106…ズーム条件決定部,107…ズーム条件DB,108…ズーム制御部,109…配信部,110…操作信号受信部,111…ユーザ操作分析部,201…映像受信部,202…映像再生部,203…ユーザ操作受付部,204…操作信号送信部 DESCRIPTION OF SYMBOLS 1 ... Video distribution apparatus, 2 ... Playback terminal, 101 ... Zoom video production | generation part, 102 ... Zoom video DB, 103 ... Shot division | segmentation part, 104 ... Zoom range setting part, 105 ... Zoom rate determination part, 106 ... Zoom conditions Determination unit 107 107 Zoom condition DB 108 Zoom control unit 109 Distribution unit 110 Operation signal reception unit 111 User operation analysis unit 201 Video reception unit 202 Video reproduction unit 203 User operation Reception unit, 204 ... operation signal transmission unit

Claims (6)

映像コンテンツのズーム映像をストリーミング配信する映像配信装置において、
映像コンテンツごとにズーム率に応じて解像度の異なる複数のズーム用映像を記憶する手段と、
映像コンテンツのフレームから重要領域を抽出する手段と、
前記重要領域を含む矩形を、当該矩形を包含し、且つアスペクト比が配信アスペクト比と同一である矩形のうち、最小サイズの矩形となるように拡張してズーム範囲に設定する手段と、
前記ズーム範囲のサイズに応じてズーム率を決定する手段と、
前記ズーム率に応じたズーム用映像およびズーム映像の切り出し範囲を含むズーム条件を設定する手段と、
前記ズーム条件に基づいてズーム映像を切り出す手段と、
前記切り出されたズーム映像を配信する手段とを具備したことを特徴とする映像配信装置。
In a video distribution device for streaming distribution of zoom video of video content,
Means for storing a plurality of zoom images having different resolutions according to a zoom rate for each video content;
Means for extracting important regions from the frame of video content;
Means for expanding a rectangle including the important area into a minimum size rectangle among rectangles including the rectangle and having the same aspect ratio as the distribution aspect ratio, and setting the zoom range;
Means for determining a zoom rate according to the size of the zoom range;
Means for setting zoom conditions including a zoom image and a cutout range of the zoom image according to the zoom rate;
Means for cutting out a zoom image based on the zoom condition;
A video distribution apparatus comprising: means for distributing the clipped zoom video.
前記映像コンテンツをショット分割する手段と、
各ショットから代表フレームを取得する手段とをさらに具備し、
前記重要領域を抽出する手段は、各代表フレームから重要領域を抽出することを特徴とする請求項1に記載の映像配信装置。
Means for dividing the video content into shots;
Means for obtaining a representative frame from each shot,
2. The video distribution apparatus according to claim 1, wherein the means for extracting the important area extracts an important area from each representative frame.
前記ズーム範囲を設定する手段は、
代表フレームごとに前記重要領域を含む矩形を重要矩形に設定する手段(104c)と、
各代表フレームの重要矩形の位置を時系列で比較し、前記重要矩形同士の距離が所定の閾値を下回る範囲ごとに各代表フレームの重要矩形を一つに統合する手段とを具備し、
前記各重要矩形を、当該矩形を包含し、且つアスペクト比が配信アスペクト比と同一である矩形のうち、最小サイズの矩形となるように拡張してズーム範囲に設定することを特徴とする請求項2に記載の映像配信装置。
The means for setting the zoom range includes:
Means (104c) for setting a rectangle including the important region for each representative frame as an important rectangle;
Means for comparing the positions of the important rectangles of each representative frame in time series, and integrating the important rectangles of each representative frame into one for each range in which the distance between the important rectangles falls below a predetermined threshold;
The each important rectangle is expanded and set to a zoom range so as to be a rectangle having a minimum size among rectangles that include the rectangle and have the same aspect ratio as the distribution aspect ratio. 2. The video distribution device according to 2.
前記ズーム映像を切り出す手段は、ズーム率に応じたズーム用映像をn×mにスライスし、当該n×mにスライスされたズーム用映像から前記ズーム範囲を含むp×qのスライスをズーム映像として切り出し、
前記ズーム映像を切り出す手段は、前記ズーム範囲を前記p×qのスライス内に含ませることができないときに、前記ズーム用映像を前記n×mよりも細かくスライスすることを特徴とする請求項1ないし3のいずれかに記載の映像配信装置。
The means for cutting out the zoom video slices the zoom video according to the zoom ratio into n × m, and uses the zoom video sliced into the n × m as a zoom video with a p × q slice including the zoom range. Cut out,
The means for cutting out the zoom image slices the zoom image finer than the n × m when the zoom range cannot be included in the p × q slice. 4. The video distribution device according to any one of items 3 to 3.
ズーム映像の座標位置を前記ズーム映像と共に送信する手段をさらに具備したことを特徴とする請求項1ないし4のいずれかに記載の映像配信装置。 5. The video distribution apparatus according to claim 1, further comprising means for transmitting a coordinate position of the zoom video together with the zoom video. ズーム映像の配信を要求する操作信号を映像再生端末から受信する手段と
前記操作信号を分析してズーム条件を取得する手段とを具備し、
前記ズーム映像を切り出す手段は、前記ズーム条件を設定する手段により設定されたズーム条件よりも、前記操作信号を分析して取得されたズーム条件を優先させることを特徴とする請求項1ないし5のいずれかに記載の映像配信装置。
Means for receiving an operation signal for requesting distribution of zoom video from a video playback terminal, and means for analyzing the operation signal to obtain a zoom condition;
6. The zoom condition acquired by analyzing the operation signal is prioritized over the zoom condition set by the zoom condition setting means. The video distribution device according to any one of the above.
JP2011040400A 2011-02-25 2011-02-25 Video distribution device Expired - Fee Related JP5594842B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011040400A JP5594842B2 (en) 2011-02-25 2011-02-25 Video distribution device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011040400A JP5594842B2 (en) 2011-02-25 2011-02-25 Video distribution device

Publications (2)

Publication Number Publication Date
JP2012178702A JP2012178702A (en) 2012-09-13
JP5594842B2 true JP5594842B2 (en) 2014-09-24

Family

ID=46980266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011040400A Expired - Fee Related JP5594842B2 (en) 2011-02-25 2011-02-25 Video distribution device

Country Status (1)

Country Link
JP (1) JP5594842B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172617A1 (en) 2021-02-09 2022-08-18 株式会社Jvcケンウッド Imaging device and imaging processing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5941000B2 (en) * 2013-03-12 2016-06-29 日本電信電話株式会社 Video distribution apparatus and video distribution method
JP7334470B2 (en) * 2018-09-28 2023-08-29 株式会社リコー VIDEO PROCESSING DEVICE, VIDEO CONFERENCE SYSTEM, VIDEO PROCESSING METHOD, AND PROGRAM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0967788A2 (en) * 1998-06-26 1999-12-29 Hewlett-Packard Company Dynamic generation of multi-resolution and tile-based images from flat compressed images
JP2004289224A (en) * 2003-03-19 2004-10-14 Hitachi Information Systems Ltd Moving picture distribution server and moving picture distribution system
JP2005191949A (en) * 2003-12-25 2005-07-14 Fujitsu Ltd Video image distribution apparatus and video image browsing apparatus
JP2010124381A (en) * 2008-11-21 2010-06-03 Hitachi Kokusai Electric Inc Monitoring system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172617A1 (en) 2021-02-09 2022-08-18 株式会社Jvcケンウッド Imaging device and imaging processing method
CN115299033A (en) * 2021-02-09 2022-11-04 Jvc建伍株式会社 Imaging apparatus and imaging processing method
CN115299033B (en) * 2021-02-09 2023-07-11 Jvc建伍株式会社 Imaging device and imaging processing method
US11991451B2 (en) 2021-02-09 2024-05-21 Jvckenwood Corporation Imaging device and imaging processing method

Also Published As

Publication number Publication date
JP2012178702A (en) 2012-09-13

Similar Documents

Publication Publication Date Title
EP3459252B1 (en) Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback
Gaddam et al. Tiling in interactive panoramic video: Approaches and evaluation
US11218773B2 (en) Video delivery
US20220210512A1 (en) Content based stream splitting of video data
US10623816B2 (en) Method and apparatus for extracting video from high resolution video
CN109362242B (en) Video data processing method and device
US6804295B1 (en) Conversion of video and audio to a streaming slide show
CN109417624A (en) Device and method for providing and showing content
US20060150224A1 (en) Video streaming
KR101528863B1 (en) Method of synchronizing tiled image in a streaming service providing system of panoramic image
KR101282955B1 (en) Real-time Panorama Streaming System for High Resolution Panorama Videos and/or Images
US10542058B2 (en) Methods and systems for network based video clip processing and management
CA2411852A1 (en) Streaming panoramic video
RU2718118C2 (en) Information processing device and information processing method
JP2013255210A (en) Video display method, video display device and video display program
CA3057924A1 (en) System and method to optimize the size of a video recording or video transmission by identifying and recording a region of interest in a higher definition than the rest of the image that is saved or transmitted in a lower definition format
JP5594842B2 (en) Video distribution device
JP5941000B2 (en) Video distribution apparatus and video distribution method
US20200213631A1 (en) Transmission system for multi-channel image, control method therefor, and multi-channel image playback method and apparatus
TW201942821A (en) Information processing device, information processing method, and program
US10764655B2 (en) Main and immersive video coordination system and method
Niamut et al. Live event experiences-interactive UHDTV on mobile devices
TW201942713A (en) Information processing device, information processing method, and program
KR102166054B1 (en) Method and Apparatus for Displaying Streaming Video Transmitted from Network
JP2019033362A (en) Distribution apparatus, reception apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140801

R150 Certificate of patent or registration of utility model

Ref document number: 5594842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees