JP5654414B2 - Video encoding apparatus, video encoding method, and program - Google Patents

Video encoding apparatus, video encoding method, and program Download PDF

Info

Publication number
JP5654414B2
JP5654414B2 JP2011118399A JP2011118399A JP5654414B2 JP 5654414 B2 JP5654414 B2 JP 5654414B2 JP 2011118399 A JP2011118399 A JP 2011118399A JP 2011118399 A JP2011118399 A JP 2011118399A JP 5654414 B2 JP5654414 B2 JP 5654414B2
Authority
JP
Japan
Prior art keywords
encoding
unit
data
resolution conversion
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011118399A
Other languages
Japanese (ja)
Other versions
JP2012249025A (en
Inventor
能登 肇
肇 能登
宣彦 松浦
宣彦 松浦
木全 英明
英明 木全
康暁 田中
康暁 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011118399A priority Critical patent/JP5654414B2/en
Publication of JP2012249025A publication Critical patent/JP2012249025A/en
Application granted granted Critical
Publication of JP5654414B2 publication Critical patent/JP5654414B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、映像を符号化する映像符号化装置、映像符号化方法、プログラムに関する。   The present invention relates to a video encoding device, a video encoding method, and a program for encoding video.

近年、スーパーハイビジョンシステムや、4kデジタルシネマなどハイビジョンを遥かに越える超高精細映像システムの研究開発が盛んである。視聴の形態として、高精細なディスプレイでそのまま表示する形態と、その一部を切り出して表示する形態がある。
一部を切り出して表示する形態については、現在普及しているハイビジョンテレビとネットワークを利用して、超高精細パノラマ映像を分割した一部を高画質に視聴可能とするためのシステム開発が進められている。
このシステムを利用することにより、例えば、一般家庭にあるハイビジョンテレビで、サッカースタジアムやコンサートホール等の広い会場内を撮影した画像から、ユーザが希望する人物や会場の一部を拡大して表示することができる。これにより、サッカースタジアムやコンサートホールのS席の臨場感を家庭に届けることも可能となる。
In recent years, research and development of super-high-definition video systems that far exceed high-definition such as super high-definition systems and 4k digital cinema have been actively conducted. There are two forms of viewing: a form that is displayed as it is on a high-definition display and a form that is cut out and displayed.
With regard to the form to cut out and display a part, system development is being promoted so that a part of the ultra-high-definition panoramic video can be viewed with high image quality using the currently popular high-definition television and network. ing.
By using this system, for example, on a high-definition television in an ordinary home, a user wants a person or a part of the venue to be enlarged and displayed from an image taken in a large venue such as a soccer stadium or a concert hall. be able to. As a result, it is possible to deliver a sense of realism in the S seats of soccer stadiums and concert halls to the home.

このシステムに利用可能な一般的な配信方法として、超高精細映像をフレームごとに小さな分割画像に分割し、すべての分割画像を伝送する方法と、例えば、ユーザが指定した表示対象領域を含む分割部分のみを伝送する方法とがある。
この表示対象領域を含む分割画像を伝送する方法として、例えば、非特許文献1に記載されている技術が提案されている。
しかしながら、このような方法では、表示対象領域に含まれる被写体によらず、一様なビットレートで符号化されるため、動物体を含む分割画像と背景などの静止領域のみの分割画像では符号化後の画像品質が大きく異なるという問題があった。この問題に対処するため、各分割画像の内容に応じて異なるビットレートにより各分割画像を符号化・多重化することにより作成するデータフォーマットとユーザの表示対象領域の主観画像品質を最大化する部分配信方式が提案されている(非特許文献2参照)。
As a general delivery method that can be used in this system, a method of dividing an ultra-high-definition video into small divided images for each frame and transmitting all the divided images, for example, a division including a display target area specified by the user There is a method of transmitting only a part.
As a method for transmitting a divided image including the display target region, for example, a technique described in Non-Patent Document 1 has been proposed.
However, in such a method, encoding is performed at a uniform bit rate regardless of the subject included in the display target region, so that encoding is performed for a divided image including a moving object and a divided image including only a still region such as a background. There was a problem that the image quality later varied greatly. In order to cope with this problem, a data format created by encoding / multiplexing each divided image at a different bit rate according to the contents of each divided image and a portion that maximizes the subjective image quality of the display target area of the user A distribution method has been proposed (see Non-Patent Document 2).

Hideaki Kimata, Shinya Shimizu, Yutaka Kunita, Megumi Isogai, and Yoshimitsu Ohtani, "Panorama video coding for user-driven interactive video application," IEEE International Symposium on Consumer Electronics (ISCE) 2009, 2009.Hideaki Kimata, Shinya Shimizu, Yutaka Kunita, Megumi Isogai, and Yoshimitsu Ohtani, "Panorama video coding for user-driven interactive video application," IEEE International Symposium on Consumer Electronics (ISCE) 2009, 2009. 井上雅之、木全英明、深澤勝彦、松浦宣彦、”インタラクティブ・パノラマ映像配信システムにおける配信方式の検討”、研究報告−オーディオビジュアル複合情報処理(AVM)、Vol.2010-AVM-69 No.9,2010.Masayuki Inoue, Hideaki Kizen, Katsuhiko Fukasawa, Nobuhiko Matsuura, “Study of Distribution Method in Interactive Panorama Video Distribution System”, Research Report-Audio Visual Complex Information Processing (AVM), Vol.2010-AVM-69 No.9, 2010.

しかし、非特許文献2により提案されている技術では、配信側にて複数の解像度と複数の符号化量の組み合わせによる複数の分割画像の符号化を行う必要がある。つまり、解像度のパターン数をn、解像度nのフレーム画像における分割画像の数をα、符号化量(符号化レート)のパターン数をβとすれば(αn×β)個の分割画像を符号化する必要が生じる。これは、圧縮符号化すべき分割画像の数が大幅に増加することを意味する。よって、圧縮符号化には相当の時間を要するために、分割画像の数の増加は、圧縮符号化の著しい長時間化を招くことになる。 However, in the technique proposed by Non-Patent Document 2, it is necessary to encode a plurality of divided images by a combination of a plurality of resolutions and a plurality of encoding amounts on the distribution side. That is, if the number of resolution patterns is n, the number of divided images in a frame image of resolution n is α n , and the number of patterns of coding amount (coding rate) is β n , (α n × β n ) divisions. The image needs to be encoded. This means that the number of divided images to be compression-encoded is greatly increased. Therefore, since a considerable amount of time is required for compression encoding, an increase in the number of divided images causes a significant increase in the length of compression encoding.

本発明は、このような事情を考慮してなされたものであり、その目的は、元画像を分割した分割画像に基づき、符号化データを作成する際の処理時間を短縮できる映像符号化装置、映像符号化方法、プログラムを提供することにある。   The present invention has been made in view of such circumstances, and the purpose thereof is a video encoding device capable of reducing the processing time when creating encoded data based on a divided image obtained by dividing an original image, It is to provide a video encoding method and program.

この発明は上述した課題を解決するためになされたもので、本発明の一態様による映像符号化装置は、予め決められた解像度に応じて入力画像の解像度を変換し、解像度が変換された解像度変換データを出力する解像度変換部と、予め決められた分割数に応じて前記解像度変換部から入力する前記解像度変換データを分割し、分割された複数の分割データを出力する領域分割部と、予め決められた異なる複数の符号化レートに応じた符号化を前記分割データに対して並行して実行し、符号化した前記符号化レートごとの符号化データを出力する符号化部と、前記符号化データを前記入力画像ごとに多重化する多重化部と、前記入力画像に対する解像度変換処理を前記解像度変換部に実行させ、前記解像度変換データに対する分割処理を前記領域分割部に実行させ、前記分割データに対する符号化処理を前記符号化部に実行させ、前記符号化データに対する多重化処理を前記多重化部に実行させる制御部とを備え、前記解像度変換部は複数n個あり、前記入力画像はフレーム単位に時刻順に、n個の中のいずれか1つの解像度変換部に時間サイクル的に入力され、n個の各解像度変換部は入力されたフレームをいずれも同じ解像度に変換し、前記領域分割部も同じくn個あり、n個の各領域分割部は1対1に対応する解像度変換部から入力された解像度変換データをいずれも同じ分割数mに分割し、前記符号化部は領域の分割数mに応じてm個あり、m個の各符号化部はいずれも同じ複数の符号化レートを扱い、扱う符号化レートに応じた符号化をそれぞれ実行する複数のサブ符号化処理部を含み、各符号化部のバッファには前記n個の領域分割部からの同じ領域の分割データが前記入力画像の入力順に対応するよう入力され、各サブ符号化処理部がバッファからの分割データを決めらた符号化レートで並列して符号化する。 The present invention has been made to solve the above-described problems, and a video encoding device according to an aspect of the present invention converts a resolution of an input image according to a predetermined resolution, and the resolution is converted. A resolution conversion unit that outputs conversion data, an area division unit that divides the resolution conversion data input from the resolution conversion unit according to a predetermined number of divisions, and outputs a plurality of divided division data; An encoding unit that performs encoding according to a plurality of different determined encoding rates on the divided data in parallel, and outputs encoded data for each encoded rate; and the encoding A multiplexing unit that multiplexes data for each input image; and the resolution conversion unit that executes resolution conversion processing on the input image, and performs the division processing on the resolution conversion data. To execute the dividing unit, a coding process for the divided data is performed on the coding unit, and a control unit to execute the multiplexing process in the multiplexing unit with respect to the encoded data, the resolution converting unit includes a plurality There are ( n ) input images, and the input images are input to any one of the n resolution conversion units in a time cycle in order of time frame by frame, and each of the n resolution conversion units selects an input frame. Are also converted to the same resolution, and there are n region dividing units, and each of the n region dividing units divides resolution conversion data input from the resolution conversion unit corresponding to one-to-one into the same division number m. The number of the encoding units is m according to the division number m of the region, and each of the m encoding units handles the same plurality of encoding rates and executes encoding according to the encoding rate to be handled. Multiple subs to The segment data of the same region from the n region segmentation units is input to correspond to the input order of the input image, and each sub-encoding process unit is stored in the buffer of each encoding unit. encoding in parallel the coding rate determined we were divided data.

本発明の一態様は、上述の映像符号化装置であって、前記符号化部のバッファは、当該複数のサブ符号化処理部が共通して利用するバッファであるOne aspect of the present invention is the video encoding device described above, wherein the buffer of the encoding unit is a buffer that is used in common by the plurality of sub-encoding processing units.

本発明の一態様による映像符号化方法は、解像度変換部が、予め決められた解像度に応じて入力画像の解像度を変換し、解像度が変換された解像度変換データを出力する解像度変換ステップと、領域分割部が、予め決められた分割数に応じて前記解像度変換部から入力する前記解像度変換データを分割し、分割された複数の分割データを出力する領域分割ステップと、前記入力画像において指定される表示対象領域を示す領域情報を入力し、当該表示対象領域を含む前記分割データに対する符号化処理を符号化部に実行させるように制御する制御ステップと、前記符号化部が、予め決められた異なる複数の符号化レートに応じた符号化を前記分割データに対して並行して実行し、符号化した前記符号化レートごとの符号化データを出力する符号化ステップと、前記符号化データを前記入力画像ごとに多重化する多重化ステップと、前記解像度変換部は複数n個あり、前記入力画像はフレーム単位に時刻順に、n個の中のいずれか1つの解像度変換部に時間サイクル的に入力され、n個の各解像度変換部は入力されたフレームをいずれも同じ解像度に変換するステップと、前記領域分割部も同じくn個あり、n個の各領域分割部は1対1に対応する解像度変換部から入力された解像度変換データをいずれも同じ分割数mに分割するステップと、前記符号化部は領域の分割数mに応じてm個あり、m個の各符号化部はいずれも同じ複数の符号化レートを扱い、扱う符号化レートに応じた符号化をそれぞれ実行する複数のサブ符号化処理部を含み、各符号化部のバッファには前記n個の領域分割部からの同じ領域の分割データが前記入力画像の入力順に対応するよう入力され、各サブ符号化処理部がバッファからの分割データを決めらた符号化レートで並列して符号化するステップと、を備える。 A video encoding method according to an aspect of the present invention includes a resolution conversion step in which a resolution conversion unit converts the resolution of an input image in accordance with a predetermined resolution, and outputs resolution conversion data in which the resolution is converted. A division unit divides the resolution conversion data input from the resolution conversion unit according to a predetermined number of divisions, and outputs a plurality of divided division data, and is specified in the input image A control step of inputting region information indicating a display target region and controlling the encoding unit to execute an encoding process on the divided data including the display target region, and the encoding unit are different from each other in advance. Coding corresponding to a plurality of coding rates is performed on the divided data in parallel, and coded data for each coded coding rate is output. Of the method, a multiplexing step of multiplexing the encoded data for each of the input image, the resolution conversion unit is a plurality of (n), the time order of the input image frames, either inside of the n Are input to one resolution conversion unit in a time cycle, and each of the n resolution conversion units converts the input frames to the same resolution, and there are n region dividing units, Each region dividing unit divides the resolution conversion data input from the resolution conversion unit corresponding to one-to-one into the same division number m, and there are m encoding units according to the division number m of the region. , Each of the m encoding units includes a plurality of sub-encoding processing units that handle the same plurality of encoding rates and execute encodings according to the encoding rates to be handled, respectively. Is said n Is inputted as the divided data of the same region from the region dividing unit corresponding to the input order of the input image is encoded in parallel with encoding rate decided we were divided data from each sub-coding unit buffer Steps.

この発明は上述した課題を解決するためになされたもので、本発明の一態様によるプログラムは、コンピュータを、予め決められた解像度に応じて入力画像の解像度を変換し、解像度が変換された解像度変換データを出力する解像度変換手段、予め決められた分割数に応じて前記解像度変換手段から入力する前記解像度変換データを分割し、分割された複数の分割データを出力する領域分割手段、予め決められた異なる複数の符号化レートに応じた符号化を前記分割データに対して並行して実行し、符号化した前記符号化レートごとの符号化データを出力する符号化手段、前記符号化データを前記入力画像ごとに多重化する多重化手段、予め決められた符号化パラメータに従い、前記入力画像に対する解像度変換処理を前記解像度変換手段に実行させ、前記解像度変換データに対する分割処理を前記領域分割手段に実行させ、前記分割データに対する符号化処理を前記符号化手段に実行させ、前記符号化データに対する多重化処理を前記多重化手段に実行させる制御手段、前記解像度変換手段は複数n個あり、前記入力画像はフレーム単位に時刻順に、n個の中のいずれか1つの解像度変換手段に時間サイクル的に入力され、n個の各解像度変換手段入力されたフレームをいずれも同じ解像度に変換させる手段、前記領域分割手段も同じくn個あり、n個の各領域分割手段1対1に対応する解像度変換手段から入力された解像度変換データをいずれも同じ分割数mに分割させる手段、前記符号化手段は領域の分割数mに応じてm個あり、m個の各符号化手段はいずれも同じ複数の符号化レートを扱い、扱う符号化レートに応じた符号化をそれぞれ実行する複数のサブ符号化処理手段を含み、各符号化手段のバッファには前記n個の領域分割手段からの同じ領域の分割データが前記入力画像の入力順に対応するよう入力され、各サブ符号化処理手段バッファからの分割データを決めらた符号化レートで並列して符号化させる手段、として機能させるためのプログラムである。 The present invention has been made to solve the above-described problem, and a program according to one embodiment of the present invention converts a resolution of an input image according to a predetermined resolution and converts the resolution of the computer. Resolution conversion means for outputting converted data, area dividing means for dividing the resolution conversion data input from the resolution conversion means according to a predetermined number of divisions, and outputting a plurality of divided divided data, predetermined Encoding means for executing encoding according to a plurality of different encoding rates in parallel with respect to the divided data and outputting encoded data for each of the encoded encoding rates; Multiplexing means for multiplexing for each input image, according to a predetermined encoding parameter, the resolution conversion processing for the input image is applied to the resolution conversion means. And executing the dividing process on the resolution conversion data by the area dividing unit, causing the encoding unit to execute the encoding process on the divided data, and executing the multiplexing process on the encoded data by the multiplexing unit. A plurality of ( n ) resolution conversion means, and the input image is input to any one of the n resolution conversion means in a time cycle in order of time frame by frame, means for converting the frame inputted to the resolution conversion unit either the same resolution, the area dividing means is also located the n well, the n resolution inputted from the resolution conversion unit corresponding to one-to-one to each area dividing means There are m means for dividing the converted data into the same number of divisions m, and the encoding means is m in accordance with the division number m of the area, and each of the m encoding means is the same A plurality of sub-encoding processing units that handle a number of encoding rates and execute encoding according to the encoding rate to be handled, and the buffer of each encoding unit has the same region from the n region dividing units divided data is input to correspond to the input order of the input image, each sub-encoding means causes encoded in parallel with encoding rate decided we were divided data from the buffer to the means, to function as the It is a program.

本発明によれば、元画像を分割した分割画像に基づき、表示対象領域の符号化データを作成する際の処理時間を短縮できる。   According to the present invention, it is possible to shorten the processing time when creating encoded data of a display target area based on a divided image obtained by dividing an original image.

本発明の第1の実施の形態における映像符号化装置100の構成例を示す図である。It is a figure which shows the structural example of the video coding apparatus 100 in the 1st Embodiment of this invention. 本発明の各実施の形態において想定するファイル300の構造例を示す図である。It is a figure which shows the structural example of the file 300 assumed in each embodiment of this invention. 本発明の第1の実施の形態における映像符号化装置100が実行する圧縮符号化処理を示すタイミングチャートである。It is a timing chart which shows the compression coding process which the video coding apparatus 100 in the 1st Embodiment of this invention performs. 本発明の第1の実施の形態における映像符号化装置100が実行する圧縮符号化の処理手順例を示すフローチャートである。It is a flowchart which shows the process sequence example of the compression encoding which the video encoding apparatus 100 in the 1st Embodiment of this invention performs. 本発明の第2の実施の形態における映像符号化装置100の構成例を示す図である。It is a figure which shows the structural example of the video coding apparatus 100 in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像符号化装置100が実行する圧縮符号化処理を示すタイミングチャートである。It is a timing chart which shows the compression coding process which the video coding apparatus 100 in the 2nd Embodiment of this invention performs. 本発明の第2の実施の形態における映像符号化装置100が実行する圧縮符号化の処理手順例を示すフローチャートである。It is a flowchart which shows the process sequence example of the compression encoding which the video coding apparatus 100 in the 2nd Embodiment of this invention performs. 本発明の第3の実施の形態における映像符号化装置100の構成例を示す図である。It is a figure which shows the structural example of the video coding apparatus 100 in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における映像符号化装置100が実行する圧縮符号化処理を示すタイミングチャートである。It is a timing chart which shows the compression coding process which the video coding apparatus 100 in the 3rd Embodiment of this invention performs. 本発明の第3の実施の形態における映像符号化装置100が実行する圧縮符号化の処理手順例を示すフローチャートである。It is a flowchart which shows the process example of a compression encoding process which the video encoding apparatus 100 in the 3rd Embodiment of this invention performs. 本発明の第3の実施の形態における符号化部130についての他の構成例を示す図である。It is a figure which shows the other structural example about the encoding part 130 in the 3rd Embodiment of this invention. 本発明の実施の形態における解像度変換部110、領域分割部120および符号化部130の各並列数を設定するための処理手順例(第1例、第2例)を示すフローチャートである。It is a flowchart which shows the process sequence example (1st example, 2nd example) for setting each parallel number of the resolution conversion part 110 in the embodiment of this invention, the area division part 120, and the encoding part 130. 本発明の実施の形態における解像度変換部110、領域分割部120および符号化部132の各並列数を設定するための処理手順例(第3例)を示すフローチャートである。It is a flowchart which shows the process sequence example (3rd example) for setting each parallel number of the resolution conversion part 110 in the embodiment of this invention, the area division part 120, and the encoding part 132. 図13におけるリソース数増加(ステップS605)のための処理手順例を示すフローチャートである。14 is a flowchart illustrating an example of a processing procedure for increasing the number of resources (step S605) in FIG. 解像度変換部110と領域分割部120の対応関係についての変形例を示す図である。It is a figure which shows the modification about the correspondence of the resolution conversion part 110 and the area division part 120. 超高解像度映像の圧縮符号化を模式的に示す図である。It is a figure which shows typically the compression encoding of an ultra high resolution image | video. 圧縮符号化された超高解像度映像の再生処理を模式的に示す図である。It is a figure which shows typically the reproduction | regeneration processing of the ultra-high resolution image | video by which compression encoding was carried out. 圧縮符号化された超高解像度映像の配信態様例を模式的に示す図である。It is a figure which shows typically the example of a delivery aspect of the compression-encoded super high resolution video. 圧縮符号化された超高解像度映像の配信態様例を模式的に示す図である。It is a figure which shows typically the example of a delivery aspect of the compression-encoded super high resolution video.

[映像分割配信について]
はじめに、図16〜19を参照して、本発明の前提となる映像分割配信システムについて説明する。映像分割配信システムとは、元画像を複数の分割画像に分割して、指定される表示対象領域を含む分割画像を再生装置側に送信するシステムである。
図16は、この映像分配配信システムにおける超高解像度映像の圧縮符号化の一例を模式的に示している。
図16(a)に示されるフレーム画像200は、パノラマによる超高解像度映像としての1フレームを示している。このフレーム画像200の圧縮符号化にあたっては、図16(b)に示すように、フレーム画像200の全領域を所定の水平/垂直画素数による分割領域210{210−1,210−2,・・・210−32}により分割する。一例として、ここでは、32個(4行×8列)の分割領域210−1,210−2,・・・210−32により分割することとしている。
[About split video distribution]
First, with reference to FIGS. 16 to 19, a video division distribution system as a premise of the present invention will be described. The video divided distribution system is a system that divides an original image into a plurality of divided images and transmits a divided image including a designated display target area to the playback device side.
FIG. 16 schematically shows an example of compression encoding of ultra-high resolution video in this video distribution / distribution system.
A frame image 200 shown in FIG. 16A shows one frame as a panoramic ultra-high resolution video. In the compression coding of the frame image 200, as shown in FIG. 16B, the entire area of the frame image 200 is divided into a divided area 210 {210-1, 210-2,... With a predetermined number of horizontal / vertical pixels. -Divide by 210-32}. As an example, here, the division is performed by 32 (4 rows × 8 columns) divided regions 210-1, 210-2,... 210-32.

そして、上記分割領域210{210−1,210−2,・・・210−32}のそれぞれを圧縮符号化し、分割領域210{210−1,210−2,・・・210−32}の各符号化データを生成する。そして、図16(c)に示すように、これらの分割領域210{210−1,210−2,・・・210−32}の符号化データを、1つのファイル300として管理する。このファイル300は、1フレームに対応した符号化映像となる。このフレーム単位のファイル300が順次に配列されることで、1ファイルの映像のストリームデータが形成される。   Then, each of the divided areas 210 {210-1, 210-2,... 210-32} is compression-coded, and each of the divided areas 210 {210-1, 210-2,. Generate encoded data. Then, as shown in FIG. 16C, the encoded data of these divided areas 210 {210-1, 210-2,... 210-32} is managed as one file 300. This file 300 is an encoded video corresponding to one frame. By sequentially arranging the files 300 in units of frames, video stream data of one file is formed.

図17は、上記図16(c)に示すファイル300の再生処理を模式的に示している。図17(a)には、図16(c)と同様のファイル300が示されている。ここでは、ファイル300から、図17(b)のフレーム画像200における表示対象領域400を再生表示させる場合を想定する。この場合において、図17(b)に示される表示対象領域400は、6つの分割領域210−11、210−12、210−19、210−20、210−27および210−28における各一部の領域を含んでいる。そこで、再生処理としては、ファイル300からこれら分割領域210−11、210−12、210−19、210−20、210−27および210−28を読み出して、伸張処理を実行する。そして、これらの復号された分割領域210−11、210−12、210−19、210−20、210−27および210−28の画像を同期させ、表示対象領域400の画像部分を表示出力させる。この再生処理をフレームごとに順次実行することで動画の再生が行われる。   FIG. 17 schematically shows the reproduction processing of the file 300 shown in FIG. FIG. 17A shows a file 300 similar to that in FIG. Here, it is assumed that the display target area 400 in the frame image 200 of FIG. In this case, the display target area 400 shown in FIG. 17B includes a part of each of the six divided areas 210-11, 210-12, 210-19, 210-20, 210-27, and 210-28. Includes area. Therefore, as reproduction processing, these divided areas 210-11, 210-12, 210-19, 210-20, 210-27 and 210-28 are read from the file 300, and decompression processing is executed. Then, the decoded images of the divided areas 210-11, 210-12, 210-19, 210-20, 210-27 and 210-28 are synchronized, and the image portion of the display target area 400 is displayed and output. A moving image is reproduced by sequentially executing this reproduction process for each frame.

ここで、上記ファイル300から成る映像ストリームデータをネットワーク経由でサーバから再生装置に転送し、この再生装置により上記図17により説明したように再生させるという映像配信システムを想定してみる。この場合、配信される映像ストリームデータは、例えばフレームごとに応じたファイル300が配列された構造を有するために、単位再生時間あたりのデータ量は相当なものとなるため、伝送に際しては相当に高いデータレートが要求される。ネットワークの帯域に制限がある現状において、このようにデータレートが非常に高い映像ストリームデータを伝送することは困難である。   Here, assume a video distribution system in which video stream data composed of the file 300 is transferred from a server to a playback device via a network and played back as described above with reference to FIG. In this case, the video stream data to be distributed has a structure in which, for example, the files 300 corresponding to each frame are arranged, so that the amount of data per unit reproduction time is considerable, so that it is considerably high in transmission. Data rate is required. In the present situation where the bandwidth of the network is limited, it is difficult to transmit video stream data having such a high data rate.

そこで、非特許文献2に記載されるように、再生装置側で必要な分割領域の符号化データのみを映像ストリームデータから部分的に取り出して転送するようにした技術が提案されている。図18および図19は、この技術による映像配信の一例を模式的に示している。   Therefore, as described in Non-Patent Document 2, a technique has been proposed in which only encoded data in a divided area required on the playback device side is partially extracted from video stream data and transferred. 18 and 19 schematically show an example of video distribution by this technique.

図18(a)は、1つのフレーム画像200に対応するファイル300の構造を示す。まず、フレーム画像200は、複数の解像度による解像度変換が施される。これにより、フレーム画像200を元として、それぞれが異なる所定の解像度による複数のフレーム画像が生成される。つまり、図18(a)における横軸として示すように、ファイル300は、同じ画像内容のフレーム画像200として、解像度が異なる複数が配列される構造を有する。   FIG. 18A shows the structure of the file 300 corresponding to one frame image 200. First, the frame image 200 is subjected to resolution conversion with a plurality of resolutions. Thereby, based on the frame image 200, a plurality of frame images having different predetermined resolutions are generated. That is, as shown by the horizontal axis in FIG. 18A, the file 300 has a structure in which a plurality of different resolutions are arranged as frame images 200 having the same image content.

次に、上記のように解像度変換されたフレーム画像200は、それぞれ、先に図16(a)および図16(b)により説明したのと同様に、複数の分割領域210に分割される。この図18(a)の例では、図16および図17と同様に、1つのフレーム画像200を32個の分割領域210−1〜210−32に分割している。   Next, the frame image 200 whose resolution has been converted as described above is divided into a plurality of divided regions 210 in the same manner as described above with reference to FIGS. 16 (a) and 16 (b). In the example of FIG. 18A, one frame image 200 is divided into 32 divided regions 210-1 to 210-32 as in FIG. 16 and FIG.

そして、これらの分割領域210は、それぞれが異なる複数の符号化量(ビットレート)ごとによる圧縮符号化を行う。これにより、図18(a)の縦軸として示すように、1つの解像度に対応して、それぞれが異なる符号量により符号化された分割領域210−1〜210−32から成る、複数のフレーム画像が配列されることになる。つまり、図18(a)に示されるファイル300において、1つの分割領域210の位置の映像は、α個の符号化量と同じ数であるα個が備えられる。配信サーバ(図示は省略)は、この図18(a)に示す構造のファイル300がフレームごとに配列された映像ストリームデータを記憶している。   These divided regions 210 perform compression encoding with a plurality of different encoding amounts (bit rates). As a result, as shown by the vertical axis in FIG. 18A, a plurality of frame images each composed of divided regions 210-1 to 210-32 each encoded with a different code amount corresponding to one resolution. Will be arranged. That is, in the file 300 shown in FIG. 18A, the video at the position of one divided region 210 is provided with α, which is the same number as the encoding amount of α. The distribution server (not shown) stores video stream data in which the file 300 having the structure shown in FIG. 18A is arranged for each frame.

ここでは、上記図17(a)に示すファイル300から、図18(b)における表示対象領域400の画像を再生表示する場合を想定する。図18(c)は、図18(b)の表示対象領域400を再生した表示映像500の例を示している。   Here, it is assumed that the image of the display target area 400 in FIG. 18B is reproduced and displayed from the file 300 shown in FIG. FIG. 18C shows an example of a display image 500 obtained by reproducing the display target area 400 of FIG.

上記図18(b)に示される表示対象領域400は、フレーム画像200における8個の分割領域210−10、210−11、210−12、210−13、210−18、210−19、210−20および210−21の各画像部分を含んで形成されている。限られた帯域の中で、表示対象領域の映像品質をあげるためには、品質の低い分割領域に対して高い符号化量を割振る必要がある。映像品質を判断するために、全ての分割領域の全てのフレームに対して品質評価情報(例えばPSNR情報)が存在している。帯域として許容される間は、一番品質が低い分割領域から符号化量を順にあげていく。図18の例では、割領域210−11、210−12、210−19および210−20の4個が一番高い符号化量まで、残りの分割領域が2番目の符号化量まで向上した例を示している。   The display target area 400 shown in FIG. 18B includes eight divided areas 210-10, 210-11, 210-12, 210-13, 210-18, 210-19, 210- in the frame image 200. Each of the image portions 20 and 210-21 is formed. In order to improve the video quality of the display target area within the limited band, it is necessary to allocate a high coding amount to the divided area with low quality. In order to determine the video quality, quality evaluation information (for example, PSNR information) exists for all frames in all divided regions. While the band is allowed, the coding amount is increased in order from the lowest quality divided area. In the example of FIG. 18, four divided areas 210-11, 210-12, 210-19 and 210-20 are improved to the highest encoding amount, and the remaining divided areas are improved to the second encoding amount. Is shown.

また、超高解像度のパノラマ画像を表示するにあたっては、フレーム画像200における一部領域をズームイン(拡大)して再生表示させたり、ズームアウト(縮小)して再生表示させたりすることも想定されている。図19は、ズームアウトによる再生に対応したデータ配信の態様例を模式的に示している。   Further, when displaying an ultra-high resolution panoramic image, it is assumed that a partial area in the frame image 200 is zoomed in (enlarged) to be reproduced and displayed, or zoomed out (reduced) to be reproduced and displayed. Yes. FIG. 19 schematically shows an example of data distribution corresponding to reproduction by zoom-out.

図19(a)は、上記図18(a)と同様のファイル300の構造が示されている。ここでは、図19(c)の表示映像500に示すように、フレーム画像200をズームアウト)縮小して再生表示させることを想定している。この表示映像500に対応する表示対象領域400は、図19(b)に示されるように、解像度は低い方の4個の分割領域210−21、210−22、210−24および210−25の各画像部分により形成される。ズームアウト表示の場合、図18の場合と比較すれば、例えば同じ4つの分割領域により表示すべき画像範囲は広くなるので、より低い解像度のフレームから分割領域を選択することになる。そこで、配信サーバは、図19(a)に示すように、解像度の低い方のフレーム画像200から上記分割領域210−21、210−22、210−24および210−25を読み出して再生装置に転送する。   FIG. 19A shows the structure of the file 300 similar to that of FIG. Here, it is assumed that the frame image 200 is zoomed out (reduced) and reproduced and displayed as shown in a display image 500 in FIG. As shown in FIG. 19B, the display target area 400 corresponding to the display image 500 includes four divided areas 210-21, 210-22, 210-24, and 210-25 having a lower resolution. Formed by each image portion. In the case of zoom-out display, compared with the case of FIG. 18, for example, the image range to be displayed is widened by the same four divided areas, so the divided areas are selected from lower resolution frames. Therefore, the distribution server reads the divided areas 210-21, 210-22, 210-24, and 210-25 from the frame image 200 having the lower resolution and transfers them to the playback device as shown in FIG. To do.

一方、図示は省略するが、ズームアウト(縮小)して広範囲を表示させる場合には、逆に一定以上の高解像度は過剰になる。そこで、この場合の配信サーバは、複数の解像度のうちから低い方の解像度のフレーム画像200から、表示対象領域400の再生に必要な分割領域210を読み出して再生装置に転送する。   On the other hand, although illustration is omitted, when a wide range is displayed by zooming out (reducing), conversely, a high resolution above a certain level becomes excessive. Therefore, the distribution server in this case reads out the divided area 210 necessary for reproduction of the display target area 400 from the frame image 200 having the lower resolution among the plurality of resolutions, and transfers it to the reproduction apparatus.

上記の図18および図19に示す態様の映像配信では、再生装置が再生しようとする領域に対応して必要とされる分割領域210を選択して転送することとしている。さらに、表示対象領域400における映像部分の占有率に応じて、転送すべき分割領域210の符号化量を適宜選択することとしている。また、表示映像500の表示倍率に応じて、転送すべき分割領域210の解像度を適宜選択することとしている。これにより、配信データのデータレートを抑制して、帯域制限のあるネットワーク環境において超高解像度映像を配信することが可能になる。
説明の簡易化のため、本発明の前提となる映像分割配信システムについてフレーム単位で配信することを前提として記載したが、H.264などの符号化方式で符号化した場合は、フレーム単位ではなくGOP単位となることは言うまでもない。
In the video distribution of the mode shown in FIGS. 18 and 19, the divided area 210 required corresponding to the area to be reproduced by the reproduction apparatus is selected and transferred. Furthermore, the encoding amount of the divided area 210 to be transferred is appropriately selected according to the occupation ratio of the video portion in the display target area 400. Further, the resolution of the divided area 210 to be transferred is appropriately selected according to the display magnification of the display video 500. As a result, it is possible to suppress the data rate of the distribution data and distribute the ultra-high resolution video in a network environment with a band limitation.
For simplification of description, the video division distribution system which is the premise of the present invention has been described on the assumption that distribution is performed in units of frames. Needless to say, when encoding is performed using an encoding method such as H.264, it is not a frame unit but a GOP unit.

<第1実施形態>
次に、本発明に係る一実施形態にかかる映像符号化装置の一例について説明する。図1は、本実施形態にかかる映像符号化装置の構成の一例を示す図である。以下説明する第1実施形態に係る映像符号化装置は、上述した映像分割配信システムにおいて利用される装置の一例である。
<First Embodiment>
Next, an example of a video encoding device according to an embodiment of the present invention will be described. FIG. 1 is a diagram illustrating an example of a configuration of a video encoding device according to the present embodiment. The video encoding apparatus according to the first embodiment described below is an example of an apparatus used in the video division distribution system described above.

[映像符号化装置の構成]
図1は、本発明の第1の実施の形態としての映像符号化装置100の構成例を示している。この図に示す映像符号化装置100は、解像度変換部110と、領域分割部120と、符号化部130と、多重化部140と、制御部150と備える。解像度変換部110は、複数の解像度変換部を含み、例えば、第1解像度変換部110−1〜第3解像度変換部110−3を含む。領域分割部120は、複数の領域分割部を含み、例えば、第1領域分割部120−1〜第3領域分割部120−3を含む。符号化部130は、同一のデータに対して異なる符号化レートで並行して符号化可能な複数の符号化部を備え、例えば、第1符号化部130−1〜第4符号化部130−4を含む。なお、本実施形態において、各第1符号化部130−1〜第4符号化部130−4は、それぞれが別個の装置を構成している。
[Configuration of video encoding device]
FIG. 1 shows a configuration example of a video encoding apparatus 100 as the first embodiment of the present invention. The video encoding apparatus 100 shown in this figure includes a resolution conversion unit 110, a region division unit 120, an encoding unit 130, a multiplexing unit 140, and a control unit 150. The resolution converter 110 includes a plurality of resolution converters, and includes, for example, a first resolution converter 110-1 to a third resolution converter 110-3. The region dividing unit 120 includes a plurality of region dividing units, and includes, for example, a first region dividing unit 120-1 to a third region dividing unit 120-3. The encoding unit 130 includes a plurality of encoding units that can encode the same data in parallel at different encoding rates. For example, the first encoding unit 130-1 to the fourth encoding unit 130- 4 is included. In the present embodiment, each of the first encoding unit 130-1 to the fourth encoding unit 130-4 constitutes a separate device.

バッファ111−1〜111−3は、それぞれ、第1解像度変換部110−1〜第3解像度変換部110−3に対応して設けられる。このバッファ111−1〜111−3は、それぞれ、第1解像度変換部110−1〜第3解像度変換部110−3が処理すべきデータを保持する。   The buffers 111-1 to 111-3 are provided corresponding to the first resolution conversion unit 110-1 to the third resolution conversion unit 110-3, respectively. The buffers 111-1 to 111-3 hold data to be processed by the first resolution conversion unit 110-1 to the third resolution conversion unit 110-3, respectively.

バッファ121−1〜121−3は、それぞれ、第1領域分割部120−1〜第3領域分割部120−3に対応して設けられる。このバッファ121−1〜121−3は、それぞれ、第1領域分割部120−1〜第3領域分割部120−3が処理すべきデータを保持する。   Buffers 121-1 to 121-3 are provided corresponding to first region dividing unit 120-1 to third region dividing unit 120-3, respectively. The buffers 121-1 to 121-3 hold data to be processed by the first area dividing unit 120-1 to the third area dividing unit 120-3, respectively.

バッファ131−1〜131−4は、それぞれ、第1符号化部130−1〜第4符号化部130−4に対応して設けられる。このバッファ131−1〜131−4は、それぞれ、第1符号化部130−1〜第4符号化部130−4が処理すべきデータを保持する。
バッファ141は、多重化部140が処理すべきデータを保持する。
The buffers 131-1 to 131-4 are provided corresponding to the first encoding unit 130-1 to the fourth encoding unit 130-4, respectively. The buffers 131-1 to 131-4 hold data to be processed by the first encoding unit 130-1 to the fourth encoding unit 130-4, respectively.
The buffer 141 holds data to be processed by the multiplexing unit 140.

入力映像は、例えば4k解像度や8k解像度などと称される、超高解像度による所定形式の映像信号データである。ここでは、説明の便宜上、フレーム画像単位で入力されるものとする。この入力映像としてのフレーム画像のデータは、バッファ111−1〜111−3に分岐して、フレーム毎に、異なるフレーム画像が供給される。バッファ111−1〜111−3は、供給されたフレーム画像を保持する。   The input video is video signal data in a predetermined format with ultra-high resolution, for example, called 4k resolution or 8k resolution. Here, for convenience of explanation, it is assumed that the input is performed in units of frame images. The frame image data as the input video branches to the buffers 111-1 to 111-3, and a different frame image is supplied for each frame. The buffers 111-1 to 111-3 hold the supplied frame images.

第1解像度変換部110−1〜第3解像度変換部110−3は、それぞれ、バッファ111−1〜111−3からフレーム画像を入力して、予め決められた1つ又は複数の解像度ごとによるフレーム画像を生成するための解像度変換処理を行う。例えば、第1解像度変換部110−1〜第3解像度変換部110−3には、それぞれ、予め決められた複数の解像度が設定されている。これら第1解像度変換部110−1〜第3解像度変換部110−3に設定されている複数の解像度は、同一の解像度である。第1解像度変換部110−1〜第3解像度変換部110−3は、入力するフレーム画像を、設定されている解像度に変換して、各解像度に対応するフレーム画像を出力する。これにより、1つの解像度変換部110により、それぞれが異なる解像度に変換された複数のフレーム画像が生成される。なお、解像度のパターン数と、各解像度パターンにおける解像度の値は、予め定められており、1フレーム画像がパターン数分の解像度に変換される。本実施形態では、説明便宜のため、同一の1つの解像度が第1解像度変換部110−1〜第3解像度変換部110−3に設定されているとする。第1解像度変換部110−1〜第3解像度変換部110−3は、それぞれ、設定されている解像度に変換したフレーム画像を出力する。   The first resolution conversion unit 110-1 to the third resolution conversion unit 110-3 input frame images from the buffers 111-1 to 111-3, respectively, and frames at a predetermined resolution or a plurality of resolutions. A resolution conversion process for generating an image is performed. For example, a plurality of predetermined resolutions are set in each of the first resolution conversion unit 110-1 to the third resolution conversion unit 110-3. The plurality of resolutions set in the first resolution conversion unit 110-1 to the third resolution conversion unit 110-3 are the same resolution. The first resolution conversion unit 110-1 to the third resolution conversion unit 110-3 convert an input frame image to a set resolution, and output a frame image corresponding to each resolution. As a result, a plurality of frame images each converted to a different resolution are generated by one resolution conversion unit 110. Note that the number of resolution patterns and the resolution value in each resolution pattern are determined in advance, and one frame image is converted into a resolution corresponding to the number of patterns. In this embodiment, for convenience of explanation, it is assumed that the same resolution is set in the first resolution conversion unit 110-1 to the third resolution conversion unit 110-3. The first resolution conversion unit 110-1 to the third resolution conversion unit 110-3 each output a frame image converted to a set resolution.

バッファ121−1〜121−3には、それぞれ、上記第1解像度変換部110−1〜第3解像度変換部110−3により生成された、複数の解像度パターンに応じた複数のフレーム画像のデータが入力される。   In the buffers 121-1 to 121-3, data of a plurality of frame images corresponding to a plurality of resolution patterns generated by the first resolution conversion unit 110-1 to the third resolution conversion unit 110-3 are respectively stored. Entered.

第1領域分割部120−1〜第3領域分割部120−3は、それぞれ、バッファ121−1〜121−3に保持されたフレーム画像のデータを入力し、このフレーム画像を所定の大きさ(解像度)の分割領域に分割するように領域分割処理を実行する。つまり、領域分割部120が入力する1つのフレーム画像200が図16(a)に示されるものであるとすると、領域分割部120は、このフレーム画像200を、図16(b)に示すように、所定の水平/垂直画素数により分割することで、32個の分割領域210{210−1,210−2,・・・210−32}から成る形式に変換する。なお、第1領域分割部120−1〜第3領域分割部120−3は、同一のフレーム画像について設定された解像度に変換したフレーム画像を、それぞれ32個の分割領域210{210−1,210−2,・・・210−32}に分割する。   The first region dividing unit 120-1 to the third region dividing unit 120-3 respectively receive the frame image data held in the buffers 121-1 to 121-3, and convert the frame image to a predetermined size ( The area dividing process is executed so as to divide the image into divided areas of (resolution). That is, if one frame image 200 input by the region dividing unit 120 is the one shown in FIG. 16A, the region dividing unit 120 displays the frame image 200 as shown in FIG. By dividing the image by a predetermined number of horizontal / vertical pixels, it is converted into a format composed of 32 divided regions 210 {210-1, 210-2,... 210-32}. The first region dividing unit 120-1 to the third region dividing unit 120-3 respectively convert the frame images converted to the resolution set for the same frame image into 32 divided regions 210 {210-1, 210. -2, ... 210-32}.

第1領域分割部120−1〜第3領域分割部120−3から出力された分割領域210のデータは、バッファ131−1〜131−4のいずれか1つに対して適宜入力される。バッファ131−1〜131−4は、入力された分割領域210のデータを保持する。   The data of the divided area 210 output from the first area dividing unit 120-1 to the third area dividing unit 120-3 is appropriately input to any one of the buffers 131-1 to 131-4. The buffers 131-1 to 131-4 hold the input data of the divided area 210.

第1符号化部130−1〜第4符号化部130−4は、それぞれ、バッファ131−1〜131−4にて保持されたデータを入力して圧縮符号化処理を実行する。ここでの圧縮符号化の方式については特に限定されるものではないが、一例として、多視点映像符号化方式(MVC:MultiView Video Coding)を採用することができる。また、以降においては、圧縮符号化について単に符号化と称する。   The first encoding unit 130-1 to the fourth encoding unit 130-4 input the data held in the buffers 131-1 to 131-4, respectively, and execute the compression encoding process. Although the compression encoding method here is not particularly limited, as an example, a multi-view video encoding method (MVC) can be adopted. In the following, compression encoding is simply referred to as encoding.

第1符号化部130−1〜第4符号化部130−4により分割領域210を符号化して得られた符号化分割領域のデータは、バッファ141に対して入力され、ここで保持される。   Data of the encoded divided region obtained by encoding the divided region 210 by the first encoding unit 130-1 to the fourth encoding unit 130-4 is input to the buffer 141 and held therein.

多重化部140は、バッファ141にて保持されている符号化分割領域のデータを入力し、符号化分割領域のデータをフレーム単位で多重化して1つのファイルとするための多重化処理を実行する。なおこのフレーム単位のフレーム数は符号化方式に依存する。多視点映像符号化方式(MVC:MultiView Video Coding)を採用した場合は、フレーム数はGOP単位となる。これにより、図16(a)に示すように、1つのフレーム画像200に対応するファイル300として、複数解像度と複数の符号化量の組み合わせに応じた数の分割領域210から成る構造が得られる。そして、多重化部140は、このフレーム単位に対応するファイル300を、順次、出力映像として出力する。このように順次出力されるファイル300の連結により映像ストリームデータが形成される。   The multiplexing unit 140 receives the data of the encoded divided area held in the buffer 141, and executes a multiplexing process for multiplexing the data of the encoded divided area in units of frames into one file. . Note that the number of frames per frame depends on the encoding method. When a multi-view video coding method (MVC: MultiView Video Coding) is adopted, the number of frames is in GOP units. As a result, as shown in FIG. 16A, a file 300 corresponding to one frame image 200 has a structure including a number of divided regions 210 corresponding to a combination of a plurality of resolutions and a plurality of encoding amounts. Then, the multiplexing unit 140 sequentially outputs the file 300 corresponding to this frame unit as an output video. Thus, video stream data is formed by concatenating the files 300 that are sequentially output.

なお、上記図1に示される解像度変換部110、領域分割部120および符号化部130に含まれる各構成の並列数は、後述する映像符号化装置100の符号化処理の具体例に対応させたものであり、あくまでも一例となるものである。   Note that the parallel number of each component included in the resolution conversion unit 110, the region division unit 120, and the encoding unit 130 illustrated in FIG. 1 corresponds to a specific example of encoding processing of the video encoding device 100 described later. It is only an example.

制御部150は、解像度変換部110、領域分割部120、符号化部130および多重化部140に対する制御を実行する。   The control unit 150 performs control on the resolution conversion unit 110, the region division unit 120, the encoding unit 130, and the multiplexing unit 140.

解像度変換部110、領域分割部120、符号化部130および多重化部140は、例えばDSP(Digital Signal Processor)により実現されるもので、制御部150は、このDSPに対する制御によって、解像度変換部110、領域分割部120、符号化部130の各並列数を変更して信号処理回路を形成することができる。
また、制御部150は、設定された信号処理回路の構成に応じて、解像度変換部110、領域分割部120、符号化部130および多重化部140に対するデータの振り分けや処理タイミングを指示する。
The resolution conversion unit 110, the region division unit 120, the encoding unit 130, and the multiplexing unit 140 are realized by, for example, a DSP (Digital Signal Processor), and the control unit 150 controls the resolution conversion unit 110 by controlling the DSP. Further, the signal processing circuit can be formed by changing the parallel numbers of the area dividing unit 120 and the encoding unit 130.
Further, the control unit 150 instructs data distribution and processing timing to the resolution conversion unit 110, the region division unit 120, the encoding unit 130, and the multiplexing unit 140 according to the set configuration of the signal processing circuit.

上記構成の映像符号化装置100により生成される映像ストリームデータを例えばネットワーク経由で配信するのであれば、ネットワーク上に配信サーバ(図示は省略する)を設け、上記のように形成される映像ストリームデータを記憶させることになる。そして、配信サーバが映像配信を行う際には、例えば図18および図19にて説明したようにフレーム画像200において再生装置が表示させようとする部分の画像に対応する分割領域210のデータのみを配信する。また、配信サーバは、表示対象領域400における映像部分の占有率に応じて、転送すべき分割領域210の符号化量を適宜選択して配信するものであってもよい。また、表示映像500の表示倍率に応じて、転送すべき分割領域210の解像度を適宜選択して配信するものであってもよい。これにより、限られた帯域のネットワークを経由して超高解像度映像を配信することが可能になる。   If the video stream data generated by the video encoding apparatus 100 having the above configuration is distributed via, for example, a network, a distribution server (not shown) is provided on the network, and the video stream data formed as described above is provided. Will be remembered. When the distribution server performs video distribution, for example, as described with reference to FIGS. 18 and 19, only the data of the divided area 210 corresponding to the image of the portion to be displayed by the playback device in the frame image 200 is obtained. To deliver. Further, the distribution server may appropriately select and distribute the encoding amount of the divided area 210 to be transferred according to the occupancy rate of the video portion in the display target area 400. Further, the resolution of the divided area 210 to be transferred may be appropriately selected according to the display magnification of the display video 500 and distributed. As a result, it becomes possible to deliver an ultra-high resolution video via a limited bandwidth network.

[符号化処理タイミング例]
次に、上記図1に示す構成の映像符号化装置100が実行する符号化処理の実行タイミング例について説明する。以降の説明においては、図2に示すファイル300の構造を前提とする。ここでは、説明簡略化のため、1つのフレーム画像200は第1分割領域210−1と第2分割領域210−2の2つの領域に分割されるものとする。また、符号化量については第1符号化量と第2符号化量との2つの符号化レートγ1、γ2により符号化されるものとする。なお、解像度は、αとする。図2のファイル300は、(分割数「2」×符号化レートのパターン数「2」)で表される数の分割領域210を有することになる。なお、実際には、解像度のパターン数、分割数、符号化レートのパターン数が非常に多く、ファイル300における分割領域210の数は膨大である。一般的には、解像度nの時の分割数をα、解像度nの時の符号化レートをβとすると、ファイル300における分割領域数は
Σ(αn×βn)
と表わすことができる。
なお、このファイル300に相当するデータのうち、第1符号化部132−1が符号化する分割領域はバッファ131−1に格納されている。同様に符号化部132−2〜132−4が符号化する分割領域は、バッファ131−2〜131−4にそれぞれ格納されている。なお分割領域数と符号化部数が同数とは限らず、また1対1で割り当てられるとは限らない。分割領域と符号化の割振りは制御部150によってなされる。
例えば、第1符号化部132−1が、第1分割領域を第1符号化量で符号化し、第2符号化部132−2が、第2分割領域を第1符号化量で符号化し、第3符号化部132−3が、第1分割領域を第2符号化量で符号化し、第4符号化部132−4が、第2分割領域を第2符号化量で符号化する場合の一例について説明する。この場合、制御部150は、予め設定される符号化パラメータ(例えば、入力映像の解像度、領域分割の解像度、解像度のパターン数、符号化量のパターン数など)に応じて、バッファ131−1には、第1分割領域を、バッファ131−2には、第2分割領域を、バッファ131−3には、第1分割領域を、バッファ131−4には、第2分割領域を、それぞれ格納される。
また、第1符号化部132−1が、第1分割領域を第1符号化量と第2符号化量で符号化し、第2符号化部132−2が、第2分割領域を第1符号化量と第2符号化量で符号化する場合は、以下のように制御する。つまり、制御部150は、バッファ131−1には、第1分割領域を、バッファ131−2には、第2分割領域をそれぞれ格納させる。よって、バッファ131−3およびバッファ131−4にはデータが格納されないことになる。
[Example of encoding processing timing]
Next, an example of the execution timing of the encoding process executed by the video encoding apparatus 100 having the configuration shown in FIG. 1 will be described. In the following description, the structure of the file 300 shown in FIG. 2 is assumed. Here, for simplification of description, it is assumed that one frame image 200 is divided into two regions, a first divided region 210-1 and a second divided region 210-2. In addition, the encoding amount is assumed to be encoded at two encoding rates γ1 and γ2 of the first encoding amount and the second encoding amount. The resolution is α. The file 300 in FIG. 2 has the number of divided areas 210 expressed by (number of divisions “2” × number of coding rate patterns “2”). Actually, the number of resolution patterns, the number of divisions, and the number of coding rate patterns are very large, and the number of divided regions 210 in the file 300 is enormous. In general, when the number of divisions at the resolution n is α n and the encoding rate at the resolution n is β n , the number of divided areas in the file 300 is Σ (α n × β n ).
Can be expressed as
Of the data corresponding to the file 300, the divided area encoded by the first encoding unit 132-1 is stored in the buffer 131-1. Similarly, the divided areas encoded by the encoding units 132-2 to 132-4 are stored in the buffers 131-2 to 131-4, respectively. It should be noted that the number of divided areas and the number of encoding units are not necessarily the same, and are not necessarily assigned one-to-one. Allocation of divided areas and encoding is performed by the control unit 150.
For example, the first encoding unit 132-1 encodes the first divided region with the first encoding amount, the second encoding unit 132-2 encodes the second divided region with the first encoding amount, When the third encoding unit 132-3 encodes the first divided region with the second encoding amount, and the fourth encoding unit 132-4 encodes the second divided region with the second encoding amount An example will be described. In this case, the control unit 150 stores the encoding parameter (for example, the resolution of the input video, the resolution of the area division, the number of patterns of resolution, the number of patterns of encoding amount, etc.) in the buffer 131-1. Stores the first divided area, the buffer 131-2 stores the second divided area, the buffer 131-3 stores the first divided area, and the buffer 131-4 stores the second divided area. The
Also, the first encoding unit 132-1 encodes the first divided region with the first encoding amount and the second encoding amount, and the second encoding unit 132-2 converts the second divided region into the first code. When encoding with the encoding amount and the second encoding amount, the following control is performed. That is, the control unit 150 stores the first divided area in the buffer 131-1 and the second divided area in the buffer 131-2. Therefore, data is not stored in the buffer 131-3 and the buffer 131-4.

図3のタイミングチャートは、図1に示す第1の実施の形態の映像符号化装置100が実行する符号化処理の一例を時間経過にしたがって示している。まず、入力映像は、図示するように、フレーム1、2、3、4・・・のように、例えばフレーム周期に応じたタイミングで順次入力される。   The timing chart of FIG. 3 shows an example of the encoding process executed by the video encoding device 100 of the first embodiment shown in FIG. 1 over time. First, as shown in the figure, the input video is sequentially input, for example, at a timing corresponding to the frame period, such as frames 1, 2, 3, 4,.

解像度変換処理に対応するバッファ111−1〜111−3は、上記のように入力されるフレーム1、2、3、4・・・を、図示するタイミングにより順次保持する。具体的にバッファ111−1はフレーム1を保持し、バッファ111−2はフレーム2を保持し、バッファ111−3はフレーム3を保持する。このように、バッファ111−1〜111−3によるデータの保持が一巡すると、また、バッファ111−1がフレーム4を保持し、以降、同様にしてバッファ111−1〜111−3によるフレームの保持が繰り返される。   The buffers 111-1 to 111-3 corresponding to the resolution conversion processing sequentially hold the frames 1, 2, 3, 4... Input as described above at the timing shown in the drawing. Specifically, the buffer 111-1 holds frame 1, the buffer 111-2 holds frame 2, and the buffer 111-3 holds frame 3. As described above, when the data holding by the buffers 111-1 to 111-3 is completed, the buffer 111-1 holds the frame 4, and thereafter the frame holding by the buffers 111-1 to 111-3 is similarly performed. Is repeated.

第1解像度変換部110−1は、バッファ111−1に保持されたフレーム1のデータを入力して解像度変換処理を実行する。つまり、フレーム1のデータから、異なる解像度α1のフレーム画像(以下、解像度変換データという)を生成する。なお、異なる解像度を作らない場合は、この処理はスルーすることもできる。例えば、第1解像度については入力映像と同じ解像度としてもよい。   The first resolution conversion unit 110-1 inputs the data of frame 1 held in the buffer 111-1, and executes resolution conversion processing. That is, frame images having different resolutions α1 (hereinafter referred to as resolution conversion data) are generated from the frame 1 data. Note that this process can be bypassed if different resolutions are not created. For example, the first resolution may be the same as the input video.

次に、第2解像度変換部110−2は、バッファ111−2に保持されたフレーム2を入力して解像度変換処理を実行し、解像度α1の解像度変換データを生成する。次に、第3解像度変換部110−3は、バッファ111−3に保持されたフレーム3を入力して解像度変換処理を実行し、解像度α1の解像度変換データを生成する。次に、フレーム4はバッファ111−1に保持されているので、第1解像度変換部110−1がフレーム4を入力して解像度変換処理を実行し、解像度α1の解像度変換データを生成する。このように、第1〜第3解像度変換部110−1〜110−3は、フレームのデータを順次入力して巡回的に解像度変換処理を実行する。   Next, the second resolution conversion unit 110-2 inputs the frame 2 held in the buffer 111-2, executes resolution conversion processing, and generates resolution conversion data of the resolution α1. Next, the third resolution conversion unit 110-3 inputs the frame 3 held in the buffer 111-3, executes resolution conversion processing, and generates resolution conversion data of the resolution α1. Next, since the frame 4 is held in the buffer 111-1, the first resolution conversion unit 110-1 inputs the frame 4 and executes resolution conversion processing to generate resolution conversion data of the resolution α1. As described above, the first to third resolution conversion units 110-1 to 110-3 sequentially input the frame data and cyclically execute the resolution conversion process.

上記のように第1解像度変換部110−1により生成された複数解像度によるフレーム1の解像度変換データは、領域分割処理に対応するバッファ121−1に出力され、ここで保持される。次に、第2解像度変換部110−2により生成された複数解像度によるフレーム2の解像度変換データはバッファ121−2に出力され、ここで保持される。次に、第3解像度変換部110−3により生成された複数解像度によるフレーム3の解像度変換データはバッファ121−3に出力され、ここで保持される。次に、第1解像度変換部110−1により生成された複数解像度によるフレーム4の解像度変換データはバッファ121−1に出力され、ここで保持される。   As described above, the resolution conversion data of the frame 1 having a plurality of resolutions generated by the first resolution conversion unit 110-1 is output to the buffer 121-1 corresponding to the region division processing and held therein. Next, the resolution conversion data of frame 2 having a plurality of resolutions generated by the second resolution conversion unit 110-2 is output to the buffer 121-2 and held therein. Next, resolution conversion data of the frame 3 having a plurality of resolutions generated by the third resolution conversion unit 110-3 is output to the buffer 121-3 and held therein. Next, the resolution conversion data of the frame 4 having a plurality of resolutions generated by the first resolution conversion unit 110-1 is output to the buffer 121-1, and held therein.

第1領域分割部120−1は、バッファ121−1から複数解像度によるフレーム1の解像度変換データを入力し、領域分割処理として、第1分割領域210−1と第2分割領域210−2に分割する。図では、フレーム1の第1分割領域210−1のデータを、分割領域1−1として表記し、フレーム1の第2分割領域210−2のデータを、分割領域1−2として表記している。   The first area dividing unit 120-1 receives resolution conversion data of frame 1 having a plurality of resolutions from the buffer 121-1, and divides the data into a first divided area 210-1 and a second divided area 210-2 as an area dividing process. To do. In the figure, the data of the first divided area 210-1 of frame 1 is represented as a divided area 1-1, and the data of the second divided area 210-2 of frame 1 is represented as a divided area 1-2. .

次に、第2領域分割部120−2は、バッファ121−2から複数解像度によるフレーム2の解像度変換データを入力し、同様に、第1分割領域(分割領域2−1)と第2分割領域(分割領域2−2)に分割する。次に、第3領域分割部120−3は、バッファ121−3から複数解像度によるフレーム3の解像度変換データを入力し、第1分割領域(分割領域3−1)と第2分割領域(分割領域3−2)に分割する。次に、第1領域分割部120−1は、バッファ121−1から複数解像度によるフレーム4の解像度変換データを入力し、第1分割領域(分割領域4−1)と第2分割領域(分割領域4−2)に分割する。このように、第1領域分割部120−1〜第3領域分割部120−3も、巡回的に複数解像度によるフレームのデータを順次入力して領域分割処理を実行する。なお、以降において図3に示されるデータを説明するにあたり、同図と同じ表記を用いる。   Next, the second area dividing unit 120-2 inputs resolution conversion data of frame 2 having a plurality of resolutions from the buffer 121-2, and similarly, the first divided area (divided area 2-1) and the second divided area. Divide into (divided areas 2-2). Next, the third area dividing unit 120-3 inputs resolution conversion data of the frame 3 having a plurality of resolutions from the buffer 121-3, and the first divided area (divided area 3-1) and the second divided area (divided area). Divide into 3-2). Next, the first area dividing unit 120-1 inputs resolution conversion data of the frame 4 having a plurality of resolutions from the buffer 121-1, and the first divided area (divided area 4-1) and the second divided area (divided area). 4-2). As described above, the first region dividing unit 120-1 to the third region dividing unit 120-3 also cyclically input frame data having a plurality of resolutions cyclically and execute the region dividing process. In the following description, the same notation as in FIG. 3 will be used to describe the data shown in FIG.

第1領域分割部120−1により生成された分割領域1−1および1−2のうち、分割領域1−1は、第1符号化部132−1に対応するバッファ131−1および第2符号化部132−2に対応するバッファ131−2に対して並列に入力され、ここで保持される。一方、分割領域1−2は、第3符号化部132−3に対応するバッファ131−3および第4符号化部132−4に対応するバッファ131−4に対して並列に入力され、ここで保持される。   Of the divided regions 1-1 and 1-2 generated by the first region dividing unit 120-1, the divided region 1-1 includes a buffer 131-1 and a second code corresponding to the first encoding unit 132-1. Are input in parallel to the buffer 131-2 corresponding to the generating unit 132-2 and are held here. On the other hand, the divided region 1-2 is input in parallel to the buffer 131-3 corresponding to the third encoding unit 132-3 and the buffer 131-4 corresponding to the fourth encoding unit 132-4. Retained.

次に、第2領域分割部120−2により生成された分割領域2−1および2−2のうち、分割領域2−1は、第1符号化部130−1に対応するバッファ131−1および第2符号化部130−2に対応するバッファ131−2に対して並列に入力され、ここで保持される。分割領域2−2は、第3符号化部130−3に対応するバッファ131−3および第4符号化部130−4に対応するバッファ131−4に対して並列に入力され、ここで保持される。   Next, among the divided regions 2-1 and 2-2 generated by the second region dividing unit 120-2, the divided region 2-1 includes a buffer 131-1 corresponding to the first encoding unit 130-1, and The data is input in parallel to the buffer 131-2 corresponding to the second encoding unit 130-2 and held here. The divided region 2-2 is input in parallel to and held in the buffer 131-3 corresponding to the third encoding unit 130-3 and the buffer 131-4 corresponding to the fourth encoding unit 130-4. The

次に、第3領域分割部120−3により生成された分割領域3−1および3−2のうち、分割領域3−1は、第1符号化部130−1に対応するバッファ131−1および第2符号化部132−2に対応するバッファ131−2に対して並列に入力され、ここで保持される。分割領域3−2は、第3符号化部132−3に対応するバッファ131−3および第4符号化部132−4に対応するバッファ131−4に対して並列に入力され、ここで保持される。   Next, among the divided regions 3-1 and 3-2 generated by the third region dividing unit 120-3, the divided region 3-1 includes a buffer 131-1 corresponding to the first encoding unit 130-1, and The signals are input in parallel to and held in the buffer 131-2 corresponding to the second encoding unit 132-2. The divided area 3-2 is input in parallel to and held in the buffer 131-3 corresponding to the third encoding unit 132-3 and the buffer 131-4 corresponding to the fourth encoding unit 132-4. The

次に、第4領域分割部120−3により生成された分割領域4−1および4−2のうち、分割領域4−1は、第1符号化部130−1に対応するバッファ131−1および第2符号化部132−2に対応するバッファ131−2に対して並列に入力され、ここで保持される。分割領域4−2は、第3符号化部132−3に対応するバッファ131−3および第4符号化部132−4に対応するバッファ131−4に対して並列に入力され、ここで保持される。   Next, among the divided regions 4-1 and 4-2 generated by the fourth region dividing unit 120-3, the divided region 4-1 includes a buffer 131-1 corresponding to the first encoding unit 130-1, and The signals are input in parallel to and held in the buffer 131-2 corresponding to the second encoding unit 132-2. The divided area 4-2 is input in parallel to the buffer 131-3 corresponding to the third encoding unit 132-3 and the buffer 131-4 corresponding to the fourth encoding unit 132-4, and is held here. The

これにより、第1符号化部132−1および第2符号化部132−2の各々に対応するバッファ131−1および131−2は、それぞれ、分割領域1−1、2−1、3−1および4−1を順次保持していく。また、第3符号化部132−3および第4符号化部132−4の各々に対応するバッファ131−3および131−4は、それぞれ、分割領域1−2、2−2、3−2および4−2を順次保持していく。   As a result, the buffers 131-1 and 131-2 corresponding to the first encoding unit 132-1 and the second encoding unit 132-2, respectively, are divided regions 1-1, 2-1, and 3-1. And 4-1. Also, the buffers 131-3 and 131-4 corresponding to the third encoding unit 132-3 and the fourth encoding unit 132-4, respectively, are divided regions 1-2, 2-2, 3-2, and 4-2 is held sequentially.

図2にて説明したように、ここでは第1符号化量と第2符号化量による2つの符号化量による符号化を行う場合を想定している。第1符号化部132−1〜第4符号化部132−4のうち、第1符号化部132−1および第2符号化部132−2は、第1分割領域のデータについて、それぞれ第1符号化量と第2符号化量による符号化を行う。第3符号化部132−3および第4符号化部132−4は、第2分割領域のデータについて、それぞれ第1符号化量と第2符号化量による符号化を行う。   As described with reference to FIG. 2, here, it is assumed that encoding is performed using two encoding amounts, ie, a first encoding amount and a second encoding amount. Among the first encoding unit 132-1 to the fourth encoding unit 132-4, the first encoding unit 132-1 and the second encoding unit 132-2 each have first data on the first divided region. Encoding is performed using the encoding amount and the second encoding amount. The third encoding unit 132-3 and the fourth encoding unit 132-4 perform encoding with the first encoding amount and the second encoding amount, respectively, on the data of the second divided region.

第1符号化部132−1は、バッファ131−1にて保持されている分割領域1−1、2−1、3−1および4−1のデータのうち、まず、フレーム1の分割領域1−1を入力して第1符号化量による符号化を行って、符号化分割領域1−1−1を生成する。以降、第1符号化部132−1は、順次、フレーム2、3、4の分割領域2−1、3−1および4−1を入力し、符号化分割領域2−1−1、3−1−1および4−1−1を生成する。   The first encoding unit 132-1 starts with the divided region 1 of the frame 1 among the data of the divided regions 1-1, 2-1, 3-1 and 4-1 held in the buffer 131-1. -1 is input, encoding is performed using the first encoding amount, and the encoded divided region 1-1-1 is generated. Thereafter, the first encoding unit 132-1 sequentially receives the divided areas 2-1, 3-1 and 4-1 of the frames 2, 3, and 4 and inputs the encoded divided areas 2-1-1, 3- 1-1 and 4-1-1 are generated.

第2符号化部132−2は、バッファ131−2にて保持されている分割領域1−1、2−1、3−1および4−1のデータのうち、まず、分割領域1−1を入力して第2符号化量による符号化を行って、符号化分割領域1−1−2を生成する。以降、第2符号化部132−2は、順次、分割領域2−1、3−1および4−1を入力し、符号化分割領域2−1−2、3−1−2および4−1−2を生成する。   Of the data of the divided areas 1-1, 2-1, 3-1 and 4-1 held in the buffer 131-2, the second encoding unit 132-2 first selects the divided area 1-1. Input and perform encoding with the second encoding amount to generate an encoded divided region 1-1-2. Thereafter, the second encoding unit 132-2 sequentially inputs the divided areas 2-1, 3-1, and 4-1, and the encoded divided areas 2-1-2, 3-1-2, and 4-1. -2 is generated.

第3符号化部132−3は、バッファ131−3にて保持されている分割領域1−2、2−2、3−2および4−2のデータのうち、まず、分割領域1−2を入力して第1符号化量による符号化を行って、符号化分割領域1−2−1を生成する。以降、第3符号化部132−3は、順次、分割領域2−2、3−2および4−2を入力し、符号化分割領域2−2−1、3−2−1および4−2−1を生成する。   Of the data in the divided areas 1-2, 2-2, 3-2 and 4-2 held in the buffer 131-3, the third encoding unit 132-3 first selects the divided area 1-2. Input and perform encoding using the first encoding amount to generate an encoded divided region 1-2-1. Thereafter, the third encoding unit 132-3 sequentially inputs the divided areas 2-2, 3-2, and 4-2, and the encoded divided areas 2-2-1, 3-2-1, and 4-2. -1 is generated.

第4符号化部132−4は、バッファ131−4にて保持されている分割領域1−2、2−2、3−2および4−2のデータのうち、まず、分割領域1−2を入力して第2符号化量による符号化を行って、符号化分割領域1−2−2を生成する。以降、第3符号化部132−3は、順次、分割領域2−2、3−2および4−2を入力し、符号化分割領域2−2−2、3−2−2および4−2−2を生成する。   Of the data of the divided areas 1-2, 2-2, 3-2 and 4-2 held in the buffer 131-4, the fourth encoding unit 132-4 first selects the divided area 1-2. Input and perform encoding with the second encoding amount to generate an encoded divided region 1-2-2. Thereafter, the third encoding unit 132-3 sequentially inputs the divided areas 2-2, 3-2, and 4-2, and the encoded divided areas 2-2-2, 3-2-2, and 4-2. -2 is generated.

上記のように第1符号化部132−1〜第4符号化部132−4が符号化処理を実行することで、1フレームにおける2つの第1分割領域と第2分割領域は、それぞれ、第1符号化量による符号化と、第2符号化量による符号化が施される。つまり、1フレームにおいて、第1符号化量による第1分割領域と、第2符号化量による第1分割領域と、第2符号化量による第1分割領域と、第2符号化量による第2分割領域との4パターンの符号化分割領域が得られる。そして、この1フレームにおける4パターンの符号化分割領域が、時間経過にしたがって、順次、フレームごとに形成されていく。なお、これらの符号化分割領域のデータの各々は、複数の解像度に応じた複数の分割領域から成る。   As described above, the first encoding unit 132-1 to the fourth encoding unit 132-4 execute the encoding process, so that the two first divided regions and the second divided region in one frame are Encoding with one encoding amount and encoding with a second encoding amount are performed. That is, in one frame, the first divided region based on the first coding amount, the first divided region based on the second coding amount, the first divided region based on the second coding amount, and the second divided region based on the second coding amount. Four patterns of encoded divided areas with the divided areas are obtained. Then, four patterns of encoded divided areas in one frame are sequentially formed for each frame as time elapses. Each of the data of these encoded divided areas is composed of a plurality of divided areas corresponding to a plurality of resolutions.

第1符号化部132−1は、上記のように符号化分割領域1−1−1、2−1−1、3−1−1および4−1−1のデータを順次生成していくごとに、これらのデータを多重化部140に対応するバッファ141に転送する。同様に、第2符号化部132−2は、符号化分割領域1−1−2、2−1−2、3−1−2および4−1−2のデータを順次生成していくごとに、バッファ141に転送する。第3符号化部132−3は、符号化分割領域1−2−1、2−2−1、3−2−1および4−2−1のデータを順次生成していくごとに、バッファ141に転送する。第4符号化部132−4は、符号化分割領域1−2−2、2−2−2、3−2−2および4−2−2のデータを順次生成していくごとに、バッファ141に転送する。これにより、バッファ141には、図3に示すタイミングで、順次、上記のように転送されたデータが保持されていく。   Each time the first encoding unit 132-1 sequentially generates the data of the encoded divided regions 1-1-1, 1-2-1, 3-1-1 and 4-1-1 as described above. Then, these data are transferred to the buffer 141 corresponding to the multiplexing unit 140. Similarly, every time the second encoding unit 132-2 sequentially generates data of the encoded divided areas 1-1-2, 2-1-2, 3-1-2, and 4-1-2. , Transferred to the buffer 141. Each time the third encoding unit 132-3 sequentially generates the data of the encoded divided areas 1-2-1, 2-2-1, 3-2-1 and 4-2-1, the buffer 141 Forward to. Each time the fourth encoding unit 132-4 sequentially generates the data of the encoded divided areas 1-2-2, 2-2-2, 3-2-2, and 4-2-2, the buffer 141 Forward to. As a result, the buffer 141 sequentially holds the data transferred as described above at the timing shown in FIG.

多重化部140は、フレーム1に対応する4つの符号化分割領域1−1−1、1−1−2、1−2−1、1−2−2のすべてがバッファ141に保持されたタイミングで、これらの符号化分割領域を入力して多重化処理を実行し、図示するようにフレーム1に対応するファイルを生成する。次いで、多重化部140は、フレーム2に対応する4つの符号化分割領域2−1−1、2−1−2、2−2−1、2−2−2のすべてがバッファ141に保持されたタイミングで、これらの符号化分割領域を入力して多重化処理を実行し、フレーム2に対応するファイルを生成する。   The multiplexing unit 140 is a timing at which all of the four encoded division regions 1-1-1, 1-1-2, 1-2-1, 1-2-2 corresponding to the frame 1 are held in the buffer 141. Then, these encoded divided areas are input and a multiplexing process is executed to generate a file corresponding to frame 1 as shown in the figure. Next, in the multiplexing unit 140, all of the four encoded divided areas 2-1-1, 2-1-2, 2-2-1, and 2-2-2 corresponding to the frame 2 are held in the buffer 141. At this timing, these encoded divided areas are input and the multiplexing process is executed to generate a file corresponding to frame 2.

以降、多重化部140は、フレーム3、4・・・ごとに、対応の符号化分割領域がすべてバッファ141に保持されたタイミングで多重化処理を実行し、順次、フレーム3、4・・・のファイルを生成していく。このように、フレーム単位のファイルが順次生成されることで、出力映像としてのストリームデータが得られる。もしくはフレーム単位のファイルを順次1つのファイルとして結合し、出力映像ファイルを得る。   Thereafter, the multiplexing unit 140 performs the multiplexing process at the timing at which all the corresponding encoded divided areas are held in the buffer 141 for each of the frames 3, 4,. Generate the file. In this way, stream data as an output video is obtained by sequentially generating a file in units of frames. Alternatively, frame-by-frame files are sequentially combined as one file to obtain an output video file.

上記図3の処理タイミングとして示されるように、第1符号化部132−1〜第4符号化部132−4により順次フレームを符号化する処理は、図3にも示されているように、同時並行して実行される。つまり、本実施の形態は、複数の符号化部130を並列に設け、これらに符号化処理を同時並行して実行させることにより、符号化処理に要する時間について、領域分割を行わない場合と同等としているものである。これにより、本実施の形態では、フレーム画像200を分割領域210により分割しているのに係わらず、符号化処理に要する時間を大幅に短縮することが可能となる。   As shown in the processing timing of FIG. 3 above, the process of sequentially encoding the frames by the first encoding unit 132-1 to the fourth encoding unit 132-4 is also shown in FIG. It is executed in parallel. In other words, the present embodiment is equivalent to the case where no segmentation is performed for the time required for the encoding process by providing a plurality of encoding units 130 in parallel and causing them to execute the encoding process in parallel. It is what you are trying. As a result, in the present embodiment, it is possible to greatly reduce the time required for the encoding process regardless of whether the frame image 200 is divided by the divided region 210.

なお、実際のフレームごとの処理時間にはばらつきが生じる。例えば、解像度変換部110および領域分割部120は、処理対象とするデータの解像度に応じてフレーム単位の処理時間が異なる。また、符号化部130による符号化処理では、例えばI(Intra)ピクチャ、P(Predictive)ピクチャおよびBピクチャ(Bi−directional Predictive)ごとに処理時間が異なる。そこで、解像度変換部110、領域分割部120、符号化部130および多重化部140に対して、それぞれ、バッファ111、121、131および141を設けている。これにより、上記処理時間の相違を吸収して処理タイミングを同期させることができる。   Note that the actual processing time for each frame varies. For example, the resolution conversion unit 110 and the region division unit 120 have different processing times for each frame depending on the resolution of data to be processed. Further, in the encoding process by the encoding unit 130, for example, the processing time is different for each of an I (Intra) picture, a P (Predictive) picture, and a B picture (Bi-directional Predictive). Therefore, buffers 111, 121, 131, and 141 are provided for the resolution conversion unit 110, the region division unit 120, the encoding unit 130, and the multiplexing unit 140, respectively. Thereby, the processing timing can be synchronized by absorbing the difference in the processing time.

[符号化処理手順例]
図4のフローチャートは、第1の実施の形態における映像符号化装置100が実行する処理手順例を示している。この図は、上記図3に示した処理タイミングにおいて、1つのフレームを処理する手順を示している。この図に示す処理は、図1に示した各部が適宜実行するものとしてみることができる。
[Example of encoding procedure]
The flowchart in FIG. 4 illustrates an example of a processing procedure executed by the video encoding device 100 according to the first embodiment. This figure shows a procedure for processing one frame at the processing timing shown in FIG. The processing shown in this figure can be regarded as being appropriately executed by each unit shown in FIG.

ステップS101において、制御部150は、フレームの番号を示す変数nについて初期値である「1」を代入する。次に、制御部150は、ステップS102において、入力映像として供給されるフレームnを、第((n・mod・m))解像度変換部110−(n・mod・m))に対応するバッファ111−(n・mod・m)に転送する。mは解像度変換部110の数であり、ここでは「3」となる。また、(n・mod・m)は、nをmで除算したときの余りを示す。ただし、mが「3」の場合の(n・mod・m)は、「0」、「1」、「2」のいずれかを取り得るが、「0」の場合には、「m」の値を取るものとする。これにより、図3に示したように、フレーム1、2、3、4・・・は、順次巡回するように、第1〜第3解像度変換部110−1〜110−3に対応するバッファ111−1〜111−3にて保持される。なお、表記を簡単にするために、以降において、(n・mod・m)は、「N」で置き換えて表記する。   In step S101, the control unit 150 substitutes an initial value “1” for the variable n indicating the frame number. Next, in step S102, the control unit 150 converts the frame n supplied as the input video into the buffer 111 corresponding to the ((n · mod · m)) resolution converter 110- (n · mod · m)). -Transfer to (n · mod · m). m is the number of resolution converters 110 and is “3” here. Further, (n · mod · m) indicates a remainder when n is divided by m. However, when m is “3”, (n · mod · m) can take any of “0”, “1”, and “2”, but when “0”, “m” Take the value. Thus, as shown in FIG. 3, the buffers 111 corresponding to the first to third resolution conversion units 110-1 to 110-3 sequentially circulate through the frames 1, 2, 3, 4. -1 to 111-3. In order to simplify the notation, (n · mod · m) will be replaced with “N” in the following.

次に、第N解像度変換部110−Nは、ステップS103において、解像度変換処理を実行する。つまり、フレームnから第1〜第i解像度によるフレームnのデータを生成する。そして、第N解像度変換部110−Nは、ステップS104において、この第1〜第i解像度によるフレームnのデータを、第N領域分割部120−Nに対応するバッファ121−Nに転送して保持させる。   Next, in step S103, the Nth resolution conversion unit 110-N executes resolution conversion processing. That is, data of frame n with the first to i-th resolution is generated from frame n. In step S104, the Nth resolution conversion unit 110-N transfers the data of the frame n with the first to ith resolutions to the buffer 121-N corresponding to the Nth region division unit 120-N and holds it. Let

次に、第N領域分割部120−Nは、ステップS105において、バッファ121−Nに保持されている第1〜第i解像度によるフレームnのデータを入力して領域分割処理を実行する。つまり、フレームnのデータについて、第1分割領域210−1と第2分割領域210−2に分割する。図3の表記との対応では、分割領域n−1と分割領域n−2に分割することになる。以降の図4の説明においては、この図3の表記を用いる。   Next, in step S105, the Nth region dividing unit 120-N inputs the data of the frame n with the first to i-th resolutions held in the buffer 121-N and executes the region dividing process. That is, the data of frame n is divided into a first divided area 210-1 and a second divided area 210-2. In correspondence with the notation in FIG. 3, the image is divided into divided areas n−1 and n−2. In the following description of FIG. 4, the notation of FIG. 3 is used.

そして、第N領域分割部120−Nは、ステップS106において、分割領域n−1のデータを第1符号化部132−1に対応するバッファ131−1に転送して保持させる。また、第N領域分割部120−Nは、ステップS107において、分割領域n−1のデータを第2符号化部132−2に対応するバッファ131−2に転送して保持させる。   In step S106, the Nth region dividing unit 120-N transfers the data of the divided region n-1 to the buffer 131-1, which corresponds to the first encoding unit 132-1, and holds the data. In step S107, the Nth region dividing unit 120-N transfers and holds the data of the divided region n-1 to the buffer 131-2 corresponding to the second encoding unit 132-2.

また、第N領域分割部120−Nは、ステップS108において、分割領域n−2のデータを第3符号化部132−3に対応するバッファ131−3に転送して保持させる。また、第N領域分割部120−Nは、ステップS109において、分割領域n−2のデータを第4符号化部132−4に対応するバッファ131−4に転送して保持させる。   In step S108, the Nth region dividing unit 120-N transfers the data of the divided region n-2 to the buffer 131-3 corresponding to the third encoding unit 132-3, and holds the data. Further, in step S109, the Nth region dividing unit 120-N transfers and holds the data of the divided region n-2 to the buffer 131-4 corresponding to the fourth encoding unit 132-4.

次に、第1符号化部132−1は、ステップS110において、バッファ131−1に保持されている分割領域n−1のデータを入力して、第1符号化量により符号化して符号化分割領域n−1−1のデータを生成する。そして、第1符号化部132−1は、この符号化分割領域n−1−1のデータを、多重化部140に対応するバッファ141に転送して保持させる。   Next, in step S110, the first encoding unit 132-1 receives the data of the divided region n-1 held in the buffer 131-1, encodes the first encoded amount, and performs encoding division. Data of region n-1-1 is generated. Then, the first encoding unit 132-1 transfers and stores the data of the encoded division region n-1-1 to the buffer 141 corresponding to the multiplexing unit 140.

また、第2符号化部132−2は、ステップS111において、バッファ131−2に保持されている分割領域n−1のデータを入力して、第2符号化量により符号化して符号化分割領域n−1−2のデータを生成する。そして、第2符号化部132−2は、この符号化分割領域n−1−2のデータをバッファ141に転送して保持させる。   In addition, in step S111, the second encoding unit 132-2 receives the data of the divided area n-1 held in the buffer 131-2, encodes it with the second encoding amount, and encodes the encoded divided area. Data of n-1-2 is generated. Then, the second encoding unit 132-2 transfers the data of the encoded divided region n-1-2 to the buffer 141 to hold it.

また、第3符号化部132−3は、ステップS112において、バッファ131−3に保持されている分割領域n−2のデータを入力して、第1符号化量により符号化して符号化分割領域n−2−1のデータを生成する。そして、第3符号化部132−3は、この符号化分割領域n−2−1のデータをバッファ141に転送して保持させる。   In addition, in step S112, the third encoding unit 132-3 inputs the data of the divided region n-2 held in the buffer 131-3, encodes the first encoded amount, and encodes the encoded divided region. Data of n-2-1 is generated. Then, the third encoding unit 132-3 transfers the data of the encoded divided region n-2-1 to the buffer 141 to hold it.

また、第4符号化部132−4は、ステップS113において、バッファ131−4に保持されている分割領域n−2のデータを入力して、第2符号化量により符号化して符号化分割領域n−2−2のデータを生成する。そして、第4符号化部132−4は、この符号化分割領域n−2−2のデータをバッファ141に転送して保持させる。なお、図3にて説明したように、ステップS110〜S113による符号化処理は、同時に並行して実行されるものである。   In addition, in step S113, the fourth encoding unit 132-4 inputs the data of the divided region n-2 held in the buffer 131-4, encodes it with the second encoding amount, and encodes the encoded divided region. Data of n-2-2 is generated. Then, the fourth encoding unit 132-4 transfers the data of the encoded divided region n-2-2 to the buffer 141 to hold it. As described with reference to FIG. 3, the encoding processing in steps S110 to S113 is performed in parallel at the same time.

そして、多重化部140は、上記ステップS110〜S113により得られた4つの符号化分割領域n−1−1、n−1−2、n−2−1およびn−2−2のデータが保持されると、ステップS114において、これらを多重化する処理を実行する。これにより、フレームnに対応するファイルが形成される。ステップS114までの処理が終了すると、制御部150は、ステップS115において変数nをインクリメントしてステップS102の処理に戻る。このように処理が実行されることで、フレーム単位で順次ファイル300を形成していくことができる。   The multiplexing unit 140 holds the data of the four encoded divided regions n-1-1, n-1-2, n-2-1 and n-2-2 obtained in steps S110 to S113. Then, in step S114, a process of multiplexing these is executed. Thereby, a file corresponding to the frame n is formed. When the processing up to step S114 ends, the control unit 150 increments the variable n in step S115 and returns to the processing in step S102. By executing the processing in this way, the file 300 can be sequentially formed in units of frames.

なお、映像符号化装置100により生成された映像ストリームデータを配信するにあたっては、図18および図19に準じた配信態様を想定することができる。つまり、再生装置での再生に必要な分割領域のうちから、さらに再生に必要な符号化量および解像度のデータを選択して配信するというものである。これは、例えばユーザが視聴領域を指定操作するのではなく、配信側で入力映像の一部を適宜拡大または縮小するように編集したものを配信するというサービスに適用できる。このような配信の態様に対応する映像符号化装置100の処理として、1つには、次のようなものを考えることができる。   In distributing the video stream data generated by the video encoding device 100, a distribution mode according to FIGS. 18 and 19 can be assumed. In other words, the encoding amount and resolution data necessary for reproduction are further selected from the divided areas necessary for reproduction by the reproduction apparatus and distributed. This can be applied to a service in which, for example, a user does not specify a viewing area, but distributes a part of the input video that has been edited so as to be appropriately enlarged or reduced on the distribution side. As a process of the video encoding apparatus 100 corresponding to such a distribution mode, the following can be considered.

まず、図1に示す映像符号化装置100において、解像度変換部110と領域分割部120は、それぞれ、これまでの説明のように予め設定された所定数の解像度パターンによる解像度変換処理と分割領域210に分割する分割領域処理を実行する。そして、これらの分割領域210のデータを、例えば図3にて示したように、符号化部130におけるバッファ131に保持させる。この段階までは、これまでに図3および図4により説明した処理手順と同様となる。   First, in the video encoding apparatus 100 shown in FIG. 1, the resolution conversion unit 110 and the region division unit 120 respectively perform resolution conversion processing and a divided region 210 using a predetermined number of resolution patterns set in advance as described above. A divided area process is performed to divide into two. Then, the data of these divided areas 210 is held in the buffer 131 in the encoding unit 130, for example, as shown in FIG. Up to this stage, the processing procedure is the same as that described above with reference to FIGS.

そのうえで、制御部150は、再生装置からの再生データ要求に応じて、再生装置に送信すべき分割領域と、これらの分割領域のデータの符号化量と解像度パターンの組み合わせを判定する。そして、制御部150は、すべての符号化部130のうちから、判定した分割領域と符号化量の組み合わせに応じて符号化処理を実行する符号化部130に対して符号化処理を指示する。また、この際、制御部150は、符号化処理を指示した符号化部130に対して、符号化すべき解像度パターンを指定する。これに応じて、符号化処理の指示を受けた符号化部130は、対応のバッファ131に保持されている複数の解像度パターンごとに応じたフレームのデータのうちから、指定された解像度パターンのフレームのデータのみを入力して符号化処理を実行する。   In addition, in response to a playback data request from the playback device, the control unit 150 determines the divided regions to be transmitted to the playback device, and the combination of the coding amount of the data in these divided regions and the resolution pattern. Then, the control unit 150 instructs the encoding unit 130 that executes the encoding process according to the determined combination of the segmented area and the encoding amount from among all the encoding units 130. At this time, the control unit 150 designates a resolution pattern to be encoded to the encoding unit 130 that has instructed the encoding process. In response to this, the encoding unit 130 that has received an instruction for the encoding process selects the frame of the designated resolution pattern from the frame data corresponding to each of the plurality of resolution patterns held in the corresponding buffer 131. Only the data is input and the encoding process is executed.

一具体例として、分割領域および符号化量については、図2に示した場合を想定し、解像度変換部110は全部で解像度α1、α2の2パターンによる解像度変換処理を行うものとする。そのうえで、再生に必要なデータとしては、分割領域210−1であり、解像度はα1であり、第2符号化量により符号化されたものであるとする。この場合、図1の符号化部132−1〜132−4のうち、分割領域210−1を処理対象とし、かつ、第2符号化量による処理を実行する符号化部132−2のみが符号化処理を実行することになる。そのうえで、符号化部132−2は、バッファ131−2からデータを入力するにあたり、解像度α1と解像度α2のフレームのうち、解像度α1のフレームのデータのみを入力して符号化処理を実行することになる。これに応じて、図4のフローチャートについては、ステップS110、S112およびS113が省略される。また、この場合、多重化されたフレームごとのファイルは、符号化部132−2により符号化された圧縮分割領域のデータにより形成されることになる。   As a specific example, assuming the case shown in FIG. 2 with respect to the divided areas and the encoding amount, the resolution conversion unit 110 performs resolution conversion processing with two patterns of resolutions α1 and α2 in total. In addition, it is assumed that the data necessary for reproduction is the divided area 210-1, the resolution is α1, and the data is encoded with the second encoding amount. In this case, among the encoding units 132-1 to 132-4 in FIG. 1, only the encoding unit 132-2 that processes the divided region 210-1 and executes the processing based on the second encoding amount is encoded. Will be executed. In addition, when inputting data from the buffer 131-2, the encoding unit 132-2 performs encoding processing by inputting only the data of the resolution α1 frame out of the resolution α1 and resolution α2 frames. Become. Accordingly, steps S110, S112, and S113 are omitted from the flowchart of FIG. Further, in this case, the multiplexed file for each frame is formed by the data of the compressed divided area encoded by the encoding unit 132-2.

上記のような処理とすることで、再生に必要な分割領域210と符号化量の組み合わせに対応する一部の符号化部130のみが符号化処理を行い、さらに、符号化処理を実行する符号化部130は、再生に必要な解像度パターンのフレームのみを対象に符号化処理を実行すればよい。これにより、符号化処理の並行数が削減されて処理負荷が軽減されるとともに、1つの符号化部132が処理するフレーム数も削減されることとなって処理時間の短縮も図られる。なお、解像度変換処理に関しては、例えば、解像度変換部110に対して、再生に必要な解像度パターンのみによる解像度変換処理を実行させるように制御部150が制御するように構成してもよい。さらに、リアルタイムに符号化処理を実行する必要がない配信システムの場合であれば、映像符号化装置100としては、すべての解像度パターンと符号化量パターンの組み合わせにより、すべての分割領域の符号化処理を行えばよい。そして、このように生成した映像ストリームデータを記憶装置に記憶させておく。配信サーバは、再生装置からの要求に応じて、再生に必要な解像度パターンと符号化量パターンの組み合わせによる分割領域210のデータを、記憶装置に記憶された映像ストリームデータから読み出し、これを所定形式のコンテンツデータとして再生装置に送信する。   By performing the processing as described above, only a part of the encoding units 130 corresponding to the combination of the divided area 210 and the encoding amount necessary for reproduction perform the encoding process, and further the code for executing the encoding process The encoding unit 130 may perform the encoding process only on the frames of the resolution pattern necessary for reproduction. As a result, the number of parallel encoding processes is reduced, the processing load is reduced, and the number of frames processed by one encoding unit 132 is also reduced, thereby shortening the processing time. As for the resolution conversion process, for example, the control unit 150 may be configured to cause the resolution conversion unit 110 to execute the resolution conversion process using only the resolution pattern necessary for reproduction. Further, in the case of a distribution system that does not need to execute encoding processing in real time, the video encoding device 100 uses all combinations of resolution patterns and encoding amount patterns to encode all divided regions. Can be done. Then, the video stream data generated in this way is stored in the storage device. In response to a request from the playback device, the distribution server reads the data of the divided area 210 based on the combination of the resolution pattern and the encoding amount pattern necessary for playback from the video stream data stored in the storage device, and reads the data in a predetermined format. Is transmitted to the playback device as content data.

<第2の実施の形態>
[映像符号化装置の構成]
図5は、第2の実施の形態における映像符号化装置100の構成例を示している。この図において、図1と同一部分には同一符号を付して説明を省略する。この図に示す映像符号化装置100は、符号化処理を実行する部位として2つの第1符号化部130−1と第2符号化部130−2を備える。
<Second Embodiment>
[Configuration of video encoding device]
FIG. 5 shows a configuration example of the video encoding device 100 according to the second embodiment. In this figure, the same parts as those in FIG. The video encoding apparatus 100 shown in this figure includes two first encoding units 130-1 and a second encoding unit 130-2 as parts for executing the encoding process.

そのうえで、第1符号化部130−1は、その内部に、第1サブ符号化部132−1、バッファ131−1、第2サブ符号化部132−2およびバッファ131−2を備える。また、第2符号化部130−2は、その内部に、第3サブ符号化部132−3、バッファ131−3、第4サブ符号化部132−4およびバッファ131−4を備える。   In addition, the first encoding unit 130-1 includes therein a first sub encoding unit 132-1, a buffer 131-1, a second sub encoding unit 132-2, and a buffer 131-2. The second encoding unit 130-2 includes therein a third sub encoding unit 132-3, a buffer 131-3, a fourth sub encoding unit 132-4, and a buffer 131-4.

第1サブ符号化部132−1〜第4サブ符号化部132−4は、それぞれ、図1における第1符号化部132−1〜第4符号化部132−4に相当し、同等の処理を実行する。つまり、第1符号化部130−1において、第1サブ符号化部132−1は、バッファ131−1にて保持された第1分割領域210−1のデータを入力して第1符号化量による符号化処理を実行する。第2サブ符号化部132−2は、バッファ131−2にて保持された第1分割領域210−1のデータを入力して第2符号化量による符号化処理を実行する。したがって、第1符号化部130−1は、第1分割領域に対応した符号化処理を実行する部位となる。   The first sub-encoding unit 132-1 to the fourth sub-encoding unit 132-4 correspond to the first encoding unit 132-1 to the fourth encoding unit 132-4 in FIG. Execute. That is, in the first encoding unit 130-1, the first sub-encoding unit 132-1 receives the data of the first divided area 210-1 held in the buffer 131-1, and receives the first encoding amount. The encoding process by is executed. The second sub-encoding unit 132-2 receives the data of the first divided area 210-1 held in the buffer 131-2, and executes an encoding process using the second encoding amount. Therefore, the 1st encoding part 130-1 becomes a site | part which performs the encoding process corresponding to a 1st division area.

一方、第2符号化部130−2は、第2分割領域に対応した符号化処理を実行する部位となる。つまり、第3サブ符号化部132−3は、バッファ131−3にて保持された第2分割領域210−2のデータを入力して第1符号化量による符号化処理を実行する。第4サブ符号化部132−4は、バッファ131−4にて保持された第2分割領域210−2のデータを入力して第2符号化量による符号化処理を実行する。   On the other hand, the 2nd encoding part 130-2 becomes a site | part which performs the encoding process corresponding to a 2nd division area. That is, the third sub-encoding unit 132-3 receives the data of the second divided area 210-2 held in the buffer 131-3 and executes the encoding process using the first encoding amount. The fourth sub-encoding unit 132-4 receives the data of the second divided area 210-2 held in the buffer 131-4 and executes an encoding process using the second encoding amount.

[符号化処理タイミング例]
図6のタイミングチャートは、上記図5に示す第2の実施の形態としての映像符号化装置100が実行する符号化処理の実行タイミング例を示している。この図において、先の図3と同様となる処理については説明を省略する。
[Example of encoding processing timing]
The timing chart of FIG. 6 shows an example of the execution timing of the encoding process executed by the video encoding apparatus 100 as the second embodiment shown in FIG. In this figure, the description of the same processing as in FIG. 3 is omitted.

図6における符号化処理は、先に図3に示した第1符号化部132−1〜第4符号化部132−4に代えて、第1サブ符号化部132−1〜第4サブ符号化部132−4が実行する。ここで、第1サブ符号化部132−1〜第4サブ符号化部132−4が実行する符号化処理タイミングは、図3の第1サブ符号化部132−1〜第4サブ符号化部132−4が実行する符号化処理と同様となる。したがって、図6に示される各処理の実行タイミングは、図3と同様となっている。   The encoding process in FIG. 6 is performed by replacing the first encoding unit 132-1 to the fourth encoding unit 132-4 shown in FIG. 3 with the first sub encoding unit 132-1 to the fourth sub code. The execution unit 132-4 executes. Here, the encoding process timing executed by the first sub-encoding unit 132-1 to the fourth sub-encoding unit 132-4 is the first sub-encoding unit 132-1 to the fourth sub-encoding unit in FIG. This is the same as the encoding process executed by 132-4. Therefore, the execution timing of each process shown in FIG. 6 is the same as that in FIG.

ただし、先の図3においては、例えば第1領域分割部120−1は、分割処理により得た分割領域1−1のデータを第1符号化部132−1に転送し、さらに第2符号化部132−2に転送するようにされていた。また、第1領域分割部120−1は、分割領域1−2のデータを第3符号化部132−3と第4符号化部132−4のそれぞれに転送するようにされていた。つまり、第1の実施の形態では、第1領域分割部120−1が分割領域のデータを転送するにあたり、符号化量のパターン数と同じ回数の転送を行っている。つまり、同じデータを複数回転送する動作を実行していることになり、データ伝送量は増加する。   However, in the previous FIG. 3, for example, the first region dividing unit 120-1 transfers the data of the divided region 1-1 obtained by the dividing process to the first encoding unit 132-1, and further performs the second encoding. It was made to transfer to the part 132-2. Further, the first region dividing unit 120-1 is configured to transfer the data of the divided region 1-2 to each of the third encoding unit 132-3 and the fourth encoding unit 132-4. That is, in the first embodiment, when the first area dividing unit 120-1 transfers the data of the divided area, the transfer is performed as many times as the number of patterns of the encoding amount. That is, the operation of transferring the same data a plurality of times is executed, and the data transmission amount increases.

これに対して、第2の実施の形態の第1領域分割部120−1は、分割領域1−1のデータを第1符号化部130−1に転送する。第1符号化部130−1は、このように転送されたデータを、図6に示すように第1サブ符号化部132−1に対応するバッファ131−1に格納して保持させる。次に、第1符号化部130−1は、上記のようにバッファ131−1に保持させた分割領域1−1のデータを、第2サブ符号化部132−2に対応するバッファ131−2にコピーして保持させる。これにより、第1領域分割部120−1は、分割領域1−1のデータを第1サブ符号化部132−1と第2サブ符号化部132−2のそれぞれに対して個別に転送する必要はなくなる。つまり、分割領域1−1のデータを転送する動作は、符号化量のパターン数に係わらず1回でよいことになる。   On the other hand, the first area dividing unit 120-1 of the second embodiment transfers the data of the divided area 1-1 to the first encoding unit 130-1. The first encoding unit 130-1 stores and holds the data transferred in this way in the buffer 131-1 corresponding to the first sub-encoding unit 132-1 as shown in FIG. Next, the first encoding unit 130-1 transfers the data of the divided area 1-1 held in the buffer 131-1 as described above to the buffer 131-2 corresponding to the second sub encoding unit 132-2. To copy and hold. Accordingly, the first area dividing unit 120-1 needs to individually transfer the data of the divided area 1-1 to each of the first sub-encoding unit 132-1 and the second sub-encoding unit 132-2. Will disappear. That is, the operation of transferring the data in the divided area 1-1 may be performed only once regardless of the number of patterns of the encoding amount.

また、第1領域分割部120−1は、分割領域1−2のデータを第2符号化部130−2に転送する。そして、第2符号化部130−2においても、転送されたデータを第3サブ符号化部132−3に対応するバッファ131−3に格納して保持させ、次に、このバッファ131−3に保持させたデータを、第4サブ符号化部132−4に対応するバッファ131−4にコピーして保持させる。これにより、第1領域分割部120−1が分割領域n−2のデータを転送する動作も符号化量のパターン数に係わらず1回でよいことになる。   In addition, the first area dividing unit 120-1 transfers the data of the divided area 1-2 to the second encoding unit 130-2. The second encoding unit 130-2 also stores and holds the transferred data in the buffer 131-3 corresponding to the third sub-encoding unit 132-3, and then stores the data in the buffer 131-3. The held data is copied and held in the buffer 131-4 corresponding to the fourth sub-encoding unit 132-4. As a result, the first region dividing unit 120-1 may transfer the data of the divided region n-2 only once regardless of the number of patterns of the encoding amount.

このように、本実施の形態において領域分割部120が分割領域のデータを後段のバッファに保持させるための転送動作は、1回で済むようになっている。これにより、データ転送量の増加はなくなり、例えば処理負荷の軽減や符号化処理のさらなる高速化が図られる。   As described above, in this embodiment, the area dividing unit 120 can perform the transfer operation for holding the data of the divided area in the subsequent buffer only once. As a result, the data transfer amount does not increase, and for example, the processing load can be reduced and the encoding process can be further speeded up.

[符号化処理手順例]
図7のフローチャートは、第2の実施の形態における映像符号化装置100が実行する処理手順例を示している。この図は、上記図6に示した処理タイミングにおいて、1つのフレームを処理する手順を示している。
[Example of encoding procedure]
The flowchart in FIG. 7 illustrates an example of a processing procedure executed by the video encoding device 100 according to the second embodiment. This figure shows a procedure for processing one frame at the processing timing shown in FIG.

図7において、ステップS201〜S205の処理は、図4のステップS101〜S105と同様となる。そして、ステップS206において、第N領域分割部120−Nは、分割領域n−1のデータを第1符号化部130−1に対して転送する。これに応じて、第1符号化部130−1は、ステップS207において、第N領域分割部120−Nから転送されたデータを第1サブ符号化部132−1に対応するバッファ131−1に格納して保持させる。また、同じステップS207において、第1符号化部130−1は、上記のようにバッファ131−1に格納したデータを、第2サブ符号化部132−2に対応するバッファ131−2にコピーして保持させる。   In FIG. 7, the processing of steps S201 to S205 is the same as that of steps S101 to S105 of FIG. In step S206, the Nth region dividing unit 120-N transfers the data of the divided region n-1 to the first encoding unit 130-1. In response to this, in step S207, the first encoding unit 130-1 transfers the data transferred from the N-th region dividing unit 120-N to the buffer 131-1 corresponding to the first sub-encoding unit 132-1. Store and hold. In the same step S207, the first encoding unit 130-1 copies the data stored in the buffer 131-1 as described above to the buffer 131-2 corresponding to the second sub-encoding unit 132-2. Hold.

次に、第N領域分割部120−Nは、ステップS208において、分割領域n−2のデータを第2符号化部130−2に対して転送する。これに応じて、第2符号化部130−2は、ステップS209において、転送されたデータを、第3サブ符号化部132−3に対応するバッファ131−3に格納して保持させる。また、第2符号化部130−2は、バッファ131−3に格納したデータを、第4サブ符号化部132−4に対応するバッファ131−4にコピーして保持させる。以降のステップS210〜S215の処理は、図4のステップS110〜S115と同様となる。   Next, in step S208, the Nth region dividing unit 120-N transfers the data of the divided region n-2 to the second encoding unit 130-2. In response to this, in step S209, the second encoding unit 130-2 stores and holds the transferred data in the buffer 131-3 corresponding to the third sub-encoding unit 132-3. Also, the second encoding unit 130-2 copies and stores the data stored in the buffer 131-3 to the buffer 131-4 corresponding to the fourth sub encoding unit 132-4. Subsequent steps S210 to S215 are the same as steps S110 to S115 in FIG.

上記図7の処理手順とすることにより、第N領域分割部120−Nによる分割領域n−1とn−2のデータ転送は、ステップS206およびS208により各1回ずつ行われる。つまり、領域分割部120による1つの分割領域の転送は、符号化パターン数に係わらず各1回となるようにされている。   With the processing procedure of FIG. 7, the data transfer of the divided areas n-1 and n-2 by the Nth area dividing unit 120-N is performed once each at steps S206 and S208. That is, the transfer of one divided region by the region dividing unit 120 is performed once regardless of the number of encoding patterns.

<第3の実施の形態>
[映像符号化装置の構成]
図8は、第3の実施の形態における映像符号化装置100の構成例を示している。なお、この図において、図1および図5と同一部分には同一符号を付して説明を省略する。
<Third Embodiment>
[Configuration of video encoding device]
FIG. 8 illustrates a configuration example of the video encoding device 100 according to the third embodiment. In this figure, the same parts as those in FIG. 1 and FIG.

図8に示す映像符号化装置100は、符号化処理に対応する構成として、第1符号化部130−1および第2符号化部130−2を備える。また、第1符号化部130−1は、その内部に、第1サブ符号化部132−1と第2サブ符号化部132−2を備え、第2符号化部130−2は、その内部に、第3サブ符号化部132−3と第2サブ符号化部132−3を備える。この点については、図5と同様である。   The video encoding device 100 illustrated in FIG. 8 includes a first encoding unit 130-1 and a second encoding unit 130-2 as a configuration corresponding to the encoding process. Moreover, the 1st encoding part 130-1 is equipped with the 1st sub-encoding part 132-1 and the 2nd sub-encoding part 132-2 in the inside, and the 2nd encoding part 130-2 is the inside. In addition, a third sub-encoding unit 132-3 and a second sub-encoding unit 132-3 are provided. This is the same as in FIG.

ただし、図8の第1符号化部130−1は、1つのバッファ131A−1のみを備え、第1サブ符号化部132−1および第2サブ符号化部132−2は、いずれもバッファ131A−1からデータを入力する。同様に、第2符号化部130−2は、1つのバッファ131A−2のみを備え、第3サブ符号化部132−3および第4サブ符号化部132−4は、バッファ131A−2からデータを入力する。つまり、第3の実施の形態において、1つの符号化部130におけるバッファ131Aは、複数のサブ符号化部130により共有される。   However, the first encoding unit 130-1 in FIG. 8 includes only one buffer 131A-1, and the first sub encoding unit 132-1 and the second sub encoding unit 132-2 are both buffers 131A. Input data from -1. Similarly, the second encoding unit 130-2 includes only one buffer 131A-2, and the third sub encoding unit 132-3 and the fourth sub encoding unit 132-4 receive data from the buffer 131A-2. Enter. That is, in the third embodiment, the buffer 131A in one encoding unit 130 is shared by a plurality of sub encoding units 130.

[符号化処理タイミング例]
図9のタイミングチャートは、上記図8に示す第3の実施の形態としての映像符号化装置100が実行する符号化処理の実行タイミング例を示している。この図において、図3および図5と同様となる処理については説明を省略する。
[Example of encoding processing timing]
The timing chart of FIG. 9 shows an example of the execution timing of the encoding process executed by the video encoding device 100 as the third embodiment shown in FIG. In this figure, description of processing that is the same as in FIGS. 3 and 5 is omitted.

第1領域分割部120−1は、領域分割処理により生成した分割領域1−1および102のデータを、それぞれ、第1符号化部130−1内のバッファ131A−1に転送し、第2符号化部130−2内のバッファ131A−2に転送する。これにより、バッファ131A−1は分割領域n−1のデータを保持し、バッファ131A−2は分割領域n−2のデータを保持する。   The first area dividing unit 120-1 transfers the data of the divided areas 1-1 and 102 generated by the area dividing process to the buffer 131A-1 in the first encoding unit 130-1, respectively. The data is transferred to the buffer 131A-2 in the conversion unit 130-2. Thereby, the buffer 131A-1 holds the data of the divided area n-1, and the buffer 131A-2 holds the data of the divided area n-2.

そして、第1符号化部130−1における第1サブ符号化部132−1は、バッファ131A−1から分割領域n−1のデータを入力して第1の符号化量に対応する符号化処理を実行する。また、同じ第1符号化部130−1における第2サブ符号化部132−2も、バッファ131A−1から分割領域n−1のデータを入力して第2の符号化量に対応する符号化処理を実行する。   Then, the first sub-encoding unit 132-1 in the first encoding unit 130-1 receives the data of the divided region n-1 from the buffer 131A-1 and performs an encoding process corresponding to the first encoding amount. Execute. Also, the second sub-encoding unit 132-2 in the same first encoding unit 130-1 also inputs the data of the divided region n-1 from the buffer 131A-1 and encodes corresponding to the second encoding amount Execute the process.

また、第2符号化部130−2において、第3サブ符号化部132−3は、バッファ131A−2から分割領域n−2のデータを入力して第1の符号化量に対応する符号化処理を実行する。また、同じ第2符号化部130−1における第4サブ符号化部132−4も、バッファ131A−2から分割領域n−2のデータを入力して第2の符号化量に対応する符号化処理を実行する。そして、第1〜第3領域分割部120−1〜第3領域分割部120−3は、フレーム順にしたがって巡回的に上記と同様の処理を、順次実行していく。   In the second encoding unit 130-2, the third sub-encoding unit 132-3 inputs the data of the divided region n-2 from the buffer 131A-2 and performs encoding corresponding to the first encoding amount. Execute the process. In addition, the fourth sub-encoding unit 132-4 in the same second encoding unit 130-1 also inputs the data of the divided region n-2 from the buffer 131A-2 and performs encoding corresponding to the second encoding amount. Execute the process. Then, the first to third region dividing units 120-1 to 120-3 sequentially execute the same processing as described above cyclically according to the frame order.

上記のように分割領域のデータが処理されることにより、第3の実施の形態においては、1つの符号化部130において、複数のバッファ131の間で分割領域のデータをコピーする処理は行う必要がなくなる。これにより、バッファ131間のデータコピーに要する時間が削減されることとなる結果、映像符号化装置100としての符号化処理の時間をさらに短縮することが可能になる。   By processing the data of the divided area as described above, in the third embodiment, it is necessary to perform the process of copying the data of the divided area between the plurality of buffers 131 in one encoding unit 130. Disappears. As a result, the time required for data copying between the buffers 131 is reduced. As a result, the time required for encoding processing as the video encoding device 100 can be further reduced.

[符号化処理手順例]
図10は、フローチャートは、第3の実施の形態における映像符号化装置100が実行する処理手順例を示している。この図は、上記図9に示した処理タイミングにおいて、1つのフレームを処理する手順を示している。
[Example of encoding procedure]
FIG. 10 is a flowchart illustrating an example of a processing procedure executed by the video encoding device 100 according to the third embodiment. This figure shows a procedure for processing one frame at the processing timing shown in FIG.

図10におけるステップS301〜S305の処理は、図7におけるステップS201〜S205と同様である。そして、ステップS306において、第N領域分割部120−Nは、領域分割処理により生成した分割領域n−1とn−2のうち、分割領域n−1のデータを第1符号化部130−1に対応するバッファ131A−1に転送する。また、第N領域分割部120−Nは、ステップS307において、分割領域n−2のデータを第2符号化部130−2に対応するバッファ131A−2に転送する。   The processing in steps S301 to S305 in FIG. 10 is the same as that in steps S201 to S205 in FIG. In step S306, the N-th region dividing unit 120-N converts the data of the divided region n-1 among the divided regions n-1 and n-2 generated by the region dividing process into the first encoding unit 130-1. Is transferred to the buffer 131A-1. In step S307, the Nth region dividing unit 120-N transfers the data of the divided region n-2 to the buffer 131A-2 corresponding to the second encoding unit 130-2.

ステップS308〜S313は、図7におけるステップS210〜S215と同様となる。ただし、ステップS308とS309の処理にあたり、第1サブ符号化部132−1と第2サブ符号化部132−2の両者は、バッファ131A−1にて保持された分割領域n−1のデータを入力する。同様に、ステップS310とS311の処理にあたり、第3サブ符号化部132−3と第4サブ符号化部132−4の両者は、バッファ131A−2にて保持された分割領域n−2のデータを入力する。このようにな手順とされることで、バッファ間で分割領域のデータをコピーすることなく、サブ符号化部132に分割領域のデータを受け渡すことができる。   Steps S308 to S313 are the same as steps S210 to S215 in FIG. However, in the processing of steps S308 and S309, both the first sub-encoding unit 132-1 and the second sub-encoding unit 132-2 use the data of the divided region n-1 held in the buffer 131A-1. input. Similarly, in the processing of steps S310 and S311, both the third sub-encoding unit 132-3 and the fourth sub-encoding unit 132-4 store the data of the divided region n-2 held in the buffer 131A-2. Enter. With this procedure, the divided area data can be transferred to the sub-encoding unit 132 without copying the divided area data between the buffers.

[符号化部の他の構成例]
図11は、第3の実施の形態において符号化処理に対応する部位についての他の構成例を示している。図11は、第1符号化部130−1において4つの第1〜第4サブ符号化部132−1〜132−4を備え、第2符号化部130−2において同じく4つの第5〜第8サブ符号化部132−5〜132−8を備えた例が示されている。
[Another configuration example of the encoding unit]
FIG. 11 shows another configuration example of the part corresponding to the encoding process in the third embodiment. FIG. 11 includes four first to fourth sub-encoding units 132-1 to 132-4 in the first encoding unit 130-1, and four fourth to fifth sub-coding units in the second encoding unit 130-2. An example including 8 sub-encoding units 132-5 to 132-8 is shown.

この構成は、第1符号化部130−1と第2符号化部130−2がそれぞれ分割領域n−1とn−2に対応するものとしたうえで、1つの分割領域について第1〜第4符号化量の4パターンにより符号化する場合に対応するものとなる。   In this configuration, the first encoding unit 130-1 and the second encoding unit 130-2 correspond to the divided regions n-1 and n-2, respectively. This corresponds to the case of encoding with 4 patterns of 4 encoding amounts.

第1符号化部130−1は、4つの第1サブ符号化部132−1〜第4サブ符号化部132−4と、これらのサブ符号化部132に共通に対応する1つのバッファ131A−1を備える。同様に、第2符号化部130−2は、4つの第5サブ符号化部132−5〜第3サブ符号化部132−8と、これらのサブ符号化部132に共通に対応する1つのバッファ131A−2を備える。   The first encoding unit 130-1 includes four first sub encoding units 132-1 to 132-4 and one buffer 131A- corresponding to these sub encoding units 132 in common. 1 is provided. Similarly, the second encoding unit 130-2 includes four fifth sub-encoding units 132-5 to third sub-encoding unit 132-8 and one corresponding to these sub-encoding units 132 in common. A buffer 131A-2 is provided.

第1符号化部130−1に転送されてきた第1分割領域のデータは、バッファ131A−1にて保持される。そして、第1サブ符号化部132−1〜第4サブ符号化部132−4は、バッファ131A−aから第1分割領域のデータを入力して、それぞれ、第1符号化量〜第4符号化量による符号化処理を実行する。   The data of the first divided area transferred to the first encoding unit 130-1 is held in the buffer 131A-1. Then, the first sub-encoding unit 132-1 to the fourth sub-encoding unit 132-4 receive the data of the first divided area from the buffer 131A-a, and the first encoding amount to the fourth code, respectively. Encoding processing based on the quantization amount is executed.

第2符号化部130−2においても、上記と同様に、第2分割領域のデータがバッファ131A−2により保持される。そして、第5サブ符号化部132−5〜第8サブ符号化部132−8により、それぞれ、第1〜第4符号化量による符号化処理が実行される。   In the second encoding unit 130-2, similarly to the above, the data of the second divided area is held by the buffer 131A-2. Then, the fifth sub-encoding unit 132-5 to the eighth sub-encoding unit 132-8 respectively perform encoding processing using the first to fourth encoding amounts.

図8においては、1つのバッファ131Aに2つのサブ符号化部132が対応する構成となっていた。しかし、バッファ131Aを共有するサブ符号化部132はこれに限定されるものではなく、上記図11に示すように、1つのバッファ131Aに対して、例えば符号化量のパターンに応じた数のサブ符号化部を対応させる構成とすることができる。   In FIG. 8, two sub-encoding units 132 correspond to one buffer 131A. However, the sub-encoding unit 132 sharing the buffer 131A is not limited to this, and as illustrated in FIG. 11 described above, for example, the number of sub-encoding units corresponding to the encoding amount pattern is provided to one buffer 131A. It can be set as the structure which respond | corresponds to an encoding part.

<解像度変換部、領域分割部および符号化部の並列数設定>
本実施の形態において、解像度変換部110、領域分割部120およびサブ符号化部130の並列数の組み合わせは1つのパターンに限定されるものではなく、適宜変更が可能である。また、例えば映像符号化装置100がDSPにより実現される場合には、その設定を適宜変更することも可能である。
<Parallel number setting of resolution conversion unit, region division unit, and encoding unit>
In the present embodiment, the combination of the parallel numbers of the resolution conversion unit 110, the region division unit 120, and the sub-encoding unit 130 is not limited to one pattern, and can be changed as appropriate. For example, when the video encoding apparatus 100 is realized by a DSP, the setting can be changed as appropriate.

上記並列数をどのように設定するのかについては多様に考えられるが、その第1例および第2例について、それぞれ、図12(a)と図12(b)のフローチャートにより説明する。なお、これら図12(a)と図12(b)に示す処理は、制御部150が実行するものとしてみることができる。   There are various ways to set the parallel number. The first and second examples will be described with reference to the flowcharts of FIGS. 12A and 12B, respectively. Note that the processing shown in FIGS. 12A and 12B can be regarded as being executed by the control unit 150.

図12(a)の第1例について説明する。図12(a)において、制御部150は、ステップS401において、映像符号化装置100のリソース量に基づいて、同時並行で解像度変換処理および領域分割処理が可能なフレーム数i1を判定する。次に、制御部150は、ステップS402において、i1個の解像度変換部110と、同じi1個の領域分割部120を形成する。   A first example of FIG. 12A will be described. In FIG. 12A, in step S401, the control unit 150 determines the number of frames i1 that can be subjected to resolution conversion processing and region division processing simultaneously in parallel based on the resource amount of the video encoding device 100. Next, in step S402, the control unit 150 forms i1 resolution conversion units 110 and the same i1 region division units 120.

また、制御部150は、ステップS403において、映像符号化装置100としてのリソース量に基づいて、同時並行で処理が可能な符号化処理部の数j1を判定する。次に、制御部150は、ステップS404において、j1個のサブ符号化部130を形成する。これにより、第1〜第i1解像度変換部110−1〜110−i1、第1〜第i1領域分割部120−1〜120−i1、第1〜第j1サブ符号化部130−1〜130−j1を備える映像符号化装置100が形成される。   Further, in step S403, the control unit 150 determines the number j1 of encoding processing units that can be processed in parallel, based on the resource amount as the video encoding device 100. Next, in step S404, the control unit 150 forms j1 sub-encoding units 130. Accordingly, the first to i1th resolution conversion units 110-1 to 110-i1, the first to i1st region dividing units 120-1 to 120-i1, and the first to j1th sub-encoding units 130-1 to 130- A video encoding device 100 including j1 is formed.

次に、図12(b)の第2例について説明する。第2例では、入力元の映像ソースが分割されている場合を前提とする。4Kや8Kなど、高解像度映像を入力する場合、映像信号が分割されていることがある。実際に4Kカメラの出力としてHD-SDIを4本使って映像ソース4本として出力するものが存在する。制御部150は、ステップS501において、解像度変換部110および領域分割部120の並列数i2について、入力映像ソース数rと所定の自然数aを利用して(r×a)の演算により求める。そして、ステップS502において、i2個の解像度変換部110とi2個の領域分割部120を形成する。このように、入力ソース数rの整数倍による数の解像度変換部110を並列に設けることで、この並列に応じた数のフレームの解像度変換処理を同時に実行させることが可能になり、単位フレーム数あたりの解像度変換処理に要する時間が短縮される。   Next, a second example of FIG. 12B will be described. In the second example, it is assumed that the input video source is divided. When a high-resolution video such as 4K or 8K is input, the video signal may be divided. There are actually 4K cameras that use 4 HD-SDIs and output 4 video sources. In step S501, the control unit 150 obtains the parallel number i2 of the resolution converting unit 110 and the region dividing unit 120 by calculating (r × a) using the input video source number r and a predetermined natural number a. In step S502, i2 resolution conversion units 110 and i2 area division units 120 are formed. Thus, by providing in parallel the number of resolution conversion units 110 by an integer multiple of the number of input sources r, it becomes possible to simultaneously execute resolution conversion processing for the number of frames corresponding to the parallel number, and the number of unit frames The time required for per resolution conversion processing is shortened.

次に、制御部150は、ステップS503において、予め定められている解像度パターンごとの解像度の値に基づいて1フレーム画像における分割領域数を判定する。このことき解像度nにおける分割領域数をfnとする。次に、制御部150は、ステップS504において、サブ符号化部130の並列数j2について、上記分割領域数fnと、解像度nの符号化量パターンの数gとを利用してΣ(fn×gn)の演算により求めるようにする。そして、制御部150は、ステップS505において、j2個のサブ符号化部130を形成する。これにより、映像符号化装置100は、第1〜第i2解像度変換部110−1〜110−i2、第1〜第i2領域分割部120−1〜120−i2、第1〜第j2サブ符号化部130−1〜130−j2を備える構成を有することになる。 Next, in step S503, the control unit 150 determines the number of divided areas in one frame image based on a predetermined resolution value for each resolution pattern. In this case, the number of divided areas at the resolution n is defined as f n . Next, in step S504, the control unit 150 uses the number of divided regions f n and the number of encoded amount patterns g n of resolution n for the parallel number j2 of the sub-encoding unit 130 to Σ (f n × g n ). Then, the control unit 150 forms j2 sub-encoding units 130 in step S505. Accordingly, the video encoding apparatus 100 includes the first to i-th resolution conversion units 110-1 to 110-i2, the first to i-th region dividing units 120-1 to 120-i2, and the first to j-th sub-encoding. It has the structure provided with the parts 130-1 to 130-j2.

次に、図13のフローチャートを参照して、並列数設定の第3例について説明する。この第3例では、解像度変換部110、領域分割部120および符号化部132の並列数をリソース(資源)の数として扱う。ここでのリソースとは、解像度変換部110、領域分割部120および符号化部132に対して割り当て可能な演算器に相当する。以降の説明から理解されるように、第3例の並列数設定によっては、入力映像を圧縮符号化して出力するまでの処理時間が最短となるように動的にリソースの割り当てを行う。なお、制御部150および多重化部140には固定数によるリソースが予め割り当てられる。   Next, a third example of setting the parallel number will be described with reference to the flowchart of FIG. In the third example, the parallel number of the resolution converting unit 110, the region dividing unit 120, and the encoding unit 132 is handled as the number of resources. The resource here corresponds to an arithmetic unit that can be assigned to the resolution conversion unit 110, the region division unit 120, and the encoding unit 132. As will be understood from the following description, depending on the parallel number setting in the third example, resources are dynamically allocated so that the processing time until the input video is compression-encoded and output is minimized. Note that a fixed number of resources are allocated in advance to the control unit 150 and the multiplexing unit 140.

制御部150は、ステップS601において、初期設定として、解像度変換、領域分割および符号化の各処理に割り当てるべきリソース数を示す変数iについて「1」を代入する。そのうえで、制御部150は、ステップS602において、事前評価のために、所定単位の映像を入力して、現在のリソース数(i=1)に対応する各1つの解像度変換部110−1、領域分割部120−1および符号化部132−1により圧縮符号化処理を実行させる。この際に入力する映像の単位は、例えばGOP(Group Of Picture)単位であるとすれば、1GOPから数GOP程度でよい。   In step S601, the control unit 150 substitutes “1” for a variable i indicating the number of resources to be allocated to each process of resolution conversion, region division, and encoding as an initial setting. In addition, in step S602, the control unit 150 inputs a predetermined unit of video for prior evaluation, and each resolution conversion unit 110-1 corresponding to the current number of resources (i = 1), area division. The unit 120-1 and the encoding unit 132-1 execute compression encoding processing. If the unit of the video input at this time is, for example, a GOP (Group Of Picture) unit, it may be about 1 GOP to several GOPs.

次に、制御部150は、ステップS603において、上記ステップS602による処理の結果から、解像度変換処理、領域分割処理および符号化処理ごとに、1フレームの処理に1つのリソースが要する処理時間を算出する。ここで算出された1フレームあたりの解像度変換処理の処理時間をx1として表し、1フレームあたりの領域分割処理の処理時間をx2として表す。また、1フレームにおける1分割領域の符号化処理の処理時間をx3として表す。   Next, in step S603, the control unit 150 calculates a processing time required for one resource for one frame processing for each of the resolution conversion processing, the region division processing, and the encoding processing from the result of the processing in step S602. . The processing time of the resolution conversion process per frame calculated here is expressed as x1, and the processing time of the area division processing per frame is expressed as x2. Also, the processing time of the encoding process of one divided area in one frame is represented as x3.

また1フレームあたりの符号化処理の速度は、s3として表す。   The speed of the encoding process per frame is represented as s3.

符号化に割り当てたリソース数(符号化処理部132の数に相当)が「1」である場合の1フレームあたりの符号化処理に要する処理時間は、1フレームにおける分割領域数をfとして、(x3×f)により表すことができる。そして、例えば符号化に割り当てるリソース数「i」を割り当てたとした場合、1フレームあたりの符号化処理の処理時間は(x3×(f/i))として表すことができる。   The processing time required for encoding processing per frame when the number of resources allocated to encoding (corresponding to the number of encoding processing units 132) is "1" x3 × f). For example, when the number of resources “i” assigned to encoding is assigned, the processing time of the encoding process per frame can be expressed as (x3 × (f / i)).

このことは、符号化処理に関して、1フレームあたりの処理時間が最短となる(処理速度が最も高くなる)のは、リソース数iに分割領域数fを設定した場合であることを意味している。この場合、1フレームにおけるf個の分割領域を、f個の符号化部132により同時並行して符号化ができるからである。ただし、分割領域数fより大きなリソース数を与えた場合には、処理時間はこれ以上高速になることはないが、複数フレームを同時に処理可能になるために、スループット(単位時間あたりに処理可能なデータ量)を向上させることができる。符号化処理において、フレーム数yを同時に符号化する場合のスループットは、例えば(s3・y)で表される値に相当する。この際、符号化処理のリソース数iは、(f×y)である。   This means that the processing time per frame is the shortest (the processing speed is the highest) in the encoding process when the number of divided regions f is set to the number of resources i. . This is because the f divided regions in one frame can be encoded simultaneously by the f encoding units 132 in parallel. However, when the number of resources larger than the number of divided regions f is given, the processing time does not become any faster, but since multiple frames can be processed simultaneously, throughput (processing per unit time is possible). Data amount) can be improved. In the encoding process, the throughput when the number of frames y is encoded at the same time corresponds to, for example, a value represented by (s3 · y). At this time, the number of resources i of the encoding process is (f × y).

制御部150は、ステップS604において、解像度変換処理、領域分割処理および符号化処理のうち、現在割り当てられているリソース数に応じて求められる処理時間が最長またはスループットの値が最小の処理を、リソース割当対象として選択する。つまり、処理能力が最低のものを選択する。なお、ステップS603に続いて実行される最初のステップS604においては、例えば変数iが「1」であることに応じて、ステップS602において求められた1フレームあたりの解像度変換処理の処理時間x1と、1フレームあたりの領域分割処理の処理時間s2と、1フレームあたりの符号化処理の処理時間(x3×f)とを比較する。そして、その値が最大の処理を選択すればよい。   In step S604, the control unit 150 performs processing with the longest processing time or the minimum throughput value that is obtained according to the number of currently allocated resources among the resolution conversion processing, region division processing, and encoding processing. Select as assignment target. That is, the one with the lowest processing capability is selected. In the first step S604 executed subsequent to step S603, for example, when the variable i is “1”, the processing time x1 of the resolution conversion processing per frame obtained in step S602, and The processing time s2 of the area division processing per frame is compared with the processing time (x3 × f) of the encoding processing per frame. Then, the process having the maximum value may be selected.

次に、制御部150は、ステップS605において、上記ステップS604によりリソース割当対象として選択された処理に割り当てるべきリソース数iを所定の処理手順にしたがった設定数により増加させる。なお、このステップS605の処理手順については後述する。そして、制御部150は、上記ステップS605によりリソース数iが増加された場合のリソース割当対象処理の処理時間またはスループットを算出し、ステップS605において、この算出された処理時間またはスループット(処理能力)が、他の2つの処理よりも低い(最低)か否かについて判定する。処理時間については、他の2つよりも多ければ処理能力は最低であることになり、スループットについては、他の2つよりも小さければ処理能力は最低であることになる。   Next, in step S605, the control unit 150 increases the number of resources i to be allocated to the process selected as the resource allocation target in step S604 by a set number according to a predetermined processing procedure. The processing procedure in step S605 will be described later. Then, the control unit 150 calculates the processing time or throughput of the resource allocation target process when the number of resources i is increased in step S605. In step S605, the calculated processing time or throughput (processing capability) is calculated. It is determined whether it is lower (minimum) than the other two processes. If the processing time is longer than the other two, the processing capability is the lowest. If the throughput is shorter than the other two, the processing capability is the lowest.

ステップS607において処理能力が最低であると判定した場合、制御部150は、ステップS605の処理に戻り、さらにリソース数iを増加させる。そして、ステップS607において処理能力が最低ではないと判定すると、制御部150は、ステップS608に進む。   If it is determined in step S607 that the processing capability is the lowest, the control unit 150 returns to the process of step S605 and further increases the number of resources i. If it is determined in step S607 that the processing capability is not the lowest, the control unit 150 proceeds to step S608.

ステップS608において、制御部150は、解像度変換処理、領域分割処理および符号化処理に対して割り当て可能なリソースが残っているか否かについて判定する。ここで、割り当て可能なリソースが残っていると判定した場合には、ステップS604に戻る。これにより、リソース割当対象は、これまでのリソース数の割り当てによって処理能力が最低ではなくなった処理に代えて、現在において最も処理能力が低い処理が選択されることになる。このようにステップS604〜S608の処理が繰り返されることで、順次、解像度変換処理、領域分割処理および符号化処理の各処理に対して与えるリソース数が逐次増加されるように設定されていく。そして、ステップS608において割り当て可能なリソース数が残っていないと判定した段階で、リソース数の設定を完了する。   In step S608, the control unit 150 determines whether resources that can be allocated for the resolution conversion process, the area division process, and the encoding process remain. If it is determined that resources that can be allocated remain, the process returns to step S604. As a result, as the resource allocation target, a process having the lowest processing capability is selected instead of the processing whose processing capability is no longer the lowest due to the allocation of the number of resources so far. By repeating the processing of steps S604 to S608 in this way, the number of resources given to each of the resolution conversion processing, region division processing, and encoding processing is sequentially increased. Then, when it is determined in step S608 that there are no remaining resources that can be allocated, the setting of the number of resources is completed.

図14は、上記図13のステップS605としてのリソース割当対象の処理に対するリソース数増加のための処理手順例を示している。先ず、制御部150は、ステップS701において、現在選択されているリソース割当対象の処理は、符号化処理であるか否かについて判定する。ここで、符号化処理ではないと判定した場合、リソース割当対象の処理は、解像度変換処理と領域分割処理のいずれかであることになる。そこで、制御部150は、ステップS702により、現在リソース割当対象となっている解像度変換処理または領域分割処理について、リソース数iをインクリメントする。つまり、割り当てるべきリソースを1つ増加する。なお、例えばインクリメントするのに代えて、2以上の一定数を加算していくようにすることも考えられる。   FIG. 14 shows an example of a processing procedure for increasing the number of resources for the resource allocation target processing in step S605 of FIG. First, in step S701, the control unit 150 determines whether or not the currently selected resource allocation target process is an encoding process. Here, when it is determined that it is not the encoding process, the resource allocation target process is either the resolution conversion process or the area division process. Therefore, in step S702, the control unit 150 increments the resource number i for the resolution conversion process or the area division process that is currently the resource allocation target. That is, the resource to be allocated is increased by one. For example, instead of incrementing, it may be possible to add a constant of 2 or more.

一方、ステップS701において符号化処理がリソース割当対象であると判定した場合、制御部150は、ステップS703に進む。ステップS704において、制御部150は、符号化処理に対して現在割り当てられているリソース数iが、分割領域数fより大きいか否かについて判定する。ここで、リソース数iが分割領域数f以下であると判定した場合、制御部150は、ステップS702により、リソース数iをインクリメントする。この段階では、同時並行で処理が可能な符号化部132の数が分割領域数f以下であるので、リソース数iが増加されるのに応じて、符号化処理の処理速度が高くなっていく。   On the other hand, if it is determined in step S701 that the encoding process is a resource allocation target, the control unit 150 proceeds to step S703. In step S704, the control unit 150 determines whether or not the number of resources i currently allocated to the encoding process is larger than the number of divided regions f. Here, when it is determined that the number of resources i is equal to or less than the number of divided regions f, the control unit 150 increments the number of resources i in step S702. At this stage, since the number of encoding units 132 that can be processed in parallel is equal to or less than the number of divided regions f, the processing speed of the encoding process increases as the number of resources i increases. .

これに対して、リソース数iが分割領域数fを越えていると判定した場合、制御部150は、ステップS704により、割り当て可能なリソース数の残りが、分割領域fに所定の自然数αを乗算した(f×α)以上であるか否かについて判定する。ここで、割り当て可能なリソース数の残りが(f×α)以上であると判定した場合、制御部150は、ステップS705において、リソース数iに(f×α)を加算する。つまり、符号化部132の並列数が分割領域f以上となった段階では、これ以上、処理速度は高くすることはできないが、同時並行処理可能なフレーム数を増加させることでスループットが向上する。そこで、ステップS705において、分割領域fの整数倍によりリソース数iを増加させるものである。   On the other hand, if it is determined that the number of resources i exceeds the number of divided areas f, the control unit 150 multiplies the divided area f by a predetermined natural number α in step S704. It is determined whether or not (f × α) or more. Here, when it is determined that the remaining number of resources that can be allocated is (f × α) or more, the control unit 150 adds (f × α) to the number of resources i in step S705. That is, when the parallel number of the encoding unit 132 becomes equal to or greater than the divided region f, the processing speed cannot be increased any more, but the throughput is improved by increasing the number of frames that can be processed in parallel. Therefore, in step S705, the resource number i is increased by an integral multiple of the divided region f.

一方、ステップS704において、割り当て可能なリソース数の残りが(f×α)未満であると判定された場合、制御部150は、ステップS706に進む。ステップS706において、制御部150は、リソース数iに現在の残っているすべてのリソース数βを加算する。このように処理が行われることで、解像度変換処理、領域分割処理および符号化処理の間で、最も効率の高い圧縮符号化処理が行われるように、リソースの分配が行われる。また、特に符号化処理に関しては、まず処理速度を高く(処理時間を短く)していき、リソース数が分割領域数と同じになった段階で、スループットを高くしていくようにリソース数を増加させていくことができる。   On the other hand, when it is determined in step S704 that the remaining number of resources that can be allocated is less than (f × α), the control unit 150 proceeds to step S706. In step S706, the control unit 150 adds all the remaining remaining resource numbers β to the resource number i. By performing the processing in this way, resources are distributed so that the most efficient compression encoding processing is performed among the resolution conversion processing, the region division processing, and the encoding processing. Especially for encoding processing, first increase the processing speed (shorten the processing time) and increase the number of resources to increase the throughput when the number of resources becomes the same as the number of divided areas. I can let you.

<解像度変換部と領域分割部の対応関係についての変形例>
これまでの実施の形態の構成では、解像度変換部110と領域分割部120は同じ並列数とされたうえで1対1の関係により対応させていた。しかし、1つの解像度変換部110に対して2以上の領域分割部120を対応させた構成とすることもできる。図15は、このような構成の例として、第1解像度変換部110−1に対して、第1A領域分割部120A−1および第1B領域分割部120B−1の2つが対応する構成が示されている。
<Modification Example of Correspondence Relationship between Resolution Conversion Unit and Region Division Unit>
In the configuration of the embodiments so far, the resolution conversion unit 110 and the region division unit 120 are made to correspond to each other in a one-to-one relationship after having the same parallel number. However, a configuration in which two or more region dividing units 120 are associated with one resolution conversion unit 110 may be employed. As an example of such a configuration, FIG. 15 illustrates a configuration in which two of the first A area dividing unit 120A-1 and the first B area dividing unit 120B-1 correspond to the first resolution converting unit 110-1. ing.

ここでは具体例として、第1解像度変換部110−1は、解像度変換処理として、4パターンの解像度に応じた第1〜第4解像度フレームのデータを生成するものとする。そして、第1解像度変換部110−1は、例えば第1〜第4解像度フレームのうち、第1解像度フレームと第2解像度フレームのデータをバッファ121A−1に転送して保持させる。また、第3解像度フレームと第4解像度フレームのデータをバッファ121B−1に転送して保持させる。   Here, as a specific example, the first resolution conversion unit 110-1 generates data of first to fourth resolution frames corresponding to four patterns of resolution as the resolution conversion processing. Then, the first resolution conversion unit 110-1 transfers and holds the data of the first resolution frame and the second resolution frame among the first to fourth resolution frames, for example, to the buffer 121A-1. In addition, the data of the third resolution frame and the fourth resolution frame are transferred to and held in the buffer 121B-1.

第1A領域分割部120A−1は、バッファ121A−1から第1解像度フレームと第2解像度フレームのデータを入力して領域分割処理を実行する。また、第1B領域分割部120B−1は、バッファ121B−1から第3解像度フレームと第4解像度フレームのデータを入力して領域分割処理を実行する。このように、1つの解像度変換部110に複数の領域分割部120を割り当てた構造とすることで、1つの領域分割部120が入力する解像度フレームの数を分散させることができる。これにより、例えば1つの領域分割部120の処理負荷を軽減させて処理速度の低下を防ぐことができる。   The first A area dividing unit 120A-1 inputs the data of the first resolution frame and the second resolution frame from the buffer 121A-1, and executes the area dividing process. Further, the first B region dividing unit 120B-1 inputs the data of the third resolution frame and the fourth resolution frame from the buffer 121B-1, and executes the region dividing process. In this way, by adopting a structure in which a plurality of area dividing units 120 are assigned to one resolution converting unit 110, the number of resolution frames input by one area dividing unit 120 can be dispersed. Thereby, for example, the processing load of one region dividing unit 120 can be reduced, and a reduction in processing speed can be prevented.

なお、図3などに示した処理タイミングでは、複数の解像度変換部110による解像度変換処理と複数の領域分割部120による領域分割処理は、それぞれ、入力映像のフレーム周期に応じたタイミングで順次実行されている。しかし、複数の解像度変換部110は同時並行で解像度変換処理が可能であり、同じく複数の領域分割部120も同時並行で領域分割処理が可能である。したがって、例えば解像度変換処理の処理時間が1フレーム周期よりも長くなる場合には、解像度変換部110の間で処理期間が重複するように解像度変換処理を実行していくことができる。領域分割部120も同様に、処理時間が1フレーム周期よりも長くなる場合には、領域分割部120の間で処理期間が重複するように解像度変換処理を実行していくことができる。このように、解像度変換処理または領域分割処理の処理時間が1フレーム周期よりも長くなる条件では、解像度変換部110と領域分割部120とで並行処理が行われることで、処理時間の短縮が図られる。   Note that at the processing timing shown in FIG. 3 and the like, the resolution conversion processing by the plurality of resolution conversion units 110 and the region division processing by the plurality of region division units 120 are sequentially executed at timings according to the frame period of the input video, respectively. ing. However, the plurality of resolution conversion units 110 can perform resolution conversion processing in parallel, and the plurality of region division units 120 can also perform region division processing in parallel at the same time. Therefore, for example, when the processing time of the resolution conversion process is longer than one frame period, the resolution conversion process can be executed so that the processing periods overlap between the resolution conversion units 110. Similarly, when the processing time is longer than one frame period, the region dividing unit 120 can execute the resolution conversion process so that the processing periods overlap between the region dividing units 120. As described above, under the condition that the processing time of the resolution conversion processing or the region division processing is longer than one frame period, the parallel processing is performed by the resolution conversion unit 110 and the region division unit 120, thereby reducing the processing time. It is done.

なお、これまでの実施の形態においては、フレーム単位で処理を行うようにしているが、これに限定されるものではなく、例えばGOP(Group Of Picture)単位で処理を行うようにする場合にも本実施の形態の構成を適用することができる。   In the embodiments described so far, processing is performed in units of frames. However, the present invention is not limited to this. For example, the processing is performed in units of GOP (Group Of Pictures). The configuration of this embodiment can be applied.

また、本実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えることができる。また、これら一連の手順をコンピュータに実行させるためのプログラムまたはそのプログラムを記憶する記録媒体として捉えることができる。この記録媒体としては、例えば、ブルーレイディスク(Blu−ray Disc(登録商標))、DVD(Digital Versatile Disk)、HDD(ハードディスク)、メモリカード等を挙げることができる。   The processing procedure described in this embodiment can be regarded as a method having a series of these procedures. Further, it can be understood as a program for causing a computer to execute these series of procedures or a recording medium for storing the program. Examples of the recording medium include a Blu-ray Disc (registered trademark), a DVD (Digital Versatile Disk), an HDD (hard disk), a memory card, and the like.

なお、上述の装置は、内部にコンピュータシステムを有している。そして、動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいう「コンピュータシステム」とは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
The above-described apparatus has a computer system inside. The process of operation is stored in a computer-readable recording medium in the form of a program, and the above-described processing is performed by the computer system reading and executing this program. The “computer system” herein includes a CPU, various memories, an OS, and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、また、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、処理を行ってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
In addition, a program for realizing each step is recorded on a computer-readable recording medium, and a program for realizing this function is recorded on a computer-readable recording medium and recorded on the recording medium. Each process may be performed by causing the computer system to read and execute the program.
The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

100 映像符号化装置
110 解像度変換部
111、121、131、141 バッファ
120 領域分割部
130 符号化部
140 多重化部
150 制御部
200 フレーム画像
210 分割領域
300 ファイル
400 表示対象領域
500 表示映像
DESCRIPTION OF SYMBOLS 100 Image coding apparatus 110 Resolution conversion part 111, 121, 131, 141 Buffer 120 Area division part 130 Coding part 140 Multiplexing part 150 Control part 200 Frame image 210 Division area 300 File 400 Display object area 500 Display image

Claims (4)

予め決められた解像度に応じて入力画像の解像度を変換し、解像度が変換された解像度変換データを出力する解像度変換部と、
予め決められた分割数に応じて前記解像度変換部から入力する前記解像度変換データを分割し、分割された複数の分割データを出力する領域分割部と、
予め決められた異なる複数の符号化レートに応じた符号化を前記分割データに対して並行して実行し、符号化した前記符号化レートごとの符号化データを出力する符号化部と、
前記符号化データを前記入力画像ごとに多重化する多重化部と、
前記入力画像に対する解像度変換処理を前記解像度変換部に実行させ、前記解像度変換データに対する分割処理を前記領域分割部に実行させ、前記分割データに対する符号化処理を前記符号化部に実行させ、前記符号化データに対する多重化処理を前記多重化部に実行させる制御部とを備え、
前記解像度変換部は複数n個あり、前記入力画像はフレーム単位に時刻順に、n個の中のいずれか1つの解像度変換部に時間サイクル的に入力され、n個の各解像度変換部は入力されたフレームをいずれも同じ解像度に変換し、
前記領域分割部も同じくn個あり、n個の各領域分割部は1対1に対応する解像度変換部から入力された解像度変換データをいずれも同じ分割数mに分割し、
前記符号化部は領域の分割数mに応じてm個あり、m個の各符号化部はいずれも同じ複数の符号化レートを扱い、扱う符号化レートに応じた符号化をそれぞれ実行する複数のサブ符号化処理部を含み、各符号化部のバッファには前記n個の領域分割部からの同じ領域の分割データが前記入力画像の入力順に対応するよう入力され、各サブ符号化処理部がバッファからの分割データを決めらた符号化レートで並列して符号化する
ことを特徴とする映像符号化装置。
A resolution conversion unit that converts the resolution of the input image according to a predetermined resolution and outputs resolution conversion data in which the resolution is converted;
An area dividing unit that divides the resolution conversion data input from the resolution conversion unit according to a predetermined number of divisions and outputs a plurality of divided data;
An encoding unit that performs encoding according to a plurality of different predetermined encoding rates on the divided data in parallel and outputs encoded data for each encoded rate;
A multiplexing unit that multiplexes the encoded data for each input image;
The resolution conversion process for the input image is executed by the resolution conversion unit, the division process for the resolution conversion data is executed by the region division unit, the encoding process for the divided data is executed by the encoding unit, and the code A control unit that causes the multiplexing unit to execute a multiplexing process on the multiplexed data,
There are a plurality ( n ) of resolution conversion units, and the input image is input to any one of the n resolution conversion units in a time cycle in order of time frame by frame, and each of the n resolution conversion units is Convert all input frames to the same resolution,
There are also n region dividing units, and each of the n region dividing units divides resolution conversion data input from the resolution conversion unit corresponding to one-to-one into the same division number m,
There are m encoding units according to the division number m of the region, and each of the m encoding units handles a plurality of the same encoding rates, and executes a plurality of encodings corresponding to the encoding rates to be handled. Sub-encoding processing units, and the sub-encoding processing unit receives the divided data of the same region from the n region dividing units corresponding to the input order of the input images. There video encoding apparatus characterized by encoding in parallel the coding rate determined it was divided data from the buffer.
前記符号化部のバッファは、
当該複数のサブ符号化処理部が共通して利用するバッファであることを特徴とする請求項1に記載の映像符号化装置。
The buffer of the encoding unit is
The video encoding apparatus according to claim 1, wherein the plurality of sub-encoding processing units are buffers commonly used.
解像度変換部が、予め決められた解像度に応じて入力画像の解像度を変換し、解像度が変換された解像度変換データを出力する解像度変換ステップと、
領域分割部が、予め決められた分割数に応じて前記解像度変換部から入力する前記解像度変換データを分割し、分割された複数の分割データを出力する領域分割ステップと、
前記入力画像において指定される表示対象領域を示す領域情報を入力し、当該表示対象領域を含む前記分割データに対する符号化処理を符号化部に実行させるように制御する制御ステップと、
前記符号化部が、予め決められた異なる複数の符号化レートに応じた符号化を前記分割データに対して並行して実行し、符号化した前記符号化レートごとの符号化データを出力する符号化ステップと、
前記符号化データを前記入力画像ごとに多重化する多重化ステップと、
前記解像度変換部は複数n個あり、前記入力画像はフレーム単位に時刻順に、n個の中のいずれか1つの解像度変換部に時間サイクル的に入力され、n個の各解像度変換部は入力されたフレームをいずれも同じ解像度に変換するステップと、
前記領域分割部も同じくn個あり、n個の各領域分割部は1対1に対応する解像度変換部から入力された解像度変換データをいずれも同じ分割数mに分割するステップと、
前記符号化部は領域の分割数mに応じてm個あり、m個の各符号化部はいずれも同じ複数の符号化レートを扱い、扱う符号化レートに応じた符号化をそれぞれ実行する複数のサブ符号化処理部を含み、各符号化部のバッファには前記n個の領域分割部からの同じ領域の分割データが前記入力画像の入力順に対応するよう入力され、各サブ符号化処理部がバッファからの分割データを決めらた符号化レートで並列して符号化するステップと、
を備えることを特徴とする映像符号化方法。
A resolution conversion step in which the resolution conversion unit converts the resolution of the input image in accordance with a predetermined resolution, and outputs resolution conversion data in which the resolution is converted;
An area dividing step of dividing the resolution conversion data input from the resolution converting section according to a predetermined number of divisions, and outputting a plurality of divided divided data;
A control step of inputting region information indicating a display target region specified in the input image and controlling the encoding unit to execute an encoding process on the divided data including the display target region;
Code in which the encoding unit performs encoding according to a plurality of different predetermined encoding rates in parallel on the divided data and outputs encoded data for each encoded rate Step,
A multiplexing step for multiplexing the encoded data for each input image;
There are a plurality ( n ) of resolution conversion units, and the input image is input to any one of the n resolution conversion units in a time cycle in order of time frame by frame, and each of the n resolution conversion units is Converting all input frames to the same resolution;
There are also n region dividing units, each of the n region dividing units dividing the resolution conversion data input from the resolution conversion unit corresponding to one-to-one into the same division number m,
There are m encoding units according to the division number m of the region, and each of the m encoding units handles a plurality of the same encoding rates, and executes a plurality of encodings corresponding to the encoding rates to be handled. Sub-encoding processing units, and the sub-encoding processing unit receives the divided data of the same region from the n region dividing units corresponding to the input order of the input images. a step of encoding but in parallel with the coding rate determined we were divided data from the buffer,
A video encoding method comprising:
コンピュータを、
予め決められた解像度に応じて入力画像の解像度を変換し、解像度が変換された解像度変換データを出力する解像度変換手段、
予め決められた分割数に応じて前記解像度変換手段から入力する前記解像度変換データを分割し、分割された複数の分割データを出力する領域分割手段、
予め決められた異なる複数の符号化レートに応じた符号化を前記分割データに対して並行して実行し、符号化した前記符号化レートごとの符号化データを出力する符号化手段、
前記符号化データを前記入力画像ごとに多重化する多重化手段、
予め決められた符号化パラメータに従い、前記入力画像に対する解像度変換処理を前記解像度変換手段に実行させ、前記解像度変換データに対する分割処理を前記領域分割手段に実行させ、前記分割データに対する符号化処理を前記符号化手段に実行させ、前記符号化データに対する多重化処理を前記多重化手段に実行させる制御手段、
前記解像度変換手段は複数n個あり、前記入力画像はフレーム単位に時刻順に、n個の中のいずれか1つの解像度変換手段に時間サイクル的に入力され、n個の各解像度変換手段入力されたフレームをいずれも同じ解像度に変換させる手段、
前記領域分割手段も同じくn個あり、n個の各領域分割手段1対1に対応する解像度変換手段から入力された解像度変換データをいずれも同じ分割数mに分割させる手段、
前記符号化手段は領域の分割数mに応じてm個あり、m個の各符号化手段はいずれも同じ複数の符号化レートを扱い、扱う符号化レートに応じた符号化をそれぞれ実行する複数のサブ符号化処理手段を含み、各符号化手段のバッファには前記n個の領域分割手段からの同じ領域の分割データが前記入力画像の入力順に対応するよう入力され、各サブ符号化処理手段バッファからの分割データを決めらた符号化レートで並列して符号化させる手段、
として機能させるためのプログラム。
Computer
Resolution conversion means for converting the resolution of the input image according to a predetermined resolution and outputting resolution conversion data in which the resolution is converted;
Area dividing means for dividing the resolution conversion data input from the resolution conversion means according to a predetermined number of divisions, and outputting a plurality of divided data;
Encoding means for executing encoding according to a plurality of different predetermined encoding rates in parallel with respect to the divided data and outputting encoded data for each encoded rate,
Multiplexing means for multiplexing the encoded data for each input image,
According to a predetermined encoding parameter, the resolution conversion means for the input image is executed by the resolution conversion means, the division processing for the resolution conversion data is executed by the area division means, and the encoding processing for the divided data is performed by the area conversion means. Control means for causing the encoding means to execute, and causing the multiplexing means to execute a multiplexing process on the encoded data;
There are a plurality ( n ) of resolution conversion means, and the input image is input to any one of the n resolution conversion means in a time cycle in order of time frame by frame, and is input to each of the n resolution conversion means . Means to convert all input frames to the same resolution,
There are also n area dividing means, and means for dividing the resolution conversion data input from the resolution converting means corresponding to each of the n area dividing means on a one-to-one basis into the same division number m.
The number of the encoding means is m according to the division number m of the region, and each of the m encoding means handles the same plurality of encoding rates, and each executes a plurality of encodings according to the encoding rate to be handled. Sub-encoding processing means, and the divided data of the same area from the n area dividing means is input to the buffer of each encoding means so as to correspond to the input order of the input images, and each sub-encoding processing means means causes the coding in parallel the coding rate determined we were divided data from the buffer to,
Program to function as.
JP2011118399A 2011-05-26 2011-05-26 Video encoding apparatus, video encoding method, and program Expired - Fee Related JP5654414B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011118399A JP5654414B2 (en) 2011-05-26 2011-05-26 Video encoding apparatus, video encoding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011118399A JP5654414B2 (en) 2011-05-26 2011-05-26 Video encoding apparatus, video encoding method, and program

Publications (2)

Publication Number Publication Date
JP2012249025A JP2012249025A (en) 2012-12-13
JP5654414B2 true JP5654414B2 (en) 2015-01-14

Family

ID=47469078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011118399A Expired - Fee Related JP5654414B2 (en) 2011-05-26 2011-05-26 Video encoding apparatus, video encoding method, and program

Country Status (1)

Country Link
JP (1) JP5654414B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5436501B2 (en) * 2011-07-20 2014-03-05 日本電信電話株式会社 Video encoding device and video decoding device
JP7184248B2 (en) * 2018-09-10 2022-12-06 日本放送協会 real-time editing system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10018A (en) * 1853-09-13 Richard h
JPH07298258A (en) * 1994-04-28 1995-11-10 Nippon Telegr & Teleph Corp <Ntt> Image coding/decoding method
JP3203612B2 (en) * 1994-05-02 2001-08-27 日本電信電話株式会社 Image encoding / decoding method
JPH10191276A (en) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd Animation encoding/multiplex device
KR100586883B1 (en) * 2004-03-04 2006-06-08 삼성전자주식회사 Method and apparatus for video coding, pre-decoding, video decoding for vidoe streaming service, and method for image filtering
JP4025310B2 (en) * 2004-04-28 2007-12-19 日本電信電話株式会社 Image conversion apparatus, image conversion method, image conversion program, computer-readable recording medium storing the program, and moving image conversion apparatus, moving image conversion method, moving image conversion program, and computer-readable recording of the program recoding media
JP2010073210A (en) * 2008-09-17 2010-04-02 Toshiba Corp Image processing apparatus
JP2011053655A (en) * 2009-08-07 2011-03-17 Sanyo Electric Co Ltd Image display control device and imaging device provided with the same, image processing device, and imaging device using the image processing device

Also Published As

Publication number Publication date
JP2012249025A (en) 2012-12-13

Similar Documents

Publication Publication Date Title
US8705616B2 (en) Parallel multiple bitrate video encoding to reduce latency and dependences between groups of pictures
CN104620581A (en) Decoding and reconstruction of time-based and/or multidimensional signals in a tiered temporal hierarchy
CN109417642A (en) Image bit stream generation method and equipment for high resolution image stream
CN108337511B (en) Image encoding apparatus
KR102027410B1 (en) Transmission of reconstruction data in a tiered signal quality hierarchy
JP6305279B2 (en) Video compression device and video playback device
KR101557327B1 (en) Video data generation unit, video image display device, video data generation method, video image display method, and video image file data structure
JP2018501693A (en) How to create a video
JP2010148089A (en) Image splitting base ultrahigh resolution video encoding and decoding apparatus and method of controlling the same
US20190394476A1 (en) Method, device and system for transmitting and receiving pictures
KR20150029461A (en) Method of synchronizing tiled image in a streaming service providing system of panoramic image
KR20190031943A (en) Method and apparatus for providing 6-dof omni-directional stereoscopic image based on layer projection
CN102036065A (en) Method and system for video coding
JP5654414B2 (en) Video encoding apparatus, video encoding method, and program
JP6468847B2 (en) Image decoding apparatus, image decoding method, and program
KR101399951B1 (en) Multi-view video steaming system and providing method thereof
JP2009246539A (en) Encoding device, encoding method, encoding program, decoding device, decoding method, and decoding program
Li et al. Demo abstract: Narwhal: A DASH-based point cloud video streaming system over wireless networks
US8340444B2 (en) Image encoding and decoding apparatus and method for effectively transmitting large capacity image
KR102051410B1 (en) Method and Apparatus for Scalable Global View and Depth Generation for Large-scale Multi-view Videos
JP6679778B2 (en) Image coding device, image coding method and program, image decoding device, image decoding method and program
JP2006270405A (en) Device and method for processing video and computer program
KR102320315B1 (en) Method and Apparatus of Encoding Tile based on Region of Interest for Tiled Streaming
KR102499900B1 (en) Image processing device and image playing device for high resolution image streaming and operaing method of thereof
JP2005176068A (en) Motion image distribution system and method therefor

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130606

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141120

R150 Certificate of patent or registration of utility model

Ref document number: 5654414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees