JP2012231295A - Encoder, encoding method and program - Google Patents

Encoder, encoding method and program Download PDF

Info

Publication number
JP2012231295A
JP2012231295A JP2011098279A JP2011098279A JP2012231295A JP 2012231295 A JP2012231295 A JP 2012231295A JP 2011098279 A JP2011098279 A JP 2011098279A JP 2011098279 A JP2011098279 A JP 2011098279A JP 2012231295 A JP2012231295 A JP 2012231295A
Authority
JP
Japan
Prior art keywords
image data
encoding
header
encoder
combined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011098279A
Other languages
Japanese (ja)
Other versions
JP5967866B2 (en
JP2012231295A5 (en
Inventor
Hidekazu Tanaka
英一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011098279A priority Critical patent/JP5967866B2/en
Publication of JP2012231295A publication Critical patent/JP2012231295A/en
Publication of JP2012231295A5 publication Critical patent/JP2012231295A5/ja
Application granted granted Critical
Publication of JP5967866B2 publication Critical patent/JP5967866B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable encode processing to be executed in parallel by using a general encoder so as not to destroy a virtual decoder buffer.SOLUTION: Input image data is divided in picture units to separate it into the same number of image data as the number of encoders. Then, the separated plural image data respectively are encoded in plural encoders by intra-screen compression. After that, the plural image data which have respectively been encoded by the plural encoders are combined to generate combined image data, in which case a header containing frame_num information is detected from the combined image data thus combined on the basis of separation information, and frame_num of the detected header is corrected to generate final output image data. At this time, the level of a virtual buffer for the combined image data is also corrected to ensure that the virtual buffer will not be destroyed.

Description

本発明は符号化装置、符号化方法及びプログラムに関し、特に、複数の符号化器を用いて符号化処理を行うために用いて好適な技術に関する。   The present invention relates to an encoding device, an encoding method, and a program, and more particularly, to a technique suitable for use in performing an encoding process using a plurality of encoders.

MPEGやH.264に代表される動画圧縮技術では、動画像の時間的冗長性、あるいは空間的冗長性を利用してデータ量を削減して符号化している。ここで、時間的冗長性とは、圧縮対象である現画像(以下、現ピクチャ)に対する時間的に前あるいは後の画像との相似性のことであり、この相似性を利用して前後の画像との差分を符号化することによりデータ量を圧縮する。このように時間的冗長性を用いて符号化する方法は、一般に画面間予測符号化と呼ばれている。   MPEG and H.264 In the moving image compression technology represented by H.264, encoding is performed by reducing the amount of data using temporal redundancy or spatial redundancy of moving images. Here, temporal redundancy refers to the similarity of the current image to be compressed (hereinafter referred to as the current picture) with the previous or subsequent image in terms of time. The amount of data is compressed by encoding the difference between. Such a method of encoding using temporal redundancy is generally called inter-screen predictive encoding.

一方、空間的冗長性とは、1枚の自然画像内での冗長性のことであり、この冗長性を利用して圧縮する。また、MPEGよりも新しい技術であるH.264においては、現ピクチャ内での相似性をも利用して、より圧縮効率を高めている。このように空間的冗長性を用いて符号化する方法は、一般に画面内予測符号化と呼ばれている。   On the other hand, spatial redundancy is redundancy within one natural image, and compression is performed using this redundancy. Also, H.264, which is a newer technology than MPEG. In H.264, the compression efficiency is further increased by utilizing the similarity in the current picture. Such a method of encoding using spatial redundancy is generally called intra-screen predictive encoding.

画面間予測符号化では、画素間の差分を取るために元画像(参照画像)が必要であり、画面間予測符号化された画像のみでは復号できない。一方、画面内予測符号化では、画面内の画素間の差分を取るので画面内予測符号化された画像は単体で復号が可能である。   In inter-screen predictive coding, an original image (reference image) is necessary to obtain a difference between pixels, and it cannot be decoded only with an image that has undergone inter-screen predictive coding. On the other hand, in the intra prediction encoding, a difference between pixels in the screen is taken, so that an image subjected to intra prediction encoding can be decoded alone.

また、圧縮効率は、一般的に画面間予測符号化の方が高く、画面間予測符号化された画像は、次の画像の参照画像になる場合は即座に復号される。ところが、画面間予測符号化された画像を参照画像として順次使用することにより誤差が蓄積して画質が悪くなっていく傾向がある。そこで、符号化誤差の蓄積を防ぐために定期的に画面内予測符号化する画像を挿入しており、画面内予測符号化する画像の挿入単位は、一般的にGOP(Group of Pictures)と呼ばれている。このGOP単位は、圧縮効率を考慮し、ある程度の時間(0.5秒程度)以上に設定するのが一般的である。   In addition, the compression efficiency is generally higher in the inter-frame prediction encoding, and an image that has been inter-frame prediction encoded is immediately decoded when it becomes a reference image of the next image. However, there is a tendency that errors are accumulated and image quality is deteriorated by sequentially using images subjected to inter-picture prediction encoding as reference images. Therefore, in order to prevent the accumulation of coding errors, images to be subjected to intra prediction prediction are periodically inserted, and the insertion unit of images to be intra prediction prediction is generally called GOP (Group of Pictures). ing. This GOP unit is generally set to a certain time (about 0.5 seconds) or more in consideration of compression efficiency.

また、編集をしやすくしたり、前述したような誤差が蓄積される影響を抑えたりするために、GOP間での相関性を低く(あるいは相関性がないように)設定して符号化する場合が多い。そのため、処理スピードを向上させるために複数の符号化器を用いて並列処理を行う場合は、前後の相関性の低いGOP単位で行う。その際に問題となるのは、内部保持しなければならないデータ量及び並列処理で生成した圧縮データの接続方法である。これらの問題を解決するために、JPEGと同じように全て画面内予測符号化のみでエンコードするか、あるいは特許文献1に記載されているような方法がある。   Also, in order to make editing easier or to suppress the effects of the accumulation of errors as described above, encoding is performed with a low correlation (or no correlation) between GOPs. There are many. Therefore, when parallel processing is performed using a plurality of encoders in order to improve the processing speed, it is performed in units of GOP with low correlation before and after. At that time, the problem is the amount of data that must be retained internally and the method of connecting compressed data generated by parallel processing. In order to solve these problems, there is a method in which encoding is performed only by intra prediction encoding as in JPEG or as described in Patent Document 1.

特開2008−311824号公報JP 2008-31824 A

しかしながら、特許文献1に開示された従来技術では、H.264で規定されている仮想デコーダバッファを破綻させないよう並列処理するために、並列処理を前提とした特殊な符号化器を複数用いる必要がある。したがって、既存の符号化器を流用できず、コストが多く掛かってしまうという問題がある。   However, in the prior art disclosed in Patent Document 1, H.264 is used. In order to perform parallel processing so that the virtual decoder buffer defined in H.264 does not fail, it is necessary to use a plurality of special encoders based on parallel processing. Therefore, there is a problem that the existing encoder cannot be used and the cost is increased.

本発明は前述の問題点に鑑み、一般の符号化器を用いて仮想デコーダバッファを破綻させないように並列に符号化処理を行うことができるようにすることを目的としている。   In view of the above-described problems, an object of the present invention is to enable an encoding process to be performed in parallel using a general encoder so as not to cause a virtual decoder buffer to fail.

本発明の符号化装置は、入力画像データをピクチャ単位で分割して、複数の画像データに振り分ける振り分け手段と、前記振り分け手段によって振り分けられた複数の画像データをそれぞれ画面内符号化により符号化する複数の符号化手段と、前記複数の符号化手段によってそれぞれ符号化された複数の画像データを結合して結合画像データを生成する結合手段と、前記振り分け手段による振り分けに関する情報に基づいて、前記結合手段により結合される前の前記複数の画像データ、または前記結合画像データから所定のヘッダを検出するヘッダ検出手段と、前記ヘッダ検出手段によって検出された所定のヘッダを修正して前記結合画像データから出力画像データを生成するヘッダ修正手段とを有することを特徴とする。   An encoding apparatus according to the present invention divides input image data in units of pictures and distributes the image data to a plurality of image data, and encodes the plurality of image data distributed by the distribution unit by intra-screen encoding. A plurality of encoding means; a combining means for combining the plurality of image data encoded by the plurality of encoding means to generate combined image data; and the combination based on information relating to distribution by the distribution means The plurality of image data before being combined by the means, or a header detecting means for detecting a predetermined header from the combined image data, and correcting the predetermined header detected by the header detecting means and correcting the predetermined header from the combined image data Header correcting means for generating output image data.

本発明によれば、特殊な符号化器を使用しないようにして、仮想デコーダバッファを破綻させないように並列処理することができる。   According to the present invention, it is possible to perform parallel processing without using a special encoder and without destroying the virtual decoder buffer.

第1の実施形態に係る符号化装置の概略構成例を示すブロック図である。It is a block diagram which shows the schematic structural example of the encoding apparatus which concerns on 1st Embodiment. 第1の実施形態における符号化処理の動作の概要を説明する図である。It is a figure explaining the outline | summary of the operation | movement of the encoding process in 1st Embodiment. 第2の実施形態における符号化処理の動作の概要を説明する図である。It is a figure explaining the outline | summary of the operation | movement of the encoding process in 2nd Embodiment. 第3の実施形態における符号化処理の動作の概要を説明する図である。It is a figure explaining the outline | summary of the operation | movement of the encoding process in 3rd Embodiment. 第4の実施形態に係る符号化装置の概略構成例を示すブロック図である。It is a block diagram which shows the schematic structural example of the encoding apparatus which concerns on 4th Embodiment. H.264で規定されているレベルとストリームのバッファサイズとの関係を示す図である。H. 2 is a diagram illustrating a relationship between a level defined in H.264 and a buffer size of a stream. 第5の実施形態に係る符号化装置の概略構成例を示すブロック図である。It is a block diagram which shows the schematic structural example of the encoding apparatus which concerns on 5th Embodiment. 第5の実施形態における符号化処理の動作の概要を説明する図である。It is a figure explaining the outline | summary of the operation | movement of the encoding process in 5th Embodiment.

(第1の実施形態)
以下、図面を参照しながら、本発明の第1の実施形態による、複数の符号化器を並列に用いて符号化処理の性能を向上させる例について説明する。本実施形態では、2つの符号化器の並列動作について説明する。また、符号化方式はH.264に準拠したものであり、時間的に前後の画像とは独立して単独符号化できる画面内符号化を用いているものとする。
(First embodiment)
Hereinafter, an example of improving the performance of an encoding process using a plurality of encoders in parallel according to the first embodiment of the present invention will be described with reference to the drawings. In this embodiment, a parallel operation of two encoders will be described. The encoding method is H.264. It is based on H.264, and it is assumed that intra-screen coding that can be independently coded independently of previous and subsequent images is used.

図1は、本実施形態に係る符号化装置100の概略構成例を示すブロック図である。
図1において、入力端子101は、符号化ストリームの圧縮条件等を外部から指示する入力パラメータを入力する。符号化パラメータ設定部102は、入力端子101から入力された入力パラメータを設定する。
FIG. 1 is a block diagram illustrating a schematic configuration example of an encoding apparatus 100 according to the present embodiment.
In FIG. 1, an input terminal 101 inputs an input parameter that instructs the compression condition of the encoded stream from the outside. The encoding parameter setting unit 102 sets an input parameter input from the input terminal 101.

レート制御部103は、後述する第1の符号化器106及び第2の符号化器107の符号量を制御する。メモリ104は符号化対象となる入力画像データを格納するメモリである。画像振り分け部105は、メモリ104に格納された入力画像データをピクチャ単位で分割し、所定のタイミングで第1の符号化器106または第2の符号化器107に振り分けるためのものである。   The rate control unit 103 controls the code amounts of a first encoder 106 and a second encoder 107 described later. The memory 104 is a memory that stores input image data to be encoded. The image distribution unit 105 divides the input image data stored in the memory 104 in units of pictures and distributes the input image data to the first encoder 106 or the second encoder 107 at a predetermined timing.

符号化部108は、符号化ストリームを生成する複数の符号化器を備えており、本実施形態では、第1の符号化器106及び第2の符号化器107を備えている。ストリーム結合部109は、第1の符号化器106または第2の符号化器107から出力される2つのストリームを結合するためのものである。ヘッダ検出部110は、ストリーム結合部109により結合されたストリーム(結合画像データ)から所定のヘッダを検出するためのものである。ヘッダ修正部111は、検出したヘッダを所定の値に書き換えるためのものである。出力端子112は、最終的に得られる合成ストリーム(出力画像データ)を外部に出力するためのものである。   The encoding unit 108 includes a plurality of encoders that generate an encoded stream. In the present embodiment, the encoding unit 108 includes a first encoder 106 and a second encoder 107. The stream combining unit 109 is for combining two streams output from the first encoder 106 or the second encoder 107. The header detection unit 110 is for detecting a predetermined header from the stream (combined image data) combined by the stream combining unit 109. The header correction unit 111 is for rewriting the detected header to a predetermined value. The output terminal 112 is for outputting the finally obtained composite stream (output image data) to the outside.

図2は、本実施形態における符号化処理の動作の概要を説明する図である。
図2に示す入力動画像200は、横軸を時間軸としてピクチャ単位で表現されており、ダミーピクチャ201が入力動画像200の先頭に付加されている。ストリーム202は、第1の符号化器106の符号化処理によって生成されるストリームを示している。また、ストリーム203は、第2の符号化器107の符号化処理によって生成されるストリームを示している。ダミーピクチャ204は、ダミーピクチャ201が第2の符号化器107において符号化された符号化ピクチャである。合成ストリーム205は、生成されたストリーム202、203を合成したものである。
FIG. 2 is a diagram for explaining the outline of the operation of the encoding process in the present embodiment.
An input moving image 200 shown in FIG. 2 is expressed in units of pictures with the horizontal axis as a time axis, and a dummy picture 201 is added to the head of the input moving image 200. A stream 202 indicates a stream generated by the encoding process of the first encoder 106. A stream 203 indicates a stream generated by the encoding process of the second encoder 107. The dummy picture 204 is an encoded picture in which the dummy picture 201 is encoded by the second encoder 107. A combined stream 205 is a combination of the generated streams 202 and 203.

次に、図1を参照しながら、本実施形態における処理の流れを説明する。
最初に、合成ストリームの生成条件となる入力パラメータが入力端子101から入力される。ここで、入力パラメータとは、具体的には、画像サイズやターゲットとするビットレートの設定といった、外部から指示する必要があるパラメータのことである。この入力パラメータは、符号化処理を開始する時に設定される。例えばカメラ等で使用する場合、カメラの撮影モードや記録メディアの性能に応じて入力パラメータが変更される。
Next, the flow of processing in this embodiment will be described with reference to FIG.
First, an input parameter serving as a composite stream generation condition is input from the input terminal 101. Here, the input parameters are specifically parameters that need to be instructed from the outside, such as setting the image size and the target bit rate. This input parameter is set when the encoding process is started. For example, when used with a camera or the like, the input parameters are changed according to the shooting mode of the camera and the performance of the recording medium.

次に、符号化パラメータ設定部102は、入力パラメータの指示内容を符号化部108内の第1の符号化器106及び第2の符号化器107へ設定できる形式に変換して伝送する。また、入力パラメータのうち、最終的なターゲットビットレートに関してはレート制御部103へ設定する。   Next, the encoding parameter setting unit 102 converts the instruction content of the input parameter into a format that can be set to the first encoder 106 and the second encoder 107 in the encoding unit 108 and transmits the converted format. Of the input parameters, the final target bit rate is set in the rate control unit 103.

前述した手順により符号化するための設定が完了すると、メモリ104に格納された入力画像データが画像振り分け部105へ入力される。画像振り分け部105は、入力された入力画像データをピクチャ単位で1枚毎交互に第1の符号化器106と第2の符号化器107とへ振り分けて出力する。また、画像振り分け部105は、どのように入力画像データを振り分けたかを示す情報をヘッダ検出部110へ送る。この振り分けに関する情報は、例えば各ピクチャを第1の符号化器106及び第2の符号化器107のどちらに振り分けたかを示す情報である。   When the setting for encoding is completed by the above-described procedure, the input image data stored in the memory 104 is input to the image distribution unit 105. The image distribution unit 105 distributes the input image data that has been input to the first encoder 106 and the second encoder 107 alternately for each picture, and outputs the result. Further, the image distribution unit 105 sends information indicating how the input image data has been distributed to the header detection unit 110. The information relating to the distribution is information indicating, for example, which of the first encoder 106 and the second encoder 107 each picture is allocated to.

第1の符号化器106及び第2の符号化器107には、それぞれ時間的に1枚ずつピクチャが飛ばされたデータが入力される。第1の符号化器106及び第2の符号化器107では、それらのデータを連続した動画像と認識して符号化パラメータに従って画面内符号化処理を行う。なお、第1の符号化器106及び第2の符号化器107は、並列処理するために特別な構成を備えている必要はなく、それぞれの出力は、単独でもH.264に準拠するものとする。   The first encoder 106 and the second encoder 107 are input with data in which pictures are skipped one by one in time. The first encoder 106 and the second encoder 107 recognize these data as continuous moving images and perform intra-screen encoding processing according to the encoding parameters. Note that the first encoder 106 and the second encoder 107 do not need to have a special configuration for parallel processing, and each output is independent of H.264. H.264.

ストリーム結合部109は、符号化部108から出力された2つの符号化ストリームをピクチャ単位で1枚毎交互に結合して1つのストリームに結合する。なお、本実施形態では、画面内符号化のみを用いているため、ストリームの結合順序は入力順序と同じである。そして、ストリーム結合部109は、結合したストリームのビット量の情報をレート制御部103へ送る。レート制御部103は、入力パラメータで指示されたターゲットビットレートと実際に生成したビット量とから、第1の符号化器106及び第2の符号化器107を制御し、所望のビットレートに近づくようにする。   The stream combining unit 109 combines the two encoded streams output from the encoding unit 108 alternately in units of pictures and combines them into one stream. In this embodiment, since only intra-picture encoding is used, the stream combination order is the same as the input order. Then, the stream combining unit 109 sends information on the bit amount of the combined stream to the rate control unit 103. The rate control unit 103 controls the first encoder 106 and the second encoder 107 from the target bit rate specified by the input parameter and the actually generated bit amount, and approaches the desired bit rate. Like that.

なお、この段階の結合ストリームは単純に結合されただけなので、このままではH.264の規格を満たすものとなっていない。そこで本実施形態では、ヘッダ検出部110は、ストリーム結合部109にて結合された結合ストリーム内の所定のヘッダの位置を画像の振り分け情報に基づいて検出する。本実施形態では結合後のストリームに対してヘッダを検出しているが、結合前のそれぞれのストリームに対して行ってもよい。ヘッダ検出部110で検出されたヘッダ情報は、結合ストリームとともにヘッダ修正部111へ送られ、ヘッダ修正部111は特定のヘッダ部分を書き換える。ヘッダ修正部111は、結合することによって矛盾が生じている結合ストリーム内部のヘッダ情報を修正することにより、H.264に準拠した合成ストリームを生成する。   Note that the combined stream at this stage is simply combined. H.264 standard is not satisfied. Therefore, in the present embodiment, the header detection unit 110 detects the position of a predetermined header in the combined stream combined by the stream combining unit 109 based on the image distribution information. In this embodiment, the header is detected for the stream after combining, but it may be performed for each stream before combining. The header information detected by the header detection unit 110 is sent to the header correction unit 111 together with the combined stream, and the header correction unit 111 rewrites a specific header part. The header correction unit 111 corrects the header information in the combined stream in which a contradiction has occurred due to the combination, so H.264 is generated.

次に、図2を参照しながら詳細な動作を説明する。
まず、画像振り分け部105は、メモリ104に格納されている入力動画像の先頭にダミーピクチャ201を付加して図2に示す入力動画像200を生成する。そして、画像振り分け部105は、図2に示すように、偶数番号のピクチャを第1の符号化器106へ振り分け、奇数番号のピクチャを第2の符号化器107へ振り分ける。
Next, a detailed operation will be described with reference to FIG.
First, the image distribution unit 105 adds the dummy picture 201 to the head of the input moving image stored in the memory 104 to generate the input moving image 200 shown in FIG. Then, the image distribution unit 105 distributes even-numbered pictures to the first encoder 106 and distributes odd-numbered pictures to the second encoder 107 as shown in FIG.

各々のピクチャは、第1の符号化器106及び第2の符号化器107にて符号化されることになるが、図2に示すように、並列処理しているため、入力画像に対して処理時間は2倍確保できる。つまり、所望のピクチャレートよりも半分程度の処理能力しかもたない符号化器を用いても、所望のピクチャレートで符号化を実現することができる。   Each picture is encoded by the first encoder 106 and the second encoder 107, but since it is processed in parallel as shown in FIG. Double the processing time. That is, even with an encoder that has about half the processing capability of the desired picture rate, encoding can be realized at the desired picture rate.

H.264では、符号化する際に、必ず先頭にIDR(Instantaneous Decoding Refresh)ピクチャ(以下、IDR)という特別なピクチャを必要とする。このIDRは、画面内符号化においてIピクチャの中でも特別なピクチャであり、ほとんど全ての符号化器で処理するピクチャは先頭がIDRとなる。   H. In H.264, a special picture called an IDR (Instantaneous Decoding Refresh) picture (hereinafter referred to as IDR) is always required at the beginning of encoding. This IDR is a special picture among the I pictures in the intra-picture encoding, and the head of the picture processed by almost all the encoders is the IDR.

また、IDRは、ストリームの途中でも任意の位置に出現させることが可能であり、IDR同士の識別子がヘッダに付加されている。1つの符号化器内にIDRが出現するような場合は、必ず識別子が異なるように識別子が付加されるが、複数の符号化器を用いる場合は、識別子が重なってしまう可能性がある。なお、片方の符号化器でIDRを使用しない設定とした場合でも先頭には必ずIDRを入れなければならないので、その時点で識別子が重なってしまう可能性がある。この結果、2つのストリームをそのまま結合してしまうと、識別子が重複してしまう可能性がある。   The IDR can appear at an arbitrary position even in the middle of the stream, and an identifier between IDRs is added to the header. When an IDR appears in one encoder, identifiers are always added so that the identifiers are different. However, when a plurality of encoders are used, identifiers may overlap. Note that even if the setting is made so that the IDR is not used in one encoder, the IDR must be put at the head, so that identifiers may overlap at that time. As a result, if two streams are combined as they are, identifiers may be duplicated.

そこで、ストリーム結合部109でストリームを結合した後に、ヘッダ修正部111にて識別子を強制的に変更する手法も考えられる。ところが、H.264では、IDRの識別子に対しては、ゴロム符号化という前後のデータにより符号長が変わってしまう可変長符号化が施されているため、符号化後に識別子を修正することは非常に困難である。   Therefore, a method of forcibly changing the identifier in the header correcting unit 111 after combining the streams in the stream combining unit 109 is also conceivable. However, H.C. In H.264, IDR identifiers are subjected to variable-length coding in which the code length changes depending on the data before and after Golomb coding. Therefore, it is very difficult to correct the identifier after coding. .

そこで本実施形態では、画像振り分け部105は、図2に示すように、予め先頭に入力データではないダミーピクチャ201を付加する。そして、第1の符号化器106又は第2の符号化器107は、先頭のダミーピクチャを画面内符号化により符号化するものの、符号化後のダミーピクチャ204をストリーム結合部109によって結合されるストリームに含めないように制御する。このようにすることによって、修正が困難なIDRの識別子を取得することを不要にする。図2に示すように、合成ストリーム205内のデータの並びでは、先頭のダミーピクチャ204はダミーデータなので含まれていない。   Therefore, in this embodiment, as shown in FIG. 2, the image sorting unit 105 adds a dummy picture 201 that is not input data to the head in advance. Then, the first encoder 106 or the second encoder 107 encodes the leading dummy picture by intra-screen encoding, but the encoded dummy picture 204 is combined by the stream combining unit 109. Control not to include in the stream. In this way, it is not necessary to acquire IDR identifiers that are difficult to modify. As shown in FIG. 2, in the data sequence in the composite stream 205, the leading dummy picture 204 is not included because it is dummy data.

また、本実施形態では、第1の符号化器106が行う画面内符号化のピクチャは全てIDRとし、第2の符号化器107が行う画面内符号化のピクチャは先頭以外すべてIピクチャとしている。IDRとIピクチャとの相違点は、前述した識別子だけでなく、ピクチャ内のヘッダに書かれるframe_numというピクチャの番号を示すパラメータもある。H.264においては、frame_numはIピクチャでカウントアップされ、IDRがくるとリセットしなければならないと規定されている。   Further, in this embodiment, all the pictures of intra-frame coding performed by the first encoder 106 are IDR, and all the pictures of intra-frame coding performed by the second encoder 107 are I pictures other than the head. . The difference between the IDR and the I picture is not only the identifier described above, but also a parameter indicating the picture number called frame_num written in the header in the picture. H. H.264 stipulates that frame_num is counted up with an I picture and must be reset when an IDR is received.

このように、第1の符号化器106から出力される全てのIDR内のヘッダのframe_numは0である。これに対して第2の符号化器107から出力される先頭以外の全てのIピクチャ内のヘッダのframe_numは、先頭以外にIDRが存在しないため、0からカウントアップされている。したがって、ストリーム結合部109にてストリームを結合した段階では、Iピクチャ間にIDRが存在しているにも関わらずframe_numがカウントアップしており、エラーストリームの状態となる。   Thus, the frame_num of the headers in all IDRs output from the first encoder 106 is 0. On the other hand, the frame_num of the header in all I pictures other than the head output from the second encoder 107 is counted up from 0 because there is no IDR other than the head. Therefore, at the stage where streams are combined by the stream combining unit 109, frame_num is counted up despite the presence of IDR between I pictures, resulting in an error stream state.

そこで、本実施形態では、ストリーム結合部109で2つのストリームを結合した後に、ヘッダ検出部110でframe_numを含んでいるヘッダを検出する。その際、IDRのframe_numは常に0なので検出する必要はなく、画像振り分け部105から出力された情報を用いて第2の符号化器107で生成されたIピクチャのframe_numを含むヘッダを検出するように動作する。   Therefore, in the present embodiment, after the two streams are combined by the stream combination unit 109, the header detection unit 110 detects the header including frame_num. At this time, since the frame_num of the IDR is always 0, there is no need to detect it, and the header including the frame_num of the I picture generated by the second encoder 107 is detected using the information output from the image sorting unit 105. To work.

そして、ヘッダ検出部110は検出したヘッダ情報をヘッダ修正部111へ送り、ヘッダ修正部111は、合成ストリーム中のIピクチャのframe_numの値を修正する。前述したように、IDRのframe_numは0であり、図2の合成ストリーム205に示すように、IピクチャとIDRとが入れ子状態になっているため、Iピクチャのframe_numは全て0に修正される。このように、Iピクチャのframe_numの値を変更して整合を取るためにカウンタを持つ必要がなく、常に0に置き換えるだけでよい。なお、frame_numはゴロム符号化されておらず、0に置き換えることによる不都合は発生しない。   Then, the header detection unit 110 sends the detected header information to the header correction unit 111, and the header correction unit 111 corrects the value of frame_num of the I picture in the composite stream. As described above, the frame_num of IDR is 0, and the I_frame and IDR are nested as shown in the composite stream 205 in FIG. In this way, it is not necessary to have a counter in order to change the value of frame_num of the I picture to achieve matching, and it is only necessary to always replace it with 0. Note that frame_num is not Golomb encoded, and there is no inconvenience caused by replacing it with 0.

また、H.264に準拠した合成ストリームを得るためには、仮想デコーダに内蔵されているストリームバッファ(仮想バッファ)を管理する必要がある。このストリームバッファはストリームを生成するレベルによって規定されているものであり、図6に示すようにレベルによって異なっている。なお、このストリームバッファの容量は、さらに他の条件によって変化するが、各レベル同士の比率は常に一定である。本実施形態においては、ストリームバッファの容量が他の条件により変化しても処理自体は影響ないため、他の条件による容量の変化に関する詳細な説明は省略する。   H. In order to obtain a composite stream compliant with H.264, it is necessary to manage a stream buffer (virtual buffer) built in the virtual decoder. This stream buffer is defined by the level at which the stream is generated, and differs depending on the level as shown in FIG. Note that the capacity of the stream buffer varies depending on other conditions, but the ratio between the levels is always constant. In the present embodiment, even if the capacity of the stream buffer changes due to other conditions, the processing itself is not affected. Therefore, a detailed description of the capacity change due to other conditions is omitted.

本実施形態の第1の符号化器106及び第2の符号化器107は、一般的な符号化器と同様に、あるレベルを設定すると、そのレベルで規定されているストリームバッファを破綻させないようにストリームを生成する。例えば、どちらの符号化器もレベル4でストリームを生成する場合、図6に示すようにバッファのサイズは25000となる。   As with a general encoder, the first encoder 106 and the second encoder 107 of the present embodiment, when a certain level is set, do not break down the stream buffer defined by that level. Create a stream on For example, when both encoders generate a stream at level 4, the buffer size is 25000 as shown in FIG.

しかしながら、それぞれ生成するストリームはレベル4を満たしていたとしても、合成後のストリームは2つのストリームを合体したものであるため、規格を満たさなくなる場合がある。つまり、2つのストリームを1つ合成にした時点で、ストリームバッファの必要量が2倍になる可能性がある。そこで、ヘッダ検出部110は、レベルを指定しているヘッダを検出し、ヘッダ修正部111は、合成ストリームのストリームバッファをストリームバッファが破綻しないレベルへと書き換える。   However, even if each generated stream satisfies level 4, the combined stream is a combination of the two streams, and may not satisfy the standard. That is, when two streams are combined into one, the required amount of stream buffer may be doubled. Therefore, the header detection unit 110 detects the header specifying the level, and the header correction unit 111 rewrites the stream buffer of the combined stream to a level at which the stream buffer does not fail.

例えば、レベル4で生成したストリーム同士を合成する場合、ストリームバッファを2倍以上持つレベル4.1以上に書き換える。なお、レベルの情報に関してもゴロム符号化されていないので、書き換えによる不都合は発生しない。図6に示したレベルの例では、ストリームバッファについて説明したが、レベルはストリームバッファだけでなく、ピクチャレートも規定されている。ピクチャレートについてもストリームバッファと同様に合成ストリームが2倍のレートが必要となるので、それを満たすようなレベルへと変更する必要がある。   For example, when streams generated at level 4 are combined, they are rewritten to level 4.1 or higher having a stream buffer twice or more. Since the level information is not Golomb encoded, there is no inconvenience due to rewriting. In the example of the level shown in FIG. 6, the stream buffer has been described. However, the level defines not only the stream buffer but also the picture rate. The picture rate also needs to be changed to a level that satisfies the double rate of the composite stream, as with the stream buffer.

以上のように本実施形態によれば、特殊な符号化器を用意することなく符号化処理の並列化が可能となる。   As described above, according to the present embodiment, it is possible to parallelize encoding processes without preparing a special encoder.

(第2の実施形態)
以下、図3を参照しながら本発明の第2の実施形態について説明する。なお、本実施形態に係る符号化装置の構成については、第1の実施形態と同様であるため、説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to FIG. Note that the configuration of the encoding apparatus according to the present embodiment is the same as that of the first embodiment, and a description thereof will be omitted.

図3は、本実施形態における符号化処理の動作の概要を説明する図である。なお、図2と同様のものについては同一の符号を付している。
図3におけるストリーム300は、第1の符号化器106の符号化処理により生成されるストリームを示している。また、合成ストリーム301は、第1の符号化器106で生成されたストリーム300と、第2の符号化器107で生成されたストリーム203とを合成したストリームである。
FIG. 3 is a diagram for explaining the outline of the operation of the encoding process in the present embodiment. In addition, the same code | symbol is attached | subjected about the thing similar to FIG.
A stream 300 in FIG. 3 indicates a stream generated by the encoding process of the first encoder 106. The combined stream 301 is a stream obtained by combining the stream 300 generated by the first encoder 106 and the stream 203 generated by the second encoder 107.

本実施形態において、第1の符号化器106では、第2の符号化器107と同様に、入力画像の先頭ピクチャのみIDRとし、以降のピクチャはIピクチャとして符号化する。なお、合成の手順は第1の実施形態と同様である。その結果、合成ストリーム301は、先頭のみIDRという形式となる。   In the present embodiment, as in the second encoder 107, the first encoder 106 encodes only the first picture of the input image as IDR and the subsequent pictures as I pictures. The synthesis procedure is the same as that in the first embodiment. As a result, the composite stream 301 has a format of IDR only at the head.

また、第1の符号化器106及び第2の符号化器107においてそれぞれ個別にframe_numがインクリメントされる。したがって、合成ストリーム301は同じframe_numを持つピクチャが存在することとなり、エラーストリームの状態となる。   Also, frame_num is incremented individually in the first encoder 106 and the second encoder 107. Therefore, the composite stream 301 has a picture having the same frame_num, and is in an error stream state.

本実施形態によれば、図3に示すように、I4とI5、I6とI7、I8とI9のように偶数番号から始まるピクチャと次の奇数番のピクチャのframe_numが一致することになる。第1の実施形態では、1ピクチャおきにIDRピクチャとなるので、Iピクチャのframe_numの値を0にすればよいが、この場合はIDRピクチャは先頭のみなので、frame_numの値を0にするとエラーストリームとなってしまう。   According to the present embodiment, as shown in FIG. 3, the frame_num of the picture starting from the even number and the next odd-numbered picture, such as I4 and I5, I6 and I7, and I8 and I9, coincide. In the first embodiment, every other picture becomes an IDR picture, so the value of frame_num of the I picture only needs to be 0. In this case, since the IDR picture is only the top, if the value of frame_num is 0, the error stream End up.

そこで本実施形態では、ヘッダ修正部111にカウンタ機能を持たせて、合成ストリーム301のframe_numの値を、エンコード順にインクリメントさせた値に修正する。以上により、特殊な符号化器を用意することなく符号化処理の並列化が可能となる。   Therefore, in the present embodiment, the header correction unit 111 is provided with a counter function to correct the frame_num value of the composite stream 301 to a value incremented in the encoding order. As described above, it is possible to parallelize the encoding process without preparing a special encoder.

(第3の実施形態)
以下、図4を参照しながら本発明の第3の実施形態について説明する。なお、本実施形態に係る符号化装置の構成については、第1の実施形態と同様であるため、説明は省略する。
(Third embodiment)
The third embodiment of the present invention will be described below with reference to FIG. Note that the configuration of the encoding apparatus according to the present embodiment is the same as that of the first embodiment, and a description thereof will be omitted.

図4は、本実施形態における符号化処理の動作の概要を説明する図である。なお、図2と同様のものについては同一の符号を付している。
図4において、動画像400は、横軸を時間軸としてピクチャ単位で表現されている。本実施形態では、動画像400の先頭ピクチャ401はダミーピクチャではなく、ダミーピクチャが先頭に付加されていない。
FIG. 4 is a diagram for explaining the outline of the operation of the encoding process in the present embodiment. In addition, the same code | symbol is attached | subjected about the thing similar to FIG.
In FIG. 4, a moving image 400 is expressed in units of pictures with the horizontal axis as a time axis. In the present embodiment, the leading picture 401 of the moving image 400 is not a dummy picture, and no dummy picture is added to the beginning.

ストリーム402は、第2の符号化器107の符号化処理により生成されるストリームを示している。符号化ピクチャ403は、第2の符号化器107において符号化された先頭のピクチャである。また、合成ストリーム404は、第1の符号化器106で生成されたストリーム202と第2の符号化器107で生成されたストリーム402とを合成したストリームである。   A stream 402 indicates a stream generated by the encoding process of the second encoder 107. An encoded picture 403 is a leading picture encoded by the second encoder 107. The combined stream 404 is a stream obtained by combining the stream 202 generated by the first encoder 106 and the stream 402 generated by the second encoder 107.

本実施形態では、図4に示すように、第1の符号化器106及び第2の符号化器107のどちらも入力画像を全てIDRピクチャとして符号化する。また、第1及び第2の実施形態と異なり、前述したように入力画像の先頭ピクチャ401はダミーピクチャである必要はない。したがって、合成ストリーム404は、入力画像の先頭ピクチャ401を含んだ全ての符号化ピクチャによって構成される。   In the present embodiment, as shown in FIG. 4, both the first encoder 106 and the second encoder 107 encode all input images as IDR pictures. Further, unlike the first and second embodiments, the first picture 401 of the input image does not have to be a dummy picture as described above. Therefore, the composite stream 404 is composed of all encoded pictures including the first picture 401 of the input image.

ここで、合成ストリーム404の全てのIDRピクチャのヘッダには識別IDが付加されている。前述したように、識別IDは、第1及び第2の実施形態で修正したframe_numとは異なり、可変長符号化方式であるゴロム符号化がなされている。同じ識別IDを持つIDRピクチャが同一ストリーム内に存在すると、H.264の規格に違反することになり、さらに識別IDが可変長符号化されているので修正は困難である。   Here, identification IDs are added to the headers of all IDR pictures of the composite stream 404. As described above, unlike the frame_num modified in the first and second embodiments, the identification ID is subjected to Golomb coding, which is a variable-length coding scheme. If IDR pictures having the same identification ID exist in the same stream, This violates the H.264 standard and is difficult to correct because the identification ID is variable-length encoded.

そこで本実施形態では、符号化パラメータ設定部102から与えられる入力パラメータに従って、第1の符号化器106及び第2の符号化器107にIDRピクチャの識別IDを設定する。この場合、入力パラメータには識別IDの振り分け情報が含まれるようにする。   Therefore, in this embodiment, IDR picture identification IDs are set in the first encoder 106 and the second encoder 107 in accordance with the input parameters given from the encoding parameter setting unit 102. In this case, the input parameter includes identification ID distribution information.

また、識別IDの値自体はH.264で規定されているものではない。このため、任意の識別IDをIDRに付加した場合でも、第1の符号化器106及び第2の符号化器107が出力するそれぞれのストリームは、第1及び第2の実施形態と同様に、H.264に準拠するようになる。なお、frame_numに関しては、IDRのframe_numは常に0であることが規定されているので、変更する必要はない。また、本実施形態の場合は、結合ストリームで修正するヘッダは、レベルの部分のみでよい。以上のように本実施形態によれば、特殊な符号化器を用意することなく符号化処理の並列化が可能となる。   The value of the identification ID itself is H.264. It is not specified by H.264. Therefore, even when an arbitrary identification ID is added to the IDR, the respective streams output from the first encoder 106 and the second encoder 107 are the same as in the first and second embodiments. H. H.264. Regarding frame_num, it is specified that frame_num of IDR is always 0, so there is no need to change it. In the case of this embodiment, the header to be corrected by the combined stream may be only the level portion. As described above, according to the present embodiment, it is possible to parallelize encoding processes without preparing a special encoder.

(第4の実施形態)
以下、図5及び図6を参照しながら本発明の第4の実施形態について説明する。
図5は、本実施形態に係る符号化装置500の概略構成例を示すブロック図である。なお、図1と同様の構成については、同一の番号を付しており、その説明は省略する。
図5において、符号化部503を構成する第1の符号化器501及び第2の符号化器502は、ストリームバッファを制御する機能を備えている。また、本実施形態に係る符号化装置500は、レート制御部が不要である点で、第1〜第3の実施形態と異なる。
(Fourth embodiment)
The fourth embodiment of the present invention will be described below with reference to FIGS.
FIG. 5 is a block diagram illustrating a schematic configuration example of the encoding apparatus 500 according to the present embodiment. In addition, about the structure similar to FIG. 1, the same number is attached | subjected and the description is abbreviate | omitted.
In FIG. 5, the first encoder 501 and the second encoder 502 constituting the encoding unit 503 have a function of controlling the stream buffer. The encoding apparatus 500 according to the present embodiment is different from the first to third embodiments in that a rate control unit is unnecessary.

第1〜第3の実施形態と同様に、合成ストリームを生成する際は、ストリームバッファを破綻させる可能性を考慮する必要がある。そのため、第1の符号化器及び第2の符号化器に設定するレベルに対して制限が出てくる。例えば、最終結果である合成ストリームをレベル4.1にしたい場合、図6に示すように、第1の符号化器及び第2の符号化器に設定する最高値はレベル4である。   Similar to the first to third embodiments, when generating a composite stream, it is necessary to consider the possibility of the stream buffer failing. Therefore, there is a limit to the level set for the first encoder and the second encoder. For example, when the final result composite stream is to be set to level 4.1, the maximum value set in the first encoder and the second encoder is level 4 as shown in FIG.

しかしながら、実際にはレベル4.1ではストリームバッファの容量を62500まで許容している。一方、第1の符号化器及び第2の符号化器は、その半分の31250までバッファを使用できるが、レベル4ではストリームバッファの容量は25000である。このように2つの符号化器を足しても50000までしか使用しないことになり、効率上ロスが発生する。   However, in practice, level 4.1 allows a stream buffer capacity of up to 62500. On the other hand, the first encoder and the second encoder can use a buffer up to half of 31250, but at level 4, the capacity of the stream buffer is 25000. Thus, even if two encoders are added, only 50,000 are used, and a loss occurs in efficiency.

そこで本実施形態では、符号化パラメータ設定部102は、入力パラメータに従って第1の符号化器501及び第2の符号化器502のストリームバッファの容量を設定する。例えば、上述したように合成ストリームをレベル4.1にしたい場合、本実施形態では、第1の符号化器501及び第2の符号化器502にもレベル4.1と設定する。そして、第1の符号化器501及び第2の符号化器502では、使用するストリームバッファの容量を、62500の半分である31250に設定する。   Therefore, in this embodiment, the encoding parameter setting unit 102 sets the capacity of the stream buffers of the first encoder 501 and the second encoder 502 according to the input parameters. For example, as described above, when the composite stream is to be set to level 4.1, in this embodiment, the first encoder 501 and the second encoder 502 are also set to level 4.1. In the first encoder 501 and the second encoder 502, the capacity of the stream buffer to be used is set to 31250 which is half of 62500.

この結果、レベル4.1にて規定される最大値の62500までストリームバッファを使用することが可能となり、レベル4.1を満たす合成ストリームを生成することができる。さらに、第1の符号化器501及び第2の符号化器502で生成されたストリームバッファのレベルは4.1となっているので、ヘッダ修正部111は、合成ストリームに関してレベルを修正する必要がなくなる。また、それ以外については第1〜第3の実施形態と同様である。以上のように本実施形態によれば、特殊な符号化器を用意することなく符号化処理の並列化が可能となる。   As a result, the stream buffer can be used up to the maximum value 62500 defined in level 4.1, and a combined stream satisfying level 4.1 can be generated. Furthermore, since the level of the stream buffer generated by the first encoder 501 and the second encoder 502 is 4.1, the header correction unit 111 needs to correct the level for the combined stream. Disappear. Other than that, it is the same as the first to third embodiments. As described above, according to the present embodiment, it is possible to parallelize encoding processes without preparing a special encoder.

(第5の実施形態)
以下、図7及び図8を参照しながら本発明の第5の実施形態について説明する。
図7は、本実施形態に係る符号化装置700の概略構成例を示すブロック図である。なお、図1と同様の構成については、同一の番号を付しており、その説明は省略する。
図7において、符号化部701は、並列処理するためのn個の符号化器から構成されている。
(Fifth embodiment)
The fifth embodiment of the present invention will be described below with reference to FIGS.
FIG. 7 is a block diagram illustrating a schematic configuration example of the encoding apparatus 700 according to the present embodiment. In addition, about the structure similar to FIG. 1, the same number is attached | subjected and the description is abbreviate | omitted.
In FIG. 7, an encoding unit 701 is composed of n encoders for parallel processing.

図8は、本実施形態における符号化処理の動作の概要を説明する図である。
図8における入力動画像800は、横軸を時間軸としてピクチャ単位で表現されており、n−1個のダミーピクチャ801が入力動画像800の先頭に付加されている。ストリーム802は、第1の符号化器における符号化処理によって生成されるストリームを示している。ダミーピクチャ803は、入力動画像800の1番目のダミーピクチャが第2の符号化器において符号化された結果として先頭に位置する符号化ピクチャである。ダミーピクチャ804は、入力動画像800の2番目のダミーピクチャが第3の符号化器において符号化された結果として先頭に位置する符号化ピクチャである。さらに、ダミーピクチャ805は、入力動画像800のn−1番目のダミーピクチャが第nの符号化器において符号化された結果として先頭に位置する符号化ピクチャである。合成ストリーム806は、各符号化器で生成された全てのストリームを合成したストリームである。
FIG. 8 is a diagram for explaining the outline of the operation of the encoding process in the present embodiment.
The input moving image 800 in FIG. 8 is expressed in units of pictures with the horizontal axis as a time axis, and n−1 dummy pictures 801 are added to the head of the input moving image 800. A stream 802 indicates a stream generated by the encoding process in the first encoder. The dummy picture 803 is an encoded picture that is positioned at the head as a result of the first dummy picture of the input moving image 800 being encoded by the second encoder. The dummy picture 804 is an encoded picture that is positioned at the head as a result of encoding the second dummy picture of the input moving image 800 by the third encoder. Furthermore, the dummy picture 805 is an encoded picture that is positioned at the head as a result of the n−1th dummy picture of the input moving image 800 being encoded by the nth encoder. The combined stream 806 is a stream obtained by combining all the streams generated by each encoder.

以下、図8を参照しながら詳細な動作を説明する。なお、基本的な処理手順は第1の実施形態と同様である。
本実施形態では、画像振り分け部105が入力画像に付加するダミーピクチャの個数は並列処理する符号化器の数より1少ない数となる。これにより、第1の符号化器は、ダミーピクチャではないn番目のピクチャから処理することとなる。第1の実施形態では、2並列なので処理時間を1/2に短縮できるが、本実施形態では、処理時間を1/nに短縮できることになる。
The detailed operation will be described below with reference to FIG. The basic processing procedure is the same as in the first embodiment.
In the present embodiment, the number of dummy pictures added to the input image by the image sorting unit 105 is one less than the number of encoders to be processed in parallel. As a result, the first encoder processes from the nth picture that is not a dummy picture. In the first embodiment, the processing time can be shortened to ½ because of two parallel processing, but in this embodiment, the processing time can be shortened to 1 / n.

そして、第2〜第nの符号化器では、ダミーピクチャから符号化処理を開始する。この結果、各符号化器で符号化処理されたダミーピクチャは、不必要なものであるため、結合する際に取り除かれ、n番目のピクチャから始まる合成ストリーム806が生成される。   The second to nth encoders start the encoding process from the dummy picture. As a result, since the dummy picture encoded by each encoder is unnecessary, it is removed when combining, and a composite stream 806 starting from the nth picture is generated.

以上のように本実施形態によれば、n個の並列処理を行う場合でも適用可能である。また、本実施形態では、第1の実施形態と同様の処理をn個の並列処理により行う例について説明したが、第2〜第4の実施形態で説明した処理でも同様に適用できる。   As described above, according to this embodiment, the present invention can be applied even when n parallel processes are performed. In the present embodiment, an example in which the same processing as that of the first embodiment is performed by n parallel processes has been described, but the processing described in the second to fourth embodiments can be similarly applied.

(その他の実施形態)
上述した全ての実施形態において画像の単位をピクチャと表現しているが、このピクチャという単位は、プログレッシブ動画におけるフレーム、インターレース動画におけるフィールドのどちらにも適用可能である。
(Other embodiments)
In all the embodiments described above, the unit of an image is expressed as a picture, but this unit of picture is applicable to both a frame in a progressive video and a field in an interlaced video.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

105 画像振り分け部
106 第1の符号化器
107 第2の符号化器
109 ストリーム結合部
110 ヘッダ検出部
111 ヘッダ修正部
105 Image Sorting Unit 106 First Encoder 107 Second Encoder 109 Stream Combining Unit 110 Header Detection Unit 111 Header Correction Unit

Claims (10)

入力画像データをピクチャ単位で分割して、複数の画像データに振り分ける振り分け手段と、
前記振り分け手段によって振り分けられた複数の画像データをそれぞれ画面内符号化により符号化する複数の符号化手段と、
前記複数の符号化手段によってそれぞれ符号化された複数の画像データを結合して結合画像データを生成する結合手段と、
前記振り分け手段による振り分けに関する情報に基づいて、前記結合手段により結合される前の前記複数の画像データ、または前記結合画像データから所定のヘッダを検出するヘッダ検出手段と、
前記ヘッダ検出手段によって検出された所定のヘッダを修正して前記結合画像データから出力画像データを生成するヘッダ修正手段とを有することを特徴とする符号化装置。
A distribution unit that divides input image data in units of pictures and distributes the input image data to a plurality of image data;
A plurality of encoding means for encoding each of the plurality of image data distributed by the distribution means by intra-screen encoding;
Combining means for combining the plurality of image data encoded by the plurality of encoding means to generate combined image data;
Based on information relating to distribution by the distribution means, the plurality of image data before being combined by the combining means, or header detection means for detecting a predetermined header from the combined image data;
An encoding apparatus comprising: a header correction unit that corrects a predetermined header detected by the header detection unit and generates output image data from the combined image data.
前記ヘッダ検出手段は、ピクチャの順序を示すヘッダを検出し、
前記ヘッダ修正手段は、前記ピクチャの順序を示すヘッダを前記出力画像データのピクチャの順序に整合させるように修正することを特徴とする請求項1に記載の符号化装置。
The header detection means detects a header indicating the order of pictures,
The encoding apparatus according to claim 1, wherein the header correcting unit corrects a header indicating the order of the pictures so as to match the order of the pictures of the output image data.
前記ヘッダ検出手段は、仮想バッファのレベルを示すヘッダを検出し、
前記ヘッダ修正手段は、前記仮想バッファのレベルを示すヘッダを前記出力画像データの仮想バッファのレベルに整合させるように修正することを特徴とする請求項1または2に記載の符号化装置。
The header detection means detects a header indicating the level of the virtual buffer,
The encoding apparatus according to claim 1, wherein the header correcting unit corrects a header indicating a level of the virtual buffer so as to be matched with a virtual buffer level of the output image data.
入力されたパラメータに基づいて、前記複数の符号化手段の仮想バッファの容量を設定する設定手段をさらに有することを特徴とする請求項1に記載の符号化装置。   The encoding apparatus according to claim 1, further comprising a setting unit configured to set a capacity of a virtual buffer of the plurality of encoding units based on an input parameter. 入力されたパラメータに基づいて、前記複数の符号化手段によってそれぞれ符号化される複数の画像データの識別IDの振り分けを設定する設定手段をさらに有することを特徴とする請求項1に記載の符号化装置。   2. The encoding according to claim 1, further comprising setting means for setting a distribution of identification IDs of a plurality of image data encoded by the plurality of encoding means based on input parameters. apparatus. 前記複数の符号化手段として第1の符号化器と第2の符号化器とを具備し、
前記振り分け手段は、前記第1の符号化器及び前記第2の符号化器に対して、前記入力画像データをピクチャ単位で1枚毎交互に振り分けを行うとともに、各ピクチャを前記第1の符号化器及び前記第2の符号化器のどちらに振り分けたかを示す情報を出力することを特徴とする請求項1または2に記載の符号化装置。
A plurality of encoding means comprising a first encoder and a second encoder;
The distribution unit distributes the input image data to the first encoder and the second encoder alternately on a picture-by-picture basis, and assigns each picture to the first code. The encoding apparatus according to claim 1 or 2, wherein information indicating which of the encoder and the second encoder is allocated is output.
前記振り分け手段は、前記入力画像データの先頭にダミーピクチャを付加して前記第1の符号化器及び前記第2の符号化器のいずれか一方に出力し、
前記第1の符号化器又は前記第2の符号化器は、前記ダミーピクチャを画面内符号化により符号化するものの、符号化後の前記ダミーピクチャを前記結合画像データに含めないように制御することを特徴とする請求項6に記載の符号化装置。
The distribution means adds a dummy picture to the head of the input image data and outputs it to one of the first encoder and the second encoder,
The first encoder or the second encoder controls the dummy picture to be not included in the combined image data although the dummy picture is encoded by intra-picture encoding. The encoding apparatus according to claim 6.
前記複数の画像データ及び前記出力画像データは、H.264に準拠していることを特徴とする請求項1〜7の何れか1項に記載の符号化装置。   The plurality of image data and the output image data are H.264. The encoding apparatus according to any one of claims 1 to 7, wherein the encoding apparatus conforms to H.264. 入力画像データをピクチャ単位で分割して、複数の画像データに振り分ける振り分け工程と、
前記振り分け工程において振り分けられた複数の画像データをそれぞれ画面内符号化により複数の符号化手段を用いて符号化する符号化工程と、
前記複数の符号化手段によってそれぞれ符号化された複数の画像データを結合して結合画像データを生成する結合工程と、
前記振り分け工程における振り分けに関する情報に基づいて、前記結合工程において結合される前の前記複数の画像データ、または前記結合画像データから所定のヘッダを検出するヘッダ検出工程と、
前記ヘッダ検出工程において検出された所定のヘッダを修正して前記結合画像データから出力画像データを生成するヘッダ修正工程とを有することを特徴とする符号化方法。
A process of dividing the input image data in units of pictures and allocating it to a plurality of image data;
An encoding step of encoding a plurality of image data distributed in the distribution step by using a plurality of encoding means by intra-screen encoding,
A combining step of combining a plurality of image data encoded by the plurality of encoding means to generate combined image data;
Based on information relating to sorting in the sorting step, the plurality of image data before being combined in the combining step, or a header detecting step for detecting a predetermined header from the combined image data;
And a header correction step of correcting the predetermined header detected in the header detection step to generate output image data from the combined image data.
入力画像データをピクチャ単位で分割して、複数の画像データに振り分ける振り分け工程と、
前記振り分け工程において振り分けられた複数の画像データをそれぞれ画面内符号化により複数の符号化手段を用いて符号化する符号化工程と、
前記複数の符号化手段によってそれぞれ符号化された複数の画像データを結合して結合画像データを生成する結合工程と、
前記振り分け工程における振り分けに関する情報に基づいて、前記結合工程において結合される前の前記複数の画像データ、または前記結合画像データから所定のヘッダを検出するヘッダ検出工程と、
前記ヘッダ検出工程において検出された所定のヘッダを修正して前記結合画像データから出力画像データを生成するヘッダ修正工程とをコンピュータに実行させることを特徴とするプログラム。
A process of dividing the input image data in units of pictures and allocating it to a plurality of image data;
An encoding step of encoding a plurality of image data distributed in the distribution step by using a plurality of encoding means by intra-screen encoding,
A combining step of combining a plurality of image data encoded by the plurality of encoding means to generate combined image data;
Based on information relating to sorting in the sorting step, the plurality of image data before being combined in the combining step, or a header detecting step for detecting a predetermined header from the combined image data;
A program for causing a computer to execute a header correcting step of correcting a predetermined header detected in the header detecting step and generating output image data from the combined image data.
JP2011098279A 2011-04-26 2011-04-26 Encoding apparatus, encoding method, and program Expired - Fee Related JP5967866B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011098279A JP5967866B2 (en) 2011-04-26 2011-04-26 Encoding apparatus, encoding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011098279A JP5967866B2 (en) 2011-04-26 2011-04-26 Encoding apparatus, encoding method, and program

Publications (3)

Publication Number Publication Date
JP2012231295A true JP2012231295A (en) 2012-11-22
JP2012231295A5 JP2012231295A5 (en) 2014-06-05
JP5967866B2 JP5967866B2 (en) 2016-08-10

Family

ID=47432497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011098279A Expired - Fee Related JP5967866B2 (en) 2011-04-26 2011-04-26 Encoding apparatus, encoding method, and program

Country Status (1)

Country Link
JP (1) JP5967866B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210047935A (en) * 2018-09-13 2021-04-30 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 Bitstream merge

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032446A (en) * 1998-07-14 2000-01-28 Brother Ind Ltd Dynamic image data compressor and storage medium thereof
JP2005033599A (en) * 2003-07-08 2005-02-03 Sony Corp Coding device and coding method, and program
JP2007202026A (en) * 2006-01-30 2007-08-09 Sony Corp Encoding apparatus, decoding apparatus, encoding method, decoding method, program for encoding method, program for decoding method, recording medium with program for encoding method recorded thereon, and recording medium with program for decoding method recorded thereon
WO2009078150A1 (en) * 2007-12-14 2009-06-25 Panasonic Corporation Dynamic image encoding device, method, program, and integrated circuit
JP2010068101A (en) * 2008-09-09 2010-03-25 Fujitsu Ltd Apparatus and program for editing moving image
JPWO2008114393A1 (en) * 2007-03-19 2010-07-01 富士通株式会社 Bitstream conversion method, bitstream conversion apparatus, bitstream combination apparatus, bitstream division program, bitstream conversion program, and bitstream combination program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032446A (en) * 1998-07-14 2000-01-28 Brother Ind Ltd Dynamic image data compressor and storage medium thereof
JP2005033599A (en) * 2003-07-08 2005-02-03 Sony Corp Coding device and coding method, and program
JP2007202026A (en) * 2006-01-30 2007-08-09 Sony Corp Encoding apparatus, decoding apparatus, encoding method, decoding method, program for encoding method, program for decoding method, recording medium with program for encoding method recorded thereon, and recording medium with program for decoding method recorded thereon
JPWO2008114393A1 (en) * 2007-03-19 2010-07-01 富士通株式会社 Bitstream conversion method, bitstream conversion apparatus, bitstream combination apparatus, bitstream division program, bitstream conversion program, and bitstream combination program
WO2009078150A1 (en) * 2007-12-14 2009-06-25 Panasonic Corporation Dynamic image encoding device, method, program, and integrated circuit
JP2010068101A (en) * 2008-09-09 2010-03-25 Fujitsu Ltd Apparatus and program for editing moving image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6015013277; 猫科研究所: 'x264(vbv-maxrate,vbv-bufsize,profile,level), H.264(Profile/Level)' x264(vbv-maxrate,vbv-bufsize,profile,level), H.264(Profile/Level) , 20100418, レベルの欄, [online] *
JPN6016000749; Ken McCann,Benjamin Bross,Shun-ichi Sekiguchi,Woo-Jin Han: 'HM3: High Efficiency Video Coding (HEVC) Test Model 3 Encoder Description[online]' Joint Collaborative Team on Video Coding(JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 5th Me JCTVC-E602, 20110316, イ *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210047935A (en) * 2018-09-13 2021-04-30 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 Bitstream merge
CN113039804A (en) * 2018-09-13 2021-06-25 弗劳恩霍夫应用研究促进协会 Bit stream merging
JP2022501889A (en) * 2018-09-13 2022-01-06 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Bitstream merge
JP7179163B2 (en) 2018-09-13 2022-11-28 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン bitstream merge
JP2023022096A (en) * 2018-09-13 2023-02-14 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Bit stream marge
KR102572947B1 (en) * 2018-09-13 2023-08-31 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 bit stream merge
JP7359926B2 (en) 2018-09-13 2023-10-11 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン bitstream merge
US11800128B2 (en) 2018-09-13 2023-10-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bitstream merging
JP7511733B2 (en) 2018-09-13 2024-07-05 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Bitstream Merging
CN113039804B (en) * 2018-09-13 2024-07-09 弗劳恩霍夫应用研究促进协会 Bit stream merging

Also Published As

Publication number Publication date
JP5967866B2 (en) 2016-08-10

Similar Documents

Publication Publication Date Title
US9712838B2 (en) Video encoding apparatus, video decoding apparatus, video encoding method, and video decoding method
US10582208B2 (en) Video encoding apparatus, video decoding apparatus, video encoding method, and video decoding method
JP5947641B2 (en) Moving picture coding apparatus, control method therefor, and computer program
JP2017200176A (en) Conversion from open group of pictures to closed group of pictures in interframe video compression
JP4185086B2 (en) Image processing device
JP5172874B2 (en) Video synchronization apparatus, video display apparatus, video synchronization method, and program
JP2006340183A (en) Image coding apparatus and image coding method
JP5967866B2 (en) Encoding apparatus, encoding method, and program
US20140003519A1 (en) Video encoding apparatus, video decoding apparatus, video encoding method, and video decoding method
WO2011108146A1 (en) Image coding device, image coding/decoding system, image coding method, and image display method
JP4708821B2 (en) Moving picture coding apparatus, control method therefor, computer program, and storage medium
JP2017520176A (en) High frame rate tiling compression technique
JP6182888B2 (en) Image encoding device
JP2003032679A (en) Decoder, decoding method, and program for making computer execute the same decoding method
JP2011055023A (en) Image encoding device and image decoding device
JP4616537B2 (en) Video communication system
JP4867872B2 (en) Image processing apparatus, control method for the image processing apparatus, and program
JP2013211777A (en) Image coding device, image decoding device, image coding method, image decoding method and program
JP2005159832A (en) Signal processor
JP5825976B2 (en) Encoding apparatus and method
JP2015065528A (en) Picture editing device, picture editing method and program
JP2012138780A (en) Data distribution system, data distribution device, data encoder, and data encoding method
JP2010273229A (en) Video transmission system, video transmitting apparatus, and video receiving apparatus
JP2008227745A (en) Video image coding apparatus and video image decoding apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160705

R151 Written notification of patent or utility model registration

Ref document number: 5967866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees