JP2018182393A - Video encoding apparatus - Google Patents
Video encoding apparatus Download PDFInfo
- Publication number
- JP2018182393A JP2018182393A JP2017074619A JP2017074619A JP2018182393A JP 2018182393 A JP2018182393 A JP 2018182393A JP 2017074619 A JP2017074619 A JP 2017074619A JP 2017074619 A JP2017074619 A JP 2017074619A JP 2018182393 A JP2018182393 A JP 2018182393A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- frames
- picture
- reference group
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、映像符号化装置に関する。 The present invention relates to a video coding apparatus.
映像符号化の標準規格として、H.264/AVC(Advanced Video Coding)やH.265/HEVC(High Efficiency Video Coding)と呼ばれる映像符号化方式が策定されている。HEVCでは、イントラピクチャであるI(Intra)ピクチャと、インターピクチャであるP(Predictive)ピクチャと、B(Bi-directional predictive)ピクチャという複数のピクチャタイプが定義されている。各フレームには、いずれかのピクチャタイプが割り当てられる。 As a standard for video coding, H.3. H.264 / AVC (Advanced Video Coding) and H.264. A video coding scheme called H.265 / HEVC (High Efficiency Video Coding) has been formulated. In HEVC, a plurality of picture types are defined: I (Intra) picture which is an intra picture, P (Predictive) picture which is an inter picture, and B (Bi-directional predictive) picture. Each frame is assigned one of the picture types.
Iピクチャは、通常、数フレームごとに定められるピクチャタイプであり、符号化対象フレーム内の符号化済み画素から予測するイントラ予測モードのみが適用されるピクチャタイプである。Pピクチャ及びBピクチャは、イントラ予測モードか、または、符号化済みフレームから予測するインター予測モードが選択的に適用されるピクチャタイプである。Pピクチャは、時系列の過去のフレームを参照フレームとするのに対して、Bピクチャは、過去と未来のフレームを参照フレームとする。 The I picture is usually a picture type defined every several frames, and is a picture type to which only the intra prediction mode predicted from encoded pixels in the encoding target frame is applied. P picture and B picture are picture types to which an intra prediction mode or an inter prediction mode of predicting from a coded frame is selectively applied. P pictures use past frames in time series as reference frames, while B pictures use past and future frames as reference frames.
Iピクチャから次のIピクチャまでのフレーム群をGOP(Group Of Picture)といい、GOPごとに、Iピクチャの間隔や参照構造等の符号化構造を自由に設定することができる。代表的な符号化構造として、図17に示す低遅延符号化の符号化構造と、図18に示すランダムアクセス符号化の符号化構造があり、一般に、ランダムアクセス符号化の方が、符号化効率が高いと言われている。 A group of frames from I picture to the next I picture is called GOP (Group Of Picture), and coding structures such as I picture intervals and reference structures can be freely set for each GOP. As a typical coding structure, there are a coding structure for low delay coding shown in FIG. 17 and a coding structure for random access coding shown in FIG. 18, and in general, random access coding is better in coding efficiency. Is said to be high.
符号化構造を定める際、IピクチャまたはPピクチャ間隔を符号化する映像に応じて適応的に定めることで、符号化効率を向上させることができる。例えば、図19に示すような、映像の途中でシーンチェンジがある映像フレームのシーケンスに対して、固定されたIピクチャまたはPピクチャ間隔よりもシーンチェンジに合わせて適応的にIピクチャまたはPピクチャとなるフレームを選択していくことで符号化効率が向上する。 In determining the coding structure, coding efficiency can be improved by adaptively setting the I picture or P picture interval according to the video to be coded. For example, as shown in FIG. 19, for a sequence of video frames having a scene change in the middle of the video, the I picture or P picture is adaptively adapted to the scene change rather than the fixed I picture or P picture interval. The coding efficiency is improved by selecting the frame.
また、その他にも、図20や図21に示すような参照構造を階層的に設定する等、適応的に参照構造を変化させることで符号化効率の向上を図ることができる。例えば、図20に示す適応構造1と図21に示す適応構造2とを比較した場合、図21に示す適応構造2の方が、最大階層が2階層になっていることから、参照フレーム間の距離が小さくなっており、符号化効率の向上が期待される。
In addition, coding efficiency can be improved by adaptively changing the reference structure, such as hierarchically setting reference structures as shown in FIG. 20 and FIG. For example, when
更に高い符号化効率を有する符号化構造を選択する手法も提案されている(例えば、非特許文献1及び2参照)。以下に、提案されている代表的な2つの技術について説明する。非特許文献1に示す技術では、符号化構造は、以下の手順にしたがって定められる。原画像を、縦横それぞれ1/2サイズに縮小する(ステップSx1)。最初のフレームをIピクチャとして符号化し、基準フレームとする(ステップSx2)。N枚先までの各フレームに対して、Pピクチャとした場合のコストを算出し、算出したコストが最小となったフレームをPピクチャとする。ここで、コストとは、フレームの各符号化ブロックをイントラ予測モード及びインター予測モードにより符号化した際の小さい方の符号化コストの全ブロックの総和である(ステップSx3)。
A method of selecting a coding structure having higher coding efficiency has also been proposed (see, for example, Non-Patent
基準フレームと、ステップSx3でPピクチャとして選択したフレームとの間に、それらを参照する中間フレームを定義する。基準フレームと中間フレームとの間に位置するフレームに対して、これらのフレームを基準フレームと中間フレームとを参照するBピクチャとした場合のコストを算出する。また、中間フレームとPピクチャとの間に位置するフレームに対して、これらのフレームを中間フレームとPピクチャとを参照するBピクチャとした場合のコストを算出する。算出したコストが最小となる組み合わせを最終的な符号化構造として選択する(ステップSx4)。ステップSx3でPピクチャとしたフレームを基準フレームとし、ステップSx3及びSx4を繰り返し実行して適応的に符号化構造を定めていく。 Between the reference frame and the frame selected as the P picture in step Sx3, an intermediate frame referencing them is defined. For a frame located between the reference frame and the intermediate frame, the cost is calculated in the case where these frames are B pictures that reference the reference frame and the intermediate frame. In addition, with respect to a frame located between the intermediate frame and the P picture, the cost is calculated in the case where these frames are B pictures that refer to the intermediate frame and the P picture. A combination that minimizes the calculated cost is selected as a final coding structure (step Sx4). Assuming that the frame used as the P picture in step Sx3 is a reference frame, steps Sx3 and Sx4 are repeatedly executed to adaptively determine the coding structure.
非特許文献2に記載の技術では、符号化構造は、以下の手順にしたがって定められる。1枚目のフレームをIピクチャとして符号化する(ステップSy1)。Iピクチャと次のフレームとの間で動き探索を行い、各符号化ブロックの動きベクトルをS1(k)(ただし、1≦k≦Nblk:Nblkは、フレーム内のブロック数)とする(ステップSy2)。
In the technique described in
n枚目(n≧3)の各フレームに対して1枚目のフレームとの間で動き探索を行い、各符号化ブロックの動きベクトルをフレーム間距離で割ったものをSn(k)とする(ステップSy3)。動きベクトル差の平均(E=Σ(S1−Sn)/Nblk)を算出する(ステップSy4)。予め定められた閾値をthとし、E<thであれば、n枚目のフレームをBピクチャとし、そうでなければ、Pピクチャとする(ステップSy5)。 A motion search is performed between the nth frame (n ≧ 3) and the first frame, and the motion vector of each coding block divided by the interframe distance is S n (k) To do (step Sy3). The average of the motion vector difference (E = S (S 1 −S n ) / N blk ) is calculated (step Sy 4). A predetermined threshold value is th, and if E <th, the nth frame is B picture, otherwise it is P picture (step Sy 5).
しかしながら、上記の手順に示すように、非特許文献1に記載の技術では、縮小画像を用いているとはいえ、実際の符号化に近い処理を複数の組み合わせに対して行っている。また、計算結果が無駄になる組み合わせも生じており、結果的に、演算量が多い手法になってしまっているという問題がある。また、非特許文献1に記載の技術では、Bピクチャの階層として2階層を割り当てることを前提としており、この技術に対して、符号化効率の良いより深い階層構造を適用しようとすると、組み合わせ数が増大してしまうという問題がある。
However, as shown in the above-described procedure, in the technique described in
非特許文献2に記載の技術においても、判定の際の計算結果が無駄になる組み合わせが存在するため、演算量が多いという問題がある。また、非特許文献2に記載の技術では、Bピクチャの階層として1階層分しか適用できないという問題がある。また、非特許文献2に記載の技術では、動きベクトルのみを判定に用いているため、複雑な映像に対して精度良く判定することができず、符号化効率が悪いという問題がある。
Even in the technique described in
上記事情に鑑み、本発明は、符号化効率の高い符号化構造を低演算量で求めることができる技術の提供を目的としている。 In view of the above circumstances, the present invention aims to provide a technique capable of obtaining a coding structure with high coding efficiency with a small amount of calculation.
本発明の一態様は、フレーム間予測符号化を行う映像符号化装置であって、入力映像情報から取得されるフレーム群から、予め定められる3枚以上の枚数の連続するフレームを含む参照グループを生成する参照グループ生成部と、前記参照グループ生成部が生成する前記参照グループの最初と最後の前記フレームと、前記最初と最後のフレームの間のいずれか1つの判定対象フレームとに基づいて、前記フレーム間の誤差に関する評価値を算出する評価値算出部と、前記評価値算出部が算出する前記評価値のうち前記判定対象フレームと前記最初のフレームとの間の前記評価値を基準とした他の前記評価値の相対値に基づいて、または前記相対値と前記判定対象フレームと前記最初と最後のフレーム双方との間の前記評価値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する評価値判定部と、前記評価値判定部の判定結果に基づいて、前記フレーム群に含まれる前記フレームのピクチャタイプを選定するピクチャタイプ選定部と、を備える映像符号化装置である。 One aspect of the present invention is a video encoding apparatus for performing inter-frame predictive coding, which includes, from a frame group acquired from input video information, a reference group including three or more consecutive frames determined in advance. The reference group generation unit to generate, the first and last frames of the reference group generated by the reference group generation unit, and any one determination target frame between the first and last frames, Among the evaluation values calculated by the evaluation value calculation unit, an evaluation value calculation unit that calculates an evaluation value regarding an error between the frames, and the evaluation value between the determination target frame and the first frame among the evaluation values calculated Prior to the evaluation value based on the relative value of the evaluation value of the frame, or based on the relative value and the evaluation value between the determination target frame and both the first and last frames. An evaluation value determination unit that determines whether or not the reference relationship between the determination target frame and the first and last frames is combined, and the determination result of the evaluation value determination unit based on the determination results of the frames And a picture type selection unit that selects a picture type.
本発明の一態様は、上記の映像符号化装置であって、前記評価値算出部は、前記判定対象フレームと前記最初のフレームとの間の前記フレーム間の誤差に関する第1の片方向評価値と、前記判定対象フレームと前記最後のフレームとの間の前記フレーム間の誤差に関する第2の片方向評価値と、前記判定対象フレームと前記最初と最後のフレーム双方との間の前記フレーム間の誤差に関する双方向評価値とを算出し、前記評価値判定部は、前記第2の片方向評価値と前記双方向評価値のうち小さい方の評価値を選択し、選択した前記評価値の前記第1の片方向評価値に対する相対的な値の大きさとして前記相対値を算出し、算出した前記相対値と、予め定められる相対評価用閾値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する。 One embodiment of the present invention is the video encoding device described above, wherein the evaluation value calculation unit is configured to calculate a first one-way evaluation value regarding an error between the frames between the determination target frame and the first frame. And a second one-way evaluation value regarding the inter-frame error between the determination target frame and the last frame, the inter-frame between the determination target frame and both the first and last frames. The evaluation value determination unit selects a smaller one of the second one-way evaluation value and the two-way evaluation value, and calculates the evaluation value of the selected evaluation value. The relative value is calculated as a relative value with respect to the first one-way evaluation value, and the determination target frame and the first are determined based on the calculated relative value and a predetermined relative evaluation threshold value. Last fray It determines whether to combine the reference relationship with the arm.
本発明の一態様は、上記の映像符号化装置であって、前記予め定められる相対評価用閾値は、第1の相対評価用閾値と、前記第1の相対評価用閾値よりも値の大きい第2の相対評価用閾値を含んでおり、前記評価値判定部は、前記相対値が、前記第1の相対評価用閾値未満であるか否か基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定し、前記相対値が、前記第1の相対評価用閾値未満でなく、前記判定対象フレームの参照フレームを前記最初と最後のフレームにしないと判定する場合、前記相対値が、前記第1の相対評価用閾値と前記第2の相対評価用閾値とにより定められる範囲の値である場合、前記双方向評価値と、予め定められる絶対評価用閾値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する。 One embodiment of the present invention is the above-described video encoding device, wherein the predetermined relative evaluation threshold is larger than a first relative evaluation threshold and a first relative evaluation threshold. And the evaluation value determination unit determines whether the relative value is less than the first relative evaluation threshold, the determination target frame and the first and last frames. It is determined whether or not the reference relationship with the frame is combined, and it is determined that the relative value is not less than the first relative evaluation threshold and the reference frame of the determination target frame is not the first and last frames. In the case where the relative value is a value within a range defined by the first relative evaluation threshold and the second relative evaluation threshold, the bidirectional evaluation value and the predetermined absolute evaluation threshold And the judgment target frame And it determines whether to combine the reference relationship between the first and last frame.
本発明の一態様は、上記の映像符号化装置であって、前記参照グループ生成部は、前記評価値判定部により結合すると判定された前記参照グループの最初の前記フレーム、または最後の前記フレームが前記判定対象フレームとなるように、当該参照グループを含み前記予め定められる3枚以上の枚数よりも多い枚数の連続するフレームを含む新たな前記参照グループを生成し、前記評価値算出部は、前記新たな参照グループの最初と最後の前記フレームと、前記判定対象フレームとに基づいて、前記フレーム間の誤差に関する前記評価値を算出し、前記評価値判定部は、前記評価値算出部が算出する前記評価値のうち前記新たな参照グループの前記判定対象フレームと前記最初のフレームとの間の前記評価値を基準とした他の前記評価値の相対値、または前記相対値と、前記新たな参照グループの前記判定対象フレームと前記最初と最後のフレーム双方との間の前記評価値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する。 One embodiment of the present invention is the above-described video encoding apparatus, wherein the reference group generation unit determines whether the first frame or the last frame of the reference group determined to be combined by the evaluation value determination unit is A new reference group including the reference group and a number of consecutive frames including the reference group and greater than the predetermined number of three or more is generated so as to be the determination target frame, and the evaluation value calculation unit The evaluation value regarding the error between the frames is calculated based on the first and last frames of the new reference group and the determination target frame, and the evaluation value determination unit calculates the evaluation value calculation unit. Among the evaluation values, the phases of other evaluation values based on the evaluation value between the frame to be judged of the new reference group and the first frame The determination target frame and the first and last frames based on the value or the relative value and the evaluation value between the determination target frame of the new reference group and both the first and last frames It is determined whether or not to combine the reference relationships of.
本発明の一態様は、上記の映像符号化装置であって、前記参照グループ生成部は、前記参照グループに隣接する他の参照グループを生成する際、当該参照グループの最後の前記フレームが、前記隣接する他の参照グループの最初の前記フレームとなるように重複させて前記予め定められる3枚以上の枚数の連続するフレームを含む前記参照グループを生成しており、隣接する2つの前記参照グループの双方において前記評価値判定部が前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合すると判定する場合、当該隣接する2つの前記参照グループを結合して前記新たな参照グループを生成し、重複する前記フレームを前記判定対象フレームとする。 One embodiment of the present invention is the video encoding device described above, wherein when the reference group generation unit generates another reference group adjacent to the reference group, the last frame of the reference group is the Generating the reference group including the predetermined number of consecutive frames of the predetermined number or more of the predetermined number of overlapping frames so as to become the first frame of another adjacent reference group; When the evaluation value determination unit determines that the reference relationship between the frame to be determined and the first and last frames is to be combined in both, the adjacent two reference groups are combined to generate the new reference group. The overlapping frames are taken as the determination target frames.
本発明の一態様は、上記の映像符号化装置であって、前記参照グループ生成部は、
予め定めらえる構築する符号化構造の階層数の値にしたがって、前記新たな参照グループを生成することを繰り返す。
One embodiment of the present invention is the video encoding device described above, wherein the reference group generation unit
The generation of the new reference group is repeated according to the value of the number of layers of the coding structure to be defined in advance.
本発明の一態様は、上記の映像符号化装置であって、前記ピクチャタイプ選定部は、前記入力映像情報から前記フレーム群を取得し、取得した前記フレーム群の最初のフレームをIピクチャとして選定するIピクチャ選定部を備え、前記ピクチャタイプ選定部は、前記結合判定部が、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合すると判定する場合、前記判定対象フレームを前記最初と最後のフレームを参照フレームとするBピクチャとして選定し、前記Iピクチャ、または前記Bピクチャとして選定されていない前記フレームを前記Pピクチャとして選定し、前記フレーム群の表示順において、選定した前記フレームに最も近い過去の前記Pピクチャの前記フレームを、選定した前記フレームの前記参照フレームとし、選定した前記フレームに最も近い過去の前記Pピクチャの前記フレームがない場合、前記Iピクチャの前記フレームを、選定した前記フレームの前記参照フレームとする。 One embodiment of the present invention is the video encoding device described above, wherein the picture type selection unit acquires the frame group from the input video information, and selects the first frame of the acquired frame group as an I picture. The picture type selection unit, when it is determined that the combination determination unit combines the reference relationship between the determination target frame and the first and last frames, the determination target frame is the first And the last frame as a reference frame, and the frames not selected as the I picture or the B picture are selected as the P picture, and the selected frames in the display order of the frame group The frame of the previous P picture closest to the And, if there is no the frame of the most recent past of the P-picture to the frame selected, the frame of the I picture, and the reference frame of the frame that was selected.
本発明の一態様は、上記の映像符号化装置であって、前記予め定められる3枚以上の枚数は、3枚である。 One embodiment of the present invention is the above-described video encoding apparatus, wherein the predetermined number of three or more is three.
本発明により、符号化効率の高い符号化構造を低演算量で求めることが可能となる。 According to the present invention, it is possible to obtain a coding structure with high coding efficiency with a small amount of calculation.
(第1の実施形態)
以下、本発明の実施形態について図面を参照して説明する。図1は、本発明の第1の実施形態における映像符号化装置1の構成を示すブロック図である。映像符号化装置1は、符号化構造構築部10、減算器11、直交変換・量子化部12、可変長符号化部13、逆量子化・逆直交変換部14、加算器15、イントラ予測部16、ループフィルタ部17、復号ピクチャ記憶部18、インター予測部19、及びイントラ・インター切替スイッチ部20を備える。
First Embodiment
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a
符号化構造構築部10は、外部から入力映像情報を取り込み、取り込んだ入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成する。また、符号化構造構築部10は、生成したフレーム群の各フレームのピクチャタイプ、参照構造などを選定して符号化構造を構築する。また、符号化構造構築部10は、構築した符号化構造が示す符号化順序にしたがってCU(Coding Unit)ブロック単位で符号化対象フレームを出力する。
The encoding
減算器11は、符号化構造構築部10が出力する符号化対象フレームの画像情報と、イントラ・インター切替スイッチ部20を介してイントラ予測部16、またはインター予測部19が出力する予測画像情報との差を算出する。また、減算器11は、算出した差に基づく差分画像情報を直交変換・量子化部12に出力する。
The
直交変換・量子化部12は、減算器11が出力する差分画像情報に対して、直交変換と量子化を行い、可変長符号化部13と逆量子化・逆直交変換部14に出力する。可変長符号化部13は、直交変換・量子化部12が出力する量子化係数を可変長符号化して符号化データを生成し、生成した符号化データを外部に出力する。
The orthogonal transformation /
逆量子化・逆直交変換部14は、直交変換・量子化部12が出力する量子化係数に対して、逆量子化と逆直交変換を行って差分画像情報を復号して加算器15に出力する。加算器15は、逆量子化・逆直交変換部14が出力する復号差分画像情報と、イントラ・インター切替スイッチ部20を介してイントラ予測部16、またはインター予測部19が出力する予測画像情報との和を算出する。また、加算器15は、算出した和に基づく復号画像情報をイントラ予測部16とループフィルタ部17に出力する。
The inverse quantization / inverse
イントラ予測部16は、加算器15が出力する復号画像情報を参照フレームとして、符号化対象フレームに含まれる符号化対象ブロックのイントラ予測画像情報を生成する。
The
ループフィルタ部17は、加算器15が出力する復号画像情報にループフィルタを適用し、ループフィルタを適用した復号画像情報を復号ピクチャ記憶部18に書き込んで記憶させる。インター予測部19は、復号ピクチャ記憶部18に記憶されている復号画像情報を参照フレームとして、符号化構造構築部10が出力する符号化対象フレームに含まれる符号化対象ブロックのインター予測画像情報を生成する。
The
イントラ・インター切替スイッチ部20は、符号化対象ブロックの予測モードに応じて、イントラ予測部16とインター予測部19とを切り替えて、イントラ予測部16が出力するイントラ予測画像情報、またはインター予測部19が出力するインター予測画像情報を減算器11と加算器15に出力する。
The intra /
上記の構成により、映像符号化装置1は、外部から取り込んだ入力映像情報からフレーム群を生成し、生成したフレーム群の符号化対象フレームごとにラスタースキャンしてCUブロックを生成する。映像符号化装置1は、生成した各CUブロックを符号化対象ブロックとしてラスタースキャン順に繰り返し符号化を行い、符号化対象ブロックごとの符号化データを出力する。映像符号化装置1は、この処理を入力映像情報から生成する全てのフレーム群に含まれるフレームに対して繰り返し行うことにより、符号化対象入力映像情報を符号化する。
With the above-described configuration, the
符号化の過程において、インター予測部19でPピクチャのフレームの符号化を行うためには、Pピクチャのフレームに対する参照フレームが予め復号ピクチャ記憶部18に記憶されている必要がある。また、Bピクチャのフレームの符号化を行うためには、Bピクチャのフレームに対する2つの参照フレームが予め復号ピクチャ記憶部18に記憶されている必要がある。符号化構造構築部10は、これらの符号化の順序の要求を満たすような符号化構造の構築を行う。
In the process of encoding, in order to encode the P picture frame in the
図2は、符号化構造構築部10の構成を示すブロック図である。符号化構造構築部10は、符号化対象フレーム選択部101、Iピクチャ選定部102、参照グループ生成部103、結合判定部104、ピクチャタイプ選定部105、ピクチャタイプ記憶部106、及びブロック出力部107を備える。
FIG. 2 is a block diagram showing the configuration of the coding
符号化対象フレーム選択部101は、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成してIピクチャ選定部102とブロック出力部107に出力する。Iピクチャ選定部102は、フレーム群の最初のフレームをIピクチャとして選定し、最初のフレームを起点フレームとしてフレーム群を参照グループ生成部103に出力する。
The encoding target
参照グループ生成部103は、フレーム群の先頭のフレームを起点として所定の枚数(例えば、3枚)の連続するフレームを選択し、選択した所定の枚数の連続するフレームの組み合わせを最初の参照グループとして生成する。また、参照グループ生成部103は、その後に起点となるフレームから所定の枚数の連続するフレームを選択し、選択した所定の枚数の連続するフレームの組み合わせを参照グループとして生成する。また、参照グループ生成部103は、隣接する2つの参照グループが共に結合判定部104によって結合すると判定されている場合、隣接する2つの参照グループを結合して新たな参照グループを生成する。
The reference
また、参照グループ生成部103は、生成した参照グループの情報、すなわち参照グループに含まれるフレームの画像情報、及び参照グループに含まれるフレームのフレームをフレーム群において特定するフレーム番号等の情報を結合判定部104とピクチャタイプ選定部105に出力する。
In addition, the reference
結合判定部104は、参照グループ生成部103が生成して出力する参照グループに含まれるフレームを結合するか否かを判定する。ここで、参照グループに含まれるフレームを結合するとは、最初と最後のフレームの間のフレームである判定対象フレームを、最初と最後のフレームを参照フレームとするBピクチャとすることである。結合判定部104は、評価値算出部110、評価値判定部111、及び判定結果記憶部112を備える。
The
評価値算出部110は、参照グループ生成部103が生成した参照グループの評価値を算出する。ここで、評価値は、以下のようにして算出される3つのインターコストの値である。なお、インターコストは、例えば、フレーム間において動き探索を行った場合の誤差に関する評価値であり、例えば、絶対誤差和の最小値等が適用され、この評価値は、RD(Rate-Distortion)コストのような実際に符号化を行わないと得られない符号化コストとは異なる値である。ここで、絶対誤差和の最小値とは、動きベクトルを複数検出して、動きベクトルごとの絶対誤差和を算出して得られた値の中で最も小さい値を表す。
The evaluation
まず、最初のフレームと、最初と最後のフレームの間の判定対象フレームと、最後のフレームをそれぞれ、Sフレーム、Mフレーム、Eフレームとする。参照グループが、所定の枚数(例えば、3枚)の連続するフレームを含む場合、判定対象フレームは、中間のフレームとなり、後述するように2つの隣接する参照グループが結合される場合、判定対象フレームは、表示順で1つ前の参照グループの最後のフレームとなる。 First, the first frame, the determination target frame between the first and last frames, and the last frame are respectively S frame, M frame, and E frame. When the reference group includes a predetermined number (for example, three) of consecutive frames, the determination target frame is an intermediate frame, and when two adjacent reference groups are combined as described later, the determination target frame Is the last frame of the previous reference group in display order.
Mフレームに対して予め定められる所定のブロックサイズ単位でSフレームを参照フレームとした場合の片方向インターコストの全ブロックの総和(以下、L0コストという)を算出する。次に、Mフレームに対して予め定められる所定のブロックサイズ単位でEフレームを参照フレームとした場合の片方向インターコストの全ブロックの総和(以下、L1コストという)を算出する。更に、Mフレームに対して予め定められる所定のブロックサイズ単位でSフレームとEフレームを参照フレームとした場合の双方向インターコストの全ブロックの総和(以下、Biコストという)を算出する。 The sum (hereinafter, referred to as the L0 cost) of all the blocks in the unidirectional inter cost when the S frame is used as the reference frame in a predetermined block size unit predetermined for the M frame is calculated. Next, the sum (hereinafter, referred to as L1 cost) of all the blocks of the unidirectional inter cost when the E frame is used as the reference frame in a predetermined block size unit predetermined for M frames is calculated. Furthermore, the sum (hereinafter referred to as the Bi cost) of all blocks of the bidirectional inter cost when the S frame and the E frame are used as reference frames in predetermined block size units predetermined for M frames is calculated.
評価値判定部111は、評価値算出部110が算出したL0コスト、L1コスト、Biコストに基づいて、参照グループのフレームを結合すべきか否か、すなわちMフレームを、SフレームとEフレームを参照フレームとするBピクチャとするか否かを判定する結合判定処理を行う。評価値判定部111は、判定結果を参照グループを示す情報に対応付けて判定結果記憶部112に書き込んで記憶させ、また、判定結果をピクチャタイプ選定部105に出力する。判定結果記憶部112は、参照グループごとに評価値判定部111が判定した判定結果を記憶する。
The evaluation
ピクチャタイプ選定部105は、結合判定部104が出力する判定結果にしたがって、参照グループ生成部103が生成した参照グループに含まれるフレームのピクチャタイプを選定する。また、ピクチャタイプ選定部105は、参照グループ生成部103が、連続する3枚のフレームを選択できないと判定した場合、残りのフレームをPピクチャとして選定する。また、ピクチャタイプ選定部105は、全てのフレームについて、ピクチャタイプを選定した後、Pピクチャとして選定したフレームに対して、当該フレームに表示順で最も近い過去のPピクチャとして選定されたフレームを当該フレームの参照フレームとして選定する。
The picture
ここで、表示順で最も近い過去のPピクチャとは、Iピクチャとなる最初のフレームから表示順に連続番号を付与していった場合、参照フレームを割り当てるフレームよりも若い番号で最も近いPピクチャのことである。また、表示順で最も近い過去のPピクチャがない場合、ピクチャタイプ選定部105は、Iピクチャを参照フレームとして選定する。
Here, the closest past P picture in display order is the closest P picture with a number smaller than the frame to which the reference frame is assigned, in the case where a sequential number is assigned in display order from the first frame to be I picture. It is. Also, if there is no closest past P picture in display order, the picture
ピクチャタイプ記憶部106は、Iピクチャ選定部102がIピクチャとして選定したフレームを示す情報に対応付けてIピクチャのピクチャタイプを示す情報を記憶する。また、ピクチャタイプ記憶部106は、ピクチャタイプ選定部105が選定したBピクチャまたはPピクチャのピクチャタイプを示す情報を、参照フレームを示す情報とともに、各フレームを示す情報に対応付けて記憶する。
The picture
ブロック出力部107は、符号化対象フレーム選択部101が出力するフレーム群を受けて、一時的に内部の記憶領域に書き込んで記憶する。また、ブロック出力部107は、ピクチャタイプの選定が完了し符号化構造が定められると、定められた符号化構造に基づく順番で内部の記憶領域からフレームを読み出し、読み出したフレームの各々をラスタースキャンの順にCUブロックに分解して符号化対象ブロックとして出力する。
The
(第1の実施形態の符号化構造構築処理)
次に、第1の実施形態の符号化構造構築部10による処理について説明する。図3は、符号化構造構築部10による符号化構造構築処理の流れを示すフローチャートである。また、図4は、符号化構造構築処理において呼び出される結合判定部104による結合判定処理のサブルーチンの流れを示すフローチャートである。
(Coding structure construction processing of the first embodiment)
Next, processing by the coding
符号化対象フレーム選択部101は、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成し、生成したフレーム群をIピクチャ選定部102とブロック出力部107に出力する。Iピクチャ選定部102は、フレーム群の最初のフレームのピクチャタイプをIピクチャとして選定し、当該フレームをIピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、Iピクチャ選定部102は、最初のフレームを起点フレームとし、フレーム群を参照グループ生成部103に出力する(ステップS101)。
The encoding target
参照グループ生成部103は、起点フレームを起点として、フレーム群から連続する3枚のフレームを選択することができるか否かを判定する(ステップS102)。参照グループ生成部103は、連続する3枚のフレームを選択することができると判定した場合(ステップS102−YES)、参照グループ生成部103は、連続する3枚のフレームを表示順にA,B,Cフレームとして含む参照グループを生成する。なお、当該参照グループにおいて判定対象フレームは、Bフレームとなる。
The reference
参照グループ生成部103は、生成した参照グループを結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。結合判定部104は、参照グループ生成部103が出力する参照グループに含まれるA,B,CフレームをS,M,Eフレームとして結合判定処理を行う(ステップS106)。
The reference
(結合判定部による結合判定処理)
図4に示す結合判定処理のサブルーチンにおいて、評価値算出部110は、Sフレーム、Mフレーム、Eフレームに基づいて、L0コスト、L1コスト、Biコストの3つの評価値を算出する(ステップS201)。
(Coupling determination processing by the combining determination unit)
In the subroutine of the connection determination process shown in FIG. 4, the evaluation
評価値判定部111は、BiコストとL1コストのうち値が小さい方を選択し(ステップS202)、選択した値をL0で除算して相対値を算出する(ステップS203)。なお、BiコストとL1コストの値が同じ場合、いずれを選択してもよいため、いずれか一方を選択する。ステップS202とS203の処理を数式で示すと以下の式(1)となる。
The evaluation
相対値=min(Biコスト,L1コスト)/L0コスト・・・(1) Relative value = min (Bi cost, L1 cost) / L0 cost (1)
評価値判定部111は、算出した相対値の大きさを予め定められる相対評価用閾値Th_min及びTh_maxに基づいて判定する(ステップS204)。評価値判定部111は、算出した相対値が、Th_minの値未満であると判定した場合(ステップS204:<Th_min)、参照グループに含まれるフレームを結合することを示す「True」を出力する(ステップS205)。一方、評価値判定部111は、算出した相対値が、Th_maxの値を超過していると判定した場合(ステップS204:>Th_max)、参照グループに含まれるフレームを結合しないことを示す「False」を出力する(ステップS206)。
The evaluation
一方、評価値判定部111は、算出した相対値が、Th_minの値以上で、かつThmaxの値以下であると判定した場合(ステップS204:≧Th_minかつ≦Th_max)、Biコストの値の大きさを予め定められる絶対評価用閾値Th_absに基づいて判定する(ステップS207)。評価値判定部111は、Biコストの値が、Th_absの値未満であると判定した場合(ステップS207:<Th_abs)、参照グループに含まれるフレームを結合することを示す「True」を出力する(ステップS208)。一方、評価値判定部111は、Biコストの値が、Th_absの値以上と判定した場合(ステップS207:≧Th_abs)、参照グループに含まれるフレームを結合しないことを示す「False」を出力する(ステップS206)。
On the other hand, when the evaluation
評価値判定部111は、ステップS205,S206,S208の処理において、参照グループを示す情報に対応付けて判定結果を示す「True」または「False」の情報を判定結果記憶部112に書き込んで記憶させて、結合判定処理のサブルーチンを終了する。
The evaluation
図3に戻り、ピクチャタイプ選定部105は、結合判定部104が出力する判定結果を判定する(ステップS107)。ピクチャタイプ選定部105は、判定結果が「False」の場合(ステップS107−False)、参照グループのBフレームのピクチャタイプをPピクチャとして選定し、BフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、Bフレームを起点フレームとする情報を参照グループ生成部103に出力する(ステップS108)。参照グループ生成部103は、ピクチャタイプ選定部105が出力するBフレームを起点フレームとする情報を受けた場合、Bフレームを起点フレームとしてステップS102の処理に進む。
Returning to FIG. 3, the picture
一方、ピクチャタイプ選定部105は、判定結果が「True」の場合(ステップS107−True)、BフレームのピクチャタイプをAフレームとCフレームを参照フレームとするBピクチャとして選定し、BフレームをBピクチャとして選定したことを示す情報、及びAフレームとCフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、ピクチャタイプ選定部105は、CフレームのピクチャタイプをPピクチャとして選定し、CフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループを示す情報を参照グループ生成部103に出力する(ステップS109)。
On the other hand, when the determination result is "True" (step S107-True), the picture
参照グループ生成部103は、ピクチャタイプ選定部105が出力する判定結果が「True」の参照グループを示す情報を受けた場合、結合判定部104の判定結果記憶部112を参照する。参照グループ生成部103は、判定結果記憶部112に記憶されている情報に基づいて、表示順において、処理中の参照グループの1つ前の参照グループの判定結果が、「True」であるか否かを判定する(ステップS110)。
The reference
参照グループ生成部103は、表示順において、処理中の参照グループの1つ前の参照グループの判定結果が、「True」でないと判定した場合(ステップS110−NO)、Cフレームを起点フレームとして(ステップS116)、ステップS102の処理に進む。
When the reference
参照グループ生成部103は、表示順において、処理中の参照グループの1つ前の参照グループの判定結果が、「True」であると判定した場合(ステップS110−YES)、新たな参照グループを生成する。すなわち、参照グループ生成部103は、1つ前の参照グループの最初のフレームと最後のフレームをそれぞれ、αフレーム、βフレームとし、処理中の参照グループの最後のフレームをγフレームとし、α、β、γフレームを含む新たな参照グループを生成する。なお、βフレームは、処理中の参照グループの最初のAフレームでもあり、当該参照グループにおける判定対象フレームとなる。参照グループ生成部103は、生成した新たな参照グループの情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS111)。
The reference
結合判定部104は、参照グループ生成部103が出力する参照グループに含まれるα,β,γフレームに対して結合判定処理を行う。評価値算出部110は、α,β,γフレームのそれぞれをS,M,Eフレームとして図4に示す結合判定処理を行う(ステップS112)。
The
ピクチャタイプ選定部105は、結合判定部104が出力する判定結果を判定する(ステップS113)。ピクチャタイプ選定部105は、判定結果が「False」の場合(ステップS113−False)、新たな参照グループの最後のフレームであるγフレーム、すなわち結合前の処理中の参照グループのCフレームを起点フレームとすることを示す情報を参照グループ生成部103に出力する(ステップS115)。参照グループ生成部103は、ピクチャタイプ選定部105が出力するCフレームを起点フレームとすることを示す情報を受けて、Cフレームを起点フレームとして(ステップS116)、ステップS102の処理に進む。
The picture
一方、ピクチャタイプ選定部105は、判定結果が「True」の場合(ステップS113−True)、βフレームのピクチャタイプをαフレームとγフレームを参照フレームとするBピクチャとして選定し、βフレームをBピクチャとして選定したことを示す情報、及びαフレームとγフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、ピクチャタイプ選定部105は、γフレームのピクチャタイプをPピクチャとして選定し、γフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS114)。
On the other hand, when the determination result is "True" (step S113-True), the picture
ピクチャタイプ選定部105は、新たな参照グループの最後のフレームであるγフレーム、すなわち結合前の処理中の参照グループのCフレームを起点フレームとすることを示す情報を参照グループ生成部103に出力する(ステップS115)。参照グループ生成部103は、ピクチャタイプ選定部105が出力するCフレームを起点フレームとすることを示す情報を受けて、Cフレームを起点フレームとして(ステップS116)、ステップS102の処理に進む。
The picture
一方、ステップS102において、参照グループ生成部103は、連続する3枚のフレームを選択することができないと判定した場合(ステップS102−NO)、フレーム群の残りのフレームをPピクチャとして選定させる指示情報をピクチャタイプ選定部105に出力する。
On the other hand, when it is determined in step S102 that the reference
ピクチャタイプ選定部105は、参照グループ生成部103から当該指示情報を受けて、残りのフレームのピクチャタイプをPピクチャとして選定し、残りのフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS103)。ピクチャタイプ選定部105は、Pピクチャとして選定したフレームの各々に対して、当該フレームに表示順で最も近い過去のPピクチャのフレームを参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャを当該フレームの参照フレームとして選定する。ピクチャタイプ選定部105は、各Pピクチャに対して選定した参照フレームの情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS104)。
The picture
これにより、ピクチャタイプ記憶部106に、最終的に構築された符号化構造の情報が記憶されることになる。ブロック出力部107は、内部の記憶領域に一時的に符号化対象フレーム選択部101から受けたフレーム群を記憶しており、ピクチャタイプ記憶部106に記憶されている符号化構造に基づく順番で内部の記憶領域からフレームを読み出す。ブロック出力部107は、読み出したフレームの各々をラスタースキャンの順にCUブロックに分解して符号化対象ブロックとして出力し、符号化構造構築部10は、1つのフレーム群についての処理を終了する。
As a result, the picture
(第1の実施形態の符号化構造処理の具体例)
次に、図5から図8を参照しつつ、図5(a)に示すフレーム群に、図3に示した第1の実施形態の符号化構造構築処理を適用した場合の例について説明する。符号化対象フレーム選択部101が、入力映像情報から図5(a)に示すフレーム群を生成する。当該フレーム群は、フレーム番号8とフレーム番号9のフレームにおいてシーンチェンジが含まれている。
(Specific Example of Encoding Structure Processing of First Embodiment)
Next, with reference to FIG. 5 to FIG. 8, an example in the case of applying the coding structure construction process of the first embodiment shown in FIG. 3 to the frame group shown in FIG. 5A will be described. The encoding target
図5(b)に示すように、Iピクチャ選定部102は、フレーム番号0のフレームのピクチャタイプをIピクチャとして選定し、当該フレームをIピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、Iピクチャ選定部102は、フレーム番号0のフレームを起点フレームとする(ステップS101)。
As shown in FIG. 5B, the I
参照グループ生成部103は、フレーム番号0のフレームを起点フレームとして、フレーム番号0,1,2の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号0,1,2のフレームをフレームA,B,Cとして含む参照グループ301を生成し、生成した参照グループ301の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ301において判定対象フレームは、フレーム番号1のフレームとなる。
The reference
結合判定部104は、参照グループ301に対して図4に示す結合判定処理を行い、ここでは、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「True」であるため(ステップS107−True)、フレーム番号1のフレームのピクチャタイプをフレーム番号0とフレーム番号2のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号2のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号2のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。
The
また、ピクチャタイプ選定部105は、フレーム番号2のフレームのピクチャタイプをPピクチャとして選定し、フレーム番号2のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループ301を示す情報を参照グループ生成部103に出力する(ステップS109)。
In addition, the picture
図5(c)に示すように、参照グループ生成部103は、判定結果記憶部112を参照し、参照グループ301に対して1つ前の参照グループが存在しないため(ステップS110−NO)、フレーム番号2のフレームを起点フレームとして(ステップS116)、フレーム番号2,3,4の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号2,3,4のフレームをフレームA,B,Cとして含む参照グループ302を生成し、生成した参照グループ302の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ302において判定対象フレームは、フレーム番号3のフレームとなる。
As shown in FIG. 5C, the reference
結合判定部104は、参照グループ302に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「True」であるため(ステップS107−True)、フレーム番号3のフレームのピクチャタイプをフレーム番号2とフレーム番号4のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号3のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号2とフレーム番号4のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。
The
また、ピクチャタイプ選定部105は、フレーム番号4のピクチャタイプをPピクチャとして選定し、フレーム番号4のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループ302を示す情報を参照グループ生成部103に出力する(ステップS109)。
Also, the picture
図6(d)に示すように、参照グループ生成部103は、判定結果記憶部112を参照し、参照グループ302に対して1つ前の参照グループ301の判定結果が「True」であると判定する(ステップS110−YES)。参照グループ生成部103は、フレーム番号0,2,4のフレームをフレームα,β,γとして含む参照グループ303を生成する。なお、参照グループ303において判定対象フレームは、フレーム番号2のフレームとなる。参照グループ生成部103は、生成した参照グループ303の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS111)。
As shown in FIG. 6D, the reference
結合判定部104は、参照グループ303に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS112)。ピクチャタイプ選定部105は、判定結果が「True」であるため(ステップS113−True)、フレーム番号2のフレームのピクチャタイプをフレーム番号0とフレーム番号4のフレームを参照フレームとするBピクチャとして選定する。
The
ピクチャタイプ記憶部106には、既に、フレーム番号2のフレームについて、Pピクチャであることを示す情報が書き込まれている。そのため、ピクチャタイプ選定部105は、フレーム番号2のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号4のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に上書きして記憶させる(ステップS114)。ピクチャタイプ選定部105は、次の起点フレームとなるフレーム番号4を示す情報を参照グループ生成部103に出力する(ステップS115)。
In the picture
図6(e)に示すように、参照グループ生成部103は、フレーム番号4のフレームを起点フレームとして(ステップS116)、フレーム番号4,5,6の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号4,5,6のフレームをフレームA,B,Cとして含む参照グループ304を生成し、生成した参照グループ304の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ304において判定対象フレームは、フレーム番号5のフレームとなる。
As shown in FIG. 6E, the reference
結合判定部104は、参照グループ304に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「True」であるため(ステップS107−True)、フレーム番号5のフレームのピクチャタイプをフレーム番号4とフレーム番号6のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号5のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号4とフレーム番号6のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。
The
また、ピクチャタイプ選定部105は、フレーム番号6のピクチャタイプをPピクチャとして選定し、フレーム番号6のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループ304を示す情報を参照グループ生成部103に出力する(ステップS109)。
Also, the picture
図6(f)に示すように、参照グループ生成部103は、判定結果記憶部112を参照し、参照グループ304に対して1つ前の参照グループ303の判定結果が「True」であると判定する(ステップS110−YES)。参照グループ生成部103は、フレーム番号0,4,6のフレームをフレームα,β,γとして含む参照グループ305を生成する。なお、参照グループ305において判定対象フレームは、フレーム番号4のフレームとなる。参照グループ生成部103は、生成した参照グループ305の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS111)。
As shown in FIG. 6F, the reference
結合判定部104は、参照グループ305に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS112)。ピクチャタイプ選定部105は、判定結果が「True」であるため(ステップS113−True)、フレーム番号4のフレームのピクチャタイプをフレーム番号0とフレーム番号6のフレームを参照フレームとするBピクチャとして選定する。
The
ピクチャタイプ記憶部106には、既に、フレーム番号4のフレームについて、Pピクチャであることを示す情報が書き込まれている。そのため、ピクチャタイプ選定部105は、フレーム番号4のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号6のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に上書きして記憶させる(ステップS114)。ピクチャタイプ選定部105は、次の起点フレームとなるフレーム番号6を示す情報を参照グループ生成部103に出力する(ステップS115)。
Information indicating that the frame of
図7(g)に示すように、参照グループ生成部103は、フレーム番号6のフレームを起点フレームとして(ステップS116)、フレーム番号6,7,8の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号6,7,8のフレームをフレームA,B,Cとして含む参照グループ306を生成し、生成した参照グループ306の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ306において判定対象フレームは、フレーム番号7のフレームとなる。
As shown in FIG. 7G, the reference
結合判定部104は、参照グループ306に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「True」であるため(ステップS107−True)、フレーム番号7のフレームのピクチャタイプをフレーム番号6とフレーム番号8のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号7のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号6とフレーム番号8のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。
The
また、ピクチャタイプ選定部105は、フレーム番号8のピクチャタイプをPピクチャとして選定し、フレーム番号8のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループ306を示す情報を参照グループ生成部103に出力する(ステップS109)。
In addition, the picture
図7(h)に示すように、参照グループ生成部103は、判定結果記憶部112を参照し、参照グループ306に対して1つ前の参照グループ305の判定結果が「True」であると判定する(ステップS110−YES)。参照グループ生成部103は、フレーム番号0,6,8のフレームをフレームα,β,γとして含む参照グループ307を生成する。なお、参照グループ307において判定対象フレームは、フレーム番号6のフレームとなる。参照グループ生成部103は、生成した参照グループ307の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS111)。
As shown in FIG. 7H, the reference
結合判定部104は、参照グループ307に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS112)。ピクチャタイプ選定部105は、判定結果が「True」であるため(ステップS113−True)、フレーム番号6のフレームのピクチャタイプをフレーム番号0とフレーム番号8のフレームを参照フレームとするBピクチャとして選定する。
The
ピクチャタイプ記憶部106には、既に、フレーム番号6のフレームについて、Pピクチャであることを示す情報が書き込まれている。そのため、ピクチャタイプ選定部105は、フレーム番号6のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号8のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に上書きして記憶させる(ステップS114)。ピクチャタイプ選定部105は、次の起点フレームとなるフレーム番号8を示す情報を参照グループ生成部103に出力する(ステップS115)。
In the picture
図7(i)に示すように、参照グループ生成部103は、フレーム番号8のフレームを起点フレームとして(ステップS116)、フレーム番号8,9,10の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号8,9,10のフレームをフレームA,B,Cとして含む参照グループ308を生成し、生成した参照グループ308の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ308において判定対象フレームは、フレーム番号9のフレームとなる。
As shown in FIG. 7I, the reference
結合判定部104は、参照グループ308に対して図4に示す結合判定処理を行う。図5(a)に示したように、フレーム番号8とフレーム番号9の間ではシーンチェンジがあるため、ここでは、評価値判定部111は、「False」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「False」であるため(ステップS107−False)、フレーム番号9のフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号9のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、フレーム番号9のフレームを起点フレームとする(ステップS108)。
The
図8(j)に示すように、参照グループ生成部103は、フレーム番号9のフレームを起点として3枚の連続するフレームを選択することができない(ステップS102−NO)。参照グループ生成部103は、残りのフレームであるフレーム番号10のフレームのピクチャタイプをPピクチャとして選定する指示情報をピクチャタイプ選定部105に出力する。ピクチャタイプ選定部105は、当該指示情報を受けて、フレーム番号10のフレームをPピクチャとして選定し、フレーム番号10のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS103)。
As shown in FIG. 8 (j), the reference
ピクチャタイプ選定部105は、ピクチャタイプ記憶部106に記憶されている情報を参照し、Pピクチャとして選定されている、フレーム番号8,9,10のフレームについて、表示順で最も近い過去のPピクチャのフレームを参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャのフレームを参照フレームとして選定する。ピクチャタイプ選定部105は、選定した参照フレームを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS104)。
The picture
フレーム番号8のフレームについては、表示順で最も近い過去のPピクチャがないため、フレーム番号0のIピクチャのフレームが参照フレームとなる。フレーム番号9のフレームについては、表示順で最も近い過去のPピクチャは、フレーム番号8のフレームとなる。フレーム番号10のフレームについては、表示順で最も近い過去のPピクチャは、フレーム番号9のフレームとなる。
As for the frame of
ピクチャタイプ記憶部106に記憶されている情報に基づいて構築された符号化構造を階層化すると、図8(k)に示すような、4階層のBピクチャの階層構造を有する符号化構造となる。
When the coding structure constructed based on the information stored in the picture
(結合判定処理の具体例)
次に、図9及び図10を参照しつつ、結合判定部104による結合判定処理の例について説明する。図9は、結合判定処理を適用するS,M,Eフレームの例であり、図9(i)は、S,M,Eフレームの3枚のフレームにおいてシーンチェンジがない例であり、(ii)は、MフレームとEフレームの間でシーンチェンジがある例であり、(iii)は、SフレームとMフレームの間でシーンチェンジがある例である。図9(iv)と(v)は、SフレームからEフレームにわたって部分的にシーンチェンジがある例である。
(Specific example of combination determination processing)
Next, an example of the connection determination process by the
この例において、相対評価用閾値Th_min,Th_maxとして、それぞれ「0.8」,「1.2」が定められており、絶対評価用閾値Th_absとして、「350」が定められているとする。 In this example, it is assumed that “0.8” and “1.2” are defined as the relative evaluation threshold Th_min and Th_max, and “350” is defined as the absolute evaluation threshold Th_abs.
図9(i)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「150」、「150」、「100」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(100,150)/150=100/150=2/3となる(ステップS202,S203)。2/3<0.8であるため(ステップS204、<Th_min)、評価値判定部111は、「True」を出力する(ステップS205)。
In the case of FIG. 9I, the evaluation
図9(ii)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「150」、「500」、「400」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(400,500)/150=400/150=8/3となる(ステップS202,S203)。8/3>1.2であるため(ステップS204、>Th_max)、評価値判定部111は、「False」を出力する(ステップS206)。
In the case of FIG. 9 (ii), the evaluation
図9(iii)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「500」、「150」、「400」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(400,150)/500=150/500=0.3となる(ステップS202,S203)。0.3<0.8であるため(ステップS204、<Th_min)、評価値判定部111は、「True」を出力する(ステップS205)。
In the case of FIG. 9 (iii), the evaluation
図9(iv)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「300」、「400」、「300」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(300,400)/300=300/300=1となる(ステップS202,S203)。0.8≦1≦1.2であるため(ステップS204、≧Th_minかつ≦Th_max)、評価値判定部111は、Biコストの値の大きさを絶対評価用閾値に基づいて判定する(ステップS207)。Biコストの値「300」<Th_abs「350」であるため(ステップS207、<Th_abs)、評価値判定部111は、「True」を出力する(ステップS208)。
In the case of FIG. 9 (iv), the evaluation
図9(v)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「400」、「500」、「400」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(400,500)/400=400/400=1となる(ステップS202,S203)。0.8≦1≦1.2であるため(ステップS204、≧Th_minかつ≦Th_max)、評価値判定部111は、Biコストの値の大きさを絶対評価用閾値に基づいて判定する(ステップS207)。Biコストの値「400」≧Th_abs「350」であるため(ステップS207、≧Th_abs)、評価値判定部111は、「False」を出力する(ステップS206)。
In the case of FIG. 9 (v), the evaluation
上記の第1の実施形態の構成により、符号化構造構築部10において、符号化対象フレーム選択部101が、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成する。Iピクチャ選定部102は、フレーム群の最初のフレームをIピクチャとして選定し、起点フレームとする。参照グループ生成部103は、起点フレームを起点として3枚の連続するフレームを選択し、選択した3枚のフレームをA,B,Cフレームとして参照グループを生成する。結合判定部104の評価値算出部110は、参照グループに含まれるA,B,Cフレームに基づいて、L0コスト、L1コスト、Biコストという3つの評価値を算出する。評価値判定部111は、BiコストとL1コストのうち値の小さい方を選択し、L0コストの値を基準とした相対値と、予め定められる相対評価用閾値Th_min,Th_maxとに基づいて、判定対象フレームであるBフレームと、AとCフレームの参照関係を結合するか否かを判定する。また、評価値判定部111は、相対値が、Th_minの値以上であって、かつTh_maxの値以下の範囲に含まれる場合、更に、Biコストの値と、絶対評価用閾値Th_absとに基づいて、判定対象フレームであるBフレームと、AとCフレームの参照関係を結合するか否かを判定する。ピクチャタイプ選定部105は、評価値判定部111が、Bフレームと、AとCフレームの参照関係を結合すると判定した場合、Bフレームを、AとCフレームを参照フレームとするBピクチャとして選定する。すなわち、符号化構造構築部10では、実際の符号化を行うような演算を行っておらず、3つのフレームに基づいて3つの評価値を算出し、算出した3つの評価値に基づいて、3つのフレームの参照関係を結合するか否かを判定している。このため、第1の実施形態の符号化構造構築部10では、符号化効率の高い符号化構造を低演算量で求めることが可能となる。
According to the configuration of the first embodiment, in the coding
また、参照グループ生成部103は、評価値判定部111が、判定対象フレームと最初と最後のフレームの参照関係を結合すると判定した隣接する2つの参照グループを結合して重複するフレームを判定対象フレームとする新たな参照グループを生成することを繰り返す。結合判定部104は、参照グループ生成部103が、新たに生成した参照グループのα,β,γフレームに基づいて、結合判定処理を行う。これにより、第1の実施形態の符号化構造構築部10では、2階層以上の深い階層の符号化構造を構築することが可能となっており、符号化効率を向上させることが可能となっている。例えば、上述したように、図8(k)の例では、4階層のBピクチャの階層構造を有する符号化構造を構築することができることを示している。
Further, the reference
(第2の実施形態)
図11は、本発明の第2の実施形態における符号化構造構築部10aの構成を示すブロック図である。符号化構造構築部10aは、第1の実施形態の映像符号化装置1の符号化構造構築部10に置き換えて適用される機能部である。なお、第2の実施形態の符号化構造構築部10aが適用される場合、映像符号化装置の符号を「1」に替えて「1a」で表すものとする。第2の実施形態において、第1の実施形態と同一の構成については、同一の符号を付し、以下、第1の実施形態の符号化構造構築部10と異なる構成について説明する。
Second Embodiment
FIG. 11 is a block diagram showing the configuration of the coding
符号化構造構築部10aは、符号化対象フレーム選択部101、Iピクチャ選定部102a、参照グループ生成部103a、結合判定部104、ピクチャタイプ選定部105a、ピクチャタイプ記憶部106、ブロック出力部107、及び参照グループ記憶部108を備える。
The coding
符号化構造構築部10aにおいて、Iピクチャ選定部102aは、フレーム群の最初のフレームをIピクチャとして選定する。参照グループ生成部103aは、初期値をi=0、j=0とし、フレーム群からフレーム番号が「2j」,「2j+2i」,「2j+2(i+1)」の3枚のフレームを含む参照グループを生成することができなくなるまで、jに1を加算しつつ、jがN/2未満の間繰り返す。ここで、Nの値は、フレーム群に含まれるフレームに付与されるフレーム番号の最大値であり、フレーム群のフレーム数から「1」減算した値である。
In the coding
また、参照グループ生成部103aは、選択したフレーム番号が「2j」,「2j+2i」,「2j+2(i+1)」のフレームの組み合わせの各々において、3つのフレームをA,B,Cフレームとし、A,B,Cフレームを含む、iとjのインデックスが付いた参照グループRef[i][j]を生成する(ただし、A,B,Cフレームを含む参照グループを生成する場合、i=0に固定され、jのみが変数となる)。また、参照グループ生成部103aは、生成した参照グループRef[0][j]を参照グループ記憶部108に書き込んで記憶させる。
In addition, the reference
また、参照グループ生成部103aは、初期値をi=1,j=0として、参照グループRef[i−1][j]とRef[i−1][j+1]の両方において、結合判定部104が判定した判定結果が「True」となっている組み合わせの検出を、jに2を加算しつつ、jがN/2未満の間繰り返すことを、更に、iに1加算しつつ、iがdepth_max未満の間繰り返し行う。ここで、depth_maxは、予め定めらえる構築する符号化構造の階層数を示す値であり、3階層の場合、depth_maxは、「3」となる。
Further, the reference
また、参照グループ生成部103aは、検出した参照グループRef[i−1][j]とRef[i−1][j+1]の組み合わせの各々において、Ref[i−1][j]の最初と最後のフレームと、Ref[i−1][j+1]の最後のフレームの3つのフレームをα,β,γフレームとして選択する。また、参照グループ生成部103aは、選択したα,β,γフレーム含む新たな参照グループを参照グループRef[i]「j/2」として参照グループ記憶部108に書き込んで記憶させる。
In addition, the reference
ピクチャタイプ選定部105aは、結合判定部104が出力する判定結果にしたがって、参照グループRef[i][j]に含まれるフレームのピクチャタイプを選定する。また、ピクチャタイプ選定部105aは、参照グループ生成部103aが、フレーム番号が「2j」,「2j+2i」,「2j+2(i+1)」のフレームを選択できないと判定した場合、残りのフレームをPピクチャとして選定する。
The picture
また、ピクチャタイプ選定部105aは、全てのフレームについて、ピクチャタイプを選定した後、Pピクチャとして選定したフレームに対して、当該フレームに表示順で最も近い過去のPピクチャとして選定されたフレームを当該フレームの参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャのフレームを当該フレームの参照フレームとして選定する。参照グループ記憶部108は、参照グループ生成部103aが生成した参照グループRef[i][j]を記憶する。
Further, after selecting the picture types for all the frames, the picture
(第2の実施形態の符号化構造構築処理)
次に、第2の実施形態の符号化構造構築部10aによる処理について説明する。図12及び図13は、符号化構造構築部10による符号化構造構築処理の流れを示すフローチャートである。図12と図13に示す処理は、符号Aで示される箇所で処理が接続される連続した処理である。図12に示す符号Aで示される箇所に至るまでの処理は、i=0で示される1階層目の符号化構造を構築する処理であり、図13に示す処理は、i=1,2で示される2階層目、3階層目の符号化構造を構築する処理である。
(Coding structure construction processing of the second embodiment)
Next, processing by the coding
符号化対象フレーム選択部101は、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成する。符号化対象フレーム選択部101は、生成したフレーム群に対して表示順に「0」からフレーム番号を付与してIピクチャ選定部102aとブロック出力部107に出力する。Iピクチャ選定部102aは、フレーム群の最初のフレーム、すなわちフレーム番号0のフレームのピクチャタイプをIピクチャとして選定する。Iピクチャ選定部102aは、フレーム番号0のフレームをIピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS301)。
The encoding target
参照グループ生成部103aは、i=0,j=0とし(ステップS302)、フレーム群からフレーム番号が「2j」,「2j+2i」,「2j+2(i+1)」の3つのフレームを選択できるか否かを判定する(ステップS303)。
The reference
参照グループ生成部103aは、3枚のフレームを選択することができると判定した場合(ステップS303−YES)、参照グループ生成部103aは、3枚のフレームを表示順にA,B,Cフレームとして含む参照グループRef[0][j]を生成する。参照グループ生成部103aは、生成した参照グループRef[0][j]を参照グループ記憶部108に書き込んで記憶させる(ステップS305)。なお、当該参照グループにおいて判定対象フレームは、Bフレームとなる。
When the reference
結合判定部104は、参照グループ生成部103aによって参照グループ記憶部108に参照グループRef[0][j]の情報が書き込まれると、書き込まれた参照グループRef[0][j]に含まれるA,B,CフレームをS,M,Eフレームとして図4に示す結合判定処理を行う(ステップS306)。
When the information on the reference group Ref [0] [j] is written to the reference
ピクチャタイプ選定部105aは、結合判定部104が出力する判定結果を判定する(ステップS307)。ピクチャタイプ選定部105aは、判定結果が「False」の場合(ステップS307−False)、参照グループRef[0][j]のBフレームとCフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[0][j]のBフレームとCフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS308)。
The picture
一方、ピクチャタイプ選定部105aは、判定結果が「True」の場合(ステップS307−True)、参照グループRef[0][j]のBフレームのピクチャタイプをAフレームとCフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[0][j]のBフレームをBピクチャとして選定したことを示す情報、及びAフレームとCフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、ピクチャタイプ選定部105aは、参照グループRef[0][j]のCフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[0][j]のCフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS309)。
On the other hand, when the determination result is “True” (step S 307 -True), the picture
ステップS308及びステップS309の処理の後、ピクチャタイプ選定部105aは、処理を継続する指示情報を参照グループ生成部103aに出力する。参照グループ生成部103aは、jの値に「1」を加算し(ステップS310)、jの値がN/2未満か否かを判定する(ステップS311)。参照グループ生成部103aは、jの値がN/2未満であると判定した場合(ステップS311−YES)、ステップS303からの処理を繰り返す。一方、参照グループ生成部103aは、jの値がN/2未満でないと判定した場合(ステップS311−NO)、符号Aで示される箇所を介して図13に示す処理を開始する。
After the processes of steps S308 and S309, the picture
一方、参照グループ生成部103aは、3枚のフレームを選択することができないと判定した場合(ステップS303−NO)、フレーム群の残りのフレームをPピクチャとして選定させる指示情報をピクチャタイプ選定部105aに出力する。ピクチャタイプ選定部105aは、参照グループ生成部103aから当該指示情報を受けて、残りのフレームのピクチャタイプをPピクチャとして選定し、残りのフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS304)。参照グループ生成部103aは、当該指示情報をピクチャタイプ選定部105aに出力し、その後、符号Aで示される箇所を介して図13に示す処理を開始する。
On the other hand, when the reference
図13に示すように、参照グループ生成部103aは、i=1,j=0とし(ステップS312)、結合判定部104の判定結果記憶部112を参照し、参照グループRef[i−1][j]と、Ref[i−1][j+1]の判定結果が共に「True」であるか否かを判定する(ステップS313)。参照グループ生成部103aは、参照グループRef[i−1][j]と、Ref[i−1][j+1]の判定結果が共に「True」でないと判定した場合(ステップS313−NO)、処理をステップS318に進める。
As shown in FIG. 13, the reference
一方、参照グループ生成部103aは、参照グループRef[i−1][j]と、Ref[i−1][j+1]の判定結果が共に「True」であると判定した場合(ステップS313−YES)、参照グループRef[i−1][j]の最初と最後のフレームと、参照グループRef[i−1][j+1]の最後のフレームの3つのフレームをα,β,γフレームとして選択する。参照グループ生成部103aは、選択したα,β,γフレームを含む参照グループRef[i][j/2]を生成し、生成した参照グループRef[i][j/2]を参照グループ記憶部108に書き込んで記憶させる(ステップS314)。
On the other hand, when the reference
結合判定部104は、参照グループ生成部103aによって参照グループ記憶部108に参照グループRef[i][j/2]の情報が書き込まれると、書き込まれた参照グループRef[i][j/2]に含まれるα,β,γフレームをS,M,Eフレームとして図4に示す結合判定処理を行う(ステップS315)。
When the information on the reference group Ref [i] [j / 2] is written to the reference
ピクチャタイプ選定部105aは、結合判定部104が出力する判定結果を判定する(ステップS316)。ピクチャタイプ選定部105aは、判定結果が「False」の場合(ステップS316−False)、処理をステップS318に進める指示情報を参照グループ生成部103aに出力する。
The picture
一方、ピクチャタイプ選定部105aは、判定結果が「True」の場合(ステップS316−True)、参照グループRef[i][j/2]のβフレームのピクチャタイプをαフレームとγフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[i][j/2]のβフレームをBピクチャとして選定したことを示す情報、及びαフレームとγフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、ピクチャタイプ選定部105aは、参照グループRef[i][j/2]のγフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[i][j/2]のγフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105aは、処理をステップS318に進める指示情報を参照グループ生成部103aに出力する(ステップS317)。
On the other hand, when the determination result is "True" (step S316-True), the picture
参照グループ生成部103aは、jの値に「2」を加算し(ステップS318)、jの値がN/2未満であるか否かを判定する(ステップS319)。参照グループ生成部103aは、jの値がN/2未満であると判定した場合(ステップS319−YES)、ステップS313からの処理を繰り返す。
The reference
一方、参照グループ生成部103aは、jの値がN/2未満でないと判定した場合(ステップS319−NO)、iの値に「1」を加算し、j=0とする(ステップS320)。
参照グループ生成部103aは、iの値が、depth_max(ここでは、depth_max=3)未満であるか否かを判定する(ステップS321)。参照グループ生成部103aは、iの値が、depth_max未満であると判定した場合(ステップS321−YES)、ステップS313からの処理を繰り返す。一方、参照グループ生成部103aは、iの値が、depth_max未満でないと判定した場合(ステップS321−NO)、ピクチャタイプ選定部105aに、Pピクチャのフレームに対する参照フレームを選択させる指示情報を出力する。
On the other hand, when it is determined that the value of j is not less than N / 2 (step S319-NO), the reference
The reference
ピクチャタイプ選定部105aは、当該指示情報を受けて、Pピクチャとして選定したフレームの各々に対して、当該フレームに表示順で最も近い過去のPピクチャのフレームを当該フレームの参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャのフレームを当該フレームの参照フレームとして選定する。ピクチャタイプ選定部105aは、各Pピクチャに対して選定した参照フレームの情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS322)。
In response to the instruction information, the picture
これにより、ピクチャタイプ記憶部106に、最終的に構築された符号化構造の情報が記憶されることになる。ブロック出力部107は、内部の記憶領域に一時的に符号化対象フレーム選択部101から受けたフレーム群を記憶しており、ピクチャタイプ記憶部106に記憶されている符号化構造に基づく順番で内部の記憶領域からフレームを読み出す。ブロック出力部107は、読み出したフレームの各々をラスタースキャンの順にCUブロックに分解して符号化対象ブロックとして出力し、符号化構造構築部10aは、1つのフレーム群についての処理を終了する。
As a result, the picture
(第2の実施形態の符号化構造構築処理の具体例)
次に、図14から図16を参照しつつ、図14(a)に示すフレーム群に、図12及び図13に示した第2の実施形態の符号化構造構築処理を適用した場合の例について説明する。符号化対象フレーム選択部101が、入力映像情報から図14(a)に示すフレーム群を生成する。当該フレーム群は、フレーム番号4とフレーム番号5のフレームにおいてシーンチェンジが含まれている。
(Specific Example of Encoding Structure Construction Process of Second Embodiment)
Next, referring to FIG. 14 to FIG. 16, an example in the case of applying the coding structure construction process of the second embodiment shown in FIG. 12 and FIG. 13 to the frame group shown in FIG. explain. The encoding target
図14(b)に示すように、Iピクチャ選定部102aによってフレーム番号0のフレームがIピクチャとして選定された後、参照グループ生成部103aによって、フレーム番号(0,1,2)のフレームを含む参照グループRef[0][0]が参照グループ記憶部108に書き込まれる(ステップS303,S305)。結合判定部104は、参照グループ記憶部108に書き込まれた参照グループRef[0][0]に対して図4に示す結合判定処理を行い、ここでは、シーンチェンジがないため、結合判定部104の評価値判定部111が「True」を出力したとする(ステップS315)。
As shown in FIG. 14B, after the frame of
ピクチャタイプ選定部105aは、結合判定部104が出力する判定結果が、「True」であるため、フレーム番号1のフレームのピクチャタイプをフレーム番号0とフレーム番号2のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号2のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号2のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。
Since the determination result output from the
また、ピクチャタイプ選定部105aは、フレーム番号2のフレームのピクチャタイプをPピクチャとして選定し、フレーム番号2のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS309)。
Further, the picture
参照グループ生成部103aは、jの値がN/2未満の間、jに1を加算し、フレーム番号(2,3,4)のフレームを含む参照グループRef[0][1]、フレーム番号(4,5,6)のフレームを含む参照グループRef[0][2]、フレーム番号(6,7,8)のフレームを含む参照グループRef[0][3]、フレーム番号(8,9,10)のフレームを含む参照グループRef[0][4]を参照グループ記憶部108に書き込んで記憶させていく。結合判定部104は、新たな参照グループが参照グループ記憶部108に書き込まれるごとに、図4に示す結合判定処理を行う。その結果、図14(b)に示すように、シーンチェンジを含む参照グループRef[0][2]については、判定結果として「False」を出力し、参照グループRef[0][2]以外については「True」を出力する。
The reference
その結果、ピクチャタイプ選定部105aは、フレーム番号1〜10のフレームについて図14(b)に示すようなピクチャタイプを選定する。すなわち、結合判定部104によって、「True」と判定された参照グループRef[0][0],Ref[0][1],Ref[0][3]、Ref[0][4]の各々の判定対象フレームのBフレームは、各々のAとCのフレームを参照するBピクチャとして選定され、Cフレームは、Pピクチャとして選定される。これに対して、結合判定部104によって、「False」と判定された参照グループRef[0][2]のフレームは、BフレームとCフレームは、Pピクチャとして選定される。
As a result, the picture
参照グループ生成部103aが、図13に示すように、i=1,j=0として(ステップS312)、最初に、結合判定部104の判定結果記憶部112に記憶されている参照グループRef[0][0]と、参照グループRef[0][1]の判定結果を参照する。参照グループRef[0][0]と、参照グループRef[0][1]の判定結果は、共に「True」であるため(ステップS313−YES)、参照グループ生成部103aは、参照グループRef[0][0]の最初と最後のフレーム、及び参照グループRef[0][1]の最後のフレーム、すなわちフレーム番号0,2,4のフレームをα、β,γフレームとして含む参照グループRef[1][0]を生成する。
As shown in FIG. 13, the reference
図15(c)に示すように、参照グループ生成部103aは、生成した参照グループRef[1][0]を参照グループ記憶部108に書き込んで記憶させる(ステップS314)。結合判定部104は、参照グループ記憶部108に書き込まれた参照グループRef[1][0]に対して図4に示す結合判定処理を行い、ここでは、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS315)。ピクチャタイプ選定部105aは、判定結果が「True」であるため(ステップS316−True)、参照グループRef[1][0]の判定対象フレームであるフレーム番号2のフレームのピクチャタイプをフレーム番号0とフレーム番号4のフレームを参照フレームとするBピクチャとして選定する。
As shown in FIG. 15C, the reference
ピクチャタイプ記憶部106には、既に、フレーム番号2のフレームについて、Pピクチャであることを示す情報が書き込まれている。そのため、ピクチャタイプ選定部105aは、フレーム番号2のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号4のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に上書きして記憶させる。
In the picture
また、ピクチャタイプ選定部105aは、γフレームであるフレーム番号4のフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ記憶部106には、既に、フレーム番号4のフレームについて、Pピクチャであることを示す情報が書き込まれているが、ピクチャタイプ選定部105aは、フレーム番号4のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に上書きして記憶させる(ステップS317)。
Further, the picture
参照グループ生成部103aは、jの値に2を加算してj=2とし(ステップS318)、jの値がN/2(N=10)未満であるため(ステップS319−YES)、結合判定部104の判定結果記憶部112に記憶されている参照グループRef[0][2]と、参照グループRef[0][3]の判定結果を参照する。参照グループRef[0][2]の判定結果は「False」であるため、参照グループ生成部103aは、参照グループRef[0][2]と、参照グループRef[0][3]の判定結果が共に「True」でないと判定する(ステップS313−NO)。したがって、図15(c)に、説明の便宜上示している参照グループRef[1][1]は、参照グループ生成部103aによって生成されないことになる。
The reference
参照グループ生成部103aは、jの値に2を加算してj=4とし(ステップS318)、jの値がN/2(N=10)未満であるため(ステップS319−YES)、参照グループRef[0][4]と、参照グループRef[0][5]の判定結果を参照しようとする。しかし、参照グループRef[0][5]が存在しないため、参照グループ生成部103aは、参照グループRef[0][4]と、参照グループRef[0][5]の判定結果が、共に「True」でないと判定する(ステップS313−NO)。参照グループ生成部103aは、jの値に2を加算してj=6とし(ステップS318)、jの値がN/2(N=10)未満ではなくなるため(ステップS319−NO)、iの値に「1」を加算してi=1とし、j=0とする(ステップS320)。
The reference
iの値は、depth_max(depth_max=3)未満であるため(ステップS321−YES)、参照グループ生成部103aは、結合判定部104の判定結果記憶部112に記憶されている参照グループRef[1][0]と、参照グループRef[1][1]の判定結果を参照しようとする。しかし、前述の通り、参照グループRef[1][1]は生成されていないため、参照グループ生成部103aは、参照グループRef[0][4]と、参照グループRef[0][5]の判定結果が、共に「True」でないと判定する(ステップS313−NO)。したがって、図15(d)に、説明の便宜上示している参照グループRef[2][0]は、参照グループ生成部103aによって生成されないことになる。
Since the value of i is less than depth_max (depth_max = 3) (step S 321 -YES), the reference
その後、ステップS318及びS319の処理が、jがN/2未満でなくなるまで繰り返され、更にステップS320においてiの値に「1」が加えられi=2,j=0となる。iの値は、depth_max未満であるため(ステップS321−YES)、処理が継続されるが、前述の通り、図15(d)に示す参照グループRef[2][0]は、参照グループ生成部103aによって生成されていないため、ステップS313の判定は、「NO」となる。再び、ステップS318及びS319の処理が、jが、N/2未満でなくなるまで繰り替えされ、ステップS320においてiの値に「1」が加えられて、i=3,j=0となる。参照グループ生成部103aは、iの値が、depth_max未満でなくなるため(ステップS321−NO)、ピクチャタイプ選定部105aに、Pピクチャのフレームに対する参照フレームを選択させる指示情報を出力する。
Thereafter, the processes of steps S318 and S319 are repeated until j is not less than N / 2, and further, "1" is added to the value of i in step S320, and i = 2, j = 0. Since the value of i is less than depth_max (step S 321 -YES), the process is continued, but as described above, the reference group Ref [2] [0] shown in FIG. Since it is not generated by 103a, the determination in step S313 is "NO". Again, the processing in steps S318 and S319 is repeated until j is not less than N / 2, and “1” is added to the value of i in step S320, i = 3, j = 0. Since the value of i is not less than depth_max (NO in step S 321), the reference
ピクチャタイプ選定部105aは、当該指示情報を受けて、Pピクチャとして選定したフレームの各々に対して、当該フレームに表示順で最も近い過去のPピクチャのフレームを当該フレームの参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャのフレームを当該フレームの参照フレームとして選定する。ピクチャタイプ選定部105aは、各Pピクチャに対して選定した参照フレームの情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS322)。これにより、ピクチャタイプ記憶部106に、図16(e)に示す、2階層のBピクチャの階層構造を有する符号化構造が記憶されることになる。
In response to the instruction information, the picture
上記の第2の実施形態の構成により、符号化構造構築部10aにおいて、符号化対象フレーム選択部101が、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成する。Iピクチャ選定部102aは、フレーム群の最初のフレームをIピクチャとして選定する。参照グループ生成部103aは、i=0、j=0とし、フレーム群からフレーム番号が「2j」,「2j+2i」,「2j+2(i+1)」のフレームをjに「1」を加算しつつ繰り返し選択し、選択した3枚のフレームをA,B,Cフレームとして含む参照グループRef[0][j]を生成する。結合判定部104の評価値算出部110は、参照グループに含まれるA,B,Cフレームに基づいて、L0コスト、L1コスト、Biコストという3つの評価値を算出する。評価値判定部111は、BiコストとL1コストのうち値の小さい方を選択し、L0コストの値を基準とした相対値と、予め定められる相対評価用閾値Th_min,Th_maxとに基づいて、判定対象フレームであるBフレームと、AとCフレームの参照関係を結合するか否かを判定する。また、評価値判定部111は、相対値が、Th_minの値以上であって、かつTh_maxの値以下の範囲に含まれる場合、更に、Biコストの値と、絶対評価用閾値Th_absとに基づいて、判定対象フレームであるBフレームと、AとCフレームの参照関係を結合するか否かを判定する。ピクチャタイプ選定部105aは、評価値判定部111が、Bフレームと、AとCフレームの参照関係を結合すると判定した場合、Bフレームを、AとCフレームを参照フレームとするBピクチャとして選定する。すなわち、符号化構造構築部10aでは、実際の符号化を行うような演算を行っておらず、3つのフレームに基づいて3つの評価値を算出し、算出した3つの評価値に基づいて、3つのフレームの参照関係を結合するか否かを判定している。このため、第2の実施形態の符号化構造構築部10aでは、符号化効率の高い符号化構造を低演算量で求めることが可能となる。
With the configuration of the second embodiment described above, in the coding
また、参照グループ生成部103aは、評価値判定部111が、判定対象フレームと最初と最後のフレームの参照関係を結合すると判定した隣接する2つの参照グループを結合して重複するフレームを判定対象フレームとする新たな参照グループを生成することを繰り返す。結合判定部104は、参照グループ生成部103aが、新たに生成した参照グループのα,β,γフレームに基づいて、結合判定処理を行う。これにより、第2の実施形態の符号化構造構築部10aでは、2階層以上の深い階層の符号化構造を構築することが可能となっており、符号化効率を向上させることが可能となっている。
Further, the reference
また、第1及び第2の実施形態の符号化構造構築部10,10aでは、評価値として、フレーム間において動き探索を行った場合の絶対誤差和の最小値を算出しており、動きベクトルのみではないため、複雑な入力映像に対しても精度よく結合判定を行うことが可能となっている。このため、第1及び第2の実施形態の符号化構造構築部10,10aは、符号化効率の高い符号化構造を低演算量で求めることを可能としている。
In addition, in the coding
第1及び第2の実施形態の符号化構造構築部10,10aでは、図4を参照して説明したように、ステップS207の絶対評価用閾値を用いたBiコストの絶対評価を行う前に、ステップS204において、L0コストを基準とした相対評価を行っている。このため、ロバストな判定を実現することができている。これに対して、非特許文献1に記載の技術では、評価値として、符号化コストの最小値のみを用いた絶対評価を行うようになっている。そのため、非特許文献1に記載の技術の手法を、図9(ii)及び(iii)に示すフレームに適用した場合、インターコストが十分に大きいと仮定すると、どちらも同じ「150」の値が算出されることになる。したがって、非特許文献1に記載の技術では、第1及び第2の実施形態の評価値判定部111のように、図9(ii)の方を結合しないとし、図9(iii)の方を結合するとする異なる判定を行うことができない。
In the coding
図9(ii)及び(iii)の双方において結合するとした場合、図9(iii)では、Mフレームにおいて、同シーンであるEフレームを参照するメリットがあるため結合することが有効と考えられる。これに対して、図9(ii)では、Mフレームと、Eフレームとは異なるシーンとなるため、誤った判定となる可能性が高い。結合しないとした場合、逆に、図9(iii)が誤った判定となる可能性が高くなる。上述したように、第1及び第2の実施形態における評価値判定部111では、図9(ii)の方を結合しないとし、図9(iii)の方を結合するとする異なる判定を行うことができるため、どちらのケースに対しても符号化効率を向上させることができる。これは、Mフレームに着目した際に、Eフレームとの相関が高い、すなわちL0コストよりも、L1コストまたはBiコストが十分小さい場合に結合するメリットが得られるということを反映した評価となっているためである。
When combining is performed in both of FIG. 9 (ii) and (iii), in FIG. 9 (iii), since there is a merit in referring to the E frame which is the same scene in M frame, combining is considered effective. On the other hand, in FIG. 9 (ii), since the M frame and the E frame are different scenes, there is a high possibility of an erroneous determination. On the contrary, in the case of not combining, there is a high possibility that the determination in FIG. As described above, in the evaluation
また、上記の第1及び第2の実施形態において、結合判定部104は、参照グループ生成部103,103aが生成する参照グループの判定対象フレームと、最初と最後のフレームの3枚のフレームを単位として結合判定処理を行うことを前提としているが、本発明の構成は、当該実施の形態に限られない。例えば、非特許文献1に記載の技術に対して適用するようにしてもよい。上述したように、非特許文献1に記載の技術では、基準フレームと、選択したPフレームとの間に、これらを参照する中間フレームを定義する。基準フレームと中間フレームとの間に位置するフレームに対して、これらのフレームを基準フレームと中間フレームとを参照するBピクチャとした場合のコストを算出している。また、中間フレームとPピクチャとの間に位置するフレームに対して、これらのフレームを基準フレームと中間フレームとを参照するBピクチャとした場合のコストを算出している。そして、算出したコストが最小となる組み合わせを最終的な符号化構造として選択している。これらのコストに替えて、非特許文献1に技術に結合判定部104を適用し、結合判定部104が算出する3つの評価値を用いて符号化構造を構築するようにしてもよい。
In the first and second embodiments described above, the
なお、上記の第1及び第2の実施形態では、結合判定の結果にしたがって、BフレームをPピクチャとして選定したり、CフレームをPピクチャとして選定したり、γフレームをPピクチャとして選定したり、また、3つのフレームを選択することができない場合に、残りのフレームをPピクチャとして選定したりしているが、本発明の構成は、当該実施の形態に限られない。例えば、Iピクチャから予め定められる間隔で、事前にPピクチャとするフレームを選定しておいてもよいし、結合判定の結果、Bピクチャとするフレームを全て選定した後、IピクチャとBピクチャのフレーム以外のフレームをPピクチャとするようにしてもよい。 In the first and second embodiments described above, a B frame is selected as a P picture, a C frame is selected as a P picture, and a γ frame is selected as a P picture according to the result of connection determination. Also, when three frames can not be selected, the remaining frames are selected as P pictures, but the configuration of the present invention is not limited to this embodiment. For example, a frame to be a P picture may be selected in advance at an interval determined in advance from the I picture, or after all frames to be a B picture have been selected as a result of the combination determination, Frames other than the frame may be P pictures.
また、上記の第1及び第2の実施形態では、3枚の連続するフレームを参照グループとして生成するようにしているが、3枚以上であってもよい。 In the first and second embodiments described above, three consecutive frames are generated as a reference group, but three or more frames may be generated.
また、上記の第1及び第2の実施形態では、隣接する参照グループにおいて重複するフレームが1枚になるように、隣接する参照グループを生成するようにしているが、1枚以上のフレームが重複するように隣接する参照グループを生成してもよい。複数枚のフレームが重複する場合、重複しているフレームのいずれかから判定対象フレームが選択されることになる。 In the first and second embodiments described above, adjacent reference groups are generated so that one overlapping frame is included in adjacent reference groups, but one or more frames overlap. Adjacent reference groups may be generated. When a plurality of frames overlap, the determination target frame is selected from any of the overlapping frames.
また、上記の第1及び第2の実施形態において参照グループ生成部103,103aは、隣接する参照グループの判定結果に基づいて、新たな参照グループを生成して2階層以上の符号化構造を構築するようになっているが、1階層のみを構築する処理を行うようにしてもよい。
Also, in the first and second embodiments described above, the reference
また、上記の第1及び第2の実施形態において参照グループ生成部103,103aは、表示順で過去の隣接する参照グループを結合して新たな参照グループを生成するようにしているが、本発明の実施の形態は、当該実施の形態に限られない。例えば、表示順で未来の隣接する参照グループを結合してもよいし、過去と未来の双方で隣接する参照グループを結合してもよい。
Further, in the first and second embodiments described above, the reference
また、上記の第1及び第2の実施形態において、評価値判定部111は、相対評価用閾値であるTh_min及びTh_max、並びに絶対評価用閾値であるTh_absに基づく判定を行っている。この判定において、評価値判定部111は、Th_min未満であるか否か、Th_maxを超過しているか否か、Th_abs未満であるか否かに基づく判定を行っているが、未満であるか否か、超過しているか否かという判定は、一例であり、Th_min以下であるか否か、Th_max以上であるか否か、Th_abs以下であるか否かに基づいて判定するようにしてもよい。
In the first and second embodiments described above, the evaluation
上述した第1及び第2の実施形態における映像符号化装置1,1aをコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
The
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within the scope of the present invention.
10…符号化構造構築部,101…符号化対象フレーム選択部,102…Iピクチャ選定部,103…参照グループ生成部,104…結合判定部,105…ピクチャタイプ選定部,106…ピクチャタイプ記憶部,107…ブロック出力部,110…評価値算出部,111…評価値判定部,112…判定結果記憶部
10 Coding
Claims (8)
入力映像情報から取得されるフレーム群から、予め定められる3枚以上の枚数の連続するフレームを含む参照グループを生成する参照グループ生成部と、
前記参照グループ生成部が生成する前記参照グループの最初と最後の前記フレームと、前記最初と最後のフレームの間のいずれか1つの判定対象フレームとに基づいて、前記フレーム間の誤差に関する評価値を算出する評価値算出部と、
前記評価値算出部が算出する前記評価値のうち前記判定対象フレームと前記最初のフレームとの間の前記評価値を基準とした他の前記評価値の相対値に基づいて、または前記相対値と前記判定対象フレームと前記最初と最後のフレーム双方との間の前記評価値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する評価値判定部と、
前記評価値判定部の判定結果に基づいて、前記フレーム群に含まれる前記フレームのピクチャタイプを選定するピクチャタイプ選定部と、
を備える映像符号化装置。 A video coding apparatus that performs interframe prediction coding, comprising:
A reference group generation unit that generates a reference group including a predetermined number of continuous frames of three or more from a frame group acquired from input video information;
Based on the first and last frames of the reference group generated by the reference group generation unit and any one determination target frame between the first and last frames, an evaluation value regarding the error between the frames is calculated. An evaluation value calculation unit to calculate;
Among the evaluation values calculated by the evaluation value calculation unit, based on relative values of other evaluation values based on the evaluation value between the determination target frame and the first frame, or with the relative value An evaluation value that determines whether or not the reference relationship between the determination target frame and the first and last frames is to be combined based on the determination target frame and the evaluation value between both the first and last frames. A judgment unit,
A picture type selection unit that selects a picture type of the frame included in the frame group based on the determination result of the evaluation value determination unit;
A video coding apparatus comprising:
前記判定対象フレームと前記最初のフレームとの間の前記フレーム間の誤差に関する第1の片方向評価値と、前記判定対象フレームと前記最後のフレームとの間の前記フレーム間の誤差に関する第2の片方向評価値と、前記判定対象フレームと前記最初と最後のフレーム双方との間の前記フレーム間の誤差に関する双方向評価値とを算出し、
前記評価値判定部は、
前記第2の片方向評価値と前記双方向評価値のうち小さい方の評価値を選択し、選択した前記評価値の前記第1の片方向評価値に対する相対的な値の大きさとして前記相対値を算出し、算出した前記相対値と、予め定められる相対評価用閾値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する、請求項1に記載の映像符号化装置。 The evaluation value calculation unit
A first one-way evaluation value regarding the inter-frame error between the determination target frame and the first frame, and a second one regarding the error between the determination target frame and the last frame Calculating a one-way evaluation value and a two-way evaluation value regarding an error between the frames between the determination target frame and both the first and last frames;
The evaluation value determination unit
The smaller one of the second one-way evaluation value and the two-way evaluation value is selected, and the relative value of the selected one of the evaluation values relative to the first one-way evaluation value is selected. A value is calculated, and it is determined whether or not the reference relationship between the frame to be determined and the first and last frames is combined based on the calculated relative value and a predetermined relative evaluation threshold value. The video encoding device according to Item 1.
前記評価値判定部は、
前記相対値が、前記第1の相対評価用閾値未満であるか否か基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定し、
前記相対値が、前記第1の相対評価用閾値未満でなく、前記判定対象フレームの参照フレームを前記最初と最後のフレームにしないと判定する場合、前記相対値が、前記第1の相対評価用閾値と前記第2の相対評価用閾値とにより定められる範囲の値である場合、前記双方向評価値と、予め定められる絶対評価用閾値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する、請求項2に記載の映像符号化装置。 The predetermined relative evaluation threshold includes a first relative evaluation threshold and a second relative evaluation threshold larger in value than the first relative evaluation threshold.
The evaluation value determination unit
It is determined whether or not the reference relationship between the frame to be determined and the first and last frames is combined based on whether or not the relative value is less than the first relative evaluation threshold.
When it is determined that the relative value is not less than the first relative evaluation threshold and the reference frame of the determination target frame is not the first and last frames, the relative value is for the first relative evaluation. In the case of the value of the range defined by the threshold value and the second relative evaluation threshold value, the determination target frame and the first and last frames are determined based on the bidirectional evaluation value and a predetermined absolute evaluation threshold value. The video encoding apparatus according to claim 2, wherein it is determined whether or not to combine reference relationships with frames.
前記評価値判定部により結合すると判定された前記参照グループの最初の前記フレーム、または最後の前記フレームが前記判定対象フレームとなるように、当該参照グループを含み前記予め定められる3枚以上の枚数よりも多い枚数の連続するフレームを含む新たな前記参照グループを生成し、
前記評価値算出部は、
前記新たな参照グループの最初と最後の前記フレームと、前記判定対象フレームとに基づいて、前記フレーム間の誤差に関する前記評価値を算出し、
前記評価値判定部は、
前記評価値算出部が算出する前記評価値のうち前記新たな参照グループの前記判定対象フレームと前記最初のフレームとの間の前記評価値を基準とした他の前記評価値の相対値、または前記相対値と、前記新たな参照グループの前記判定対象フレームと前記最初と最後のフレーム双方との間の前記評価値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する、請求項1から3のいずれか一項に記載の映像符号化装置。 The reference group generation unit
From the three or more predetermined number of sheets including the reference group such that the first frame or the last frame of the reference group determined to be combined by the evaluation value determination unit becomes the determination target frame Generate a new reference group including a large number of consecutive frames,
The evaluation value calculation unit
The evaluation value regarding the error between the frames is calculated based on the first and last frames of the new reference group and the determination target frame,
The evaluation value determination unit
Among the evaluation values calculated by the evaluation value calculation unit, a relative value of another evaluation value based on the evaluation value between the determination target frame of the new reference group and the first frame or the relative value of the evaluation value The reference relationship between the determination target frame and the first and last frames is determined based on the relative value and the evaluation value between the determination target frame of the new reference group and both the first and last frames. The video coding apparatus according to any one of claims 1 to 3, which determines whether or not to combine.
前記参照グループに隣接する他の参照グループを生成する際、当該参照グループの最後の前記フレームが、前記隣接する他の参照グループの最初の前記フレームとなるように重複させて前記予め定められる3枚以上の枚数の連続するフレームを含む前記参照グループを生成しており、
隣接する2つの前記参照グループの双方において前記評価値判定部が前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合すると判定する場合、当該隣接する2つの前記参照グループを結合して前記新たな参照グループを生成し、重複する前記フレームを前記判定対象フレームとする、請求項4に記載の映像符号化装置。 The reference group generation unit
When generating another reference group adjacent to the reference group, the three predetermined frames are overlapped such that the last frame of the reference group is the first frame of the other adjacent reference group Generating the reference group including the above number of consecutive frames,
When it is determined that the evaluation value determination unit combines the reference relationship between the determination target frame and the first and last frames in both two adjacent reference groups, the adjacent two reference groups are combined to each other. 5. The video encoding apparatus according to claim 4, wherein the new reference group is generated, and the overlapping frame is set as the determination target frame.
予め定めらえる構築する符号化構造の階層数の値にしたがって、前記新たな参照グループを生成することを繰り返す、請求項5に記載の映像符号化装置。 The reference group generation unit
The video coding apparatus according to claim 5, wherein generation of the new reference group is repeated according to a value of the number of layers of the coding structure to be defined in advance.
前記入力映像情報から前記フレーム群を取得し、取得した前記フレーム群の最初のフレームをIピクチャとして選定するIピクチャ選定部を備え、
前記ピクチャタイプ選定部は、
前記結合判定部が、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合すると判定する場合、前記判定対象フレームを前記最初と最後のフレームを参照フレームとするBピクチャとして選定し、
前記Iピクチャ、または前記Bピクチャとして選定されていない前記フレームを前記Pピクチャとして選定し、前記フレーム群の表示順において、選定した前記フレームに最も近い過去の前記Pピクチャの前記フレームを、選定した前記フレームの前記参照フレームとし、選定した前記フレームに最も近い過去の前記Pピクチャの前記フレームがない場合、前記Iピクチャの前記フレームを、選定した前記フレームの前記参照フレームとする、請求項1から6のいずれか一項に記載の映像符号化装置。 The picture type selection unit
And an I picture selection unit that acquires the frame group from the input video information and selects the first frame of the acquired frame group as an I picture,
The picture type selection unit
When the combination determination unit determines that the reference relationship between the determination target frame and the first and last frames is to be combined, the determination target frame is selected as a B picture having the first and last frames as reference frames,
The frame not selected as the I picture or the B picture is selected as the P picture, and the frame of the past P picture closest to the selected frame is selected in the display order of the frame group The reference frame of the frame, when there is no previous frame of the P picture closest to the selected frame, the frame of the I picture is the reference frame of the selected frame. 6. The video encoding device according to any one of 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017074619A JP6767299B2 (en) | 2017-04-04 | 2017-04-04 | Video coding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017074619A JP6767299B2 (en) | 2017-04-04 | 2017-04-04 | Video coding device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018182393A true JP2018182393A (en) | 2018-11-15 |
JP6767299B2 JP6767299B2 (en) | 2020-10-14 |
Family
ID=64276146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017074619A Active JP6767299B2 (en) | 2017-04-04 | 2017-04-04 | Video coding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6767299B2 (en) |
-
2017
- 2017-04-04 JP JP2017074619A patent/JP6767299B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP6767299B2 (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7564323B2 (en) | METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL BASED ON INTER PREDICTION - Patent application | |
US11343534B2 (en) | Method and device for obtaining motion vector of video image | |
JP7096896B2 (en) | Methods and equipment for video coding | |
JP2019115060A (en) | Encoder, encoding method, decoder, decoding method and program | |
JP4999859B2 (en) | Prediction reference information generation method, moving image encoding and decoding method, apparatus thereof, program thereof, and storage medium storing the program | |
JP5576048B2 (en) | Direct mode encoding and decoding method | |
US10554998B2 (en) | Image predictive encoding and decoding system | |
JP5197591B2 (en) | VIDEO ENCODING METHOD AND DECODING METHOD, DEVICE THEREOF, THEIR PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM | |
JP2021517392A5 (en) | ||
JP2022508074A (en) | Methods and equipment for multi-hypothesis signaling for skip and merge modes and distance offset table signaling for merge by motion vector differences. | |
JP6636615B2 (en) | Motion vector field encoding method, decoding method, encoding device, and decoding device | |
JP2015106747A (en) | Dynamic image encoding device, dynamic image encoding method and dynamic image encoding computer program | |
JP5216710B2 (en) | Decryption processing method | |
JP2021517798A (en) | Video processing method based on inter-prediction mode and equipment for that | |
JP2015195575A (en) | Moving picture encoding device and method | |
CN113709458B (en) | Displacement vector prediction method, device and equipment in video coding and decoding | |
CN114900691A (en) | Encoding method, encoder, and computer-readable storage medium | |
JP3466162B2 (en) | Image decoding apparatus and image decoding method | |
JP2006518157A (en) | Method and apparatus for object-based motion compensation | |
JP5711514B2 (en) | Encoding device, decoding device, encoding method, decoding method, encoding program, and decoding program | |
JP6626319B2 (en) | Encoding device, imaging device, encoding method, and program | |
JP2018182435A (en) | Motion vector prediction device and computer program | |
JP6767299B2 (en) | Video coding device | |
JP6767300B2 (en) | Video coding device | |
JP5281597B2 (en) | Motion vector prediction method, motion vector prediction apparatus, and motion vector prediction program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200917 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6767299 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |