JP2018182393A - Video encoding apparatus - Google Patents

Video encoding apparatus Download PDF

Info

Publication number
JP2018182393A
JP2018182393A JP2017074619A JP2017074619A JP2018182393A JP 2018182393 A JP2018182393 A JP 2018182393A JP 2017074619 A JP2017074619 A JP 2017074619A JP 2017074619 A JP2017074619 A JP 2017074619A JP 2018182393 A JP2018182393 A JP 2018182393A
Authority
JP
Japan
Prior art keywords
frame
frames
picture
reference group
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017074619A
Other languages
Japanese (ja)
Other versions
JP6767299B2 (en
Inventor
忍 工藤
Shinobu Kudo
忍 工藤
正樹 北原
Masaki Kitahara
正樹 北原
清水 淳
Atsushi Shimizu
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017074619A priority Critical patent/JP6767299B2/en
Publication of JP2018182393A publication Critical patent/JP2018182393A/en
Application granted granted Critical
Publication of JP6767299B2 publication Critical patent/JP6767299B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an encoding structure having high encoding efficiency using a low operation amount.SOLUTION: A video encoding apparatus generates a reference group including predetermined three or more continuous frames from a frame group acquired from input video information, calculates an evaluation value associated with an error between frames on the basis of an initial frame and a last frame of the reference group generated, and any one determination target frame between the initial frame and the last frame, determines whether or not to couple a reference relationship between a determination target frame, and the initial frame and the last frame on the basis of a relative value of other evaluation value using a reference of an evaluation value between the determination target frame and the initial frame among evaluation values calculated, or on the basis of the relative value and the evaluation values between the determination target frame and both of the initial frame and the last frame, and selects a picture type of the frame included in the frame group on the basis of the determination result.SELECTED DRAWING: Figure 2

Description

本発明は、映像符号化装置に関する。   The present invention relates to a video coding apparatus.

映像符号化の標準規格として、H.264/AVC(Advanced Video Coding)やH.265/HEVC(High Efficiency Video Coding)と呼ばれる映像符号化方式が策定されている。HEVCでは、イントラピクチャであるI(Intra)ピクチャと、インターピクチャであるP(Predictive)ピクチャと、B(Bi-directional predictive)ピクチャという複数のピクチャタイプが定義されている。各フレームには、いずれかのピクチャタイプが割り当てられる。   As a standard for video coding, H.3. H.264 / AVC (Advanced Video Coding) and H.264. A video coding scheme called H.265 / HEVC (High Efficiency Video Coding) has been formulated. In HEVC, a plurality of picture types are defined: I (Intra) picture which is an intra picture, P (Predictive) picture which is an inter picture, and B (Bi-directional predictive) picture. Each frame is assigned one of the picture types.

Iピクチャは、通常、数フレームごとに定められるピクチャタイプであり、符号化対象フレーム内の符号化済み画素から予測するイントラ予測モードのみが適用されるピクチャタイプである。Pピクチャ及びBピクチャは、イントラ予測モードか、または、符号化済みフレームから予測するインター予測モードが選択的に適用されるピクチャタイプである。Pピクチャは、時系列の過去のフレームを参照フレームとするのに対して、Bピクチャは、過去と未来のフレームを参照フレームとする。   The I picture is usually a picture type defined every several frames, and is a picture type to which only the intra prediction mode predicted from encoded pixels in the encoding target frame is applied. P picture and B picture are picture types to which an intra prediction mode or an inter prediction mode of predicting from a coded frame is selectively applied. P pictures use past frames in time series as reference frames, while B pictures use past and future frames as reference frames.

Iピクチャから次のIピクチャまでのフレーム群をGOP(Group Of Picture)といい、GOPごとに、Iピクチャの間隔や参照構造等の符号化構造を自由に設定することができる。代表的な符号化構造として、図17に示す低遅延符号化の符号化構造と、図18に示すランダムアクセス符号化の符号化構造があり、一般に、ランダムアクセス符号化の方が、符号化効率が高いと言われている。   A group of frames from I picture to the next I picture is called GOP (Group Of Picture), and coding structures such as I picture intervals and reference structures can be freely set for each GOP. As a typical coding structure, there are a coding structure for low delay coding shown in FIG. 17 and a coding structure for random access coding shown in FIG. 18, and in general, random access coding is better in coding efficiency. Is said to be high.

符号化構造を定める際、IピクチャまたはPピクチャ間隔を符号化する映像に応じて適応的に定めることで、符号化効率を向上させることができる。例えば、図19に示すような、映像の途中でシーンチェンジがある映像フレームのシーケンスに対して、固定されたIピクチャまたはPピクチャ間隔よりもシーンチェンジに合わせて適応的にIピクチャまたはPピクチャとなるフレームを選択していくことで符号化効率が向上する。   In determining the coding structure, coding efficiency can be improved by adaptively setting the I picture or P picture interval according to the video to be coded. For example, as shown in FIG. 19, for a sequence of video frames having a scene change in the middle of the video, the I picture or P picture is adaptively adapted to the scene change rather than the fixed I picture or P picture interval. The coding efficiency is improved by selecting the frame.

また、その他にも、図20や図21に示すような参照構造を階層的に設定する等、適応的に参照構造を変化させることで符号化効率の向上を図ることができる。例えば、図20に示す適応構造1と図21に示す適応構造2とを比較した場合、図21に示す適応構造2の方が、最大階層が2階層になっていることから、参照フレーム間の距離が小さくなっており、符号化効率の向上が期待される。   In addition, coding efficiency can be improved by adaptively changing the reference structure, such as hierarchically setting reference structures as shown in FIG. 20 and FIG. For example, when adaptive structure 1 shown in FIG. 20 is compared with adaptive structure 2 shown in FIG. 21, since adaptive structure 2 shown in FIG. Since the distance is smaller, improvement in coding efficiency is expected.

更に高い符号化効率を有する符号化構造を選択する手法も提案されている(例えば、非特許文献1及び2参照)。以下に、提案されている代表的な2つの技術について説明する。非特許文献1に示す技術では、符号化構造は、以下の手順にしたがって定められる。原画像を、縦横それぞれ1/2サイズに縮小する(ステップSx1)。最初のフレームをIピクチャとして符号化し、基準フレームとする(ステップSx2)。N枚先までの各フレームに対して、Pピクチャとした場合のコストを算出し、算出したコストが最小となったフレームをPピクチャとする。ここで、コストとは、フレームの各符号化ブロックをイントラ予測モード及びインター予測モードにより符号化した際の小さい方の符号化コストの全ブロックの総和である(ステップSx3)。   A method of selecting a coding structure having higher coding efficiency has also been proposed (see, for example, Non-Patent Documents 1 and 2). The following describes two representative proposed techniques. In the technique shown in Non-Patent Document 1, the coding structure is determined according to the following procedure. The original image is reduced to half size in the vertical and horizontal directions (step Sx1). The first frame is encoded as an I picture, and is set as a reference frame (step Sx2). For each frame up to N frames ahead, the cost for the case of P picture is calculated, and the frame for which the calculated cost is minimum is taken as a P picture. Here, the cost is the sum of all the blocks of the smaller encoding cost when encoding each encoding block of the frame according to the intra prediction mode and the inter prediction mode (step Sx3).

基準フレームと、ステップSx3でPピクチャとして選択したフレームとの間に、それらを参照する中間フレームを定義する。基準フレームと中間フレームとの間に位置するフレームに対して、これらのフレームを基準フレームと中間フレームとを参照するBピクチャとした場合のコストを算出する。また、中間フレームとPピクチャとの間に位置するフレームに対して、これらのフレームを中間フレームとPピクチャとを参照するBピクチャとした場合のコストを算出する。算出したコストが最小となる組み合わせを最終的な符号化構造として選択する(ステップSx4)。ステップSx3でPピクチャとしたフレームを基準フレームとし、ステップSx3及びSx4を繰り返し実行して適応的に符号化構造を定めていく。   Between the reference frame and the frame selected as the P picture in step Sx3, an intermediate frame referencing them is defined. For a frame located between the reference frame and the intermediate frame, the cost is calculated in the case where these frames are B pictures that reference the reference frame and the intermediate frame. In addition, with respect to a frame located between the intermediate frame and the P picture, the cost is calculated in the case where these frames are B pictures that refer to the intermediate frame and the P picture. A combination that minimizes the calculated cost is selected as a final coding structure (step Sx4). Assuming that the frame used as the P picture in step Sx3 is a reference frame, steps Sx3 and Sx4 are repeatedly executed to adaptively determine the coding structure.

非特許文献2に記載の技術では、符号化構造は、以下の手順にしたがって定められる。1枚目のフレームをIピクチャとして符号化する(ステップSy1)。Iピクチャと次のフレームとの間で動き探索を行い、各符号化ブロックの動きベクトルをS(k)(ただし、1≦k≦Nblk:Nblkは、フレーム内のブロック数)とする(ステップSy2)。 In the technique described in Non-Patent Document 2, the coding structure is determined according to the following procedure. The first frame is encoded as an I picture (step Sy1). Motion search is performed between the I picture and the next frame, and the motion vector of each coding block is S 1 (k) (where 1 ≦ k ≦ N blk : N blk is the number of blocks in the frame) (Step Sy2).

n枚目(n≧3)の各フレームに対して1枚目のフレームとの間で動き探索を行い、各符号化ブロックの動きベクトルをフレーム間距離で割ったものをS(k)とする(ステップSy3)。動きベクトル差の平均(E=Σ(S−S)/Nblk)を算出する(ステップSy4)。予め定められた閾値をthとし、E<thであれば、n枚目のフレームをBピクチャとし、そうでなければ、Pピクチャとする(ステップSy5)。 A motion search is performed between the nth frame (n ≧ 3) and the first frame, and the motion vector of each coding block divided by the interframe distance is S n (k) To do (step Sy3). The average of the motion vector difference (E = S (S 1 −S n ) / N blk ) is calculated (step Sy 4). A predetermined threshold value is th, and if E <th, the nth frame is B picture, otherwise it is P picture (step Sy 5).

“VideoLAN, a project and a non-profit organization”、[online]、VideoLAN Organization、[平成29年3月17日検索]、インターネット(URL:https://www.videolan.org/developers/x265.html)“VideoLAN, a project and a non-profit organization”, [online], VideoLAN Organization, [search on March 17, 2017], Internet (URL: https://www.videolan.org/developers/x265.html ) Adriana Dumitras and Barry G. Haskell,“I/P/B FRAME TYPE DECISION BY COLLINEARITY OF DISPLACEMENTS”, 2004 International Conference on Image Processing(ICIP), p2769-p2772Adriana Dumitras and Barry G. Haskell, “I / P / B FRAME TYPE DECISION BY COLLINEARITY OF DISPLACEMENTS”, 2004 International Conference on Image Processing (ICIP), p2769-p2772

しかしながら、上記の手順に示すように、非特許文献1に記載の技術では、縮小画像を用いているとはいえ、実際の符号化に近い処理を複数の組み合わせに対して行っている。また、計算結果が無駄になる組み合わせも生じており、結果的に、演算量が多い手法になってしまっているという問題がある。また、非特許文献1に記載の技術では、Bピクチャの階層として2階層を割り当てることを前提としており、この技術に対して、符号化効率の良いより深い階層構造を適用しようとすると、組み合わせ数が増大してしまうという問題がある。   However, as shown in the above-described procedure, in the technique described in Non-Patent Document 1, although the reduced image is used, processing close to actual coding is performed on a plurality of combinations. In addition, there are combinations in which calculation results are wasted, and as a result, there is a problem that the method has a large amount of calculation. Further, in the technology described in Non-Patent Document 1, it is premised that two layers are allocated as the hierarchy of B pictures, and if it is intended to apply a deeper hierarchical structure with good coding efficiency to this technology, the number of combinations is There is a problem that the

非特許文献2に記載の技術においても、判定の際の計算結果が無駄になる組み合わせが存在するため、演算量が多いという問題がある。また、非特許文献2に記載の技術では、Bピクチャの階層として1階層分しか適用できないという問題がある。また、非特許文献2に記載の技術では、動きベクトルのみを判定に用いているため、複雑な映像に対して精度良く判定することができず、符号化効率が悪いという問題がある。   Even in the technique described in Non-Patent Document 2, there is a combination in which the calculation result in the determination is wasted, so there is a problem that the amount of calculation is large. Moreover, in the technique described in Non-Patent Document 2, there is a problem that only one layer can be applied as the layer of the B picture. Further, in the technique described in Non-Patent Document 2, only the motion vector is used for determination, so it is not possible to accurately determine a complex video, and there is a problem that the coding efficiency is poor.

上記事情に鑑み、本発明は、符号化効率の高い符号化構造を低演算量で求めることができる技術の提供を目的としている。   In view of the above circumstances, the present invention aims to provide a technique capable of obtaining a coding structure with high coding efficiency with a small amount of calculation.

本発明の一態様は、フレーム間予測符号化を行う映像符号化装置であって、入力映像情報から取得されるフレーム群から、予め定められる3枚以上の枚数の連続するフレームを含む参照グループを生成する参照グループ生成部と、前記参照グループ生成部が生成する前記参照グループの最初と最後の前記フレームと、前記最初と最後のフレームの間のいずれか1つの判定対象フレームとに基づいて、前記フレーム間の誤差に関する評価値を算出する評価値算出部と、前記評価値算出部が算出する前記評価値のうち前記判定対象フレームと前記最初のフレームとの間の前記評価値を基準とした他の前記評価値の相対値に基づいて、または前記相対値と前記判定対象フレームと前記最初と最後のフレーム双方との間の前記評価値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する評価値判定部と、前記評価値判定部の判定結果に基づいて、前記フレーム群に含まれる前記フレームのピクチャタイプを選定するピクチャタイプ選定部と、を備える映像符号化装置である。   One aspect of the present invention is a video encoding apparatus for performing inter-frame predictive coding, which includes, from a frame group acquired from input video information, a reference group including three or more consecutive frames determined in advance. The reference group generation unit to generate, the first and last frames of the reference group generated by the reference group generation unit, and any one determination target frame between the first and last frames, Among the evaluation values calculated by the evaluation value calculation unit, an evaluation value calculation unit that calculates an evaluation value regarding an error between the frames, and the evaluation value between the determination target frame and the first frame among the evaluation values calculated Prior to the evaluation value based on the relative value of the evaluation value of the frame, or based on the relative value and the evaluation value between the determination target frame and both the first and last frames. An evaluation value determination unit that determines whether or not the reference relationship between the determination target frame and the first and last frames is combined, and the determination result of the evaluation value determination unit based on the determination results of the frames And a picture type selection unit that selects a picture type.

本発明の一態様は、上記の映像符号化装置であって、前記評価値算出部は、前記判定対象フレームと前記最初のフレームとの間の前記フレーム間の誤差に関する第1の片方向評価値と、前記判定対象フレームと前記最後のフレームとの間の前記フレーム間の誤差に関する第2の片方向評価値と、前記判定対象フレームと前記最初と最後のフレーム双方との間の前記フレーム間の誤差に関する双方向評価値とを算出し、前記評価値判定部は、前記第2の片方向評価値と前記双方向評価値のうち小さい方の評価値を選択し、選択した前記評価値の前記第1の片方向評価値に対する相対的な値の大きさとして前記相対値を算出し、算出した前記相対値と、予め定められる相対評価用閾値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する。   One embodiment of the present invention is the video encoding device described above, wherein the evaluation value calculation unit is configured to calculate a first one-way evaluation value regarding an error between the frames between the determination target frame and the first frame. And a second one-way evaluation value regarding the inter-frame error between the determination target frame and the last frame, the inter-frame between the determination target frame and both the first and last frames. The evaluation value determination unit selects a smaller one of the second one-way evaluation value and the two-way evaluation value, and calculates the evaluation value of the selected evaluation value. The relative value is calculated as a relative value with respect to the first one-way evaluation value, and the determination target frame and the first are determined based on the calculated relative value and a predetermined relative evaluation threshold value. Last fray It determines whether to combine the reference relationship with the arm.

本発明の一態様は、上記の映像符号化装置であって、前記予め定められる相対評価用閾値は、第1の相対評価用閾値と、前記第1の相対評価用閾値よりも値の大きい第2の相対評価用閾値を含んでおり、前記評価値判定部は、前記相対値が、前記第1の相対評価用閾値未満であるか否か基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定し、前記相対値が、前記第1の相対評価用閾値未満でなく、前記判定対象フレームの参照フレームを前記最初と最後のフレームにしないと判定する場合、前記相対値が、前記第1の相対評価用閾値と前記第2の相対評価用閾値とにより定められる範囲の値である場合、前記双方向評価値と、予め定められる絶対評価用閾値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する。   One embodiment of the present invention is the above-described video encoding device, wherein the predetermined relative evaluation threshold is larger than a first relative evaluation threshold and a first relative evaluation threshold. And the evaluation value determination unit determines whether the relative value is less than the first relative evaluation threshold, the determination target frame and the first and last frames. It is determined whether or not the reference relationship with the frame is combined, and it is determined that the relative value is not less than the first relative evaluation threshold and the reference frame of the determination target frame is not the first and last frames. In the case where the relative value is a value within a range defined by the first relative evaluation threshold and the second relative evaluation threshold, the bidirectional evaluation value and the predetermined absolute evaluation threshold And the judgment target frame And it determines whether to combine the reference relationship between the first and last frame.

本発明の一態様は、上記の映像符号化装置であって、前記参照グループ生成部は、前記評価値判定部により結合すると判定された前記参照グループの最初の前記フレーム、または最後の前記フレームが前記判定対象フレームとなるように、当該参照グループを含み前記予め定められる3枚以上の枚数よりも多い枚数の連続するフレームを含む新たな前記参照グループを生成し、前記評価値算出部は、前記新たな参照グループの最初と最後の前記フレームと、前記判定対象フレームとに基づいて、前記フレーム間の誤差に関する前記評価値を算出し、前記評価値判定部は、前記評価値算出部が算出する前記評価値のうち前記新たな参照グループの前記判定対象フレームと前記最初のフレームとの間の前記評価値を基準とした他の前記評価値の相対値、または前記相対値と、前記新たな参照グループの前記判定対象フレームと前記最初と最後のフレーム双方との間の前記評価値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する。   One embodiment of the present invention is the above-described video encoding apparatus, wherein the reference group generation unit determines whether the first frame or the last frame of the reference group determined to be combined by the evaluation value determination unit is A new reference group including the reference group and a number of consecutive frames including the reference group and greater than the predetermined number of three or more is generated so as to be the determination target frame, and the evaluation value calculation unit The evaluation value regarding the error between the frames is calculated based on the first and last frames of the new reference group and the determination target frame, and the evaluation value determination unit calculates the evaluation value calculation unit. Among the evaluation values, the phases of other evaluation values based on the evaluation value between the frame to be judged of the new reference group and the first frame The determination target frame and the first and last frames based on the value or the relative value and the evaluation value between the determination target frame of the new reference group and both the first and last frames It is determined whether or not to combine the reference relationships of.

本発明の一態様は、上記の映像符号化装置であって、前記参照グループ生成部は、前記参照グループに隣接する他の参照グループを生成する際、当該参照グループの最後の前記フレームが、前記隣接する他の参照グループの最初の前記フレームとなるように重複させて前記予め定められる3枚以上の枚数の連続するフレームを含む前記参照グループを生成しており、隣接する2つの前記参照グループの双方において前記評価値判定部が前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合すると判定する場合、当該隣接する2つの前記参照グループを結合して前記新たな参照グループを生成し、重複する前記フレームを前記判定対象フレームとする。   One embodiment of the present invention is the video encoding device described above, wherein when the reference group generation unit generates another reference group adjacent to the reference group, the last frame of the reference group is the Generating the reference group including the predetermined number of consecutive frames of the predetermined number or more of the predetermined number of overlapping frames so as to become the first frame of another adjacent reference group; When the evaluation value determination unit determines that the reference relationship between the frame to be determined and the first and last frames is to be combined in both, the adjacent two reference groups are combined to generate the new reference group. The overlapping frames are taken as the determination target frames.

本発明の一態様は、上記の映像符号化装置であって、前記参照グループ生成部は、
予め定めらえる構築する符号化構造の階層数の値にしたがって、前記新たな参照グループを生成することを繰り返す。
One embodiment of the present invention is the video encoding device described above, wherein the reference group generation unit
The generation of the new reference group is repeated according to the value of the number of layers of the coding structure to be defined in advance.

本発明の一態様は、上記の映像符号化装置であって、前記ピクチャタイプ選定部は、前記入力映像情報から前記フレーム群を取得し、取得した前記フレーム群の最初のフレームをIピクチャとして選定するIピクチャ選定部を備え、前記ピクチャタイプ選定部は、前記結合判定部が、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合すると判定する場合、前記判定対象フレームを前記最初と最後のフレームを参照フレームとするBピクチャとして選定し、前記Iピクチャ、または前記Bピクチャとして選定されていない前記フレームを前記Pピクチャとして選定し、前記フレーム群の表示順において、選定した前記フレームに最も近い過去の前記Pピクチャの前記フレームを、選定した前記フレームの前記参照フレームとし、選定した前記フレームに最も近い過去の前記Pピクチャの前記フレームがない場合、前記Iピクチャの前記フレームを、選定した前記フレームの前記参照フレームとする。   One embodiment of the present invention is the video encoding device described above, wherein the picture type selection unit acquires the frame group from the input video information, and selects the first frame of the acquired frame group as an I picture. The picture type selection unit, when it is determined that the combination determination unit combines the reference relationship between the determination target frame and the first and last frames, the determination target frame is the first And the last frame as a reference frame, and the frames not selected as the I picture or the B picture are selected as the P picture, and the selected frames in the display order of the frame group The frame of the previous P picture closest to the And, if there is no the frame of the most recent past of the P-picture to the frame selected, the frame of the I picture, and the reference frame of the frame that was selected.

本発明の一態様は、上記の映像符号化装置であって、前記予め定められる3枚以上の枚数は、3枚である。   One embodiment of the present invention is the above-described video encoding apparatus, wherein the predetermined number of three or more is three.

本発明により、符号化効率の高い符号化構造を低演算量で求めることが可能となる。   According to the present invention, it is possible to obtain a coding structure with high coding efficiency with a small amount of calculation.

本発明の第1の実施形態における映像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video coding apparatus in the 1st Embodiment of this invention. 同実施形態の符号化構造構築部の構成を示すブロック図である。It is a block diagram which shows the structure of the encoding structure construction part of the embodiment. 同実施形態の符号化構造構築処理の流れを示すフローチャートである。It is a flow chart which shows a flow of coding structure construction processing of the embodiment. 同実施形態の結合判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the joint determination process of the embodiment. 同実施形態の符号化構造構築処理の具体例を示す図(その1)である。It is a figure (the 1) which shows the specific example of the encoding structure construction process of the embodiment. 同実施形態の符号化構造構築処理の具体例を示す図(その2)である。It is a figure (the 2) which shows the specific example of the encoding structure construction process of the embodiment. 同実施形態の符号化構造構築処理の具体例を示す図(その3)である。It is a figure (the 3) which shows the specific example of the encoding structure construction process of the embodiment. 同実施形態の符号化構造構築処理の具体例を示す図(その4)である。It is a figure (the 4) which shows the specific example of the encoding structure construction process of the embodiment. 同実施形態の結合判定処理の具体例を示す図である。It is a figure which shows the specific example of the coupling determination process of the embodiment. 同実施形態の結合判定処理の具体例において算出した評価値を示す図である。It is a figure which shows the evaluation value calculated in the specific example of the joint determination process of the embodiment. 本発明の第2の実施形態の符号化構造構築部の構成を示すブロック図である。It is a block diagram which shows the structure of the encoding structure construction part of the 2nd Embodiment of this invention. 同実施形態の符号化構造構築処理の流れを示すフローチャート(その1)である。It is a flowchart (the 1) which shows the flow of the encoding structure construction process of the embodiment. 同実施形態の符号化構造構築処理の流れを示すフローチャート(その2)である。It is a flowchart (the 2) which shows the flow of the encoding structure construction process of the embodiment. 同実施形態の符号化構造構築処理の具体例を示す図(その1)である。It is a figure (the 1) which shows the specific example of the encoding structure construction process of the embodiment. 同実施形態の符号化構造構築処理の具体例を示す図(その2)である。It is a figure (the 2) which shows the specific example of the encoding structure construction process of the embodiment. 同実施形態の符号化構造構築処理の具体例を示す図(その3)である。It is a figure (the 3) which shows the specific example of the encoding structure construction process of the embodiment. インター予測符号化における低遅延符号化の符号化構造を示す図である。It is a figure which shows the coding structure of the low delay coding in inter prediction coding. インター予測符号化におけるランダムアクセス符号化の符号化構造を示す図である。It is a figure which shows the coding structure of the random access coding in inter prediction coding. インター予測符号化における固定構造と適応構造の違いを示す図である。It is a figure which shows the difference of the fixed structure and the adaptive structure in inter prediction coding. インター予測符号化における適応構造を説明するための図(その1)である。It is a figure (the 1) for demonstrating the adaptive structure in inter prediction coding. インター予測符号化における適応構造を説明するための図(その2)である。It is a figure (the 2) for demonstrating the adaptive structure in inter prediction coding.

(第1の実施形態)
以下、本発明の実施形態について図面を参照して説明する。図1は、本発明の第1の実施形態における映像符号化装置1の構成を示すブロック図である。映像符号化装置1は、符号化構造構築部10、減算器11、直交変換・量子化部12、可変長符号化部13、逆量子化・逆直交変換部14、加算器15、イントラ予測部16、ループフィルタ部17、復号ピクチャ記憶部18、インター予測部19、及びイントラ・インター切替スイッチ部20を備える。
First Embodiment
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a video encoding device 1 according to the first embodiment of the present invention. The video coding apparatus 1 includes a coding structure construction unit 10, a subtractor 11, an orthogonal transformation / quantization unit 12, a variable length encoding unit 13, an inverse quantization / inverse orthogonal transformation unit 14, an adder 15, an intra prediction unit And 16, a loop filter unit 17, a decoded picture storage unit 18, an inter prediction unit 19, and an intra / inter switching unit 20.

符号化構造構築部10は、外部から入力映像情報を取り込み、取り込んだ入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成する。また、符号化構造構築部10は、生成したフレーム群の各フレームのピクチャタイプ、参照構造などを選定して符号化構造を構築する。また、符号化構造構築部10は、構築した符号化構造が示す符号化順序にしたがってCU(Coding Unit)ブロック単位で符号化対象フレームを出力する。   The encoding structure construction unit 10 fetches input video information from the outside, selects frames of the number according to the size of a predetermined GOP from the fetched input video information, and generates a frame group. Further, the coding structure construction unit 10 selects a picture type of each frame of the generated frame group, a reference structure, and the like, and constructs a coding structure. Also, the coding structure construction unit 10 outputs a coding target frame in units of CU (Coding Unit) blocks in accordance with the coding order indicated by the constructed coding structure.

減算器11は、符号化構造構築部10が出力する符号化対象フレームの画像情報と、イントラ・インター切替スイッチ部20を介してイントラ予測部16、またはインター予測部19が出力する予測画像情報との差を算出する。また、減算器11は、算出した差に基づく差分画像情報を直交変換・量子化部12に出力する。   The subtractor 11 includes the image information of the encoding target frame output from the encoding structure construction unit 10, and the predicted image information output from the intra prediction unit 16 or the inter prediction unit 19 via the intra / inter switching unit 20. Calculate the difference of Further, the subtractor 11 outputs difference image information based on the calculated difference to the orthogonal transformation / quantization unit 12.

直交変換・量子化部12は、減算器11が出力する差分画像情報に対して、直交変換と量子化を行い、可変長符号化部13と逆量子化・逆直交変換部14に出力する。可変長符号化部13は、直交変換・量子化部12が出力する量子化係数を可変長符号化して符号化データを生成し、生成した符号化データを外部に出力する。   The orthogonal transformation / quantization unit 12 performs orthogonal transformation and quantization on the difference image information output from the subtractor 11, and outputs the result to the variable-length coding unit 13 and the inverse quantization / inverse orthogonal transformation unit 14. The variable-length coding unit 13 performs variable-length coding on the quantization coefficient output from the orthogonal transformation / quantization unit 12 to generate coded data, and outputs the generated coded data to the outside.

逆量子化・逆直交変換部14は、直交変換・量子化部12が出力する量子化係数に対して、逆量子化と逆直交変換を行って差分画像情報を復号して加算器15に出力する。加算器15は、逆量子化・逆直交変換部14が出力する復号差分画像情報と、イントラ・インター切替スイッチ部20を介してイントラ予測部16、またはインター予測部19が出力する予測画像情報との和を算出する。また、加算器15は、算出した和に基づく復号画像情報をイントラ予測部16とループフィルタ部17に出力する。   The inverse quantization / inverse orthogonal transformation unit 14 performs inverse quantization and inverse orthogonal transformation on the quantization coefficient output from the orthogonal transformation / quantization unit 12 to decode difference image information, and outputs the decoded image information to the adder 15 Do. The adder 15 outputs the decoded difference image information output from the inverse quantization / inverse orthogonal transform unit 14 and the predicted image information output from the intra prediction unit 16 or the inter prediction unit 19 via the intra / inter switching unit 20. Calculate the sum of The adder 15 also outputs decoded image information based on the calculated sum to the intra prediction unit 16 and the loop filter unit 17.

イントラ予測部16は、加算器15が出力する復号画像情報を参照フレームとして、符号化対象フレームに含まれる符号化対象ブロックのイントラ予測画像情報を生成する。   The intra prediction unit 16 generates intra prediction image information of the encoding target block included in the encoding target frame, using the decoded image information output from the adder 15 as a reference frame.

ループフィルタ部17は、加算器15が出力する復号画像情報にループフィルタを適用し、ループフィルタを適用した復号画像情報を復号ピクチャ記憶部18に書き込んで記憶させる。インター予測部19は、復号ピクチャ記憶部18に記憶されている復号画像情報を参照フレームとして、符号化構造構築部10が出力する符号化対象フレームに含まれる符号化対象ブロックのインター予測画像情報を生成する。   The loop filter unit 17 applies a loop filter to the decoded image information output from the adder 15, and writes and stores the decoded image information to which the loop filter is applied in the decoded picture storage unit 18. The inter prediction unit 19 uses the decoded image information stored in the decoded picture storage unit 18 as a reference frame, and inter prediction image information of the coding target block included in the coding target frame output from the coding structure construction unit 10 Generate

イントラ・インター切替スイッチ部20は、符号化対象ブロックの予測モードに応じて、イントラ予測部16とインター予測部19とを切り替えて、イントラ予測部16が出力するイントラ予測画像情報、またはインター予測部19が出力するインター予測画像情報を減算器11と加算器15に出力する。   The intra / inter switching unit 20 switches between the intra prediction unit 16 and the inter prediction unit 19 according to the prediction mode of the encoding target block, and outputs the intra prediction image information output by the intra prediction unit 16 or the inter prediction unit The inter-prediction image information output by 19 is output to the subtractor 11 and the adder 15.

上記の構成により、映像符号化装置1は、外部から取り込んだ入力映像情報からフレーム群を生成し、生成したフレーム群の符号化対象フレームごとにラスタースキャンしてCUブロックを生成する。映像符号化装置1は、生成した各CUブロックを符号化対象ブロックとしてラスタースキャン順に繰り返し符号化を行い、符号化対象ブロックごとの符号化データを出力する。映像符号化装置1は、この処理を入力映像情報から生成する全てのフレーム群に含まれるフレームに対して繰り返し行うことにより、符号化対象入力映像情報を符号化する。   With the above-described configuration, the video encoding device 1 generates a frame group from input video information captured from the outside, and performs raster scan for each encoding target frame of the generated frame group to generate a CU block. The video encoding device 1 repeatedly encodes each of the generated CU blocks as an encoding target block in raster scan order, and outputs encoded data for each encoding target block. The video encoding device 1 encodes the encoding target input video information by repeatedly performing this process on frames included in all frame groups generated from the input video information.

符号化の過程において、インター予測部19でPピクチャのフレームの符号化を行うためには、Pピクチャのフレームに対する参照フレームが予め復号ピクチャ記憶部18に記憶されている必要がある。また、Bピクチャのフレームの符号化を行うためには、Bピクチャのフレームに対する2つの参照フレームが予め復号ピクチャ記憶部18に記憶されている必要がある。符号化構造構築部10は、これらの符号化の順序の要求を満たすような符号化構造の構築を行う。   In the process of encoding, in order to encode the P picture frame in the inter prediction unit 19, it is necessary to store in advance in the decoded picture storage unit 18 a reference frame for the P picture frame. In addition, in order to encode a B picture frame, two reference frames for the B picture frame need to be stored in the decoded picture storage unit 18 in advance. The coding structure construction unit 10 constructs a coding structure that satisfies the requirements of the order of coding.

図2は、符号化構造構築部10の構成を示すブロック図である。符号化構造構築部10は、符号化対象フレーム選択部101、Iピクチャ選定部102、参照グループ生成部103、結合判定部104、ピクチャタイプ選定部105、ピクチャタイプ記憶部106、及びブロック出力部107を備える。   FIG. 2 is a block diagram showing the configuration of the coding structure construction unit 10. As shown in FIG. The coding structure construction unit 10 includes a coding target frame selection unit 101, an I picture selection unit 102, a reference group generation unit 103, a combination determination unit 104, a picture type selection unit 105, a picture type storage unit 106, and a block output unit 107. Equipped with

符号化対象フレーム選択部101は、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成してIピクチャ選定部102とブロック出力部107に出力する。Iピクチャ選定部102は、フレーム群の最初のフレームをIピクチャとして選定し、最初のフレームを起点フレームとしてフレーム群を参照グループ生成部103に出力する。   The encoding target frame selection unit 101 selects the number of frames according to the predetermined GOP size from the input video information, generates a frame group, and outputs the frame group to the I picture selection unit 102 and the block output unit 107. The I picture selection unit 102 selects the first frame of the frame group as the I picture, and outputs the frame group to the reference group generation unit 103 with the first frame as the start frame.

参照グループ生成部103は、フレーム群の先頭のフレームを起点として所定の枚数(例えば、3枚)の連続するフレームを選択し、選択した所定の枚数の連続するフレームの組み合わせを最初の参照グループとして生成する。また、参照グループ生成部103は、その後に起点となるフレームから所定の枚数の連続するフレームを選択し、選択した所定の枚数の連続するフレームの組み合わせを参照グループとして生成する。また、参照グループ生成部103は、隣接する2つの参照グループが共に結合判定部104によって結合すると判定されている場合、隣接する2つの参照グループを結合して新たな参照グループを生成する。   The reference group generation unit 103 selects a predetermined number (for example, three) of consecutive frames starting from the first frame of the frame group, and sets the selected combination of the predetermined number of consecutive frames as the first reference group. Generate Further, the reference group generation unit 103 selects a predetermined number of continuous frames from the frame as the starting point thereafter, and generates a combination of the selected predetermined number of continuous frames as a reference group. Further, when it is determined that the two adjacent reference groups are to be combined by the combination determination unit 104, the reference group generation unit 103 combines the two adjacent reference groups to generate a new reference group.

また、参照グループ生成部103は、生成した参照グループの情報、すなわち参照グループに含まれるフレームの画像情報、及び参照グループに含まれるフレームのフレームをフレーム群において特定するフレーム番号等の情報を結合判定部104とピクチャタイプ選定部105に出力する。   In addition, the reference group generation unit 103 performs combined determination of information of the generated reference group, that is, image information of frames included in the reference group, and information such as frame numbers identifying frames of frames included in the reference group Output to the unit 104 and the picture type selection unit 105.

結合判定部104は、参照グループ生成部103が生成して出力する参照グループに含まれるフレームを結合するか否かを判定する。ここで、参照グループに含まれるフレームを結合するとは、最初と最後のフレームの間のフレームである判定対象フレームを、最初と最後のフレームを参照フレームとするBピクチャとすることである。結合判定部104は、評価値算出部110、評価値判定部111、及び判定結果記憶部112を備える。   The combination determination unit 104 determines whether or not to combine frames included in the reference group generated and output by the reference group generation unit 103. Here, combining the frames included in the reference group means making the determination target frame, which is a frame between the first and last frames, a B picture in which the first and last frames are reference frames. The combination determination unit 104 includes an evaluation value calculation unit 110, an evaluation value determination unit 111, and a determination result storage unit 112.

評価値算出部110は、参照グループ生成部103が生成した参照グループの評価値を算出する。ここで、評価値は、以下のようにして算出される3つのインターコストの値である。なお、インターコストは、例えば、フレーム間において動き探索を行った場合の誤差に関する評価値であり、例えば、絶対誤差和の最小値等が適用され、この評価値は、RD(Rate-Distortion)コストのような実際に符号化を行わないと得られない符号化コストとは異なる値である。ここで、絶対誤差和の最小値とは、動きベクトルを複数検出して、動きベクトルごとの絶対誤差和を算出して得られた値の中で最も小さい値を表す。   The evaluation value calculation unit 110 calculates the evaluation value of the reference group generated by the reference group generation unit 103. Here, the evaluation value is a value of three inter costs calculated as follows. The inter cost is, for example, an evaluation value regarding an error in the case of performing motion search between frames, and for example, the minimum value of the sum of absolute errors is applied, and this evaluation value is RD (Rate-Distortion) cost The coding cost is different from the coding cost which can not be obtained unless coding is actually performed. Here, the minimum value of the absolute error sum represents the smallest value among the values obtained by detecting a plurality of motion vectors and calculating the absolute error sum for each motion vector.

まず、最初のフレームと、最初と最後のフレームの間の判定対象フレームと、最後のフレームをそれぞれ、Sフレーム、Mフレーム、Eフレームとする。参照グループが、所定の枚数(例えば、3枚)の連続するフレームを含む場合、判定対象フレームは、中間のフレームとなり、後述するように2つの隣接する参照グループが結合される場合、判定対象フレームは、表示順で1つ前の参照グループの最後のフレームとなる。   First, the first frame, the determination target frame between the first and last frames, and the last frame are respectively S frame, M frame, and E frame. When the reference group includes a predetermined number (for example, three) of consecutive frames, the determination target frame is an intermediate frame, and when two adjacent reference groups are combined as described later, the determination target frame Is the last frame of the previous reference group in display order.

Mフレームに対して予め定められる所定のブロックサイズ単位でSフレームを参照フレームとした場合の片方向インターコストの全ブロックの総和(以下、L0コストという)を算出する。次に、Mフレームに対して予め定められる所定のブロックサイズ単位でEフレームを参照フレームとした場合の片方向インターコストの全ブロックの総和(以下、L1コストという)を算出する。更に、Mフレームに対して予め定められる所定のブロックサイズ単位でSフレームとEフレームを参照フレームとした場合の双方向インターコストの全ブロックの総和(以下、Biコストという)を算出する。   The sum (hereinafter, referred to as the L0 cost) of all the blocks in the unidirectional inter cost when the S frame is used as the reference frame in a predetermined block size unit predetermined for the M frame is calculated. Next, the sum (hereinafter, referred to as L1 cost) of all the blocks of the unidirectional inter cost when the E frame is used as the reference frame in a predetermined block size unit predetermined for M frames is calculated. Furthermore, the sum (hereinafter referred to as the Bi cost) of all blocks of the bidirectional inter cost when the S frame and the E frame are used as reference frames in predetermined block size units predetermined for M frames is calculated.

評価値判定部111は、評価値算出部110が算出したL0コスト、L1コスト、Biコストに基づいて、参照グループのフレームを結合すべきか否か、すなわちMフレームを、SフレームとEフレームを参照フレームとするBピクチャとするか否かを判定する結合判定処理を行う。評価値判定部111は、判定結果を参照グループを示す情報に対応付けて判定結果記憶部112に書き込んで記憶させ、また、判定結果をピクチャタイプ選定部105に出力する。判定結果記憶部112は、参照グループごとに評価値判定部111が判定した判定結果を記憶する。   The evaluation value determination unit 111 determines whether to combine the frames of the reference group based on the L0 cost, the L1 cost, and the Bi cost calculated by the evaluation value calculation unit 110, that is, refers to the M frame and the S frame and the E frame. A combination determination process is performed to determine whether to use a B picture as a frame. The evaluation value determination unit 111 writes the determination result in the determination result storage unit 112 in association with the information indicating the reference group, and outputs the determination result to the picture type selection unit 105. The determination result storage unit 112 stores the determination result determined by the evaluation value determination unit 111 for each reference group.

ピクチャタイプ選定部105は、結合判定部104が出力する判定結果にしたがって、参照グループ生成部103が生成した参照グループに含まれるフレームのピクチャタイプを選定する。また、ピクチャタイプ選定部105は、参照グループ生成部103が、連続する3枚のフレームを選択できないと判定した場合、残りのフレームをPピクチャとして選定する。また、ピクチャタイプ選定部105は、全てのフレームについて、ピクチャタイプを選定した後、Pピクチャとして選定したフレームに対して、当該フレームに表示順で最も近い過去のPピクチャとして選定されたフレームを当該フレームの参照フレームとして選定する。   The picture type selection unit 105 selects a picture type of a frame included in the reference group generated by the reference group generation unit 103 according to the determination result output from the connection determination unit 104. Further, when the reference group generation unit 103 determines that the three consecutive frames can not be selected, the picture type selection unit 105 selects the remaining frames as P pictures. In addition, after selecting the picture types for all frames, the picture type selection unit 105 selects the frame selected as the P picture and the frame selected as the past P picture closest to the frame in the display order Select as the frame reference frame.

ここで、表示順で最も近い過去のPピクチャとは、Iピクチャとなる最初のフレームから表示順に連続番号を付与していった場合、参照フレームを割り当てるフレームよりも若い番号で最も近いPピクチャのことである。また、表示順で最も近い過去のPピクチャがない場合、ピクチャタイプ選定部105は、Iピクチャを参照フレームとして選定する。   Here, the closest past P picture in display order is the closest P picture with a number smaller than the frame to which the reference frame is assigned, in the case where a sequential number is assigned in display order from the first frame to be I picture. It is. Also, if there is no closest past P picture in display order, the picture type selection unit 105 selects an I picture as a reference frame.

ピクチャタイプ記憶部106は、Iピクチャ選定部102がIピクチャとして選定したフレームを示す情報に対応付けてIピクチャのピクチャタイプを示す情報を記憶する。また、ピクチャタイプ記憶部106は、ピクチャタイプ選定部105が選定したBピクチャまたはPピクチャのピクチャタイプを示す情報を、参照フレームを示す情報とともに、各フレームを示す情報に対応付けて記憶する。   The picture type storage unit 106 stores the information indicating the picture type of the I picture in association with the information indicating the frame selected as the I picture by the I picture selecting unit 102. Further, the picture type storage unit 106 stores information indicating the picture type of the B picture or P picture selected by the picture type selection unit 105 in association with the information indicating each frame together with the information indicating the reference frame.

ブロック出力部107は、符号化対象フレーム選択部101が出力するフレーム群を受けて、一時的に内部の記憶領域に書き込んで記憶する。また、ブロック出力部107は、ピクチャタイプの選定が完了し符号化構造が定められると、定められた符号化構造に基づく順番で内部の記憶領域からフレームを読み出し、読み出したフレームの各々をラスタースキャンの順にCUブロックに分解して符号化対象ブロックとして出力する。   The block output unit 107 receives the frame group output from the encoding target frame selection unit 101, temporarily writes it in the internal storage area, and stores it. Further, when the selection of the picture type is completed and the coding structure is determined, the block output unit 107 reads the frames from the internal storage area in the order based on the defined coding structure, and raster scans each of the read frames It decomposes | disassembles into CU block in order of, and it outputs as an encoding object block.

(第1の実施形態の符号化構造構築処理)
次に、第1の実施形態の符号化構造構築部10による処理について説明する。図3は、符号化構造構築部10による符号化構造構築処理の流れを示すフローチャートである。また、図4は、符号化構造構築処理において呼び出される結合判定部104による結合判定処理のサブルーチンの流れを示すフローチャートである。
(Coding structure construction processing of the first embodiment)
Next, processing by the coding structure construction unit 10 of the first embodiment will be described. FIG. 3 is a flowchart showing a flow of coding structure construction processing by the coding structure construction unit 10. Further, FIG. 4 is a flowchart showing a flow of a subroutine of connection determination processing by the connection determination unit 104 called in the coding structure construction processing.

符号化対象フレーム選択部101は、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成し、生成したフレーム群をIピクチャ選定部102とブロック出力部107に出力する。Iピクチャ選定部102は、フレーム群の最初のフレームのピクチャタイプをIピクチャとして選定し、当該フレームをIピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、Iピクチャ選定部102は、最初のフレームを起点フレームとし、フレーム群を参照グループ生成部103に出力する(ステップS101)。   The encoding target frame selection unit 101 selects a number of frames according to a predetermined GOP size from input video information to generate a frame group, and generates the generated frame group to the I picture selection unit 102 and the block output unit 107. Output. The I picture selection unit 102 selects the picture type of the first frame of the frame group as an I picture, and writes and stores information indicating that the frame is selected as an I picture in the picture type storage unit 106. Further, the I picture selection unit 102 sets the first frame as the start frame, and outputs the frame group to the reference group generation unit 103 (step S101).

参照グループ生成部103は、起点フレームを起点として、フレーム群から連続する3枚のフレームを選択することができるか否かを判定する(ステップS102)。参照グループ生成部103は、連続する3枚のフレームを選択することができると判定した場合(ステップS102−YES)、参照グループ生成部103は、連続する3枚のフレームを表示順にA,B,Cフレームとして含む参照グループを生成する。なお、当該参照グループにおいて判定対象フレームは、Bフレームとなる。   The reference group generation unit 103 determines whether or not three continuous frames can be selected from the frame group starting from the start point frame (step S102). If the reference group generation unit 103 determines that three consecutive frames can be selected (YES in step S102), the reference group generation unit 103 selects three consecutive frames in the display order A, B, and so on. Generate a reference group to be included as a C frame. The determination target frame in the reference group is a B frame.

参照グループ生成部103は、生成した参照グループを結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。結合判定部104は、参照グループ生成部103が出力する参照グループに含まれるA,B,CフレームをS,M,Eフレームとして結合判定処理を行う(ステップS106)。   The reference group generation unit 103 outputs the generated reference group to the combination determination unit 104 and the picture type selection unit 105 (step S105). The connection determination unit 104 performs connection determination processing with the A, B, and C frames included in the reference group output from the reference group generation unit 103 as S, M, and E frames (step S106).

(結合判定部による結合判定処理)
図4に示す結合判定処理のサブルーチンにおいて、評価値算出部110は、Sフレーム、Mフレーム、Eフレームに基づいて、L0コスト、L1コスト、Biコストの3つの評価値を算出する(ステップS201)。
(Coupling determination processing by the combining determination unit)
In the subroutine of the connection determination process shown in FIG. 4, the evaluation value calculation unit 110 calculates three evaluation values of L0 cost, L1 cost, and Bi cost based on the S frame, M frame, and E frame (step S201). .

評価値判定部111は、BiコストとL1コストのうち値が小さい方を選択し(ステップS202)、選択した値をL0で除算して相対値を算出する(ステップS203)。なお、BiコストとL1コストの値が同じ場合、いずれを選択してもよいため、いずれか一方を選択する。ステップS202とS203の処理を数式で示すと以下の式(1)となる。   The evaluation value determination unit 111 selects the smaller one of the Bi cost and the L1 cost (step S202), and divides the selected value by L0 to calculate a relative value (step S203). When the values of the Bi cost and the L1 cost are the same, either one may be selected, so either one is selected. The processes of steps S202 and S203 can be expressed by the following equation (1).

相対値=min(Biコスト,L1コスト)/L0コスト・・・(1)   Relative value = min (Bi cost, L1 cost) / L0 cost (1)

評価値判定部111は、算出した相対値の大きさを予め定められる相対評価用閾値Th_min及びTh_maxに基づいて判定する(ステップS204)。評価値判定部111は、算出した相対値が、Th_minの値未満であると判定した場合(ステップS204:<Th_min)、参照グループに含まれるフレームを結合することを示す「True」を出力する(ステップS205)。一方、評価値判定部111は、算出した相対値が、Th_maxの値を超過していると判定した場合(ステップS204:>Th_max)、参照グループに含まれるフレームを結合しないことを示す「False」を出力する(ステップS206)。   The evaluation value determination unit 111 determines the magnitude of the calculated relative value based on predetermined relative evaluation threshold values Th_min and Th_max (step S204). When it is determined that the calculated relative value is less than the value of Th_min (step S204: <Th_min), the evaluation value determination unit 111 outputs “True” indicating that the frames included in the reference group are combined (step S204: <Th_min) Step S205). On the other hand, when the evaluation value determination unit 111 determines that the calculated relative value exceeds the value of Th_max (step S 204:> Th_max), “False” indicating that frames included in the reference group are not combined. Are output (step S206).

一方、評価値判定部111は、算出した相対値が、Th_minの値以上で、かつThmaxの値以下であると判定した場合(ステップS204:≧Th_minかつ≦Th_max)、Biコストの値の大きさを予め定められる絶対評価用閾値Th_absに基づいて判定する(ステップS207)。評価値判定部111は、Biコストの値が、Th_absの値未満であると判定した場合(ステップS207:<Th_abs)、参照グループに含まれるフレームを結合することを示す「True」を出力する(ステップS208)。一方、評価値判定部111は、Biコストの値が、Th_absの値以上と判定した場合(ステップS207:≧Th_abs)、参照グループに含まれるフレームを結合しないことを示す「False」を出力する(ステップS206)。   On the other hand, when the evaluation value determination unit 111 determines that the calculated relative value is equal to or greater than the value of Th_min and equal to or less than the value of Thmax (step S204: ThTh_min and ≦ Th_max), the magnitude of the value of the Bi cost Is determined based on a predetermined absolute evaluation threshold Th_abs (step S207). When it is determined that the value of the Bi cost is less than the value of Th_abs (step S207: <Th_abs), the evaluation value determination unit 111 outputs “True” indicating that frames included in the reference group are combined (step S207: <Th_abs) Step S208). On the other hand, when it is determined that the value of Bi cost is equal to or greater than the value of Th_abs (step S207: ≧ Th_abs), the evaluation value determination unit 111 outputs “False” indicating that the frames included in the reference group are not combined ( Step S206).

評価値判定部111は、ステップS205,S206,S208の処理において、参照グループを示す情報に対応付けて判定結果を示す「True」または「False」の情報を判定結果記憶部112に書き込んで記憶させて、結合判定処理のサブルーチンを終了する。   The evaluation value determination unit 111 writes information of “True” or “False” indicating the determination result in association with the information indicating the reference group in the process of steps S205, S206, and S208 and stores the information in the determination result storage unit 112. Then, the subroutine of connection determination processing is ended.

図3に戻り、ピクチャタイプ選定部105は、結合判定部104が出力する判定結果を判定する(ステップS107)。ピクチャタイプ選定部105は、判定結果が「False」の場合(ステップS107−False)、参照グループのBフレームのピクチャタイプをPピクチャとして選定し、BフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、Bフレームを起点フレームとする情報を参照グループ生成部103に出力する(ステップS108)。参照グループ生成部103は、ピクチャタイプ選定部105が出力するBフレームを起点フレームとする情報を受けた場合、Bフレームを起点フレームとしてステップS102の処理に進む。   Returning to FIG. 3, the picture type selection unit 105 determines the determination result output by the combination determination unit 104 (step S107). When the determination result is “False” (Step S107-False), the picture type selection unit 105 selects the picture type of the B frame of the reference group as a P picture and information indicating that the B frame is selected as a P picture. The picture type storage unit 106 is written and stored. The picture type selection unit 105 outputs, to the reference group generation unit 103, information in which the B frame is the start frame (step S108). When the reference group generation unit 103 receives the information that uses the B frame output from the picture type selection unit 105 as the start frame, the reference group generation unit 103 proceeds to the process of step S102 with the B frame as the start frame.

一方、ピクチャタイプ選定部105は、判定結果が「True」の場合(ステップS107−True)、BフレームのピクチャタイプをAフレームとCフレームを参照フレームとするBピクチャとして選定し、BフレームをBピクチャとして選定したことを示す情報、及びAフレームとCフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、ピクチャタイプ選定部105は、CフレームのピクチャタイプをPピクチャとして選定し、CフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループを示す情報を参照グループ生成部103に出力する(ステップS109)。   On the other hand, when the determination result is "True" (step S107-True), the picture type selection unit 105 selects the picture type of the B frame as the B picture with the A frame and the C frame as reference frames, Information indicating that it is selected as a picture, and information indicating that the A frame and the C frame are reference frames are written and stored in the picture type storage unit 106. Further, the picture type selection unit 105 selects the picture type of the C frame as a P picture, and writes and stores information indicating that the C frame is selected as a P picture in the picture type storage unit 106. The picture type selection unit 105 outputs the information indicating the reference group of which the determination result is “True” to the reference group generation unit 103 (step S109).

参照グループ生成部103は、ピクチャタイプ選定部105が出力する判定結果が「True」の参照グループを示す情報を受けた場合、結合判定部104の判定結果記憶部112を参照する。参照グループ生成部103は、判定結果記憶部112に記憶されている情報に基づいて、表示順において、処理中の参照グループの1つ前の参照グループの判定結果が、「True」であるか否かを判定する(ステップS110)。   The reference group generation unit 103 refers to the determination result storage unit 112 of the connection determination unit 104 when the information indicating the reference group whose determination result output by the picture type selection unit 105 is “True” is received. Based on the information stored in the determination result storage unit 112, the reference group generation unit 103 determines whether the determination result of the reference group immediately before the reference group being processed is "True" in the display order. It is determined (step S110).

参照グループ生成部103は、表示順において、処理中の参照グループの1つ前の参照グループの判定結果が、「True」でないと判定した場合(ステップS110−NO)、Cフレームを起点フレームとして(ステップS116)、ステップS102の処理に進む。   When the reference group generation unit 103 determines that the determination result of the reference group immediately before the reference group being processed is not “True” in display order (step S110-NO), the C frame is set as the start frame ((step S110) Step S116) The processing proceeds to step S102.

参照グループ生成部103は、表示順において、処理中の参照グループの1つ前の参照グループの判定結果が、「True」であると判定した場合(ステップS110−YES)、新たな参照グループを生成する。すなわち、参照グループ生成部103は、1つ前の参照グループの最初のフレームと最後のフレームをそれぞれ、αフレーム、βフレームとし、処理中の参照グループの最後のフレームをγフレームとし、α、β、γフレームを含む新たな参照グループを生成する。なお、βフレームは、処理中の参照グループの最初のAフレームでもあり、当該参照グループにおける判定対象フレームとなる。参照グループ生成部103は、生成した新たな参照グループの情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS111)。   The reference group generation unit 103 generates a new reference group when it is determined that the determination result of the reference group immediately before the reference group being processed is "True" in the display order (step S110-YES). Do. That is, the reference group generation unit 103 sets the first frame and the last frame of the previous reference group as an α frame and a β frame, respectively, and the last frame of the reference group being processed as a γ frame. , Γ frame is generated. The β frame is also the first A frame of the reference group being processed, and is a determination target frame in the reference group. The reference group generation unit 103 outputs the generated information on the new reference group to the combination determination unit 104 and the picture type selection unit 105 (step S111).

結合判定部104は、参照グループ生成部103が出力する参照グループに含まれるα,β,γフレームに対して結合判定処理を行う。評価値算出部110は、α,β,γフレームのそれぞれをS,M,Eフレームとして図4に示す結合判定処理を行う(ステップS112)。   The combination determination unit 104 performs combination determination processing on the α, β, and γ frames included in the reference group output by the reference group generation unit 103. The evaluation value calculation unit 110 performs the connection determination process shown in FIG. 4 with each of the α, β and γ frames as an S, M and E frame (step S112).

ピクチャタイプ選定部105は、結合判定部104が出力する判定結果を判定する(ステップS113)。ピクチャタイプ選定部105は、判定結果が「False」の場合(ステップS113−False)、新たな参照グループの最後のフレームであるγフレーム、すなわち結合前の処理中の参照グループのCフレームを起点フレームとすることを示す情報を参照グループ生成部103に出力する(ステップS115)。参照グループ生成部103は、ピクチャタイプ選定部105が出力するCフレームを起点フレームとすることを示す情報を受けて、Cフレームを起点フレームとして(ステップS116)、ステップS102の処理に進む。   The picture type selection unit 105 determines the determination result output from the combination determination unit 104 (step S113). If the determination result is "False" (step S113-False), the picture type selection unit 105 starts the γ frame which is the last frame of the new reference group, that is, the C frame of the reference group in process before combining The information indicating the setting is output to the reference group generation unit 103 (step S115). The reference group generation unit 103 receives the information indicating that the C frame output from the picture type selection unit 105 is the start frame, sets the C frame as the start frame (step S116), and proceeds to the process of step S102.

一方、ピクチャタイプ選定部105は、判定結果が「True」の場合(ステップS113−True)、βフレームのピクチャタイプをαフレームとγフレームを参照フレームとするBピクチャとして選定し、βフレームをBピクチャとして選定したことを示す情報、及びαフレームとγフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、ピクチャタイプ選定部105は、γフレームのピクチャタイプをPピクチャとして選定し、γフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS114)。   On the other hand, when the determination result is "True" (step S113-True), the picture type selection unit 105 selects the picture type of the β frame as a B picture with the α frame and the γ frame as reference frames, Information indicating that it is selected as a picture, and information indicating that the α frame and the γ frame are reference frames are written and stored in the picture type storage unit 106. In addition, the picture type selection unit 105 selects the picture type of the γ frame as a P picture, and writes and stores information indicating that the γ frame is selected as a P picture in the picture type storage unit 106 (step S114).

ピクチャタイプ選定部105は、新たな参照グループの最後のフレームであるγフレーム、すなわち結合前の処理中の参照グループのCフレームを起点フレームとすることを示す情報を参照グループ生成部103に出力する(ステップS115)。参照グループ生成部103は、ピクチャタイプ選定部105が出力するCフレームを起点フレームとすることを示す情報を受けて、Cフレームを起点フレームとして(ステップS116)、ステップS102の処理に進む。   The picture type selection unit 105 outputs, to the reference group generation unit 103, information indicating that the γ frame which is the last frame of the new reference group, that is, the C frame of the reference group being processed before combining is used as the start frame. (Step S115). The reference group generation unit 103 receives the information indicating that the C frame output from the picture type selection unit 105 is the start frame, sets the C frame as the start frame (step S116), and proceeds to the process of step S102.

一方、ステップS102において、参照グループ生成部103は、連続する3枚のフレームを選択することができないと判定した場合(ステップS102−NO)、フレーム群の残りのフレームをPピクチャとして選定させる指示情報をピクチャタイプ選定部105に出力する。   On the other hand, when it is determined in step S102 that the reference group generation unit 103 can not select three consecutive frames (step S102-NO), instruction information for selecting the remaining frames of the frame group as P pictures Is output to the picture type selection unit 105.

ピクチャタイプ選定部105は、参照グループ生成部103から当該指示情報を受けて、残りのフレームのピクチャタイプをPピクチャとして選定し、残りのフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS103)。ピクチャタイプ選定部105は、Pピクチャとして選定したフレームの各々に対して、当該フレームに表示順で最も近い過去のPピクチャのフレームを参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャを当該フレームの参照フレームとして選定する。ピクチャタイプ選定部105は、各Pピクチャに対して選定した参照フレームの情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS104)。   The picture type selection unit 105 receives the instruction information from the reference group generation unit 103, selects the picture type of the remaining frame as a P picture, and stores information indicating that the remaining frame is selected as a P picture. The part 106 is written and stored (step S103). For each of the frames selected as a P picture, the picture type selection unit 105 selects, as a reference frame, a frame of the past P picture closest to the frame in display order. If there is no closest past P picture in display order, the I picture is selected as the reference frame of the frame. The picture type selection unit 105 writes and stores information on the reference frame selected for each P picture in the picture type storage unit 106 (step S104).

これにより、ピクチャタイプ記憶部106に、最終的に構築された符号化構造の情報が記憶されることになる。ブロック出力部107は、内部の記憶領域に一時的に符号化対象フレーム選択部101から受けたフレーム群を記憶しており、ピクチャタイプ記憶部106に記憶されている符号化構造に基づく順番で内部の記憶領域からフレームを読み出す。ブロック出力部107は、読み出したフレームの各々をラスタースキャンの順にCUブロックに分解して符号化対象ブロックとして出力し、符号化構造構築部10は、1つのフレーム群についての処理を終了する。   As a result, the picture type storage unit 106 stores the information of the coding structure finally constructed. The block output unit 107 temporarily stores the frame group received from the encoding target frame selection unit 101 in an internal storage area, and internally stores the frames in the order based on the encoding structure stored in the picture type storage unit 106. Read the frame from the storage area of The block output unit 107 decomposes each of the read frames into CU blocks in raster scan order and outputs the CU block as an encoding target block, and the coding structure construction unit 10 ends the processing for one frame group.

(第1の実施形態の符号化構造処理の具体例)
次に、図5から図8を参照しつつ、図5(a)に示すフレーム群に、図3に示した第1の実施形態の符号化構造構築処理を適用した場合の例について説明する。符号化対象フレーム選択部101が、入力映像情報から図5(a)に示すフレーム群を生成する。当該フレーム群は、フレーム番号8とフレーム番号9のフレームにおいてシーンチェンジが含まれている。
(Specific Example of Encoding Structure Processing of First Embodiment)
Next, with reference to FIG. 5 to FIG. 8, an example in the case of applying the coding structure construction process of the first embodiment shown in FIG. 3 to the frame group shown in FIG. 5A will be described. The encoding target frame selection unit 101 generates a frame group shown in FIG. 5A from the input video information. The frame group includes a scene change in the frames of frame number 8 and frame number 9.

図5(b)に示すように、Iピクチャ選定部102は、フレーム番号0のフレームのピクチャタイプをIピクチャとして選定し、当該フレームをIピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、Iピクチャ選定部102は、フレーム番号0のフレームを起点フレームとする(ステップS101)。   As shown in FIG. 5B, the I picture selection unit 102 selects the picture type of the frame with frame number 0 as an I picture, and information indicating that the frame is selected as an I picture is stored in the picture type storage unit 106. Write to and memorize. Also, the I picture selection unit 102 sets the frame of frame number 0 as the start frame (step S101).

参照グループ生成部103は、フレーム番号0のフレームを起点フレームとして、フレーム番号0,1,2の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号0,1,2のフレームをフレームA,B,Cとして含む参照グループ301を生成し、生成した参照グループ301の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ301において判定対象フレームは、フレーム番号1のフレームとなる。   The reference group generation unit 103 selects three consecutive frames of frame numbers 0, 1 and 2 with the frame of frame number 0 as the start frame (step S102-YES). The reference group generation unit 103 generates a reference group 301 including the frames of frame numbers 0, 1 and 2 as frames A, B and C, and the information of the generated reference group 301 is combined determination unit 104 and picture type selection unit 105. Output (step S105). The determination target frame in the reference group 301 is the frame of frame number 1.

結合判定部104は、参照グループ301に対して図4に示す結合判定処理を行い、ここでは、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「True」であるため(ステップS107−True)、フレーム番号1のフレームのピクチャタイプをフレーム番号0とフレーム番号2のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号2のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号2のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。   The combination determination unit 104 performs the combination determination process shown in FIG. 4 on the reference group 301. Here, it is assumed that the evaluation value determination unit 111 outputs "True" because there is no scene change (step S106). . Since the determination result output from the connection determination unit 104 is “True” (step S 107 -True), the picture type selection unit 105 sets the frame types of frame number 1 to frame number 0 and frame number 2. It is selected as a B picture to be a reference frame. The picture type selection unit 105 writes in the picture type storage unit 106 information indicating that the frame of frame number 2 has been selected as a B picture, and information indicating that the frames of frame number 0 and frame number 2 are reference frames. Remember.

また、ピクチャタイプ選定部105は、フレーム番号2のフレームのピクチャタイプをPピクチャとして選定し、フレーム番号2のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループ301を示す情報を参照グループ生成部103に出力する(ステップS109)。   In addition, the picture type selection unit 105 selects the picture type of the frame of frame number 2 as a P picture, and writes information indicating that the frame of frame number 2 is selected as a P picture into the picture type storage unit 106 for storage. . The picture type selection unit 105 outputs information indicating the reference group 301 whose determination result is “True” to the reference group generation unit 103 (step S109).

図5(c)に示すように、参照グループ生成部103は、判定結果記憶部112を参照し、参照グループ301に対して1つ前の参照グループが存在しないため(ステップS110−NO)、フレーム番号2のフレームを起点フレームとして(ステップS116)、フレーム番号2,3,4の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号2,3,4のフレームをフレームA,B,Cとして含む参照グループ302を生成し、生成した参照グループ302の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ302において判定対象フレームは、フレーム番号3のフレームとなる。   As shown in FIG. 5C, the reference group generation unit 103 refers to the determination result storage unit 112, and there is no reference group one before the reference group 301 (step S110-NO). The frame of No. 2 is set as the starting point frame (step S116), and three consecutive frames of frame numbers 2, 3 and 4 are selected (step S102--YES). The reference group generation unit 103 generates the reference group 302 including the frames of frame numbers 2, 3 and 4 as the frames A, B and C, and the generated information of the reference group 302 is combined determination unit 104 and picture type selection unit 105. Output (step S105). In the reference group 302, the determination target frame is a frame of frame number 3.

結合判定部104は、参照グループ302に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「True」であるため(ステップS107−True)、フレーム番号3のフレームのピクチャタイプをフレーム番号2とフレーム番号4のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号3のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号2とフレーム番号4のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。   The connection determination unit 104 performs the connection determination process shown in FIG. 4 on the reference group 302. Also here, since there is no scene change, the evaluation value determination unit 111 outputs "True" (step S106). . Since the determination result output from the connection determination unit 104 is “True” (step S 107 -True), the picture type selection unit 105 sets the picture types of the frame of frame number 3 to the frames of frame numbers 2 and 4. It is selected as a B picture to be a reference frame. The picture type selection unit 105 writes in the picture type storage unit 106 information indicating that the frame of frame number 3 has been selected as a B picture, and information indicating that the frames of frame numbers 2 and 4 are reference frames. Remember.

また、ピクチャタイプ選定部105は、フレーム番号4のピクチャタイプをPピクチャとして選定し、フレーム番号4のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループ302を示す情報を参照グループ生成部103に出力する(ステップS109)。   Also, the picture type selection unit 105 selects the picture type of frame number 4 as a P picture, and writes and stores information indicating that the frame of frame number 4 is selected as a P picture in the picture type storage unit 106. The picture type selection unit 105 outputs the information indicating the reference group 302 whose determination result is “True” to the reference group generation unit 103 (step S109).

図6(d)に示すように、参照グループ生成部103は、判定結果記憶部112を参照し、参照グループ302に対して1つ前の参照グループ301の判定結果が「True」であると判定する(ステップS110−YES)。参照グループ生成部103は、フレーム番号0,2,4のフレームをフレームα,β,γとして含む参照グループ303を生成する。なお、参照グループ303において判定対象フレームは、フレーム番号2のフレームとなる。参照グループ生成部103は、生成した参照グループ303の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS111)。   As shown in FIG. 6D, the reference group generation unit 103 refers to the determination result storage unit 112 and determines that the determination result of the reference group 301 immediately before the reference group 302 is “True”. (Step S110-YES). The reference group generation unit 103 generates a reference group 303 including the frames of frame numbers 0, 2 and 4 as the frames α, β and γ. The determination target frame in the reference group 303 is the frame of frame number 2. The reference group generation unit 103 outputs the generated information of the reference group 303 to the combination determination unit 104 and the picture type selection unit 105 (step S111).

結合判定部104は、参照グループ303に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS112)。ピクチャタイプ選定部105は、判定結果が「True」であるため(ステップS113−True)、フレーム番号2のフレームのピクチャタイプをフレーム番号0とフレーム番号4のフレームを参照フレームとするBピクチャとして選定する。   The connection determination unit 104 performs the connection determination process illustrated in FIG. 4 on the reference group 303. Also here, since there is no scene change, the evaluation value determination unit 111 outputs “True” (step S112). . Since the determination result is "True" (step S113-True), the picture type selection unit 105 selects the picture type of the frame of frame number 2 as a B picture with the frames of frame number 0 and frame number 4 as the reference frame. Do.

ピクチャタイプ記憶部106には、既に、フレーム番号2のフレームについて、Pピクチャであることを示す情報が書き込まれている。そのため、ピクチャタイプ選定部105は、フレーム番号2のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号4のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に上書きして記憶させる(ステップS114)。ピクチャタイプ選定部105は、次の起点フレームとなるフレーム番号4を示す情報を参照グループ生成部103に出力する(ステップS115)。   In the picture type storage unit 106, information indicating that the frame of frame number 2 is a P picture has already been written. Therefore, the picture type selection unit 105 uses the picture type storage unit 106 as information indicating that the frame of frame number 2 has been selected as a B picture, and information indicating that the frames of frame numbers 0 and 4 are reference frames. Are overwritten and stored (step S114). The picture type selection unit 105 outputs, to the reference group generation unit 103, information indicating frame number 4 that is the next start frame (step S115).

図6(e)に示すように、参照グループ生成部103は、フレーム番号4のフレームを起点フレームとして(ステップS116)、フレーム番号4,5,6の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号4,5,6のフレームをフレームA,B,Cとして含む参照グループ304を生成し、生成した参照グループ304の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ304において判定対象フレームは、フレーム番号5のフレームとなる。   As shown in FIG. 6E, the reference group generation unit 103 selects three consecutive frames of frame numbers 4, 5 and 6 with the frame of frame number 4 as the starting point frame (step S116). S102-YES). The reference group generation unit 103 generates the reference group 304 including the frames of frame numbers 4, 5 and 6 as the frames A, B and C, and the information of the generated reference group 304 is combined determination unit 104 and picture type selection unit 105. Output (step S105). The determination target frame in the reference group 304 is the frame of frame number 5.

結合判定部104は、参照グループ304に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「True」であるため(ステップS107−True)、フレーム番号5のフレームのピクチャタイプをフレーム番号4とフレーム番号6のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号5のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号4とフレーム番号6のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。   The connection determination unit 104 performs the connection determination process shown in FIG. 4 on the reference group 304. Also here, since there is no scene change, the evaluation value determination unit 111 outputs "True" (step S106). . Since the determination result output from the connection determination unit 104 is “True” (step S 107 -True), the picture type selection unit 105 sets the frame types of frame number 5 and frame number 6 as the picture type of the frame of frame number 5. It is selected as a B picture to be a reference frame. The picture type selection unit 105 writes in the picture type storage unit 106 information indicating that the frame of frame number 5 has been selected as a B picture, and information indicating that the frames of frame numbers 4 and 6 are reference frames. Remember.

また、ピクチャタイプ選定部105は、フレーム番号6のピクチャタイプをPピクチャとして選定し、フレーム番号6のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループ304を示す情報を参照グループ生成部103に出力する(ステップS109)。   Also, the picture type selection unit 105 selects the picture type of frame number 6 as a P picture, and writes and stores information indicating that the frame of frame number 6 is selected as a P picture in the picture type storage unit 106. The picture type selection unit 105 outputs the information indicating the reference group 304 whose determination result is “True” to the reference group generation unit 103 (step S109).

図6(f)に示すように、参照グループ生成部103は、判定結果記憶部112を参照し、参照グループ304に対して1つ前の参照グループ303の判定結果が「True」であると判定する(ステップS110−YES)。参照グループ生成部103は、フレーム番号0,4,6のフレームをフレームα,β,γとして含む参照グループ305を生成する。なお、参照グループ305において判定対象フレームは、フレーム番号4のフレームとなる。参照グループ生成部103は、生成した参照グループ305の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS111)。   As shown in FIG. 6F, the reference group generation unit 103 refers to the determination result storage unit 112 and determines that the determination result of the reference group 303 immediately before the reference group 304 is “True”. (Step S110-YES). The reference group generation unit 103 generates a reference group 305 including the frames of frame numbers 0, 4 and 6 as the frames α, β and γ. The determination target frame in the reference group 305 is the frame of frame number 4. The reference group generation unit 103 outputs the generated information of the reference group 305 to the combination determination unit 104 and the picture type selection unit 105 (step S111).

結合判定部104は、参照グループ305に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS112)。ピクチャタイプ選定部105は、判定結果が「True」であるため(ステップS113−True)、フレーム番号4のフレームのピクチャタイプをフレーム番号0とフレーム番号6のフレームを参照フレームとするBピクチャとして選定する。   The connection determination unit 104 performs the connection determination process shown in FIG. 4 on the reference group 305. Also here, since there is no scene change, the evaluation value determination unit 111 outputs "True" (step S112). . Since the determination result is “True” (step S 113 -True), the picture type selection unit 105 selects the picture type of the frame of frame number 4 as the B picture with the frames of frame number 0 and frame number 6 as reference frames. Do.

ピクチャタイプ記憶部106には、既に、フレーム番号4のフレームについて、Pピクチャであることを示す情報が書き込まれている。そのため、ピクチャタイプ選定部105は、フレーム番号4のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号6のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に上書きして記憶させる(ステップS114)。ピクチャタイプ選定部105は、次の起点フレームとなるフレーム番号6を示す情報を参照グループ生成部103に出力する(ステップS115)。   Information indicating that the frame of frame number 4 is a P picture has already been written in the picture type storage unit 106. Therefore, the picture type selection unit 105 uses the picture type storage unit 106 as information indicating that the frame of frame number 4 is selected as a B picture, and information indicating that the frames of frame number 0 and frame number 6 are reference frames. Are overwritten and stored (step S114). The picture type selection unit 105 outputs, to the reference group generation unit 103, information indicating the frame number 6 that is the next starting point frame (step S115).

図7(g)に示すように、参照グループ生成部103は、フレーム番号6のフレームを起点フレームとして(ステップS116)、フレーム番号6,7,8の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号6,7,8のフレームをフレームA,B,Cとして含む参照グループ306を生成し、生成した参照グループ306の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ306において判定対象フレームは、フレーム番号7のフレームとなる。   As shown in FIG. 7G, the reference group generation unit 103 selects three consecutive frames of frame numbers 6, 7 and 8 with the frame of frame number 6 as the starting point frame (step S116). S102-YES). The reference group generation unit 103 generates a reference group 306 including the frames of frame numbers 6, 7 and 8 as frames A, B and C, and the information of the generated reference group 306 is combined determination unit 104 and picture type selection unit 105. Output (step S105). In the reference group 306, the determination target frame is the frame of frame number 7.

結合判定部104は、参照グループ306に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「True」であるため(ステップS107−True)、フレーム番号7のフレームのピクチャタイプをフレーム番号6とフレーム番号8のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号7のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号6とフレーム番号8のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。   The connection determination unit 104 performs the connection determination process shown in FIG. 4 on the reference group 306. Also here, since there is no scene change, the evaluation value determination unit 111 outputs "True" (step S106). . Since the determination result output from the connection determination unit 104 is “True” (step S 107 -True), the picture type selection unit 105 sets the picture types of the frame of frame number 7 as the frame numbers 6 and 8. It is selected as a B picture to be a reference frame. The picture type selection unit 105 writes in the picture type storage unit 106 information indicating that the frame of frame number 7 has been selected as a B picture, and information indicating that the frames of frame numbers 6 and 8 are reference frames. Remember.

また、ピクチャタイプ選定部105は、フレーム番号8のピクチャタイプをPピクチャとして選定し、フレーム番号8のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、判定結果が「True」の参照グループ306を示す情報を参照グループ生成部103に出力する(ステップS109)。   In addition, the picture type selection unit 105 selects the picture type of frame number 8 as a P picture, and writes and stores information indicating that the frame of frame number 8 is selected as a P picture in the picture type storage unit 106. The picture type selection unit 105 outputs the information indicating the reference group 306 whose determination result is “True” to the reference group generation unit 103 (step S109).

図7(h)に示すように、参照グループ生成部103は、判定結果記憶部112を参照し、参照グループ306に対して1つ前の参照グループ305の判定結果が「True」であると判定する(ステップS110−YES)。参照グループ生成部103は、フレーム番号0,6,8のフレームをフレームα,β,γとして含む参照グループ307を生成する。なお、参照グループ307において判定対象フレームは、フレーム番号6のフレームとなる。参照グループ生成部103は、生成した参照グループ307の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS111)。   As shown in FIG. 7H, the reference group generation unit 103 refers to the determination result storage unit 112, and determines that the determination result of the reference group 305 immediately before the reference group 306 is "True". (Step S110-YES). The reference group generation unit 103 generates a reference group 307 including the frames of frame numbers 0, 6, and 8 as the frames α, β, and γ. In the reference group 307, the determination target frame is a frame of frame number 6. The reference group generation unit 103 outputs the generated information of the reference group 307 to the combination determination unit 104 and the picture type selection unit 105 (step S111).

結合判定部104は、参照グループ307に対して図4に示す結合判定処理を行い、ここでも、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS112)。ピクチャタイプ選定部105は、判定結果が「True」であるため(ステップS113−True)、フレーム番号6のフレームのピクチャタイプをフレーム番号0とフレーム番号8のフレームを参照フレームとするBピクチャとして選定する。   The connection determination unit 104 performs the connection determination process shown in FIG. 4 on the reference group 307. Also here, since there is no scene change, the evaluation value determination unit 111 outputs "True" (step S112). . Since the determination result is “True” (step S 113 -True), the picture type selection unit 105 selects the picture type of the frame of frame number 6 as the B picture with the frames of frame number 0 and frame number 8 as the reference frame Do.

ピクチャタイプ記憶部106には、既に、フレーム番号6のフレームについて、Pピクチャであることを示す情報が書き込まれている。そのため、ピクチャタイプ選定部105は、フレーム番号6のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号8のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に上書きして記憶させる(ステップS114)。ピクチャタイプ選定部105は、次の起点フレームとなるフレーム番号8を示す情報を参照グループ生成部103に出力する(ステップS115)。   In the picture type storage unit 106, information indicating that the frame of frame number 6 is a P picture has already been written. Therefore, the picture type selection unit 105 uses the picture type storage unit 106 as information indicating that the frame of frame number 6 has been selected as a B picture, and information indicating that the frames of frame number 0 and frame number 8 are reference frames. Are overwritten and stored (step S114). The picture type selection unit 105 outputs, to the reference group generation unit 103, information indicating the frame number 8 that is the next start point frame (step S115).

図7(i)に示すように、参照グループ生成部103は、フレーム番号8のフレームを起点フレームとして(ステップS116)、フレーム番号8,9,10の3枚の連続するフレームを選択する(ステップS102−YES)。参照グループ生成部103は、フレーム番号8,9,10のフレームをフレームA,B,Cとして含む参照グループ308を生成し、生成した参照グループ308の情報を結合判定部104とピクチャタイプ選定部105に出力する(ステップS105)。なお、参照グループ308において判定対象フレームは、フレーム番号9のフレームとなる。   As shown in FIG. 7I, the reference group generation unit 103 selects three consecutive frames of frame numbers 8, 9, and 10, using the frame of frame number 8 as the starting point frame (step S116). S102-YES). The reference group generation unit 103 generates the reference group 308 including the frames of frame numbers 8, 9, and 10 as the frames A, B, and C, and the information of the generated reference group 308 is combined determination unit 104 and picture type selection unit 105. Output (step S105). In the reference group 308, the determination target frame is the frame of frame number 9.

結合判定部104は、参照グループ308に対して図4に示す結合判定処理を行う。図5(a)に示したように、フレーム番号8とフレーム番号9の間ではシーンチェンジがあるため、ここでは、評価値判定部111は、「False」を出力したとする(ステップS106)。ピクチャタイプ選定部105は、結合判定部104が出力する判定結果が、「False」であるため(ステップS107−False)、フレーム番号9のフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号9のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105は、フレーム番号9のフレームを起点フレームとする(ステップS108)。   The combination determination unit 104 performs the combination determination process illustrated in FIG. 4 on the reference group 308. As shown in FIG. 5A, since there is a scene change between frame number 8 and frame number 9, it is assumed here that the evaluation value determination unit 111 outputs "False" (step S106). The picture type selection unit 105 selects the picture type of the frame with the frame number 9 as the P picture because the determination result output from the connection determination unit 104 is “False” (step S 107 -False). The picture type selection unit 105 writes and stores information indicating that the frame of frame number 9 is selected as a P picture in the picture type storage unit 106. The picture type selection unit 105 sets the frame of frame number 9 as the start frame (step S108).

図8(j)に示すように、参照グループ生成部103は、フレーム番号9のフレームを起点として3枚の連続するフレームを選択することができない(ステップS102−NO)。参照グループ生成部103は、残りのフレームであるフレーム番号10のフレームのピクチャタイプをPピクチャとして選定する指示情報をピクチャタイプ選定部105に出力する。ピクチャタイプ選定部105は、当該指示情報を受けて、フレーム番号10のフレームをPピクチャとして選定し、フレーム番号10のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS103)。   As shown in FIG. 8 (j), the reference group generation unit 103 can not select three consecutive frames starting from the frame of frame number 9 (step S102-NO). The reference group generation unit 103 outputs, to the picture type selection unit 105, instruction information for selecting the picture type of the frame of frame number 10 which is the remaining frame as a P picture. The picture type selection unit 105 receives the instruction information, selects the frame of frame number 10 as a P picture, and writes information indicating that the frame of frame number 10 is selected as a P picture in the picture type storage unit 106. It memorizes (Step S103).

ピクチャタイプ選定部105は、ピクチャタイプ記憶部106に記憶されている情報を参照し、Pピクチャとして選定されている、フレーム番号8,9,10のフレームについて、表示順で最も近い過去のPピクチャのフレームを参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャのフレームを参照フレームとして選定する。ピクチャタイプ選定部105は、選定した参照フレームを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS104)。   The picture type selection unit 105 refers to the information stored in the picture type storage unit 106, and for the frame of frame numbers 8, 9, and 10 selected as a P picture, the closest past P picture in display order The frame of is selected as the reference frame. When there is no closest past P picture in display order, a frame of I picture is selected as a reference frame. The picture type selection unit 105 writes and stores information indicating the selected reference frame in the picture type storage unit 106 (step S104).

フレーム番号8のフレームについては、表示順で最も近い過去のPピクチャがないため、フレーム番号0のIピクチャのフレームが参照フレームとなる。フレーム番号9のフレームについては、表示順で最も近い過去のPピクチャは、フレーム番号8のフレームとなる。フレーム番号10のフレームについては、表示順で最も近い過去のPピクチャは、フレーム番号9のフレームとなる。   As for the frame of frame number 8, there is no closest past P picture in display order, so the frame of I picture of frame number 0 is the reference frame. For the frame of frame number 9, the closest past P picture in display order is the frame of frame number 8. For the frame of frame number 10, the closest past P picture in display order is the frame of frame number 9.

ピクチャタイプ記憶部106に記憶されている情報に基づいて構築された符号化構造を階層化すると、図8(k)に示すような、4階層のBピクチャの階層構造を有する符号化構造となる。   When the coding structure constructed based on the information stored in the picture type storage unit 106 is hierarchized, the coding structure has a hierarchical structure of B pictures of four layers as shown in FIG. .

(結合判定処理の具体例)
次に、図9及び図10を参照しつつ、結合判定部104による結合判定処理の例について説明する。図9は、結合判定処理を適用するS,M,Eフレームの例であり、図9(i)は、S,M,Eフレームの3枚のフレームにおいてシーンチェンジがない例であり、(ii)は、MフレームとEフレームの間でシーンチェンジがある例であり、(iii)は、SフレームとMフレームの間でシーンチェンジがある例である。図9(iv)と(v)は、SフレームからEフレームにわたって部分的にシーンチェンジがある例である。
(Specific example of combination determination processing)
Next, an example of the connection determination process by the connection determination unit 104 will be described with reference to FIGS. 9 and 10. FIG. 9 shows an example of S, M and E frames to which the connection determination process is applied. FIG. 9 (i) is an example in which there are no scene changes in three frames of S, M and E frames. Is an example in which there is a scene change between M frame and E frame, and (iii) is an example in which there is a scene change between S frame and M frame. FIGS. 9 (iv) and (v) are examples in which there is a scene change in part from S frame to E frame.

この例において、相対評価用閾値Th_min,Th_maxとして、それぞれ「0.8」,「1.2」が定められており、絶対評価用閾値Th_absとして、「350」が定められているとする。   In this example, it is assumed that “0.8” and “1.2” are defined as the relative evaluation threshold Th_min and Th_max, and “350” is defined as the absolute evaluation threshold Th_abs.

図9(i)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「150」、「150」、「100」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(100,150)/150=100/150=2/3となる(ステップS202,S203)。2/3<0.8であるため(ステップS204、<Th_min)、評価値判定部111は、「True」を出力する(ステップS205)。   In the case of FIG. 9I, the evaluation value calculation unit 110 of the connection determination unit 104 sets “150”, “150”, and “100” as evaluation values of L0, L1, and Bi costs, respectively, as shown in FIG. Is calculated (step S201). If Formula (1) is applied by the evaluation value determination part 111, it will become relative value = min (100,150) / 150 = 100/150 = 2/3 (step S202, S203). Since 2/3 <0.8 (step S204, <Th_min), the evaluation value determination unit 111 outputs "True" (step S205).

図9(ii)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「150」、「500」、「400」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(400,500)/150=400/150=8/3となる(ステップS202,S203)。8/3>1.2であるため(ステップS204、>Th_max)、評価値判定部111は、「False」を出力する(ステップS206)。   In the case of FIG. 9 (ii), the evaluation value calculation unit 110 of the connection determination unit 104 sets “150”, “500”, and “400” as evaluation values of L0, L1, and Bi costs, respectively, as shown in FIG. Is calculated (step S201). If Formula (1) is applied by the evaluation value determination part 111, it will become relative value = min (400,500) / 150 = 400/150 = 8/3 (step S202, S203). Since 8/3> 1.2 (step S204,> Th_max), the evaluation value determination unit 111 outputs "False" (step S206).

図9(iii)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「500」、「150」、「400」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(400,150)/500=150/500=0.3となる(ステップS202,S203)。0.3<0.8であるため(ステップS204、<Th_min)、評価値判定部111は、「True」を出力する(ステップS205)。   In the case of FIG. 9 (iii), the evaluation value calculation unit 110 of the connection determination unit 104 sets “500”, “150”, and “400” as evaluation values of L0, L1, and Bi costs, respectively, as shown in FIG. Is calculated (step S201). If Formula (1) is applied by the evaluation value determination part 111, it will become relative value = min (400,150) /500=150/500=0.3 (step S202, S203). Since 0.3 <0.8 (step S204, <Th_min), the evaluation value determination unit 111 outputs "True" (step S205).

図9(iv)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「300」、「400」、「300」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(300,400)/300=300/300=1となる(ステップS202,S203)。0.8≦1≦1.2であるため(ステップS204、≧Th_minかつ≦Th_max)、評価値判定部111は、Biコストの値の大きさを絶対評価用閾値に基づいて判定する(ステップS207)。Biコストの値「300」<Th_abs「350」であるため(ステップS207、<Th_abs)、評価値判定部111は、「True」を出力する(ステップS208)。   In the case of FIG. 9 (iv), the evaluation value calculation unit 110 of the connection determination unit 104 sets “300”, “400”, and “300” as evaluation values of L0, L1, and Bi costs, respectively, as shown in FIG. Is calculated (step S201). If Formula (1) is applied by the evaluation value determination part 111, it will become relative value = min (300,400) / 300 = 300/300 = 1 (step S202, S203). Since 0.8 ≦ 1 ≦ 1.2 (step S204, ThTh_min and ≦ Th_max), the evaluation value determination unit 111 determines the value of the Bi cost based on the absolute evaluation threshold (step S207). ). Since the value of Bi cost is “300” <Th_abs “350” (step S207, <Th_abs), the evaluation value determination unit 111 outputs “True” (step S208).

図9(v)の場合、結合判定部104の評価値算出部110は、L0,L1,Biコストの評価値として、図10に示すように、それぞれ「400」、「500」、「400」を算出する(ステップS201)。評価値判定部111により式(1)を適用すると、相対値=min(400,500)/400=400/400=1となる(ステップS202,S203)。0.8≦1≦1.2であるため(ステップS204、≧Th_minかつ≦Th_max)、評価値判定部111は、Biコストの値の大きさを絶対評価用閾値に基づいて判定する(ステップS207)。Biコストの値「400」≧Th_abs「350」であるため(ステップS207、≧Th_abs)、評価値判定部111は、「False」を出力する(ステップS206)。   In the case of FIG. 9 (v), the evaluation value calculation unit 110 of the connection determination unit 104 sets “400”, “500”, and “400” as evaluation values of L0, L1, and Bi costs, respectively, as shown in FIG. Is calculated (step S201). When the expression (1) is applied by the evaluation value determination unit 111, the relative value = min (400, 500) / 400 = 400/400 = 1 is obtained (steps S202 and S203). Since 0.8 ≦ 1 ≦ 1.2 (step S204, ThTh_min and ≦ Th_max), the evaluation value determination unit 111 determines the value of the Bi cost based on the absolute evaluation threshold (step S207). ). Since the value of the Bi cost "400" ThTh_abs "350" (step S207, ThTh_abs), the evaluation value determination unit 111 outputs "False" (step S206).

上記の第1の実施形態の構成により、符号化構造構築部10において、符号化対象フレーム選択部101が、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成する。Iピクチャ選定部102は、フレーム群の最初のフレームをIピクチャとして選定し、起点フレームとする。参照グループ生成部103は、起点フレームを起点として3枚の連続するフレームを選択し、選択した3枚のフレームをA,B,Cフレームとして参照グループを生成する。結合判定部104の評価値算出部110は、参照グループに含まれるA,B,Cフレームに基づいて、L0コスト、L1コスト、Biコストという3つの評価値を算出する。評価値判定部111は、BiコストとL1コストのうち値の小さい方を選択し、L0コストの値を基準とした相対値と、予め定められる相対評価用閾値Th_min,Th_maxとに基づいて、判定対象フレームであるBフレームと、AとCフレームの参照関係を結合するか否かを判定する。また、評価値判定部111は、相対値が、Th_minの値以上であって、かつTh_maxの値以下の範囲に含まれる場合、更に、Biコストの値と、絶対評価用閾値Th_absとに基づいて、判定対象フレームであるBフレームと、AとCフレームの参照関係を結合するか否かを判定する。ピクチャタイプ選定部105は、評価値判定部111が、Bフレームと、AとCフレームの参照関係を結合すると判定した場合、Bフレームを、AとCフレームを参照フレームとするBピクチャとして選定する。すなわち、符号化構造構築部10では、実際の符号化を行うような演算を行っておらず、3つのフレームに基づいて3つの評価値を算出し、算出した3つの評価値に基づいて、3つのフレームの参照関係を結合するか否かを判定している。このため、第1の実施形態の符号化構造構築部10では、符号化効率の高い符号化構造を低演算量で求めることが可能となる。   According to the configuration of the first embodiment, in the coding structure construction unit 10, the coding target frame selection unit 101 selects a number of frames according to the size of the GOP determined in advance from the input video information, and sets the frame group. Generate The I picture selection unit 102 selects the first frame of the frame group as an I picture and uses it as a start frame. The reference group generation unit 103 selects three continuous frames starting from the start frame, and generates a reference group using the selected three frames as A, B, and C frames. The evaluation value calculation unit 110 of the combination determination unit 104 calculates three evaluation values of L0 cost, L1 cost, and Bi cost based on the A, B, and C frames included in the reference group. The evaluation value determination unit 111 selects the smaller one of the Bi cost and the L1 cost, and makes a determination based on the relative value based on the value of the L0 cost and the predetermined relative evaluation threshold values Th_min and Th_max. It is determined whether or not the reference relationship between the B frame, which is the target frame, and the A and C frames is combined. In addition, when the relative value is within the range not less than the value of Th_min and not more than the value of Th_max, the evaluation value determining unit 111 further determines the value of Bi cost based on the absolute evaluation threshold Th_abs. It is determined whether or not the reference relationship between the B frame, which is the determination target frame, and the A and C frames is combined. If the evaluation value determination unit 111 determines that the reference relationship between the B frame and the A and C frames is combined, the picture type selection unit 105 selects the B frame as a B picture having the A and C frames as reference frames. . That is, the encoding structure construction unit 10 does not perform an operation to perform actual coding, but calculates three evaluation values based on three frames, and calculates 3 based on the calculated 3 evaluation values. It is determined whether or not reference relationships of two frames are to be combined. For this reason, in the coding structure construction unit 10 of the first embodiment, it is possible to obtain a coding structure with high coding efficiency with a small amount of calculation.

また、参照グループ生成部103は、評価値判定部111が、判定対象フレームと最初と最後のフレームの参照関係を結合すると判定した隣接する2つの参照グループを結合して重複するフレームを判定対象フレームとする新たな参照グループを生成することを繰り返す。結合判定部104は、参照グループ生成部103が、新たに生成した参照グループのα,β,γフレームに基づいて、結合判定処理を行う。これにより、第1の実施形態の符号化構造構築部10では、2階層以上の深い階層の符号化構造を構築することが可能となっており、符号化効率を向上させることが可能となっている。例えば、上述したように、図8(k)の例では、4階層のBピクチャの階層構造を有する符号化構造を構築することができることを示している。   Further, the reference group generation unit 103 combines two adjacent reference groups of which the evaluation value determination unit 111 determines that the reference relationship between the determination target frame and the first and last frames are combined Repeat creating a new reference group. In the connection determination unit 104, the reference group generation unit 103 performs connection determination processing based on the newly generated α, β, and γ frames of the reference group. As a result, in the coding structure construction unit 10 of the first embodiment, it is possible to construct a coding structure of two or more deep layers, and it becomes possible to improve the coding efficiency. There is. For example, as described above, the example of FIG. 8 (k) indicates that it is possible to construct a coding structure having a hierarchical structure of B pictures of four layers.

(第2の実施形態)
図11は、本発明の第2の実施形態における符号化構造構築部10aの構成を示すブロック図である。符号化構造構築部10aは、第1の実施形態の映像符号化装置1の符号化構造構築部10に置き換えて適用される機能部である。なお、第2の実施形態の符号化構造構築部10aが適用される場合、映像符号化装置の符号を「1」に替えて「1a」で表すものとする。第2の実施形態において、第1の実施形態と同一の構成については、同一の符号を付し、以下、第1の実施形態の符号化構造構築部10と異なる構成について説明する。
Second Embodiment
FIG. 11 is a block diagram showing the configuration of the coding structure construction unit 10a in the second embodiment of the present invention. The coding structure construction unit 10 a is a functional unit to be applied replacing the coding structure construction unit 10 of the video coding device 1 according to the first embodiment. When the coding structure construction unit 10a of the second embodiment is applied, the code of the video coding apparatus is represented by "1a" instead of "1". In the second embodiment, the same components as those of the first embodiment are denoted by the same reference numerals, and components different from those of the coding structure construction unit 10 of the first embodiment will be described below.

符号化構造構築部10aは、符号化対象フレーム選択部101、Iピクチャ選定部102a、参照グループ生成部103a、結合判定部104、ピクチャタイプ選定部105a、ピクチャタイプ記憶部106、ブロック出力部107、及び参照グループ記憶部108を備える。   The coding structure construction unit 10a includes a coding target frame selection unit 101, an I picture selection unit 102a, a reference group generation unit 103a, a combination determination unit 104, a picture type selection unit 105a, a picture type storage unit 106, a block output unit 107, And a reference group storage unit 108.

符号化構造構築部10aにおいて、Iピクチャ選定部102aは、フレーム群の最初のフレームをIピクチャとして選定する。参照グループ生成部103aは、初期値をi=0、j=0とし、フレーム群からフレーム番号が「2j」,「2j+2」,「2j+2(i+1)」の3枚のフレームを含む参照グループを生成することができなくなるまで、jに1を加算しつつ、jがN/2未満の間繰り返す。ここで、Nの値は、フレーム群に含まれるフレームに付与されるフレーム番号の最大値であり、フレーム群のフレーム数から「1」減算した値である。 In the coding structure construction unit 10a, the I picture selection unit 102a selects the first frame of the frame group as an I picture. The reference group generation unit 103a sets an initial value to i = 0 and j = 0, and a reference group including three frames of frame numbers “2j”, “2j + 2 i ”, and “2j + 2 (i + 1) ” from the frame group Repeat while j is less than N / 2, adding 1 to j, until it can not be generated. Here, the value of N is the maximum value of the frame numbers assigned to the frames included in the frame group, and is a value obtained by subtracting “1” from the number of frames in the frame group.

また、参照グループ生成部103aは、選択したフレーム番号が「2j」,「2j+2」,「2j+2(i+1)」のフレームの組み合わせの各々において、3つのフレームをA,B,Cフレームとし、A,B,Cフレームを含む、iとjのインデックスが付いた参照グループRef[i][j]を生成する(ただし、A,B,Cフレームを含む参照グループを生成する場合、i=0に固定され、jのみが変数となる)。また、参照グループ生成部103aは、生成した参照グループRef[0][j]を参照グループ記憶部108に書き込んで記憶させる。 In addition, the reference group generation unit 103a sets three frames as A, B, and C frames in each of the combinations of the selected frame numbers “2 j ”, “2 j + 2 i ”, and “2 j + 2 (i + 1) ”. Create a reference group Ref [i] [j] indexed by i and j, including B, C, C frames (however, if generating a reference group including A, B, C frames, i = 0) Fixed, only j is a variable). Further, the reference group generation unit 103a writes the generated reference group Ref [0] [j] in the reference group storage unit 108 and stores the reference group Ref [0] [j].

また、参照グループ生成部103aは、初期値をi=1,j=0として、参照グループRef[i−1][j]とRef[i−1][j+1]の両方において、結合判定部104が判定した判定結果が「True」となっている組み合わせの検出を、jに2を加算しつつ、jがN/2未満の間繰り返すことを、更に、iに1加算しつつ、iがdepth_max未満の間繰り返し行う。ここで、depth_maxは、予め定めらえる構築する符号化構造の階層数を示す値であり、3階層の場合、depth_maxは、「3」となる。   Further, the reference group generation unit 103 a sets the initial value to i = 1, j = 0, and the connection determination unit 104 in both of the reference groups Ref [i−1] [j] and Ref [i−1] [j + 1]. Is repeated while j is less than N / 2 while 2 is added to j, while i is 1 and depth_max is added. Repeat for less than. Here, depth_max is a value indicating the number of layers of the coding structure to be constructed, which is predetermined, and in the case of three layers, depth_max is "3".

また、参照グループ生成部103aは、検出した参照グループRef[i−1][j]とRef[i−1][j+1]の組み合わせの各々において、Ref[i−1][j]の最初と最後のフレームと、Ref[i−1][j+1]の最後のフレームの3つのフレームをα,β,γフレームとして選択する。また、参照グループ生成部103aは、選択したα,β,γフレーム含む新たな参照グループを参照グループRef[i]「j/2」として参照グループ記憶部108に書き込んで記憶させる。   In addition, the reference group generation unit 103a is configured to set the first of Ref [i-1] [j] and the first of Ref [i-1] [j] in each of the detected combinations of the reference groups Ref [i-1] [j] Three frames of the last frame and the last frame of Ref [i-1] [j + 1] are selected as α, β and γ frames. Further, the reference group generation unit 103a writes and stores a new reference group including the selected α, β, and γ frames as a reference group Ref [i] “j / 2” in the reference group storage unit 108.

ピクチャタイプ選定部105aは、結合判定部104が出力する判定結果にしたがって、参照グループRef[i][j]に含まれるフレームのピクチャタイプを選定する。また、ピクチャタイプ選定部105aは、参照グループ生成部103aが、フレーム番号が「2j」,「2j+2」,「2j+2(i+1)」のフレームを選択できないと判定した場合、残りのフレームをPピクチャとして選定する。 The picture type selection unit 105a selects the picture type of the frame included in the reference group Ref [i] [j] according to the determination result output from the combination determination unit 104. If the picture type selection unit 105a determines that the reference group generation unit 103a can not select the frames with frame numbers “2j”, “2j + 2 i ”, and “2j + 2 (i + 1) ”, the remaining frames are P pictures. To be selected.

また、ピクチャタイプ選定部105aは、全てのフレームについて、ピクチャタイプを選定した後、Pピクチャとして選定したフレームに対して、当該フレームに表示順で最も近い過去のPピクチャとして選定されたフレームを当該フレームの参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャのフレームを当該フレームの参照フレームとして選定する。参照グループ記憶部108は、参照グループ生成部103aが生成した参照グループRef[i][j]を記憶する。   Further, after selecting the picture types for all the frames, the picture type selection unit 105a selects the frame selected as the P picture, and the frame selected as the past P picture closest to the frame in the display order Select as the frame reference frame. When there is no closest past P picture in display order, a frame of I picture is selected as a reference frame of the frame. The reference group storage unit 108 stores the reference group Ref [i] [j] generated by the reference group generation unit 103a.

(第2の実施形態の符号化構造構築処理)
次に、第2の実施形態の符号化構造構築部10aによる処理について説明する。図12及び図13は、符号化構造構築部10による符号化構造構築処理の流れを示すフローチャートである。図12と図13に示す処理は、符号Aで示される箇所で処理が接続される連続した処理である。図12に示す符号Aで示される箇所に至るまでの処理は、i=0で示される1階層目の符号化構造を構築する処理であり、図13に示す処理は、i=1,2で示される2階層目、3階層目の符号化構造を構築する処理である。
(Coding structure construction processing of the second embodiment)
Next, processing by the coding structure construction unit 10a of the second embodiment will be described. 12 and 13 are flowcharts showing the flow of coding structure construction processing by the coding structure construction unit 10. The processes shown in FIGS. 12 and 13 are continuous processes in which the processes are connected at a point indicated by a symbol A. The processing up to the point indicated by symbol A shown in FIG. 12 is the processing of constructing the coding structure of the first layer indicated by i = 0, and the processing shown in FIG. 13 is i = 1, 2 This is processing for constructing the coding structure of the second and third layers shown.

符号化対象フレーム選択部101は、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成する。符号化対象フレーム選択部101は、生成したフレーム群に対して表示順に「0」からフレーム番号を付与してIピクチャ選定部102aとブロック出力部107に出力する。Iピクチャ選定部102aは、フレーム群の最初のフレーム、すなわちフレーム番号0のフレームのピクチャタイプをIピクチャとして選定する。Iピクチャ選定部102aは、フレーム番号0のフレームをIピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS301)。   The encoding target frame selection unit 101 selects a number of frames according to a predetermined GOP size from input video information and generates a frame group. The encoding target frame selection unit 101 assigns a frame number from “0” to the generated frame group in display order, and outputs the frame group to the I picture selection unit 102 a and the block output unit 107. The I picture selection unit 102a selects the picture type of the first frame of the frame group, that is, the frame of frame number 0 as an I picture. The I picture selection unit 102a writes and stores information indicating that the frame of frame number 0 has been selected as an I picture in the picture type storage unit 106 (step S301).

参照グループ生成部103aは、i=0,j=0とし(ステップS302)、フレーム群からフレーム番号が「2j」,「2j+2」,「2j+2(i+1)」の3つのフレームを選択できるか否かを判定する(ステップS303)。 The reference group generation unit 103a sets i = 0 and j = 0 (step S302), and can select three frames of frame numbers “2j”, “2j + 2 i ”, and “2j + 2 (i + 1) ” from the frame group. It is determined (step S303).

参照グループ生成部103aは、3枚のフレームを選択することができると判定した場合(ステップS303−YES)、参照グループ生成部103aは、3枚のフレームを表示順にA,B,Cフレームとして含む参照グループRef[0][j]を生成する。参照グループ生成部103aは、生成した参照グループRef[0][j]を参照グループ記憶部108に書き込んで記憶させる(ステップS305)。なお、当該参照グループにおいて判定対象フレームは、Bフレームとなる。   When the reference group generation unit 103a determines that three frames can be selected (YES in step S303), the reference group generation unit 103a includes three frames in the display order as A, B, and C frames. Generate reference group Ref [0] [j]. The reference group generation unit 103a writes and stores the generated reference group Ref [0] [j] in the reference group storage unit 108 (step S305). The determination target frame in the reference group is a B frame.

結合判定部104は、参照グループ生成部103aによって参照グループ記憶部108に参照グループRef[0][j]の情報が書き込まれると、書き込まれた参照グループRef[0][j]に含まれるA,B,CフレームをS,M,Eフレームとして図4に示す結合判定処理を行う(ステップS306)。   When the information on the reference group Ref [0] [j] is written to the reference group storage unit 108 by the reference group generation unit 103a, the connection determination unit 104 causes the A included in the written reference group Ref [0] [j] to The combination determination process shown in FIG. 4 is performed with the B, C, and C frames as S, M, and E frames (step S306).

ピクチャタイプ選定部105aは、結合判定部104が出力する判定結果を判定する(ステップS307)。ピクチャタイプ選定部105aは、判定結果が「False」の場合(ステップS307−False)、参照グループRef[0][j]のBフレームとCフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[0][j]のBフレームとCフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS308)。   The picture type selection unit 105a determines the determination result output from the combination determination unit 104 (step S307). When the determination result is “False” (Step S307—False), the picture type selection unit 105a selects the picture types of the B frame and the C frame of the reference group Ref [0] [j] as a P picture. The picture type selection unit 105a writes and stores information indicating that the B and C frames of the reference group Ref [0] [j] are selected as the P picture in the picture type storage unit 106 (step S308).

一方、ピクチャタイプ選定部105aは、判定結果が「True」の場合(ステップS307−True)、参照グループRef[0][j]のBフレームのピクチャタイプをAフレームとCフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[0][j]のBフレームをBピクチャとして選定したことを示す情報、及びAフレームとCフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、ピクチャタイプ選定部105aは、参照グループRef[0][j]のCフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[0][j]のCフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS309)。   On the other hand, when the determination result is “True” (step S 307 -True), the picture type selection unit 105 a sets the picture types of B frames of the reference group Ref [0] [j] as A frame and C frame. Select as B picture. The picture type selection unit 105 a receives information indicating that the B frame of the reference group Ref [0] [j] has been selected as the B picture, and information indicating that the A frame and the C frame are reference frames. Write to 106 for storage. Also, the picture type selection unit 105a selects the picture type of the C frame of the reference group Ref [0] [j] as a P picture. The picture type selection unit 105a writes and stores information indicating that the C frame of the reference group Ref [0] [j] has been selected as a P picture in the picture type storage unit 106 (step S309).

ステップS308及びステップS309の処理の後、ピクチャタイプ選定部105aは、処理を継続する指示情報を参照グループ生成部103aに出力する。参照グループ生成部103aは、jの値に「1」を加算し(ステップS310)、jの値がN/2未満か否かを判定する(ステップS311)。参照グループ生成部103aは、jの値がN/2未満であると判定した場合(ステップS311−YES)、ステップS303からの処理を繰り返す。一方、参照グループ生成部103aは、jの値がN/2未満でないと判定した場合(ステップS311−NO)、符号Aで示される箇所を介して図13に示す処理を開始する。   After the processes of steps S308 and S309, the picture type selection unit 105a outputs instruction information for continuing the process to the reference group generation unit 103a. The reference group generation unit 103a adds “1” to the value of j (step S310), and determines whether the value of j is less than N / 2 (step S311). When the reference group generation unit 103a determines that the value of j is less than N / 2 (YES in step S311), the processing from step S303 is repeated. On the other hand, when the reference group generation unit 103a determines that the value of j is not less than N / 2 (step S311-NO), the reference group generation unit 103a starts the processing illustrated in FIG.

一方、参照グループ生成部103aは、3枚のフレームを選択することができないと判定した場合(ステップS303−NO)、フレーム群の残りのフレームをPピクチャとして選定させる指示情報をピクチャタイプ選定部105aに出力する。ピクチャタイプ選定部105aは、参照グループ生成部103aから当該指示情報を受けて、残りのフレームのピクチャタイプをPピクチャとして選定し、残りのフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS304)。参照グループ生成部103aは、当該指示情報をピクチャタイプ選定部105aに出力し、その後、符号Aで示される箇所を介して図13に示す処理を開始する。   On the other hand, when the reference group generation unit 103a determines that three frames can not be selected (step S303-NO), the instruction information for selecting the remaining frames of the frame group as P pictures is the picture type selection unit 105a. Output to The picture type selection unit 105a receives the instruction information from the reference group generation unit 103a, selects the picture type of the remaining frame as a P picture, and stores information indicating that the remaining frame is selected as a P picture. The part 106 is written and stored (step S304). The reference group generation unit 103a outputs the instruction information to the picture type selection unit 105a, and thereafter, starts the processing illustrated in FIG. 13 via the portion indicated by the symbol A.

図13に示すように、参照グループ生成部103aは、i=1,j=0とし(ステップS312)、結合判定部104の判定結果記憶部112を参照し、参照グループRef[i−1][j]と、Ref[i−1][j+1]の判定結果が共に「True」であるか否かを判定する(ステップS313)。参照グループ生成部103aは、参照グループRef[i−1][j]と、Ref[i−1][j+1]の判定結果が共に「True」でないと判定した場合(ステップS313−NO)、処理をステップS318に進める。   As shown in FIG. 13, the reference group generation unit 103 a sets i = 1, j = 0 (step S 312), refers to the determination result storage unit 112 of the connection determination unit 104, and selects the reference group Ref [i−1] [ It is determined whether both j] and the determination results of Ref [i-1] [j + 1] are "True" (step S313). When the reference group generation unit 103a determines that the determination results of both the reference group Ref [i-1] [j] and Ref [i-1] [j + 1] are not “True” (step S313-NO), the process is performed. Proceed to step S318.

一方、参照グループ生成部103aは、参照グループRef[i−1][j]と、Ref[i−1][j+1]の判定結果が共に「True」であると判定した場合(ステップS313−YES)、参照グループRef[i−1][j]の最初と最後のフレームと、参照グループRef[i−1][j+1]の最後のフレームの3つのフレームをα,β,γフレームとして選択する。参照グループ生成部103aは、選択したα,β,γフレームを含む参照グループRef[i][j/2]を生成し、生成した参照グループRef[i][j/2]を参照グループ記憶部108に書き込んで記憶させる(ステップS314)。   On the other hand, when the reference group generation unit 103a determines that the determination results of both the reference group Ref [i-1] [j] and Ref [i-1] [j + 1] are “True” (step S313-YES) , Select the three frames of the first and last frame of reference group Ref [i-1] [j] and the last frame of reference group Ref [i-1] [j + 1] as α, β, γ frames . The reference group generation unit 103a generates a reference group Ref [i] [j / 2] including the selected α, β, and γ frames, and generates the reference group Ref [i] [j / 2] as a reference group storage unit. It writes in 108 and makes it memorize (Step S314).

結合判定部104は、参照グループ生成部103aによって参照グループ記憶部108に参照グループRef[i][j/2]の情報が書き込まれると、書き込まれた参照グループRef[i][j/2]に含まれるα,β,γフレームをS,M,Eフレームとして図4に示す結合判定処理を行う(ステップS315)。   When the information on the reference group Ref [i] [j / 2] is written to the reference group storage unit 108 by the reference group generation unit 103a, the connection determination unit 104 writes the written reference group Ref [i] [j / 2]. The combination determination process shown in FIG. 4 is performed with the .alpha., .Beta., And .gamma. Frames included in the frame being S, M, and E frames (step S315).

ピクチャタイプ選定部105aは、結合判定部104が出力する判定結果を判定する(ステップS316)。ピクチャタイプ選定部105aは、判定結果が「False」の場合(ステップS316−False)、処理をステップS318に進める指示情報を参照グループ生成部103aに出力する。   The picture type selection unit 105a determines the determination result output from the combination determination unit 104 (step S316). If the determination result is “False” (step S316-False), the picture type selection unit 105a outputs, to the reference group generation unit 103a, instruction information that causes the process to proceed to step S318.

一方、ピクチャタイプ選定部105aは、判定結果が「True」の場合(ステップS316−True)、参照グループRef[i][j/2]のβフレームのピクチャタイプをαフレームとγフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[i][j/2]のβフレームをBピクチャとして選定したことを示す情報、及びαフレームとγフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。また、ピクチャタイプ選定部105aは、参照グループRef[i][j/2]のγフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ選定部105aは、参照グループRef[i][j/2]のγフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。ピクチャタイプ選定部105aは、処理をステップS318に進める指示情報を参照グループ生成部103aに出力する(ステップS317)。   On the other hand, when the determination result is "True" (step S316-True), the picture type selection unit 105a refers to the .alpha. Frame and the .gamma. Frame as the picture type of the .beta. Frame of the reference group Ref [i] [j / 2]. It is selected as a B picture. The picture type selection unit 105a uses the information indicating that the β frame of the reference group Ref [i] [j / 2] has been selected as the B picture, and the information indicating that the α frame and the γ frame are reference frames. The information is written in the storage unit 106 and stored. Also, the picture type selection unit 105a selects the picture type of the γ frame of the reference group Ref [i] [j / 2] as a P picture. The picture type selection unit 105 a writes and stores information indicating that the γ frame of the reference group Ref [i] [j / 2] is selected as the P picture in the picture type storage unit 106. The picture type selection unit 105a outputs instruction information for advancing the process to step S318 to the reference group generation unit 103a (step S317).

参照グループ生成部103aは、jの値に「2」を加算し(ステップS318)、jの値がN/2未満であるか否かを判定する(ステップS319)。参照グループ生成部103aは、jの値がN/2未満であると判定した場合(ステップS319−YES)、ステップS313からの処理を繰り返す。   The reference group generation unit 103a adds “2” to the value of j (step S318), and determines whether the value of j is less than N / 2 (step S319). If the reference group generation unit 103a determines that the value of j is less than N / 2 (YES in step S319), the processing from step S313 is repeated.

一方、参照グループ生成部103aは、jの値がN/2未満でないと判定した場合(ステップS319−NO)、iの値に「1」を加算し、j=0とする(ステップS320)。
参照グループ生成部103aは、iの値が、depth_max(ここでは、depth_max=3)未満であるか否かを判定する(ステップS321)。参照グループ生成部103aは、iの値が、depth_max未満であると判定した場合(ステップS321−YES)、ステップS313からの処理を繰り返す。一方、参照グループ生成部103aは、iの値が、depth_max未満でないと判定した場合(ステップS321−NO)、ピクチャタイプ選定部105aに、Pピクチャのフレームに対する参照フレームを選択させる指示情報を出力する。
On the other hand, when it is determined that the value of j is not less than N / 2 (step S319-NO), the reference group generation unit 103a adds “1” to the value of i and sets j = 0 (step S320).
The reference group generation unit 103a determines whether the value of i is less than depth_max (here, depth_max = 3) (step S321). If the reference group generation unit 103a determines that the value of i is less than depth_max (YES in step S321), the process from step S313 is repeated. On the other hand, when it is determined that the value of i is not less than depth_max (step S 321 -NO), the reference group generation unit 103 a outputs, to the picture type selection unit 105 a, instruction information for selecting the reference frame for the P picture frame. .

ピクチャタイプ選定部105aは、当該指示情報を受けて、Pピクチャとして選定したフレームの各々に対して、当該フレームに表示順で最も近い過去のPピクチャのフレームを当該フレームの参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャのフレームを当該フレームの参照フレームとして選定する。ピクチャタイプ選定部105aは、各Pピクチャに対して選定した参照フレームの情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS322)。   In response to the instruction information, the picture type selection unit 105a selects, for each of the frames selected as a P picture, a past P picture frame closest to the frame in display order as a reference frame of the frame. When there is no closest past P picture in display order, a frame of I picture is selected as a reference frame of the frame. The picture type selection unit 105a writes and stores information on the reference frame selected for each P picture in the picture type storage unit 106 (step S322).

これにより、ピクチャタイプ記憶部106に、最終的に構築された符号化構造の情報が記憶されることになる。ブロック出力部107は、内部の記憶領域に一時的に符号化対象フレーム選択部101から受けたフレーム群を記憶しており、ピクチャタイプ記憶部106に記憶されている符号化構造に基づく順番で内部の記憶領域からフレームを読み出す。ブロック出力部107は、読み出したフレームの各々をラスタースキャンの順にCUブロックに分解して符号化対象ブロックとして出力し、符号化構造構築部10aは、1つのフレーム群についての処理を終了する。   As a result, the picture type storage unit 106 stores the information of the coding structure finally constructed. The block output unit 107 temporarily stores the frame group received from the encoding target frame selection unit 101 in an internal storage area, and internally stores the frames in the order based on the encoding structure stored in the picture type storage unit 106. Read the frame from the storage area of The block output unit 107 decomposes each of the read frames into CU blocks in raster scan order and outputs the CU block as an encoding target block, and the coding structure construction unit 10a ends the processing for one frame group.

(第2の実施形態の符号化構造構築処理の具体例)
次に、図14から図16を参照しつつ、図14(a)に示すフレーム群に、図12及び図13に示した第2の実施形態の符号化構造構築処理を適用した場合の例について説明する。符号化対象フレーム選択部101が、入力映像情報から図14(a)に示すフレーム群を生成する。当該フレーム群は、フレーム番号4とフレーム番号5のフレームにおいてシーンチェンジが含まれている。
(Specific Example of Encoding Structure Construction Process of Second Embodiment)
Next, referring to FIG. 14 to FIG. 16, an example in the case of applying the coding structure construction process of the second embodiment shown in FIG. 12 and FIG. 13 to the frame group shown in FIG. explain. The encoding target frame selection unit 101 generates a frame group shown in FIG. 14A from the input video information. The frame group includes a scene change in the frames of frame number 4 and frame number 5.

図14(b)に示すように、Iピクチャ選定部102aによってフレーム番号0のフレームがIピクチャとして選定された後、参照グループ生成部103aによって、フレーム番号(0,1,2)のフレームを含む参照グループRef[0][0]が参照グループ記憶部108に書き込まれる(ステップS303,S305)。結合判定部104は、参照グループ記憶部108に書き込まれた参照グループRef[0][0]に対して図4に示す結合判定処理を行い、ここでは、シーンチェンジがないため、結合判定部104の評価値判定部111が「True」を出力したとする(ステップS315)。   As shown in FIG. 14B, after the frame of frame number 0 is selected as an I picture by the I picture selection unit 102a, the reference group generation unit 103a includes the frame of frame number (0, 1, 2). The reference group Ref [0] [0] is written to the reference group storage unit 108 (steps S303 and S305). The connection determination unit 104 performs the connection determination process shown in FIG. 4 on the reference group Ref [0] [0] written in the reference group storage unit 108. Here, since there is no scene change, the connection determination unit 104. It is assumed that the evaluation value determination unit 111 of “No” outputs “True” (step S315).

ピクチャタイプ選定部105aは、結合判定部104が出力する判定結果が、「True」であるため、フレーム番号1のフレームのピクチャタイプをフレーム番号0とフレーム番号2のフレームを参照フレームとするBピクチャとして選定する。ピクチャタイプ選定部105は、フレーム番号2のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号2のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる。   Since the determination result output from the connection determination unit 104 is “True”, the picture type selection unit 105 a uses the picture type of the frame of frame number 1 as the frame of frame number 0 and the frame of frame number 2 as the reference frame To be selected. The picture type selection unit 105 writes in the picture type storage unit 106 information indicating that the frame of frame number 2 has been selected as a B picture, and information indicating that the frames of frame number 0 and frame number 2 are reference frames. Remember.

また、ピクチャタイプ選定部105aは、フレーム番号2のフレームのピクチャタイプをPピクチャとして選定し、フレーム番号2のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS309)。   Further, the picture type selection unit 105a selects the picture type of the frame of frame number 2 as a P picture and writes information indicating that the frame of frame number 2 is selected as a P picture into the picture type storage unit 106 and stores the information. (Step S309).

参照グループ生成部103aは、jの値がN/2未満の間、jに1を加算し、フレーム番号(2,3,4)のフレームを含む参照グループRef[0][1]、フレーム番号(4,5,6)のフレームを含む参照グループRef[0][2]、フレーム番号(6,7,8)のフレームを含む参照グループRef[0][3]、フレーム番号(8,9,10)のフレームを含む参照グループRef[0][4]を参照グループ記憶部108に書き込んで記憶させていく。結合判定部104は、新たな参照グループが参照グループ記憶部108に書き込まれるごとに、図4に示す結合判定処理を行う。その結果、図14(b)に示すように、シーンチェンジを含む参照グループRef[0][2]については、判定結果として「False」を出力し、参照グループRef[0][2]以外については「True」を出力する。   The reference group generation unit 103a adds 1 to j while the value of j is less than N / 2, and the reference group Ref [0] [1] including the frame of the frame number (2, 3, 4), the frame number Reference group Ref [0] [2] including frames of (4, 5, 6), reference group Ref [0] [3] including frames of frame numbers (6, 7, 8), frame numbers (8, 9 , 10) are written in the reference group storage unit 108 and stored therein. The connection determination unit 104 performs the connection determination process illustrated in FIG. 4 each time a new reference group is written to the reference group storage unit 108. As a result, as shown in FIG. 14B, for the reference group Ref [0] [2] including the scene change, “False” is output as the determination result, and for all other than the reference group Ref [0] [2] Will output "True".

その結果、ピクチャタイプ選定部105aは、フレーム番号1〜10のフレームについて図14(b)に示すようなピクチャタイプを選定する。すなわち、結合判定部104によって、「True」と判定された参照グループRef[0][0],Ref[0][1],Ref[0][3]、Ref[0][4]の各々の判定対象フレームのBフレームは、各々のAとCのフレームを参照するBピクチャとして選定され、Cフレームは、Pピクチャとして選定される。これに対して、結合判定部104によって、「False」と判定された参照グループRef[0][2]のフレームは、BフレームとCフレームは、Pピクチャとして選定される。   As a result, the picture type selection unit 105a selects a picture type as shown in FIG. 14B for the frames of frame numbers 1 to 10. That is, each of the reference groups Ref [0] [0], Ref [0] [1], Ref [0] [3], and Ref [0] [4] determined to be “True” by the connection determination unit 104. The B frame of the determination target frame is selected as a B picture referring to each of the A and C frames, and the C frame is selected as a P picture. On the other hand, the frames of the reference group Ref [0] [2] determined to be “False” by the combining determination unit 104, the B frame and the C frame are selected as P pictures.

参照グループ生成部103aが、図13に示すように、i=1,j=0として(ステップS312)、最初に、結合判定部104の判定結果記憶部112に記憶されている参照グループRef[0][0]と、参照グループRef[0][1]の判定結果を参照する。参照グループRef[0][0]と、参照グループRef[0][1]の判定結果は、共に「True」であるため(ステップS313−YES)、参照グループ生成部103aは、参照グループRef[0][0]の最初と最後のフレーム、及び参照グループRef[0][1]の最後のフレーム、すなわちフレーム番号0,2,4のフレームをα、β,γフレームとして含む参照グループRef[1][0]を生成する。   As shown in FIG. 13, the reference group generation unit 103a sets i = 1, j = 0 (step S312), and firstly, the reference group Ref [0 stored in the determination result storage unit 112 of the connection determination unit 104. Reference is made to the judgment results of reference group Ref [0] [1] and reference group Ref [0] [1]. Since the determination results of both the reference group Ref [0] [0] and the reference group Ref [0] [1] are “True” (YES in step S313), the reference group generation unit 103a selects the reference group Ref [0]. Reference group Ref [0] including the first and last frames of [0] and the last frame of reference group Ref [0] [1], that is, frames of frame numbers 0, 2 and 4 as α, β, and γ frames. 1] Generate [0].

図15(c)に示すように、参照グループ生成部103aは、生成した参照グループRef[1][0]を参照グループ記憶部108に書き込んで記憶させる(ステップS314)。結合判定部104は、参照グループ記憶部108に書き込まれた参照グループRef[1][0]に対して図4に示す結合判定処理を行い、ここでは、シーンチェンジがないため、評価値判定部111は、「True」を出力したとする(ステップS315)。ピクチャタイプ選定部105aは、判定結果が「True」であるため(ステップS316−True)、参照グループRef[1][0]の判定対象フレームであるフレーム番号2のフレームのピクチャタイプをフレーム番号0とフレーム番号4のフレームを参照フレームとするBピクチャとして選定する。   As shown in FIG. 15C, the reference group generation unit 103a writes and stores the generated reference group Ref [1] [0] in the reference group storage unit 108 (step S314). The connection determination unit 104 performs the connection determination process shown in FIG. 4 on the reference group Ref [1] [0] written in the reference group storage unit 108. Here, since there is no scene change, the evaluation value determination unit It is assumed that 111 outputs "True" (step S315). Since the determination result is “True” (step S316-True), the picture type selection unit 105a sets the picture type of the frame of frame number 2 which is the determination target frame of the reference group Ref [1] [0] to frame number 0 And a frame of frame number 4 is selected as a B picture as a reference frame.

ピクチャタイプ記憶部106には、既に、フレーム番号2のフレームについて、Pピクチャであることを示す情報が書き込まれている。そのため、ピクチャタイプ選定部105aは、フレーム番号2のフレームをBピクチャとして選定したことを示す情報、及びフレーム番号0とフレーム番号4のフレームが参照フレームであることを示す情報をピクチャタイプ記憶部106に上書きして記憶させる。   In the picture type storage unit 106, information indicating that the frame of frame number 2 is a P picture has already been written. Therefore, the picture type selection unit 105 a receives information indicating that the frame of frame number 2 has been selected as a B picture, and information indicating that the frames of frame numbers 0 and 4 are reference frames. Overwrite and store them.

また、ピクチャタイプ選定部105aは、γフレームであるフレーム番号4のフレームのピクチャタイプをPピクチャとして選定する。ピクチャタイプ記憶部106には、既に、フレーム番号4のフレームについて、Pピクチャであることを示す情報が書き込まれているが、ピクチャタイプ選定部105aは、フレーム番号4のフレームをPピクチャとして選定したことを示す情報をピクチャタイプ記憶部106に上書きして記憶させる(ステップS317)。   Further, the picture type selection unit 105a selects the picture type of the frame of frame number 4 that is a γ frame as a P picture. Although information indicating that the picture of frame number 4 is a P picture has already been written in the picture type storage unit 106, the picture type selection unit 105a has selected the frame of frame number 4 as a P picture. The information indicating that is written over the picture type storage unit 106 and stored (step S317).

参照グループ生成部103aは、jの値に2を加算してj=2とし(ステップS318)、jの値がN/2(N=10)未満であるため(ステップS319−YES)、結合判定部104の判定結果記憶部112に記憶されている参照グループRef[0][2]と、参照グループRef[0][3]の判定結果を参照する。参照グループRef[0][2]の判定結果は「False」であるため、参照グループ生成部103aは、参照グループRef[0][2]と、参照グループRef[0][3]の判定結果が共に「True」でないと判定する(ステップS313−NO)。したがって、図15(c)に、説明の便宜上示している参照グループRef[1][1]は、参照グループ生成部103aによって生成されないことになる。   The reference group generation unit 103a adds 2 to the value of j to set j = 2 (step S318), and since the value of j is less than N / 2 (N = 10) (step S319-YES), the connection determination is performed. The determination results of the reference group Ref [0] [2] and the reference group Ref [0] [3] stored in the determination result storage unit 112 of the unit 104 are referred to. Since the determination result of the reference group Ref [0] [2] is “False”, the reference group generation unit 103a determines the determination results of the reference group Ref [0] [2] and the reference group Ref [0] [3]. It is determined that both are not "True" (step S313-NO). Therefore, the reference group Ref [1] [1] shown for convenience of explanation in FIG. 15C is not generated by the reference group generation unit 103a.

参照グループ生成部103aは、jの値に2を加算してj=4とし(ステップS318)、jの値がN/2(N=10)未満であるため(ステップS319−YES)、参照グループRef[0][4]と、参照グループRef[0][5]の判定結果を参照しようとする。しかし、参照グループRef[0][5]が存在しないため、参照グループ生成部103aは、参照グループRef[0][4]と、参照グループRef[0][5]の判定結果が、共に「True」でないと判定する(ステップS313−NO)。参照グループ生成部103aは、jの値に2を加算してj=6とし(ステップS318)、jの値がN/2(N=10)未満ではなくなるため(ステップS319−NO)、iの値に「1」を加算してi=1とし、j=0とする(ステップS320)。   The reference group generation unit 103a adds 2 to the value of j to set j = 4 (step S318), and since the value of j is less than N / 2 (N = 10) (step S319-YES), the reference group An attempt is made to refer to the determination results of Ref [0] [4] and the reference group Ref [0] [5]. However, since the reference group Ref [0] [5] does not exist, the reference group generation unit 103a determines that the determination results of both the reference group Ref [0] [4] and the reference group Ref [0] [5] It is determined that it is not "True" (step S313-NO). The reference group generation unit 103a adds 2 to the value of j to set j = 6 (step S318), and the value of j is not less than N / 2 (N = 10) (step S319-NO). “1” is added to the value to set i = 1 and j = 0 (step S320).

iの値は、depth_max(depth_max=3)未満であるため(ステップS321−YES)、参照グループ生成部103aは、結合判定部104の判定結果記憶部112に記憶されている参照グループRef[1][0]と、参照グループRef[1][1]の判定結果を参照しようとする。しかし、前述の通り、参照グループRef[1][1]は生成されていないため、参照グループ生成部103aは、参照グループRef[0][4]と、参照グループRef[0][5]の判定結果が、共に「True」でないと判定する(ステップS313−NO)。したがって、図15(d)に、説明の便宜上示している参照グループRef[2][0]は、参照グループ生成部103aによって生成されないことになる。   Since the value of i is less than depth_max (depth_max = 3) (step S 321 -YES), the reference group generation unit 103 a uses the reference group Ref [1] stored in the determination result storage unit 112 of the connection determination unit 104. It is attempted to refer to the determination results of [0] and the reference group Ref [1] [1]. However, as described above, since the reference group Ref [1] [1] is not generated, the reference group generation unit 103a is configured to compare the reference group Ref [0] [4] and the reference group Ref [0] [5]. It is determined that the determination results are not both "True" (step S313-NO). Therefore, the reference group Ref [2] [0] shown for convenience of description in FIG. 15D is not generated by the reference group generation unit 103a.

その後、ステップS318及びS319の処理が、jがN/2未満でなくなるまで繰り返され、更にステップS320においてiの値に「1」が加えられi=2,j=0となる。iの値は、depth_max未満であるため(ステップS321−YES)、処理が継続されるが、前述の通り、図15(d)に示す参照グループRef[2][0]は、参照グループ生成部103aによって生成されていないため、ステップS313の判定は、「NO」となる。再び、ステップS318及びS319の処理が、jが、N/2未満でなくなるまで繰り替えされ、ステップS320においてiの値に「1」が加えられて、i=3,j=0となる。参照グループ生成部103aは、iの値が、depth_max未満でなくなるため(ステップS321−NO)、ピクチャタイプ選定部105aに、Pピクチャのフレームに対する参照フレームを選択させる指示情報を出力する。   Thereafter, the processes of steps S318 and S319 are repeated until j is not less than N / 2, and further, "1" is added to the value of i in step S320, and i = 2, j = 0. Since the value of i is less than depth_max (step S 321 -YES), the process is continued, but as described above, the reference group Ref [2] [0] shown in FIG. Since it is not generated by 103a, the determination in step S313 is "NO". Again, the processing in steps S318 and S319 is repeated until j is not less than N / 2, and “1” is added to the value of i in step S320, i = 3, j = 0. Since the value of i is not less than depth_max (NO in step S 321), the reference group generation unit 103 a outputs, to the picture type selection unit 105 a, instruction information for selecting the reference frame for the P picture frame.

ピクチャタイプ選定部105aは、当該指示情報を受けて、Pピクチャとして選定したフレームの各々に対して、当該フレームに表示順で最も近い過去のPピクチャのフレームを当該フレームの参照フレームとして選定する。表示順で最も近い過去のPピクチャがない場合、Iピクチャのフレームを当該フレームの参照フレームとして選定する。ピクチャタイプ選定部105aは、各Pピクチャに対して選定した参照フレームの情報をピクチャタイプ記憶部106に書き込んで記憶させる(ステップS322)。これにより、ピクチャタイプ記憶部106に、図16(e)に示す、2階層のBピクチャの階層構造を有する符号化構造が記憶されることになる。   In response to the instruction information, the picture type selection unit 105a selects, for each of the frames selected as a P picture, a past P picture frame closest to the frame in display order as a reference frame of the frame. When there is no closest past P picture in display order, a frame of I picture is selected as a reference frame of the frame. The picture type selection unit 105a writes and stores information on the reference frame selected for each P picture in the picture type storage unit 106 (step S322). As a result, the picture type storage unit 106 stores the coding structure having a hierarchical structure of B pictures of two layers, as shown in FIG.

上記の第2の実施形態の構成により、符号化構造構築部10aにおいて、符号化対象フレーム選択部101が、入力映像情報から予め定められるGOPのサイズにしたがう枚数のフレームを選択してフレーム群を生成する。Iピクチャ選定部102aは、フレーム群の最初のフレームをIピクチャとして選定する。参照グループ生成部103aは、i=0、j=0とし、フレーム群からフレーム番号が「2j」,「2j+2」,「2j+2(i+1)」のフレームをjに「1」を加算しつつ繰り返し選択し、選択した3枚のフレームをA,B,Cフレームとして含む参照グループRef[0][j]を生成する。結合判定部104の評価値算出部110は、参照グループに含まれるA,B,Cフレームに基づいて、L0コスト、L1コスト、Biコストという3つの評価値を算出する。評価値判定部111は、BiコストとL1コストのうち値の小さい方を選択し、L0コストの値を基準とした相対値と、予め定められる相対評価用閾値Th_min,Th_maxとに基づいて、判定対象フレームであるBフレームと、AとCフレームの参照関係を結合するか否かを判定する。また、評価値判定部111は、相対値が、Th_minの値以上であって、かつTh_maxの値以下の範囲に含まれる場合、更に、Biコストの値と、絶対評価用閾値Th_absとに基づいて、判定対象フレームであるBフレームと、AとCフレームの参照関係を結合するか否かを判定する。ピクチャタイプ選定部105aは、評価値判定部111が、Bフレームと、AとCフレームの参照関係を結合すると判定した場合、Bフレームを、AとCフレームを参照フレームとするBピクチャとして選定する。すなわち、符号化構造構築部10aでは、実際の符号化を行うような演算を行っておらず、3つのフレームに基づいて3つの評価値を算出し、算出した3つの評価値に基づいて、3つのフレームの参照関係を結合するか否かを判定している。このため、第2の実施形態の符号化構造構築部10aでは、符号化効率の高い符号化構造を低演算量で求めることが可能となる。 With the configuration of the second embodiment described above, in the coding structure construction unit 10a, the coding target frame selection unit 101 selects a number of frames according to the size of the GOP determined in advance from the input video information, and sets the frame group. Generate The I picture selection unit 102a selects the first frame of the frame group as an I picture. The reference group generation unit 103a sets i = 0 and j = 0, and repeatedly adds “1” to j from the frame group with the frame numbers “2j”, “2j + 2 i ”, and “2j + 2 (i + 1) ”. A reference group Ref [0] [j] is generated which includes the selected three frames as A, B and C frames. The evaluation value calculation unit 110 of the combination determination unit 104 calculates three evaluation values of L0 cost, L1 cost, and Bi cost based on the A, B, and C frames included in the reference group. The evaluation value determination unit 111 selects the smaller one of the Bi cost and the L1 cost, and makes a determination based on the relative value based on the value of the L0 cost and the predetermined relative evaluation threshold values Th_min and Th_max. It is determined whether or not the reference relationship between the B frame, which is the target frame, and the A and C frames is combined. In addition, when the relative value is within the range not less than the value of Th_min and not more than the value of Th_max, the evaluation value determining unit 111 further determines the value of Bi cost based on the absolute evaluation threshold Th_abs. It is determined whether or not the reference relationship between the B frame, which is the determination target frame, and the A and C frames is combined. When the evaluation value determination unit 111 determines that the reference relationship between the B frame and the A and C frames is combined, the picture type selection unit 105a selects the B frame as a B picture having the A and C frames as reference frames. . That is, the coding structure construction unit 10a does not carry out an operation to perform actual coding, but calculates three evaluation values based on three frames, and calculates 3 based on the calculated 3 evaluation values. It is determined whether or not reference relationships of two frames are to be combined. For this reason, in the coding structure construction unit 10a of the second embodiment, it is possible to obtain a coding structure with high coding efficiency with a small amount of calculation.

また、参照グループ生成部103aは、評価値判定部111が、判定対象フレームと最初と最後のフレームの参照関係を結合すると判定した隣接する2つの参照グループを結合して重複するフレームを判定対象フレームとする新たな参照グループを生成することを繰り返す。結合判定部104は、参照グループ生成部103aが、新たに生成した参照グループのα,β,γフレームに基づいて、結合判定処理を行う。これにより、第2の実施形態の符号化構造構築部10aでは、2階層以上の深い階層の符号化構造を構築することが可能となっており、符号化効率を向上させることが可能となっている。   Further, the reference group generation unit 103a combines two adjacent reference groups determined by the evaluation value determination unit 111 to combine the reference relationship between the determination target frame and the first and last frames, and determines an overlapping frame as a determination target frame. Repeat creating a new reference group. In the connection determination unit 104, the reference group generation unit 103a performs connection determination processing based on the newly generated α, β, and γ frames of the reference group. As a result, in the coding structure construction unit 10a of the second embodiment, it is possible to construct a coding structure of two or more deep layers, which makes it possible to improve the coding efficiency. There is.

また、第1及び第2の実施形態の符号化構造構築部10,10aでは、評価値として、フレーム間において動き探索を行った場合の絶対誤差和の最小値を算出しており、動きベクトルのみではないため、複雑な入力映像に対しても精度よく結合判定を行うことが可能となっている。このため、第1及び第2の実施形態の符号化構造構築部10,10aは、符号化効率の高い符号化構造を低演算量で求めることを可能としている。   In addition, in the coding structure construction units 10 and 10a according to the first and second embodiments, the minimum value of the absolute error sum in the case of performing the motion search between the frames is calculated as the evaluation value. Since it is not, it is possible to perform the joint determination with high accuracy even for a complex input video. Therefore, the coding structure construction units 10 and 10a according to the first and second embodiments can obtain a coding structure with high coding efficiency with a small amount of calculation.

第1及び第2の実施形態の符号化構造構築部10,10aでは、図4を参照して説明したように、ステップS207の絶対評価用閾値を用いたBiコストの絶対評価を行う前に、ステップS204において、L0コストを基準とした相対評価を行っている。このため、ロバストな判定を実現することができている。これに対して、非特許文献1に記載の技術では、評価値として、符号化コストの最小値のみを用いた絶対評価を行うようになっている。そのため、非特許文献1に記載の技術の手法を、図9(ii)及び(iii)に示すフレームに適用した場合、インターコストが十分に大きいと仮定すると、どちらも同じ「150」の値が算出されることになる。したがって、非特許文献1に記載の技術では、第1及び第2の実施形態の評価値判定部111のように、図9(ii)の方を結合しないとし、図9(iii)の方を結合するとする異なる判定を行うことができない。   In the coding structure construction units 10 and 10a according to the first and second embodiments, as described with reference to FIG. 4, before performing the absolute evaluation of the Bi cost using the threshold for absolute evaluation in step S207, In step S204, relative evaluation is performed based on the L0 cost. Therefore, robust determination can be realized. On the other hand, in the technique described in Non-Patent Document 1, absolute evaluation is performed using only the minimum value of the coding cost as the evaluation value. Therefore, when the method of the technique described in Non-Patent Document 1 is applied to the frames shown in FIGS. 9 (ii) and (iii), assuming that the inter cost is sufficiently large, the same “150” value is obtained in both cases. It will be calculated. Therefore, in the technique described in Non-Patent Document 1, as in the evaluation value determination unit 111 of the first and second embodiments, it is assumed that the method of FIG. 9 (ii) is not combined, and the method of FIG. You can not make different decisions to combine.

図9(ii)及び(iii)の双方において結合するとした場合、図9(iii)では、Mフレームにおいて、同シーンであるEフレームを参照するメリットがあるため結合することが有効と考えられる。これに対して、図9(ii)では、Mフレームと、Eフレームとは異なるシーンとなるため、誤った判定となる可能性が高い。結合しないとした場合、逆に、図9(iii)が誤った判定となる可能性が高くなる。上述したように、第1及び第2の実施形態における評価値判定部111では、図9(ii)の方を結合しないとし、図9(iii)の方を結合するとする異なる判定を行うことができるため、どちらのケースに対しても符号化効率を向上させることができる。これは、Mフレームに着目した際に、Eフレームとの相関が高い、すなわちL0コストよりも、L1コストまたはBiコストが十分小さい場合に結合するメリットが得られるということを反映した評価となっているためである。   When combining is performed in both of FIG. 9 (ii) and (iii), in FIG. 9 (iii), since there is a merit in referring to the E frame which is the same scene in M frame, combining is considered effective. On the other hand, in FIG. 9 (ii), since the M frame and the E frame are different scenes, there is a high possibility of an erroneous determination. On the contrary, in the case of not combining, there is a high possibility that the determination in FIG. As described above, in the evaluation value determination unit 111 in the first and second embodiments, it is assumed that the method of FIG. 9 (ii) is not combined and the determination of combining the method of FIG. 9 (iii) is performed. As it can, coding efficiency can be improved in either case. This is an evaluation that reflects the merit of combining when the correlation with the E frame is high, that is, when the L1 cost or the Bi cost is sufficiently smaller than the L0 cost, when focusing on the M frame. It is because

また、上記の第1及び第2の実施形態において、結合判定部104は、参照グループ生成部103,103aが生成する参照グループの判定対象フレームと、最初と最後のフレームの3枚のフレームを単位として結合判定処理を行うことを前提としているが、本発明の構成は、当該実施の形態に限られない。例えば、非特許文献1に記載の技術に対して適用するようにしてもよい。上述したように、非特許文献1に記載の技術では、基準フレームと、選択したPフレームとの間に、これらを参照する中間フレームを定義する。基準フレームと中間フレームとの間に位置するフレームに対して、これらのフレームを基準フレームと中間フレームとを参照するBピクチャとした場合のコストを算出している。また、中間フレームとPピクチャとの間に位置するフレームに対して、これらのフレームを基準フレームと中間フレームとを参照するBピクチャとした場合のコストを算出している。そして、算出したコストが最小となる組み合わせを最終的な符号化構造として選択している。これらのコストに替えて、非特許文献1に技術に結合判定部104を適用し、結合判定部104が算出する3つの評価値を用いて符号化構造を構築するようにしてもよい。   In the first and second embodiments described above, the connection determination unit 104 sets three frames, which are the determination target frames of the reference group generated by the reference group generation unit 103 and 103a, and the first and last frames. Although it is premised that the connection determination processing is performed, the configuration of the present invention is not limited to the embodiment. For example, the present invention may be applied to the technology described in Non-Patent Document 1. As described above, in the technique described in Non-Patent Document 1, intermediate frames that reference these are defined between a reference frame and a selected P frame. For the frame located between the reference frame and the intermediate frame, the cost is calculated in the case where these frames are B pictures that reference the reference frame and the intermediate frame. Further, with respect to a frame located between the intermediate frame and the P picture, the cost is calculated in the case where these frames are B pictures that reference the reference frame and the intermediate frame. Then, a combination that minimizes the calculated cost is selected as the final coding structure. Instead of these costs, the joint determination unit 104 may be applied to the technique in Non-Patent Document 1, and the coding structure may be constructed using the three evaluation values calculated by the joint determination unit 104.

なお、上記の第1及び第2の実施形態では、結合判定の結果にしたがって、BフレームをPピクチャとして選定したり、CフレームをPピクチャとして選定したり、γフレームをPピクチャとして選定したり、また、3つのフレームを選択することができない場合に、残りのフレームをPピクチャとして選定したりしているが、本発明の構成は、当該実施の形態に限られない。例えば、Iピクチャから予め定められる間隔で、事前にPピクチャとするフレームを選定しておいてもよいし、結合判定の結果、Bピクチャとするフレームを全て選定した後、IピクチャとBピクチャのフレーム以外のフレームをPピクチャとするようにしてもよい。   In the first and second embodiments described above, a B frame is selected as a P picture, a C frame is selected as a P picture, and a γ frame is selected as a P picture according to the result of connection determination. Also, when three frames can not be selected, the remaining frames are selected as P pictures, but the configuration of the present invention is not limited to this embodiment. For example, a frame to be a P picture may be selected in advance at an interval determined in advance from the I picture, or after all frames to be a B picture have been selected as a result of the combination determination, Frames other than the frame may be P pictures.

また、上記の第1及び第2の実施形態では、3枚の連続するフレームを参照グループとして生成するようにしているが、3枚以上であってもよい。   In the first and second embodiments described above, three consecutive frames are generated as a reference group, but three or more frames may be generated.

また、上記の第1及び第2の実施形態では、隣接する参照グループにおいて重複するフレームが1枚になるように、隣接する参照グループを生成するようにしているが、1枚以上のフレームが重複するように隣接する参照グループを生成してもよい。複数枚のフレームが重複する場合、重複しているフレームのいずれかから判定対象フレームが選択されることになる。   In the first and second embodiments described above, adjacent reference groups are generated so that one overlapping frame is included in adjacent reference groups, but one or more frames overlap. Adjacent reference groups may be generated. When a plurality of frames overlap, the determination target frame is selected from any of the overlapping frames.

また、上記の第1及び第2の実施形態において参照グループ生成部103,103aは、隣接する参照グループの判定結果に基づいて、新たな参照グループを生成して2階層以上の符号化構造を構築するようになっているが、1階層のみを構築する処理を行うようにしてもよい。   Also, in the first and second embodiments described above, the reference group generation unit 103, 103a generates a new reference group based on the determination result of the adjacent reference groups, and constructs a coding structure of two or more layers. However, processing for constructing only one layer may be performed.

また、上記の第1及び第2の実施形態において参照グループ生成部103,103aは、表示順で過去の隣接する参照グループを結合して新たな参照グループを生成するようにしているが、本発明の実施の形態は、当該実施の形態に限られない。例えば、表示順で未来の隣接する参照グループを結合してもよいし、過去と未来の双方で隣接する参照グループを結合してもよい。   Further, in the first and second embodiments described above, the reference group generation unit 103, 103a combines the past adjacent reference groups in display order to generate a new reference group, but the present invention The embodiment of the invention is not limited to the embodiment. For example, adjacent reference groups in the future may be combined in display order, or adjacent reference groups in both the past and the future may be combined.

また、上記の第1及び第2の実施形態において、評価値判定部111は、相対評価用閾値であるTh_min及びTh_max、並びに絶対評価用閾値であるTh_absに基づく判定を行っている。この判定において、評価値判定部111は、Th_min未満であるか否か、Th_maxを超過しているか否か、Th_abs未満であるか否かに基づく判定を行っているが、未満であるか否か、超過しているか否かという判定は、一例であり、Th_min以下であるか否か、Th_max以上であるか否か、Th_abs以下であるか否かに基づいて判定するようにしてもよい。   In the first and second embodiments described above, the evaluation value determination unit 111 performs determination based on Th_min and Th_max, which are relative evaluation thresholds, and Th_abs, which is an absolute evaluation threshold. In this determination, the evaluation value determination unit 111 makes a determination based on whether it is less than Th_min, whether it exceeds Th_max, and whether it is less than Th_abs. The determination as to whether it is exceeded is an example, and it may be determined based on whether it is Th_min or less, Th_max or more, or Th_abs or less.

上述した第1及び第2の実施形態における映像符号化装置1,1aをコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。   The video encoding devices 1 and 1a in the first and second embodiments described above may be realized by a computer. In that case, a program for realizing this function may be recorded in a computer readable recording medium, and the program recorded in the recording medium may be read and executed by a computer system. Here, the “computer system” includes an OS and hardware such as peripheral devices. The term "computer-readable recording medium" refers to a storage medium such as a flexible disk, a magneto-optical disk, a ROM, a portable medium such as a ROM or a CD-ROM, or a hard disk built in a computer system. Furthermore, “computer-readable recording medium” dynamically holds a program for a short time, like a communication line in the case of transmitting a program via a network such as the Internet or a communication line such as a telephone line. It may also include one that holds a program for a certain period of time, such as volatile memory in a computer system that becomes a server or a client in that case. Further, the program may be for realizing a part of the functions described above, or may be realized in combination with the program already recorded in the computer system. It may be realized using a programmable logic device such as an FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within the scope of the present invention.

10…符号化構造構築部,101…符号化対象フレーム選択部,102…Iピクチャ選定部,103…参照グループ生成部,104…結合判定部,105…ピクチャタイプ選定部,106…ピクチャタイプ記憶部,107…ブロック出力部,110…評価値算出部,111…評価値判定部,112…判定結果記憶部 10 Coding structure construction unit 101 Coding target frame selection unit 102 I picture selection unit 103 Reference group generation unit 104 Connection determination unit 105 Picture type selection unit 106 Picture type storage unit , 107 ... block output unit, 110 ... evaluation value calculation unit, 111 ... evaluation value determination unit, 112 ... determination result storage unit

Claims (8)

フレーム間予測符号化を行う映像符号化装置であって、
入力映像情報から取得されるフレーム群から、予め定められる3枚以上の枚数の連続するフレームを含む参照グループを生成する参照グループ生成部と、
前記参照グループ生成部が生成する前記参照グループの最初と最後の前記フレームと、前記最初と最後のフレームの間のいずれか1つの判定対象フレームとに基づいて、前記フレーム間の誤差に関する評価値を算出する評価値算出部と、
前記評価値算出部が算出する前記評価値のうち前記判定対象フレームと前記最初のフレームとの間の前記評価値を基準とした他の前記評価値の相対値に基づいて、または前記相対値と前記判定対象フレームと前記最初と最後のフレーム双方との間の前記評価値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する評価値判定部と、
前記評価値判定部の判定結果に基づいて、前記フレーム群に含まれる前記フレームのピクチャタイプを選定するピクチャタイプ選定部と、
を備える映像符号化装置。
A video coding apparatus that performs interframe prediction coding, comprising:
A reference group generation unit that generates a reference group including a predetermined number of continuous frames of three or more from a frame group acquired from input video information;
Based on the first and last frames of the reference group generated by the reference group generation unit and any one determination target frame between the first and last frames, an evaluation value regarding the error between the frames is calculated. An evaluation value calculation unit to calculate;
Among the evaluation values calculated by the evaluation value calculation unit, based on relative values of other evaluation values based on the evaluation value between the determination target frame and the first frame, or with the relative value An evaluation value that determines whether or not the reference relationship between the determination target frame and the first and last frames is to be combined based on the determination target frame and the evaluation value between both the first and last frames. A judgment unit,
A picture type selection unit that selects a picture type of the frame included in the frame group based on the determination result of the evaluation value determination unit;
A video coding apparatus comprising:
前記評価値算出部は、
前記判定対象フレームと前記最初のフレームとの間の前記フレーム間の誤差に関する第1の片方向評価値と、前記判定対象フレームと前記最後のフレームとの間の前記フレーム間の誤差に関する第2の片方向評価値と、前記判定対象フレームと前記最初と最後のフレーム双方との間の前記フレーム間の誤差に関する双方向評価値とを算出し、
前記評価値判定部は、
前記第2の片方向評価値と前記双方向評価値のうち小さい方の評価値を選択し、選択した前記評価値の前記第1の片方向評価値に対する相対的な値の大きさとして前記相対値を算出し、算出した前記相対値と、予め定められる相対評価用閾値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する、請求項1に記載の映像符号化装置。
The evaluation value calculation unit
A first one-way evaluation value regarding the inter-frame error between the determination target frame and the first frame, and a second one regarding the error between the determination target frame and the last frame Calculating a one-way evaluation value and a two-way evaluation value regarding an error between the frames between the determination target frame and both the first and last frames;
The evaluation value determination unit
The smaller one of the second one-way evaluation value and the two-way evaluation value is selected, and the relative value of the selected one of the evaluation values relative to the first one-way evaluation value is selected. A value is calculated, and it is determined whether or not the reference relationship between the frame to be determined and the first and last frames is combined based on the calculated relative value and a predetermined relative evaluation threshold value. The video encoding device according to Item 1.
前記予め定められる相対評価用閾値は、第1の相対評価用閾値と、前記第1の相対評価用閾値よりも値の大きい第2の相対評価用閾値を含んでおり、
前記評価値判定部は、
前記相対値が、前記第1の相対評価用閾値未満であるか否か基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定し、
前記相対値が、前記第1の相対評価用閾値未満でなく、前記判定対象フレームの参照フレームを前記最初と最後のフレームにしないと判定する場合、前記相対値が、前記第1の相対評価用閾値と前記第2の相対評価用閾値とにより定められる範囲の値である場合、前記双方向評価値と、予め定められる絶対評価用閾値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する、請求項2に記載の映像符号化装置。
The predetermined relative evaluation threshold includes a first relative evaluation threshold and a second relative evaluation threshold larger in value than the first relative evaluation threshold.
The evaluation value determination unit
It is determined whether or not the reference relationship between the frame to be determined and the first and last frames is combined based on whether or not the relative value is less than the first relative evaluation threshold.
When it is determined that the relative value is not less than the first relative evaluation threshold and the reference frame of the determination target frame is not the first and last frames, the relative value is for the first relative evaluation. In the case of the value of the range defined by the threshold value and the second relative evaluation threshold value, the determination target frame and the first and last frames are determined based on the bidirectional evaluation value and a predetermined absolute evaluation threshold value. The video encoding apparatus according to claim 2, wherein it is determined whether or not to combine reference relationships with frames.
前記参照グループ生成部は、
前記評価値判定部により結合すると判定された前記参照グループの最初の前記フレーム、または最後の前記フレームが前記判定対象フレームとなるように、当該参照グループを含み前記予め定められる3枚以上の枚数よりも多い枚数の連続するフレームを含む新たな前記参照グループを生成し、
前記評価値算出部は、
前記新たな参照グループの最初と最後の前記フレームと、前記判定対象フレームとに基づいて、前記フレーム間の誤差に関する前記評価値を算出し、
前記評価値判定部は、
前記評価値算出部が算出する前記評価値のうち前記新たな参照グループの前記判定対象フレームと前記最初のフレームとの間の前記評価値を基準とした他の前記評価値の相対値、または前記相対値と、前記新たな参照グループの前記判定対象フレームと前記最初と最後のフレーム双方との間の前記評価値とに基づいて、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合するか否かを判定する、請求項1から3のいずれか一項に記載の映像符号化装置。
The reference group generation unit
From the three or more predetermined number of sheets including the reference group such that the first frame or the last frame of the reference group determined to be combined by the evaluation value determination unit becomes the determination target frame Generate a new reference group including a large number of consecutive frames,
The evaluation value calculation unit
The evaluation value regarding the error between the frames is calculated based on the first and last frames of the new reference group and the determination target frame,
The evaluation value determination unit
Among the evaluation values calculated by the evaluation value calculation unit, a relative value of another evaluation value based on the evaluation value between the determination target frame of the new reference group and the first frame or the relative value of the evaluation value The reference relationship between the determination target frame and the first and last frames is determined based on the relative value and the evaluation value between the determination target frame of the new reference group and both the first and last frames. The video coding apparatus according to any one of claims 1 to 3, which determines whether or not to combine.
前記参照グループ生成部は、
前記参照グループに隣接する他の参照グループを生成する際、当該参照グループの最後の前記フレームが、前記隣接する他の参照グループの最初の前記フレームとなるように重複させて前記予め定められる3枚以上の枚数の連続するフレームを含む前記参照グループを生成しており、
隣接する2つの前記参照グループの双方において前記評価値判定部が前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合すると判定する場合、当該隣接する2つの前記参照グループを結合して前記新たな参照グループを生成し、重複する前記フレームを前記判定対象フレームとする、請求項4に記載の映像符号化装置。
The reference group generation unit
When generating another reference group adjacent to the reference group, the three predetermined frames are overlapped such that the last frame of the reference group is the first frame of the other adjacent reference group Generating the reference group including the above number of consecutive frames,
When it is determined that the evaluation value determination unit combines the reference relationship between the determination target frame and the first and last frames in both two adjacent reference groups, the adjacent two reference groups are combined to each other. 5. The video encoding apparatus according to claim 4, wherein the new reference group is generated, and the overlapping frame is set as the determination target frame.
前記参照グループ生成部は、
予め定めらえる構築する符号化構造の階層数の値にしたがって、前記新たな参照グループを生成することを繰り返す、請求項5に記載の映像符号化装置。
The reference group generation unit
The video coding apparatus according to claim 5, wherein generation of the new reference group is repeated according to a value of the number of layers of the coding structure to be defined in advance.
前記ピクチャタイプ選定部は、
前記入力映像情報から前記フレーム群を取得し、取得した前記フレーム群の最初のフレームをIピクチャとして選定するIピクチャ選定部を備え、
前記ピクチャタイプ選定部は、
前記結合判定部が、前記判定対象フレームと前記最初と最後のフレームとの参照関係を結合すると判定する場合、前記判定対象フレームを前記最初と最後のフレームを参照フレームとするBピクチャとして選定し、
前記Iピクチャ、または前記Bピクチャとして選定されていない前記フレームを前記Pピクチャとして選定し、前記フレーム群の表示順において、選定した前記フレームに最も近い過去の前記Pピクチャの前記フレームを、選定した前記フレームの前記参照フレームとし、選定した前記フレームに最も近い過去の前記Pピクチャの前記フレームがない場合、前記Iピクチャの前記フレームを、選定した前記フレームの前記参照フレームとする、請求項1から6のいずれか一項に記載の映像符号化装置。
The picture type selection unit
And an I picture selection unit that acquires the frame group from the input video information and selects the first frame of the acquired frame group as an I picture,
The picture type selection unit
When the combination determination unit determines that the reference relationship between the determination target frame and the first and last frames is to be combined, the determination target frame is selected as a B picture having the first and last frames as reference frames,
The frame not selected as the I picture or the B picture is selected as the P picture, and the frame of the past P picture closest to the selected frame is selected in the display order of the frame group The reference frame of the frame, when there is no previous frame of the P picture closest to the selected frame, the frame of the I picture is the reference frame of the selected frame. 6. The video encoding device according to any one of 6.
前記予め定められる3枚以上の枚数は、3枚である、請求項1から7のいずれか一項に記載の映像符号化装置。   The video encoding apparatus according to any one of claims 1 to 7, wherein the number of the predetermined three or more sheets is three.
JP2017074619A 2017-04-04 2017-04-04 Video coding device Active JP6767299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017074619A JP6767299B2 (en) 2017-04-04 2017-04-04 Video coding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017074619A JP6767299B2 (en) 2017-04-04 2017-04-04 Video coding device

Publications (2)

Publication Number Publication Date
JP2018182393A true JP2018182393A (en) 2018-11-15
JP6767299B2 JP6767299B2 (en) 2020-10-14

Family

ID=64276146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017074619A Active JP6767299B2 (en) 2017-04-04 2017-04-04 Video coding device

Country Status (1)

Country Link
JP (1) JP6767299B2 (en)

Also Published As

Publication number Publication date
JP6767299B2 (en) 2020-10-14

Similar Documents

Publication Publication Date Title
JP7564323B2 (en) METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL BASED ON INTER PREDICTION - Patent application
US11343534B2 (en) Method and device for obtaining motion vector of video image
JP7096896B2 (en) Methods and equipment for video coding
JP2019115060A (en) Encoder, encoding method, decoder, decoding method and program
JP4999859B2 (en) Prediction reference information generation method, moving image encoding and decoding method, apparatus thereof, program thereof, and storage medium storing the program
JP5576048B2 (en) Direct mode encoding and decoding method
US10554998B2 (en) Image predictive encoding and decoding system
JP5197591B2 (en) VIDEO ENCODING METHOD AND DECODING METHOD, DEVICE THEREOF, THEIR PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP2021517392A5 (en)
JP2022508074A (en) Methods and equipment for multi-hypothesis signaling for skip and merge modes and distance offset table signaling for merge by motion vector differences.
JP6636615B2 (en) Motion vector field encoding method, decoding method, encoding device, and decoding device
JP2015106747A (en) Dynamic image encoding device, dynamic image encoding method and dynamic image encoding computer program
JP5216710B2 (en) Decryption processing method
JP2021517798A (en) Video processing method based on inter-prediction mode and equipment for that
JP2015195575A (en) Moving picture encoding device and method
CN113709458B (en) Displacement vector prediction method, device and equipment in video coding and decoding
CN114900691A (en) Encoding method, encoder, and computer-readable storage medium
JP3466162B2 (en) Image decoding apparatus and image decoding method
JP2006518157A (en) Method and apparatus for object-based motion compensation
JP5711514B2 (en) Encoding device, decoding device, encoding method, decoding method, encoding program, and decoding program
JP6626319B2 (en) Encoding device, imaging device, encoding method, and program
JP2018182435A (en) Motion vector prediction device and computer program
JP6767299B2 (en) Video coding device
JP6767300B2 (en) Video coding device
JP5281597B2 (en) Motion vector prediction method, motion vector prediction apparatus, and motion vector prediction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200917

R150 Certificate of patent or registration of utility model

Ref document number: 6767299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150