JP2017200199A - Video compression device, video decoding device, and program - Google Patents

Video compression device, video decoding device, and program Download PDF

Info

Publication number
JP2017200199A
JP2017200199A JP2017109374A JP2017109374A JP2017200199A JP 2017200199 A JP2017200199 A JP 2017200199A JP 2017109374 A JP2017109374 A JP 2017109374A JP 2017109374 A JP2017109374 A JP 2017109374A JP 2017200199 A JP2017200199 A JP 2017200199A
Authority
JP
Japan
Prior art keywords
unit
image
color difference
thinning
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017109374A
Other languages
Japanese (ja)
Inventor
安藤 一郎
Ichiro Ando
一郎 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017109374A priority Critical patent/JP2017200199A/en
Publication of JP2017200199A publication Critical patent/JP2017200199A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device for suppressing a code amount during compression by color difference decimation.SOLUTION: In an image processing engine of an electronic camera, a compression processing unit 112 comprises a first decimation unit 13, a second decimation unit 14, a selection unit 12 and an encoding unit 16. The first decimation unit decimates color difference components from a color image of a first form in a first pattern, to generate a color image of a second form different from the first form. The second decimation unit decimates color difference components from a color image of the first form in a second pattern different from the first pattern, to generate a color image of the second form. The selection unit distributes a plurality of color images of the first form, inputted in time series, to the first decimation unit and the second decimation unit. The encoding unit encodes a plurality of color images of the second form, generated in the first decimation unit or the second decimation unit, along the time series.SELECTED DRAWING: Figure 2

Description

本発明は、動画像圧縮装置、動画像復号装置およびプログラムに関する。   The present invention relates to a moving image compression apparatus, a moving image decoding apparatus, and a program.

動画像の圧縮において、例えば、YUV4:2:0形式のように、輝度と色差との視覚感度の違いに着目し、動画像の圧縮符号化のときに色差成分を間引きすることで、情報量を効率よく削減することが従来から行われている。   In moving image compression, for example, paying attention to the difference in visual sensitivity between luminance and color difference as in the YUV 4: 2: 0 format, the amount of information is reduced by thinning out the color difference component when compressing and encoding moving images. Efficient reduction has been conventionally performed.

一方で、YUV4:2:0形式の映像は、例えば、編集加工等で映像を拡大したときなどに画像のエッジ部分で色にじみが生じやすい。そのため、YUV4:4:4形式で色差成分を間引かずに効率よく動画像を圧縮符号化する手法も提案されている(例えば、特許文献1)。   On the other hand, in YUV 4: 2: 0 format video, for example, when the video is enlarged by editing or the like, color blur tends to occur at the edge portion of the image. Therefore, a method for efficiently compressing and encoding a moving image without thinning out color difference components in the YUV 4: 4: 4 format has also been proposed (for example, Patent Document 1).

特開平6−276511号公報JP-A-6-276511

しかし、色差成分を間引かずに動画像を圧縮符号化する場合、復号時において画像のエッジ部分での色にじみは抑制できるが、色差成分を間引く場合と比べて圧縮時の符号量が増大してしまう。   However, when compressing and coding a moving image without thinning out the color difference component, color bleeding at the edge portion of the image can be suppressed at the time of decoding, but the amount of code at the time of compression increases compared to the case of thinning out the color difference component. End up.

本発明の一例としての動画像圧縮装置は、第1間引き部と、第2間引き部と、選択部と、符号化部とを備える。第1間引き部は、第1形式のカラー画像から第1のパターンで色差成分を間引き、第1形式とは異なる第2形式のカラー画像を生成する。第2間引き部は、第1形式のカラー画像から第1のパターンとは異なる第2のパターンで色差成分を間引き、第2形式のカラー画像を生成する。選択部は、時系列に入力される複数の第1形式のカラー画像を、第1間引き部または第2間引き部に振り分ける。符号化部は、第1間引き部または第2間引き部で生成された、複数の第2形式のカラー画像を時系列に沿って符号化する。   A moving image compression apparatus as an example of the present invention includes a first thinning unit, a second thinning unit, a selection unit, and an encoding unit. The first thinning unit thins out the color difference component from the color image of the first format with the first pattern, and generates a color image of the second format different from the first format. The second thinning unit thins out the color difference component from the first type color image with a second pattern different from the first pattern, and generates a second type color image. The selection unit distributes a plurality of first-format color images input in time series to the first thinning unit or the second thinning unit. The encoding unit encodes a plurality of second-format color images generated by the first thinning unit or the second thinning unit in time series.

そして、動画像復号装置側では、圧縮動画像情報を取得する取得部と、復号部と、補間部とを備える。圧縮動画像情報は、第1間引き画像を符号化した第1符号化情報と第2間引き画像を符号化した第2符号化情報とを含む。第1間引き画像は、第1形式のカラー画像から第1のパターンで色差成分を間引くことにより第1形式とは異なる第2形式のカラー画像に変換された画像である。第2間引き画像は、第1形式のカラー画像から第1のパターンとは異なる第2のパターンで色差成分を間引くことにより第2形式のカラー画像に変換された画像である。復号部は、第1符号化情報から第1間引き画像を復号し、第2符号化情報から第2間引き画像を復号する。補間部は、第2間引き画像の色差成分の情報を用いて、第1間引き画像に色差補間処理を施して第1形式のカラー画像を出力する。また、補間部は、第1間引き画像の色差成分の情報を用いて、第2間引き画像に色差補間処理を施して第1形式のカラー画像を出力する。   The moving image decoding apparatus includes an acquisition unit that acquires compressed moving image information, a decoding unit, and an interpolation unit. The compressed moving image information includes first encoded information obtained by encoding the first thinned image and second encoded information obtained by encoding the second thinned image. The first thinned image is an image converted from a color image of the first format into a color image of the second format different from the first format by thinning out the color difference component with the first pattern. The second thinned image is an image converted into a second format color image by thinning out the color difference component from the first format color image with a second pattern different from the first pattern. The decoding unit decodes the first thinned image from the first encoded information, and decodes the second thinned image from the second encoded information. The interpolation unit performs color difference interpolation processing on the first thinned image using the color difference component information of the second thinned image and outputs a color image of the first format. In addition, the interpolation unit performs color difference interpolation processing on the second thinned image using information on the color difference component of the first thinned image and outputs a color image of the first format.

本発明の一例によれば、色差間引きにより圧縮時の符号量を抑制できる。   According to the example of the present invention, the code amount at the time of compression can be suppressed by the color difference thinning.

第1実施形態の電子カメラの構成例を示す図The figure which shows the structural example of the electronic camera of 1st Embodiment. 図1の圧縮処理部の構成例を示す図The figure which shows the structural example of the compression process part of FIG. (a)色差間引き前における標本点の例を示す図、(b)第1間引き画像での標本点の例を示す図、(c)第2間引き画像での標本点の例を示す図、(d)第1間引き画像および第2間引き画像の色差の標本点を重ねた状態を示す図(A) The figure which shows the example of the sample point before color difference thinning out, (b) The figure which shows the example of the sample point in the 1st thinning image, (c) The figure which shows the example of the sample point in the 2nd thinning image, d) A diagram showing a state in which sample points of color differences of the first thinned image and the second thinned image are overlaid. 図2の符号化部の構成例を示す図The figure which shows the structural example of the encoding part of FIG. 図1の復号処理部の構成例を示す図The figure which shows the structural example of the decoding process part of FIG. 図5の復号部の構成例を示す図The figure which shows the structural example of the decoding part of FIG. 図5の補間部の構成例を示す図The figure which shows the structural example of the interpolation part of FIG. 圧縮処理部での動画像の圧縮動作例を示す流れ図Flow chart showing an example of moving image compression operation in the compression processing unit 図8の#103、#107での符号化処理の例を示す流れ図FIG. 8 is a flowchart showing an example of the encoding process at # 103 and # 107 in FIG. (a)〜(c):動画像の符号化形式の例を示す図(A)-(c): The figure which shows the example of the encoding format of a moving image 図9の#205での動き補償予測の処理例を示す流れ図FIG. 9 is a flowchart showing an example of motion compensation prediction processing in # 205 of FIG. 色差成分の動きベクトルの補正例を示す図The figure which shows the example of correction | amendment of the motion vector of a color difference component 復号処理部での動画像の復号動作例を示す流れ図Flow chart showing an example of a moving image decoding operation in the decoding processing unit 図13の#401での復号処理の例を示す流れ図FIG. 13 is a flowchart showing an example of the decoding process in # 401 of FIG. 図14の#507での動き補償予測の処理例を示す流れ図FIG. 14 is a flowchart showing an example of motion compensation prediction processing in # 507 of FIG. 図13の#402での色差補間処理の例を示す流れ図FIG. 13 is a flowchart showing an example of color difference interpolation processing in # 402 of FIG. 第1色差補間部で補間される色差成分の標本点を示す図The figure which shows the sample point of the color difference component interpolated by the 1st color difference interpolation part 第1色差補間部での色差補間後の標本点の例を示す図The figure which shows the example of the sample point after the color difference interpolation in a 1st color difference interpolation part 第2色差補間部で補間される色差成分の標本点を示す図The figure which shows the sample point of the color difference component interpolated by the 2nd color difference interpolation part 第2色差補間部での色差補間後の標本点の例を示す図The figure which shows the example of the sample point after the color difference interpolation in a 2nd color difference interpolation part 標本点C34を求めるときの局所領域の例を示す図The figure which shows the example of the local area | region when calculating | requiring the sample point C34 加算部の出力画像における色差チャネルの例を示す図The figure which shows the example of the color difference channel in the output image of an addition part 第2実施形態での装置構成例を示す図The figure which shows the apparatus structural example in 2nd Embodiment. 動画像の符号化形式の別例を示す図The figure which shows another example of the encoding format of a moving image 補間部の別例を示す図The figure which shows another example of the interpolation part

<第1実施形態の説明>
図1は、撮像装置、動画像圧縮装置、動画像復号装置の一例である第1実施形態の電子カメラの構成例を示す図である。なお、第1実施形態の電子カメラ100は動画撮影機能を有している。
<Description of First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of an electronic camera according to the first embodiment which is an example of an imaging device, a moving image compression device, and a moving image decoding device. Note that the electronic camera 100 of the first embodiment has a moving image shooting function.

電子カメラ100は、撮像光学系101と、撮像素子102と、信号処理部103と、画像処理エンジン104と、第1メモリ105および第2メモリ106と、記録I/F107と、モニタ108と、操作部109とを有している。ここで、信号処理部103、第1メモリ105、第2メモリ106、記録I/F107、モニタ108および操作部109は、それぞれ画像処理エンジン104と接続されている。なお、操作部109は、ユーザの操作(例えば動画撮影の指示や、モード切り替えの指示など)を受け付けるスイッチである。   The electronic camera 100 includes an imaging optical system 101, an imaging element 102, a signal processing unit 103, an image processing engine 104, a first memory 105 and a second memory 106, a recording I / F 107, a monitor 108, and an operation. Part 109. Here, the signal processing unit 103, the first memory 105, the second memory 106, the recording I / F 107, the monitor 108, and the operation unit 109 are each connected to the image processing engine 104. The operation unit 109 is a switch that receives a user operation (for example, an instruction for moving image shooting, an instruction for mode switching, or the like).

撮像光学系101は、例えばズームレンズやフォーカスレンズを含む複数のレンズで構成されている。なお、簡単のため、図1では撮像光学系101を1枚のレンズで図示する。   The imaging optical system 101 includes a plurality of lenses including, for example, a zoom lens and a focus lens. For simplicity, the imaging optical system 101 is illustrated as a single lens in FIG.

撮像素子102は、撮像光学系101を通過した光束による被写体の結像を撮像(撮影)するデバイスである。なお、電子カメラ100の撮影モードの1つである動画撮影モードでは、撮像素子102は、不揮発性の記憶媒体(110)への記録を伴う動画像の撮影を実行する。撮像素子102の出力は、画像処理エンジン104に接続されている。上述の撮像素子102は、順次走査方式の固体撮像素子(例えばCCD)であってもよく、XYアドレス方式の固体撮像素子(例えばCMOS)であってもよい。   The image sensor 102 is a device that images (captures) an image of a subject formed by a light beam that has passed through the imaging optical system 101. Note that in the moving image shooting mode, which is one of the shooting modes of the electronic camera 100, the image sensor 102 performs shooting of a moving image with recording in a nonvolatile storage medium (110). The output of the image sensor 102 is connected to the image processing engine 104. The above-described image sensor 102 may be a progressive scanning solid-state image sensor (for example, CCD) or an XY address type solid-state image sensor (for example, CMOS).

ここで、撮像素子102の受光面には、複数の受光素子(画素)がマトリクス状に配列されている。そして、撮像素子102の画素には、それぞれが異なる色成分の光を透過させる複数種類のカラーフィルタが所定の色配列に従って配置される。そのため、撮像素子102の各画素は、カラーフィルタでの色分解によって各色成分に対応する電気信号を出力する。例えば、第1実施形態では、赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のベイヤ配列にしたがって受光面に周期的に配置されている。これにより、撮像素子102は、撮影時にカラーの画像を取得することができる。   Here, a plurality of light receiving elements (pixels) are arranged in a matrix on the light receiving surface of the image sensor 102. A plurality of types of color filters that transmit light of different color components are arranged in the pixels of the image sensor 102 according to a predetermined color arrangement. Therefore, each pixel of the image sensor 102 outputs an electrical signal corresponding to each color component by color separation in the color filter. For example, in the first embodiment, red (R), green (G), and blue (B) color filters are periodically arranged on the light receiving surface according to a known Bayer array. Thereby, the image sensor 102 can acquire a color image at the time of photographing.

信号処理部103は、撮像素子102から入力される画像信号に対して、アナログ信号処理(相関二重サンプリング、黒レベル補正など)と、A/D変換処理と、デジタル信号処理(欠陥画素補正など)とを順次施す。信号処理部103から出力される画像(RAW画像)のデータは、画像処理エンジン104に入力される。   The signal processing unit 103 performs analog signal processing (correlated double sampling, black level correction, etc.), A / D conversion processing, and digital signal processing (defective pixel correction, etc.) on the image signal input from the image sensor 102. ) In order. Data of the image (RAW image) output from the signal processing unit 103 is input to the image processing engine 104.

画像処理エンジン104は、電子カメラ100の動作を統括的に制御するプロセッサである。例えば、画像処理エンジン104は、撮像素子102から入力される画像信号を用いて、オートフォーカス(AF)、自動露出(AE)の制御を行う。   The image processing engine 104 is a processor that comprehensively controls the operation of the electronic camera 100. For example, the image processing engine 104 controls autofocus (AF) and automatic exposure (AE) using an image signal input from the image sensor 102.

また、画像処理エンジン104は、画像処理部111と、圧縮処理部112と、復号処理部113とを有する。   The image processing engine 104 includes an image processing unit 111, a compression processing unit 112, and a decoding processing unit 113.

画像処理部111は、RAW画像に対して、例えば、色補間処理、階調変換処理、ホワイトバランス調整処理、色変換処理などを施す。上述の色補間処理により、ベイヤ配列で各色がモザイク状に配置された状態のRAW画像が、各画素でそれぞれRGBの情報を有するRGB画像に変換される。また、上述の色変換処理により、色補間後のRGB画像がYUV色空間のカラー画像(YUV画像)に変換される。なお、画像処理部111から出力されるYUV画像はYUV4:4:4形式の画像であって、各画素が輝度成分(Y)と2つの色差成分(U,V)の情報をそれぞれ有している。   The image processing unit 111 performs, for example, color interpolation processing, gradation conversion processing, white balance adjustment processing, color conversion processing, and the like on the RAW image. By the color interpolation process described above, a RAW image in which each color is arranged in a mosaic pattern in a Bayer array is converted into an RGB image having RGB information at each pixel. In addition, the RGB image after color interpolation is converted into a color image (YUV image) in the YUV color space by the color conversion process described above. The YUV image output from the image processing unit 111 is an image in the YUV 4: 4: 4 format, and each pixel has information on a luminance component (Y) and two color difference components (U, V). Yes.

圧縮処理部112は、動画像圧縮装置の一例であって、画像処理部111から出力されるYUV画像を圧縮符号化する。なお、圧縮処理部112の構成例については後述する。   The compression processing unit 112 is an example of a moving image compression device, and compresses and encodes the YUV image output from the image processing unit 111. A configuration example of the compression processing unit 112 will be described later.

復号処理部113は、動画像復号装置の一例であって、圧縮処理部112で圧縮符号化された動画像のデータを復号する。なお、復号処理部113の構成例については後述する。   The decoding processing unit 113 is an example of a moving image decoding device, and decodes moving image data compression-encoded by the compression processing unit 112. A configuration example of the decoding processing unit 113 will be described later.

なお、画像処理エンジン104に含まれる画像処理部111、圧縮処理部112および復号処理部113の機能ブロックは、ハードウェア的には任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現される。   The functional blocks of the image processing unit 111, the compression processing unit 112, and the decoding processing unit 113 included in the image processing engine 104 can be realized by an arbitrary processor, memory, or other LSI in terms of hardware, and in terms of software This is realized by a program loaded in the memory.

第1メモリ105は、画像処理の前工程や後工程で画像のデータを一時的に記憶する。例えば、第1メモリ105は、揮発性の記憶媒体であるSDRAMである。また、第2メモリ106は、画像処理エンジン104で実行されるプログラムや、このプログラムで使用される各種データを記憶する。例えば、第2メモリ106は、フラッシュメモリ等の不揮発性メモリである。   The first memory 105 temporarily stores image data in the pre-process and post-process of image processing. For example, the first memory 105 is an SDRAM that is a volatile storage medium. The second memory 106 stores a program executed by the image processing engine 104 and various data used by this program. For example, the second memory 106 is a nonvolatile memory such as a flash memory.

記録I/F107は、不揮発性の記憶媒体110を接続するためのコネクタを有している。そして、記録I/F107は、コネクタに接続された記憶媒体110に対して動画像のデータの書き込み/読み込みを実行する。記憶媒体110は、ハードディスクや、半導体メモリを内蔵したメモリカードなどである。なお、図1では記憶媒体110の一例としてメモリカードを図示する。   The recording I / F 107 has a connector for connecting the nonvolatile storage medium 110. The recording I / F 107 writes / reads moving image data to / from the storage medium 110 connected to the connector. The storage medium 110 is a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 110.

モニタ108は、各種の画像を表示する表示デバイスである。例えば、モニタ108は、画像処理エンジン104の制御により、動画撮影時のビューファインダ表示や、撮影した動画像の再生表示を行う。   The monitor 108 is a display device that displays various images. For example, the monitor 108 controls the image processing engine 104 to display a viewfinder at the time of moving image shooting and to reproduce and display a captured moving image.

次に、図2を参照しつつ、図1の圧縮処理部112の構成例を説明する。図2では、ハードウェアやソフトウェアの連携によって実現される機能ブロックで圧縮処理部112の各部を示している。   Next, a configuration example of the compression processing unit 112 in FIG. 1 will be described with reference to FIG. In FIG. 2, each unit of the compression processing unit 112 is shown as a functional block realized by cooperation of hardware and software.

圧縮処理部112は、フィルタ処理部11、第1スイッチ12、第1間引き部13、第2間引き部14、第2スイッチ15、符号化部16、圧縮制御部17を有している。   The compression processing unit 112 includes a filter processing unit 11, a first switch 12, a first thinning unit 13, a second thinning unit 14, a second switch 15, an encoding unit 16, and a compression control unit 17.

フィルタ処理部11は、入力されるYUV画像の色差成分に対して2次元的なローパスフィルタ処理を施す。フィルタ処理部11の出力は、第1スイッチ12に接続されている。   The filter processing unit 11 performs a two-dimensional low-pass filter process on the color difference component of the input YUV image. The output of the filter processing unit 11 is connected to the first switch 12.

例えば、フィルタ処理部11は、YUV画像のうちでYチャネル(Y面)には処理を施さずにスルー出力する。一方、フィルタ処理部11は、YUV画像のUチャネル(U面)およびVチャネル(V面)には、2次元的なローパスフィルタ処理を施して出力する。これにより、例えば後述の色差間引きに起因する折り返し歪みの発生が抑制される。なお、上述のローパスフィルタは後述の色差間引きの特性に合わせて選択され、一例としてダイヤモンド型のローパスフィルタが適用される。   For example, the filter processing unit 11 performs through output without performing processing on the Y channel (Y plane) in the YUV image. On the other hand, the filter processing unit 11 applies a two-dimensional low-pass filter process to the U channel (U plane) and V channel (V plane) of the YUV image and outputs the result. As a result, for example, occurrence of aliasing due to color difference thinning described later is suppressed. The above-described low-pass filter is selected in accordance with the color difference thinning characteristics described later, and a diamond-type low-pass filter is applied as an example.

第1スイッチ12は、選択部の一例であって、1入力2出力のスイッチである。第1スイッチ12の一方の出力は第1間引き部13に接続され、第1スイッチの他方の出力は第2間引き部14に接続されている。そして、第1スイッチ12は、フィルタ処理部11から時系列に入力される複数のYUV画像を第1間引き部13または第2間引き部14に振り分ける。なお、第1実施形態において、第1スイッチ12は、YUV画像の動画像の各フレームを第1間引き部13と第2間引き部14とに交互に出力する。   The first switch 12 is an example of a selection unit, and is a 1-input 2-output switch. One output of the first switch 12 is connected to the first decimation unit 13, and the other output of the first switch is connected to the second decimation unit 14. The first switch 12 distributes the plurality of YUV images input in time series from the filter processing unit 11 to the first thinning unit 13 or the second thinning unit 14. In the first embodiment, the first switch 12 alternately outputs each frame of the moving image of the YUV image to the first thinning unit 13 and the second thinning unit 14.

第1間引き部13は、YUV画像から第1のパターンで色差成分を間引く色差間引き処理を行う。なお、以下の説明では、第1間引き部13で色差間引きされた画像を、第1間引き画像と称することがある。   The first thinning unit 13 performs a color difference thinning process for thinning the color difference components from the YUV image using the first pattern. In the following description, an image that has been subjected to color difference thinning by the first thinning unit 13 may be referred to as a first thinned image.

例えば、第1間引き部13は、YUV画像のUチャネルおよびVチャネルにおいて、奇数行の標本点を行方向に沿って1画素おきに離散的に抽出する。そして、第1間引き部13は、UチャネルおよびVチャネルについては抽出した標本点の情報のみを後段に出力する。したがって、第1間引き部13の色差間引きでは、UチャネルおよびVチャネルの標本点が1/4に間引かれる。一方、第1間引き部13は、YUV画像のYチャネルの情報は間引きを行わずにスルー出力する。これにより、第1間引き画像は、YUV4:2:0形式に変換される。   For example, the first thinning unit 13 discretely extracts odd-numbered sample points every other pixel along the row direction in the U channel and V channel of the YUV image. Then, the first decimation unit 13 outputs only the extracted sample point information to the subsequent stage for the U channel and the V channel. Therefore, in the color difference thinning of the first thinning unit 13, the U channel and V channel sample points are thinned to ¼. On the other hand, the first thinning-out unit 13 outputs the Y channel information of the YUV image through without performing thinning. As a result, the first thinned image is converted into the YUV 4: 2: 0 format.

ここで、図3(a)は、色差間引き前における標本点の例を示す図である。図3(b)は、第1間引き画像での標本点の例を示す図である。なお、図3の例では、輝度(Y)の標本点と、色差(U,V)の標本点とを重畳させて示している。   Here, FIG. 3A is a diagram illustrating an example of sample points before color difference thinning. FIG. 3B is a diagram illustrating an example of sample points in the first thinned image. In the example of FIG. 3, the sample point of luminance (Y) and the sample point of color difference (U, V) are shown superimposed.

第2間引き部14は、YUV画像から第1のパターンと異なる第2のパターンで色差成分を間引く色差間引き処理を行う。なお、以下の説明では、第2間引き部14で色差間引きされた画像を、第2間引き画像と称することがある。   The second thinning unit 14 performs a color difference thinning process for thinning out the color difference component from the YUV image with a second pattern different from the first pattern. In the following description, an image that has been subjected to color difference thinning by the second thinning unit 14 may be referred to as a second thinned image.

例えば、第2間引き部14は、YUV画像のUチャネルおよびVチャネルにおいて、偶数行の標本点を行方向に沿って1画素おきに離散的に抽出する。ここで、第2間引き部14で抽出される色差の標本点の位置は、第1間引き部13で抽出される色差の標本点の位置に対して行方向(X方向)に1画素分ずれている。そして、第2間引き部14は、UチャネルおよびVチャネルについては抽出した標本点の情報のみを後段に出力する。したがって、第2間引き部14の色差間引きでは、UチャネルおよびVチャネルの標本点が1/4に間引かれる。一方、第2間引き部14は、YUV画像のYチャネルの情報は間引きを行わずにスルー出力する。これにより、第1間引き画像の場合と同様に、第2間引き画像は、YUV4:2:0形式に変換される。   For example, the second thinning unit 14 discretely extracts even-row sample points every other pixel along the row direction in the U channel and V channel of the YUV image. Here, the position of the color difference sample point extracted by the second thinning unit 14 is shifted by one pixel in the row direction (X direction) with respect to the position of the color difference sample point extracted by the first thinning unit 13. Yes. Then, for the U channel and V channel, the second thinning unit 14 outputs only the information of the extracted sample points to the subsequent stage. Therefore, in the color difference thinning of the second thinning unit 14, the U channel and V channel sample points are thinned to ¼. On the other hand, the second thinning unit 14 outputs the Y channel information of the YUV image through without performing thinning. As a result, as in the case of the first thinned image, the second thinned image is converted into the YUV 4: 2: 0 format.

ここで、図3(c)は、第2間引き画像での標本点の例を示す図である。また、図3(d)は第1間引き画像および第2間引き画像の色差の標本点を重ねた状態を示す図である。   Here, FIG. 3C is a diagram illustrating an example of sample points in the second thinned image. FIG. 3D is a diagram showing a state in which sample points of color differences of the first thinned image and the second thinned image are overlapped.

上述するように、第1間引き部13の色差間引きでは奇数行の色差の標本点が1画素おきに抽出され、第2間引き部14の色差間引きでは偶数行の色差の標本点が1画素おきに抽出される。そして、第2間引き部14で抽出される色差の標本点の位置は、第1間引き部13で抽出される色差の標本点の位置に対して行方向(X方向)に1画素分ずれている。したがって、第1間引き部13で抽出される色差の標本点と、第2間引き部14で抽出される色差の標本点とは空間方向で互いに重複しない位置関係にある。また、これらの標本点の位置を重ね合わせると、画像上で色差の標本点が市松状に配置された状態となる(図3(d)参照)。   As described above, in the color difference thinning of the first thinning-out unit 13, the odd-numbered color difference sampling points are extracted every other pixel. Extracted. The position of the color difference sample point extracted by the second thinning unit 14 is shifted by one pixel in the row direction (X direction) with respect to the position of the color difference sample point extracted by the first thinning unit 13. . Therefore, the color difference sample points extracted by the first decimation unit 13 and the color difference sample points extracted by the second decimation unit 14 are in a positional relationship that does not overlap each other in the spatial direction. When the positions of these sample points are overlapped, the color difference sample points are arranged in a checkered pattern on the image (see FIG. 3D).

第2スイッチ15は、第1スイッチ12に対応する2入力1出力のスイッチである。第2スイッチ15の一方の入力は第1間引き部13に接続され、第2スイッチ15の他方の出力は第2間引き部14に接続されている。第2スイッチ15の出力は、符号化部16に接続されている。そして、第2スイッチ15は第1スイッチ12に連動して動作する。すなわち、第1スイッチ12が第1間引き部13に接続されているときには第2スイッチ15は第1間引き部13に接続され、第1スイッチ12が第2間引き部14に接続されているときには第2スイッチ15は第2間引き部14に接続される。これにより、第1間引き部13から出力された第1間引き画像と、第2間引き部14から出力された第2間引き画像とが、動画像の時系列に沿って交互に符号化部16に入力される。   The second switch 15 is a two-input one-output switch corresponding to the first switch 12. One input of the second switch 15 is connected to the first decimation unit 13, and the other output of the second switch 15 is connected to the second decimation unit 14. The output of the second switch 15 is connected to the encoding unit 16. The second switch 15 operates in conjunction with the first switch 12. That is, the second switch 15 is connected to the first thinning unit 13 when the first switch 12 is connected to the first thinning unit 13, and the second switch 15 is connected to the second thinning unit 14. The switch 15 is connected to the second thinning unit 14. Accordingly, the first thinned image output from the first thinning unit 13 and the second thinned image output from the second thinning unit 14 are alternately input to the encoding unit 16 along the time series of the moving images. Is done.

符号化部16は、時系列に入力されるYUV4:2:0形式の動画像を圧縮符号化する。例えば、符号化部16は、動画像の各フレームを所定サイズのブロック単位に分割し、動き補償予測を用いて動画像のデータを圧縮符号化する。なお、符号化部16の構成例については後述する。   The encoding unit 16 compresses and encodes a YUV 4: 2: 0 format moving image input in time series. For example, the encoding unit 16 divides each frame of the moving image into blocks of a predetermined size, and compresses and encodes the moving image data using motion compensation prediction. A configuration example of the encoding unit 16 will be described later.

また、以下の説明では、第1間引き画像を符号化した情報を第1符号化情報とも称し、第2間引き画像を符号化した情報を第2符号化情報とも称する。また、圧縮処理部112によって圧縮された動画像のデータを圧縮動画像情報と称することがある。   In the following description, information obtained by encoding the first thinned image is also referred to as first encoded information, and information obtained by encoding the second thinned image is also referred to as second encoded information. The moving image data compressed by the compression processing unit 112 may be referred to as compressed moving image information.

圧縮制御部17は、動画像の圧縮のときに、フィルタ処理部11、第1スイッチ12、第1間引き部13、第2間引き部14、第2スイッチ15、符号化部16の各動作を統括的に制御する。なお、圧縮制御部17の制御により、符号化部16は、色差間引きのパターンを示す付帯情報を、例えば符号化された画像のヘッダ領域などに付与する。   The compression control unit 17 unifies the operations of the filter processing unit 11, the first switch 12, the first thinning unit 13, the second thinning unit 14, the second switch 15, and the encoding unit 16 when compressing a moving image. Control. Note that, under the control of the compression control unit 17, the encoding unit 16 adds incidental information indicating a color difference thinning pattern to, for example, a header region of an encoded image.

次に、図4を参照しつつ、図2の符号化部16の構成例を説明する。図4では、ハードウェアやソフトウェアの連携によって実現される機能ブロックで符号化部16の各部を示している。   Next, a configuration example of the encoding unit 16 in FIG. 2 will be described with reference to FIG. In FIG. 4, each part of the encoding part 16 is shown by the functional block implement | achieved by cooperation of hardware or software.

ここで、動き補償予測を行う画像圧縮符号化方式としては、例えば、ISO/IEC13818−2に規定されるMPEG−2ビデオなどが知られている。上述の画像圧縮符号化方式では、Iピクチャ、Pピクチャ、Bピクチャを用いてフレーム内またはフレーム間で圧縮符号化が行われる。Iピクチャは画面内のみで完結する符号化により得られる画面内符号化画像である。Pピクチャは参照画像最大1枚を用いる予測符号化により得られる画面間予測符号化画像である。Bピクチャは参照画像最大2枚を用いる予測符号化により得られる画面間双予測符号化画像である。   Here, as an image compression encoding method for performing motion compensation prediction, for example, MPEG-2 video defined in ISO / IEC13818-2 is known. In the above-described image compression coding system, compression coding is performed within a frame or between frames using I pictures, P pictures, and B pictures. An I picture is an intra-picture encoded image obtained by encoding that is completed only within the picture. A P picture is an inter-screen predictive encoded image obtained by predictive encoding using a maximum of one reference image. A B picture is an inter-screen bi-predictive encoded image obtained by predictive encoding using a maximum of two reference images.

符号化部16は、第1蓄積部21、減算部22、直交変換部23、量子化部24、可変長符号化部25、逆量子化部26、逆直交変換部27、加算部28、第2蓄積部29、予測情報生成部30、予測部31を有している。   The encoding unit 16 includes a first accumulation unit 21, a subtraction unit 22, an orthogonal transformation unit 23, a quantization unit 24, a variable length coding unit 25, an inverse quantization unit 26, an inverse orthogonal transformation unit 27, an addition unit 28, 2 It has the storage part 29, the prediction information generation part 30, and the prediction part 31.

第1蓄積部21は、第2スイッチ15から出力される色差間引き後の画像を蓄積する。第1蓄積部21に蓄積された画像は、符号化対象の画像として入力順に減算部22へ出力される。なお、符号化の完了した画像は第1蓄積部21から順次消去される。   The first accumulation unit 21 accumulates the image after color difference thinning out output from the second switch 15. The image stored in the first storage unit 21 is output to the subtraction unit 22 in the order of input as an image to be encoded. Note that the encoded image is sequentially deleted from the first storage unit 21.

減算部22は、PピクチャまたはBピクチャを生成するときには、入力された原画像と予測部31で生成された後述の予測値との差分信号(予測誤差値)を出力する。また、減算部22は、Iピクチャを生成するときには、入力された原画像の信号をそのまま出力する。   When generating a P picture or a B picture, the subtracting unit 22 outputs a difference signal (prediction error value) between the input original image and a prediction value described later generated by the prediction unit 31. Further, when generating the I picture, the subtracting unit 22 outputs the input original image signal as it is.

直交変換部23は、Iピクチャを生成するときには、減算部22をスルーして入力された原画像の信号に対して直交変換を行う。また、直交変換部23は、Pピクチャ又はBピクチャを生成するときには、上述の差分信号に対して直交変換を行う。   When generating an I picture, the orthogonal transform unit 23 performs orthogonal transform on the signal of the original image input through the subtraction unit 22. Further, when generating the P picture or the B picture, the orthogonal transform unit 23 performs orthogonal transform on the above-described difference signal.

量子化部24は、直交変換部23から入力されたブロック単位の周波数係数(直交変換係数)を量子化係数に変換する。量子化部24の出力は、可変長符号化部25および逆量子化部26にそれぞれ入力される。   The quantization unit 24 converts the frequency coefficient (orthogonal transform coefficient) of the block unit input from the orthogonal transform unit 23 into a quantized coefficient. The output of the quantization unit 24 is input to the variable length encoding unit 25 and the inverse quantization unit 26, respectively.

可変長符号化部25は、量子化係数や、動きベクトル等の予測情報を可変長符号化し、動画像の符号化ビットストリームを外部へ出力する。なお、可変長符号化部25は、上述の付帯情報の付与や、第1間引き画像と第2間引き画像との間で動き予測をする場合に色差成分での動きベクトルの補正の要否を示す補正情報の付与も行う。   The variable length coding unit 25 performs variable length coding on prediction information such as quantization coefficients and motion vectors, and outputs a coded bit stream of a moving image to the outside. Note that the variable-length encoding unit 25 indicates whether or not it is necessary to correct the motion vector with the color difference component when adding the above-described supplementary information or performing motion prediction between the first thinned image and the second thinned image. Correction information is also given.

例えば、可変長符号化部25は、MPEG−2ビデオのメインプロファイルに準拠して圧縮符号化する場合、ピクチャコーディングエクステンションに続くユーザデータの領域に上述の付帯情報や補正情報を含めてもよい。   For example, when compression encoding is performed in accordance with the main profile of MPEG-2 video, the variable length encoding unit 25 may include the above-described supplementary information and correction information in the user data area following the picture coding extension.

逆量子化部26は、ブロック単位で量子化係数を逆量子化して周波数係数を復号する。逆直交変換部27は、逆量子化部26で復号された周波数係数を逆直交変換して予測誤差値(または原画像の信号)を復号する。   The inverse quantization unit 26 inversely quantizes the quantization coefficient in units of blocks and decodes the frequency coefficient. The inverse orthogonal transform unit 27 performs inverse orthogonal transform on the frequency coefficient decoded by the inverse quantization unit 26 to decode a prediction error value (or an original image signal).

加算部28は、復号された予測誤差値と、予測部31で生成された後述の予測値とを加算する。そして、加算部28から出力されたピクチャの復号値(参照画像)は第2蓄積部29に蓄積される。なお、以後の動き補償予測で参照されない画像は第2蓄積部29から順次消去される。   The adding unit 28 adds the decoded prediction error value and a prediction value described later generated by the prediction unit 31. The decoded value (reference image) of the picture output from the adding unit 28 is stored in the second storage unit 29. Note that images that are not referred to in subsequent motion compensation prediction are sequentially deleted from the second storage unit 29.

予測情報生成部30は、第2蓄積部29の参照画像を用いて、符号化対象の画像を予測するための予測情報(動きベクトルなど)を生成する。予測情報は、予測部31および可変長符号化部25に出力される。   The prediction information generation unit 30 uses the reference image of the second storage unit 29 to generate prediction information (such as a motion vector) for predicting the encoding target image. The prediction information is output to the prediction unit 31 and the variable length coding unit 25.

予測部31は、予測情報および参照画像に基づいて、符号化対象の画像をブロック単位で予測した予測値を出力する。この予測値は、減算部22および加算部28に出力される。   The prediction unit 31 outputs a prediction value obtained by predicting the encoding target image in units of blocks based on the prediction information and the reference image. This predicted value is output to the subtractor 22 and the adder 28.

なお、或るブロックについて動き補償予測を行う場合、符号化対象の画像が予測値と完全に一致すると予測情報のみがデータ化される。また、符号化対象の画像が予測値と部分的に一致する場合、予測情報と差分の画像がデータ化される。また、符号化対象の画像が予測値からすべて外れる場合には、ブロック全体分の画像がすべてデータ化される。   Note that when motion compensation prediction is performed for a certain block, only prediction information is converted into data when the encoding target image completely matches the prediction value. Further, when the image to be encoded partially matches the predicted value, the prediction information and the difference image are converted into data. When all the encoding target images are out of the predicted values, all the images for the entire block are converted into data.

次に、図5を参照しつつ、図1の復号処理部113の構成例を説明する。図5では、ハードウェアやソフトウェアの連携によって実現される機能ブロックで復号処理部113の各部を示している。   Next, a configuration example of the decoding processing unit 113 in FIG. 1 will be described with reference to FIG. In FIG. 5, each unit of the decoding processing unit 113 is shown as a functional block realized by cooperation of hardware and software.

復号処理部113は、復号部41、補間部42、復号制御部43を有している。なお、復号処理部113には、圧縮動画像情報が入力される。   The decoding processing unit 113 includes a decoding unit 41, an interpolation unit 42, and a decoding control unit 43. Note that the compressed moving image information is input to the decoding processing unit 113.

復号部41は、圧縮動画像情報に含まれる第1符号化情報から第1間引き画像を復号し、圧縮動画像情報に含まれる第2符号化情報から第2間引き画像を復号する。復号部41の出力は補間部42に接続されている。なお、復号部41の構成例については後述する。   The decoding unit 41 decodes the first thinned image from the first encoded information included in the compressed moving image information, and decodes the second thinned image from the second encoded information included in the compressed moving image information. The output of the decoding unit 41 is connected to the interpolation unit 42. A configuration example of the decoding unit 41 will be described later.

補間部42は、それぞれYUV4:2:0形式の第1間引き画像または第2間引き画像のUチャネルおよびVチャネルに対して色差補間処理を施す。そして、補間部42は、第1間引き画像または第2間引き画像のYチャネル(Y面)には処理を施さずにスルー出力する。これにより、補間部42は、YUV4:4:4形式のカラー画像を出力する。   The interpolation unit 42 performs color difference interpolation processing on the U channel and the V channel of the first thinned image or the second thinned image in the YUV 4: 2: 0 format. Then, the interpolating unit 42 outputs through without performing processing on the Y channel (Y plane) of the first thinned image or the second thinned image. As a result, the interpolation unit 42 outputs a color image in the YUV 4: 4: 4 format.

復号制御部43は、動画像の復号のときに、復号部41、補間部42の各動作を統括的に制御する。なお、復号制御部43の制御により、補間部42は画像のヘッダ領域を参照して、色差間引きのパターンを示す付帯情報を取得する。そして、補間部42は、上述の付帯情報に基づいて、色差補間処理に用いる画像の組み合わせを決定する。   The decoding control unit 43 comprehensively controls each operation of the decoding unit 41 and the interpolation unit 42 when decoding a moving image. Note that, under the control of the decoding control unit 43, the interpolation unit 42 refers to the header area of the image and acquires incidental information indicating a color difference thinning pattern. Then, the interpolation unit 42 determines a combination of images to be used for the color difference interpolation process based on the accompanying information.

次に、図6を参照しつつ、図5の復号部41の構成例を説明する。図6では、ハードウェアやソフトウェアの連携によって実現される機能ブロックで復号部41の各部を示している。なお、図6に示す復号部41の機能ブロックは、図4で示した符号化部16の同名称の機能ブロックと共有化されていてもよい。   Next, a configuration example of the decoding unit 41 in FIG. 5 will be described with reference to FIG. In FIG. 6, each part of the decoding part 41 is shown by the functional block implement | achieved by cooperation of hardware or software. Note that the functional block of the decoding unit 41 shown in FIG. 6 may be shared with the functional block of the same name of the encoding unit 16 shown in FIG.

復号部41は、符号復号部51、逆量子化部52、逆直交変換部53、加算部54、第1蓄積部55、第2蓄積部56、予測部57を有している。   The decoding unit 41 includes a code decoding unit 51, an inverse quantization unit 52, an inverse orthogonal transform unit 53, an addition unit 54, a first accumulation unit 55, a second accumulation unit 56, and a prediction unit 57.

符号復号部51は、入力される動画像の符号化ビットストリームを復号し、量子化係数や、動きベクトル等の予測情報を出力する。なお、復号された量子化係数は逆量子化部52に入力され、復号された予測情報は予測部57に入力される。なお、圧縮動画像情報が色差成分での動きベクトルの補正の要否を示す補正情報を含む場合、符号復号部51は、復号した上述の補正情報を予測部57に入力する。   The code decoding unit 51 decodes an encoded bit stream of an input moving image and outputs prediction information such as a quantization coefficient and a motion vector. The decoded quantization coefficient is input to the inverse quantization unit 52, and the decoded prediction information is input to the prediction unit 57. Note that when the compressed moving image information includes correction information indicating whether or not the motion vector needs to be corrected with the color difference component, the code decoding unit 51 inputs the decoded correction information to the prediction unit 57.

逆量子化部52は、ブロック単位で量子化係数を逆量子化して周波数係数を復号する。逆直交変換部53は、逆量子化部52で復号された周波数係数を逆直交変換して予測誤差値(または原画像の信号)を復号する。   The inverse quantization unit 52 performs inverse quantization on the quantization coefficient in units of blocks and decodes the frequency coefficient. The inverse orthogonal transform unit 53 performs inverse orthogonal transform on the frequency coefficient decoded by the inverse quantization unit 52 to decode a prediction error value (or an original image signal).

加算部54は、復号された予測誤差値と、予測部57で生成された予測値とを加算することで、復号された画像をブロック単位で出力する。そして、加算部54から出力された画像の復号値は第1蓄積部55および第2蓄積部56にそれぞれ入力される。   The adding unit 54 adds the decoded prediction error value and the prediction value generated by the prediction unit 57 to output a decoded image in units of blocks. The decoded value of the image output from the adding unit 54 is input to the first storage unit 55 and the second storage unit 56, respectively.

第1蓄積部55は、復号した第1間引き画像または第2間引き画像を補間部42に出力するまで蓄積する。なお、補間部42への出力が完了した画像は第1蓄積部55から順次消去される。また、第2蓄積部56は、画像の復号値を参照画像として蓄積する。なお、以後の動き補償予測で参照されない画像は第2蓄積部56から順次消去される。   The first accumulation unit 55 accumulates the decoded first thinned image or second thinned image until it is output to the interpolation unit 42. Note that images that have been output to the interpolation unit 42 are sequentially deleted from the first storage unit 55. The second storage unit 56 stores the decoded image value as a reference image. Note that images that are not referred to in subsequent motion compensation prediction are sequentially deleted from the second storage unit 56.

予測部57は、予測情報および参照画像に基づいて、復号対象の画像をブロック単位で予測した予測値を加算部54に出力する。なお、予測部57は、復号対象の画像と予測元の画像との間で色差成分の間引きのパターンが異なるときに、間引きのパターンの違いに応じて色差成分の動きベクトルを補正する。   The prediction unit 57 outputs a prediction value obtained by predicting the decoding target image in units of blocks based on the prediction information and the reference image to the addition unit 54. The prediction unit 57 corrects the motion vector of the color difference component according to the difference in the thinning pattern when the color difference component thinning pattern differs between the decoding target image and the prediction source image.

次に、図7を参照しつつ、図5の補間部42の構成例を説明する。図7では、ハードウェアやソフトウェアの連携によって実現される機能ブロックで補間部42の各部を示している。   Next, a configuration example of the interpolation unit 42 in FIG. 5 will be described with reference to FIG. In FIG. 7, each part of the interpolation part 42 is shown by the functional block implement | achieved by cooperation of hardware or software.

補間部42は、蓄積部61、第1色差補間部62、色差合成部63、第2色差補間部64、重み付け調整部65、第1乗算部66、第2乗算部67、加算部68を有している。   The interpolation unit 42 includes a storage unit 61, a first color difference interpolation unit 62, a color difference synthesis unit 63, a second color difference interpolation unit 64, a weight adjustment unit 65, a first multiplication unit 66, a second multiplication unit 67, and an addition unit 68. doing.

蓄積部61は、色差補間処理で用いる第1間引き画像および第2間引き画像を一時的に蓄積する。例えば、色差補間処理では、時間軸方向で隣り合う第1間引き画像および第2間引き画像を使用するが、色差補間処理に使用されなくなった画像は蓄積部61から順次消去される。   The accumulation unit 61 temporarily accumulates the first and second thinned images used in the color difference interpolation process. For example, in the color difference interpolation process, the first thinned image and the second thinned image that are adjacent in the time axis direction are used, but images that are no longer used in the color difference interpolation process are sequentially deleted from the storage unit 61.

第1色差補間部62は、異なるフレームの色差成分の情報を用いずに、色差補間の基準となる画像で間引きされた分の色差成分をフレーム内で補間し、YUV4:4:4形式の画像を出力する。なお、第1色差補間部62の出力は、第1乗算部66に接続されている。   The first chrominance interpolation unit 62 interpolates the chrominance components thinned out in the image serving as a reference for the chrominance interpolation within the frame without using the chrominance component information of the different frames, and the image in the YUV 4: 4: 4 format. Is output. The output of the first color difference interpolation unit 62 is connected to the first multiplication unit 66.

色差合成部63は、色差間引きのパターンがそれぞれ異なり、時間軸方向で隣り合う2画像の色差成分を合成する。色差合成部63は、色差補間の基準となる画像で色差成分を完全に間引きした行の色差成分を時間軸方向で隣り合うフレームから補充する。なお、色差合成部63は、例えば、色差補間の基準となる画像に対して1フレーム過去の画像から色差成分を補充する。   The color difference synthesizing unit 63 synthesizes the color difference components of two images adjacent to each other in the time axis direction with different color difference thinning patterns. The color difference synthesis unit 63 replenishes the color difference components in a row in which the color difference components are completely thinned out from an image serving as a reference for color difference interpolation from adjacent frames in the time axis direction. Note that the color difference synthesis unit 63 supplements the color difference component from an image one frame past, for example, with respect to an image serving as a reference for color difference interpolation.

例えば、色差補間の基準が第1間引き画像の場合、時間軸方向で隣り合う第2間引き画像から偶数行の色差成分の標本点が補充される。また、色差補間の基準が第2間引き画像の場合、時間軸方向で隣り合う第1間引き画像から奇数行の色差成分の標本点が補充される。これにより、色差合成部63から出力される画像では、色差成分の標本点が市松状に配列された状態となる(図3(d)参照)。   For example, when the reference for color difference interpolation is the first thinned image, the sample points of the color difference components in even rows are supplemented from the second thinned image adjacent in the time axis direction. When the reference for color difference interpolation is the second thinned image, the sample points of the odd-numbered color difference components are supplemented from the first thinned image adjacent in the time axis direction. Thereby, in the image output from the color difference synthesis unit 63, the sample points of the color difference components are arranged in a checkered pattern (see FIG. 3D).

第2色差補間部64は、色差合成部63から出力される画像の色差成分を補間し、YUV4:4:4形式の画像を出力する。なお、第2色差補間部64の出力は、第2乗算部67に接続されている。   The second color difference interpolation unit 64 interpolates the color difference components of the image output from the color difference synthesis unit 63, and outputs a YUV 4: 4: 4 format image. Note that the output of the second color difference interpolation unit 64 is connected to the second multiplication unit 67.

重み付け調整部65は、第1色差補間部62の色差成分と第2色差補間部64の色差成分とを加算するときの重み付け係数α,1−αを求める(但し、0≦α≦1)。ここで、重み付け調整部65は、画像の標本点ごとに上述の係数α,1−αをそれぞれ変化させる。例えば、重み付け調整部65は、標本点に対応した局所領域の輝度成分に応じて、上述の係数α,1−αを標本点ごとにそれぞれ求める。   The weight adjustment unit 65 obtains weighting coefficients α and 1-α when adding the color difference component of the first color difference interpolation unit 62 and the color difference component of the second color difference interpolation unit 64 (where 0 ≦ α ≦ 1). Here, the weight adjustment unit 65 changes the above-described coefficients α and 1-α for each sample point of the image. For example, the weight adjustment unit 65 obtains the above-described coefficients α and 1-α for each sample point according to the luminance component of the local region corresponding to the sample point.

第1乗算部66は、第1色差補間部62の色差成分に対して係数αを乗じる。また、第2乗算部67は、第2色差補間部64の色差成分に対して係数1−αを乗じる。また、加算部68は、係数αで重み付けされた第1乗算部66の色差成分と、係数1−αで重み付けされた第2乗算部67の色差成分を標本点ごとに加算する。そして、加算部68は、色差補間されたYUV4:4:4形式の画像を外部に出力する。   The first multiplication unit 66 multiplies the color difference component of the first color difference interpolation unit 62 by a coefficient α. The second multiplier 67 multiplies the color difference component of the second color difference interpolation unit 64 by a coefficient 1-α. Further, the adding unit 68 adds the color difference component of the first multiplication unit 66 weighted with the coefficient α and the color difference component of the second multiplication unit 67 weighted with the coefficient 1−α for each sample point. Then, the adding unit 68 outputs an image in YUV 4: 4: 4 format subjected to color difference interpolation to the outside.

(動画像の圧縮動作例)
以下、第1実施形態での動画像の圧縮動作例を説明する。
(Example of video compression)
Hereinafter, an example of a moving image compression operation in the first embodiment will be described.

第1実施形態での電子カメラ100が動画撮影モード下で撮影指示を受け付けると、画像処理エンジン104は撮像素子102を駆動させて動画撮影を開始する。撮像素子102から出力される動画像のフレームは、信号処理部103および画像処理部111で一連の信号処理と画像処理が施された後に、圧縮処理部112で圧縮符号化される。そして、圧縮処理部112で圧縮された圧縮動画像情報は、画像処理エンジン104の制御により、記録I/F107に接続された記憶媒体110に記録される。   When the electronic camera 100 according to the first embodiment receives a shooting instruction in the moving image shooting mode, the image processing engine 104 drives the image sensor 102 to start moving image shooting. A frame of a moving image output from the image sensor 102 is subjected to a series of signal processing and image processing by the signal processing unit 103 and the image processing unit 111, and then compression encoded by the compression processing unit 112. The compressed moving image information compressed by the compression processing unit 112 is recorded on the storage medium 110 connected to the recording I / F 107 under the control of the image processing engine 104.

図8は、圧縮処理部112での動画像の圧縮動作例を示す流れ図である。   FIG. 8 is a flowchart showing an example of a moving image compression operation in the compression processing unit 112.

ステップ#101:圧縮処理部112のフィルタ処理部11は、入力されるYUV画像の色差成分に対して2次元的なローパスフィルタ処理を施す。   Step # 101: The filter processing unit 11 of the compression processing unit 112 performs a two-dimensional low-pass filter process on the color difference component of the input YUV image.

ステップ#102:圧縮制御部17は、第1スイッチ12および第2スイッチ15をそれぞれ第1間引き部13側に切り替える。そして、第1間引き部13は、YUV画像から第1のパターンで色差成分を間引く色差間引き処理を行う。これにより、YUV4:2:0形式の第1間引き画像が生成される(図3(b)参照)。   Step # 102: The compression control unit 17 switches the first switch 12 and the second switch 15 to the first decimation unit 13 side. Then, the first thinning unit 13 performs a color difference thinning process for thinning the color difference components from the YUV image with the first pattern. As a result, a first thinned image in the YUV 4: 2: 0 format is generated (see FIG. 3B).

ステップ#103:符号化部16は、入力された第1間引き画像を、例えばMPEG−2ビデオのメインプロファイルに準拠して圧縮符号化する。圧縮後の第1符号化情報は、記憶媒体110に記録される。   Step # 103: The encoding unit 16 compresses and encodes the input first thinned image in accordance with, for example, the main profile of MPEG-2 video. The first encoded information after compression is recorded in the storage medium 110.

ステップ#104:圧縮制御部17は、入力される動画像全体の圧縮が終了したか否かを判定する。上述の要件を満たす場合(YES側)、圧縮制御部17は圧縮動作を終了する。一方、上述の要件を満たさない場合(NO側)、#105に処理が移行して次のフレームの圧縮が行われる。   Step # 104: The compression control unit 17 determines whether or not the compression of the entire input moving image has been completed. If the above requirement is satisfied (YES side), the compression control unit 17 ends the compression operation. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to # 105 and the next frame is compressed.

ステップ#105:フィルタ処理部11は、入力されるYUV画像の色差成分に対して2次元的なローパスフィルタ処理を施す。   Step # 105: The filter processing unit 11 performs a two-dimensional low-pass filter process on the color difference component of the input YUV image.

ステップ#106:圧縮制御部17は、第1スイッチ12および第2スイッチ15をそれぞれ第2間引き部14側に切り替える。そして、第2間引き部14は、YUV画像から第2のパターンで色差成分を間引く色差間引き処理を行う。これにより、YUV4:2:0形式の第2間引き画像が生成される(図3(c)参照)。   Step # 106: The compression control unit 17 switches the first switch 12 and the second switch 15 to the second decimation unit 14 side. Then, the second thinning unit 14 performs a color difference thinning process for thinning the color difference components from the YUV image with the second pattern. As a result, a second thinned image in YUV 4: 2: 0 format is generated (see FIG. 3C).

ステップ#107:符号化部16は、入力された第2間引き画像を、例えばMPEG−2ビデオのメインプロファイルに準拠して圧縮符号化する。圧縮後の第2符号化情報は、記憶媒体110に記録される。   Step # 107: The encoding unit 16 compresses and encodes the input second thinned image in accordance with, for example, the main profile of MPEG-2 video. The compressed second encoded information is recorded in the storage medium 110.

ステップ#108:圧縮制御部17は、入力される動画像全体の圧縮が終了したか否かを判定する。上述の要件を満たす場合(YES側)、圧縮制御部17は圧縮動作を終了する。一方、上述の要件を満たさない場合(NO側)、#101に戻って次のフレームの圧縮が行われる。以上で、図8の説明を終了する。   Step # 108: The compression control unit 17 determines whether or not the compression of the entire input moving image has been completed. If the above requirement is satisfied (YES side), the compression control unit 17 ends the compression operation. On the other hand, when the above requirement is not satisfied (NO side), the process returns to # 101 to compress the next frame. Above, description of FIG. 8 is complete | finished.

また、図9は、図8の#103、#107での符号化処理の例を示す流れ図である。   FIG. 9 is a flowchart showing an example of the encoding process at # 103 and # 107 in FIG.

ステップ#201:圧縮制御部17は、符号化の対象となる画像の符号化形式(Iピクチャ、Pピクチャ、Bピクチャ)を決定する。   Step # 201: The compression control unit 17 determines an encoding format (I picture, P picture, B picture) of an image to be encoded.

ここで、図10(a)〜(c)は、動画像の符号化形式の例を示す図である。図10において「In」はn番目のIピクチャを示し、「Pn」はn番目のPピクチャを示し、「Bn」はn番目のBピクチャを示す。また、図10の例では、奇数番目のフレームが第1間引き画像であり、偶数番目のフレームが第2間引き画像である例を示す。   Here, FIGS. 10A to 10C are diagrams illustrating examples of the encoding format of the moving image. In FIG. 10, “In” indicates the nth I picture, “Pn” indicates the nth P picture, and “Bn” indicates the nth B picture. In the example of FIG. 10, an odd-numbered frame is a first thinned image, and an even-numbered frame is a second thinned image.

図10(a)は、動画像の各フレームをIピクチャとして符号化する例を示している。図10(a)の場合は、画面内予測符号化のみであり、第1間引き画像と第2間引き画像との間で画面間予測符号化は行われない。   FIG. 10A shows an example in which each frame of a moving image is encoded as an I picture. In the case of FIG. 10A, only intra prediction encoding is performed, and inter prediction encoding is not performed between the first thinned image and the second thinned image.

また、図10(b)は、IピクチャとPピクチャとの組み合わせで動画像を符号化する例を示している。図10(b)の場合には、第1間引き画像と第2間引き画像との間で画面間予測符号化が行われる。   FIG. 10B shows an example in which a moving image is encoded with a combination of an I picture and a P picture. In the case of FIG. 10B, inter-screen predictive coding is performed between the first thinned image and the second thinned image.

また、図10(c)は、Iピクチャ、Pピクチャ、Bピクチャとの組み合わせで動画像を符号化する例を示している。図10(c)の場合、Iピクチャ、Pピクチャは奇数番目のフレーム(第1間引き画像)であり、Bピクチャは偶数番目のフレーム(第2間引き画像)である。図10(c)のPピクチャの符号化では、色差間引きのパターンが同じ画像のみを参照して画面間予測符号化が行われる。一方、図10(c)のBピクチャの符号化では、時間軸方向で前後に隣り合う第1間引き画像を参照して、第2間引き画像に対して画面間双予測符号化が行われる。   FIG. 10C illustrates an example in which a moving image is encoded with a combination of an I picture, a P picture, and a B picture. In the case of FIG. 10C, the I picture and P picture are odd-numbered frames (first thinned images), and the B picture is an even-numbered frame (second thinned images). In the coding of the P picture in FIG. 10C, the inter-picture prediction coding is performed with reference to only images having the same color difference thinning pattern. On the other hand, in the coding of the B picture in FIG. 10C, the inter-screen bi-predictive coding is performed on the second thinned image with reference to the first thinned images adjacent to each other in the time axis direction.

ステップ#202:圧縮制御部17は、符号化の対象となる画像の色差間引きのパターン(第1間引き画像、第2間引き画像)を識別する。   Step # 202: The compression controller 17 identifies the color difference thinning pattern (first thinned image, second thinned image) of the image to be encoded.

ステップ#203:圧縮制御部17は、符号化の対象となる画像と参照画像との色差間引きのパターンに応じて、圧縮時の動き補償予測での色差成分の動きベクトルについて補正の要否を決定する。   Step # 203: The compression control unit 17 determines whether or not it is necessary to correct the motion vector of the color difference component in the motion compensation prediction at the time of compression according to the color difference thinning pattern between the image to be encoded and the reference image. To do.

例えば、色差間引きのパターンが同じ画像を参照画像として画面間予測符号化をする場合、符号化の対象となる画像と参照画像との間で標本点の位置は一致する。しかし、色差間引きのパターンが異なる画像を参照画像として画面間予測符号化をする場合、符号化の対象となる画像と参照画像との間で標本点の位置にズレが生じる。したがって、圧縮制御部17は、後者の場合(例えば、図10(b)のPピクチャの場合と、図10(c)のBピクチャの場合)には、動き補償予測での色差成分の動きベクトルを補正する設定を行う。   For example, when inter-picture predictive encoding is performed using an image with the same color difference thinning pattern as a reference image, the positions of the sample points match between the image to be encoded and the reference image. However, when inter-picture predictive encoding is performed using an image with a different color difference thinning pattern as a reference image, the sample point is displaced between the image to be encoded and the reference image. Therefore, in the latter case (for example, in the case of the P picture in FIG. 10B and the B picture in FIG. 10C), the compression control unit 17 performs the motion vector of the color difference component in the motion compensation prediction. Set to correct.

ステップ#204:符号化部16の可変長符号化部25は、圧縮制御部17の制御により、符号化する画像のヘッダ領域に付帯情報および補正情報を付与して符号化する。付帯情報は、例えば、第1間引き画像、第2間引き画像を示す識別子である。また、補正情報は、例えば、上述する色差成分の動きベクトルについて補正の要否を示す識別子である。   Step # 204: Under the control of the compression control unit 17, the variable length coding unit 25 of the coding unit 16 adds the additional information and the correction information to the header area of the image to be coded, and performs coding. The incidental information is, for example, an identifier indicating the first thinned image and the second thinned image. The correction information is, for example, an identifier indicating whether correction is necessary for the motion vector of the color difference component described above.

例えば、可変長符号化部25は、MPEG−2ビデオのメインプロファイルに準拠して圧縮符号化する場合、ピクチャコーディングエクステンションに続くユーザデータの領域に上述の付帯情報や補正情報を含める。   For example, when compression encoding is performed in accordance with the main profile of MPEG-2 video, the variable length encoding unit 25 includes the above-described supplementary information and correction information in the user data area following the picture coding extension.

ステップ#205:予測情報生成部30は、PピクチャまたはBピクチャを生成する場合、参照画像を用いて、マクロブロックを動き補償予測する。また、予測情報生成部30は、Iピクチャを生成する場合には、マクロブロックの情報をスルー出力する。   Step # 205: When generating the P picture or the B picture, the prediction information generation unit 30 performs motion compensation prediction on the macroblock using the reference image. Further, when generating an I picture, the prediction information generation unit 30 outputs the macroblock information as a through output.

ステップ#206:予測部31は、PピクチャまたはBピクチャを生成する場合、動き補償予測(#205)で得たマクロブロックの予測値を出力する。また、予測部31は、Iピクチャを生成する場合、予測値としてゼロ値を出力する。そして、減算部22は、画像の原信号から予測値を減算して予測誤差を出力する。   Step # 206: When generating the P picture or the B picture, the prediction unit 31 outputs the prediction value of the macroblock obtained by the motion compensation prediction (# 205). Further, when generating the I picture, the prediction unit 31 outputs a zero value as a prediction value. Then, the subtraction unit 22 subtracts the prediction value from the original signal of the image and outputs a prediction error.

ステップ#207:直交変換部23は、予測誤差(#206)を直交変換する。   Step # 207: The orthogonal transform unit 23 performs orthogonal transform on the prediction error (# 206).

ステップ#208:量子化部24は、予測誤差の直交変換係数(#207)を量子化する。   Step # 208: The quantization unit 24 quantizes the orthogonal transform coefficient (# 207) of the prediction error.

ステップ#209:可変長符号化部25は、動きベクトルや参照画像等を示す予測情報や、量子化係数を可変長符号化する。#209の段階で、1ブロック分の符号化情報が符号化部16から出力される。   Step # 209: The variable length coding unit 25 performs variable length coding on prediction information indicating a motion vector, a reference image, and the like, and a quantization coefficient. In step # 209, the encoding information for one block is output from the encoding unit 16.

ステップ#210:逆量子化部26は、量子化係数を逆量子化する。   Step # 210: The inverse quantization unit 26 inversely quantizes the quantization coefficient.

ステップ#211:逆直交変換部27は、逆量子化で求めた直交変換係数を逆直交変換して予測誤差を復号する。   Step # 211: The inverse orthogonal transform unit 27 performs inverse orthogonal transform on the orthogonal transform coefficient obtained by inverse quantization and decodes the prediction error.

ステップ#212:加算部28は、復号された予測誤差にマクロブロックの予測値を加算して、ピクチャの局部復号値を生成する。なお、上述の局部復号値は第2蓄積部29に蓄積される。   Step # 212: The adding unit 28 adds the predicted value of the macroblock to the decoded prediction error to generate a local decoded value of the picture. Note that the above-described local decoded value is stored in the second storage unit 29.

ステップ#213:圧縮制御部17は、1フレームの符号化が完了したか否かを判定する。上述の要件を満たす場合(YES側)には、#104または#108に処理が復帰する。一方、上述の要件を満たさない場合(NO側)には、#205に戻って符号化部16は上述の動作を繰り返す。上述のループにより、符号化対象の画像がブロック単位で符号化されることとなる。以上で、図9の説明を終了する。   Step # 213: The compression control unit 17 determines whether or not one frame has been encoded. If the above requirement is satisfied (YES side), the process returns to # 104 or # 108. On the other hand, when the above requirement is not satisfied (NO side), the processing returns to # 205 and the encoding unit 16 repeats the above operation. By the loop described above, the image to be encoded is encoded in units of blocks. Above, description of FIG. 9 is complete | finished.

また、図11は、図9の#205での動き補償予測の処理例を示す流れ図である。   FIG. 11 is a flowchart showing an example of the motion compensation prediction process in # 205 of FIG.

ステップ#301:予測情報生成部30は、マクロブロックの動きベクトル、予測モード、参照画像等の予測情報を生成する。   Step # 301: The prediction information generation unit 30 generates prediction information such as a macroblock motion vector, a prediction mode, and a reference image.

ステップ#302:予測情報生成部30は、符号化形式がIピクチャか否かを判定する。上述の要件を満たす場合(YES側)には、図9の#206に処理が復帰する。なお、この場合には、予測情報生成部30はマクロブロックの情報をスルー出力する。一方、上述の要件を満たさない場合(NO側)には、#303に処理が移行する。   Step # 302: The prediction information generation unit 30 determines whether or not the encoding format is an I picture. If the above requirement is satisfied (YES side), the process returns to # 206 in FIG. In this case, the prediction information generation unit 30 outputs the macroblock information as a through output. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to # 303.

ステップ#303:予測情報生成部30は、上述の予測情報に基づいて、マクロブロックの輝度成分について動き補償予測を行う。   Step # 303: The prediction information generation unit 30 performs motion compensation prediction on the luminance component of the macroblock based on the above-described prediction information.

ステップ#304:予測情報生成部30は、図9の#203の処理に基づいて、色差成分の動きベクトルを補正する設定であるか否かを判定する。上述の要件を満たす場合(YES側)には、#305に処理が移行する。一方、上述の要件を満たさない場合(NO側)には、#307に処理が移行する。なお、#304のNO側の場合、色差成分の動きベクトルを補正することなく、色差成分について動き補償予測が行われる。   Step # 304: The prediction information generation unit 30 determines whether or not the setting is to correct the motion vector of the color difference component based on the process of # 203 in FIG. If the above requirement is satisfied (YES side), the process proceeds to # 305. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to # 307. In the case of # 304 on the NO side, motion compensation prediction is performed for the color difference component without correcting the motion vector of the color difference component.

ステップ#305:予測情報生成部30は、符号化対象の画像と参照画像との色差間引きのパターンが異なるか否かを判定する。上述の要件を満たす場合(YES側)には、#306に処理が移行する。一方、上述の要件を満たさない場合(NO側)には、#307に処理が移行する。なお、#305のNO側の場合、色差成分の動きベクトルを補正することなく、色差成分について動き補償予測が行われる。   Step # 305: The prediction information generating unit 30 determines whether or not the color difference thinning pattern is different between the encoding target image and the reference image. If the above requirement is satisfied (YES side), the process proceeds to # 306. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to # 307. Note that in the case of # 305 on the NO side, motion compensation prediction is performed for the color difference component without correcting the motion vector of the color difference component.

ステップ#306:予測情報生成部30は、参照画像との色差間引きのパターンの違いに応じて、色差成分の動きベクトルを補正する。   Step # 306: The prediction information generation unit 30 corrects the motion vector of the color difference component according to the difference in the color difference thinning pattern from the reference image.

図12は、色差成分の動きベクトルの補正例を示す図である。図12は、予測先画像(第2間引き画像)の注目画素P2xでの色差成分の値を、注目画素に隣接する予測元画像(第1間引き画像)の4画素(P1a〜P1d)の平均値で求める例を示している。図12の場合、注目画素の画素値を4つの隣接画素の平均で予測するため、予測元画像の復号値に含まれる符号化歪みを抑制できる。   FIG. 12 is a diagram illustrating a correction example of the motion vector of the color difference component. FIG. 12 shows the value of the color difference component at the target pixel P2x of the prediction destination image (second thinned image) and the average value of the four pixels (P1a to P1d) of the prediction source image (first thinned image) adjacent to the target pixel. Shows an example to be obtained. In the case of FIG. 12, since the pixel value of the target pixel is predicted by the average of four adjacent pixels, the encoding distortion included in the decoded value of the prediction source image can be suppressed.

以下の説明に関し、図12では画像上で色差成分の標本点(画素P)の配列を丸印で示す。また、予測先画像の注目画素の位置に対する予測元画像の参照画素の位置ズレを、動きベクトルMV[x,y]と称する。動きベクトルMVは、右方向のズレによりxが増加し、左方向のズレによりxが減少する。同様に、動きベクトルMVは、下方向のズレによりyが増加し、上方向のズレによりyが減少する。   Regarding the following description, in FIG. 12, the arrangement of the color difference component sample points (pixels P) is indicated by circles on the image. Further, the positional deviation of the reference pixel of the prediction source image with respect to the position of the target pixel of the prediction destination image is referred to as a motion vector MV [x, y]. In the motion vector MV, x increases due to a right shift, and x decreases due to a left shift. Similarly, in the motion vector MV, y increases due to a downward shift, and y decreases due to an upward shift.

図12の例では、色配列の左上にP1画素、色配列の右下にP2画素が配置されている。図12の場合、画素P1aと画素P2xとが同じ標本点に属するが、注目画素(P2x)は補間により画素P1b〜P1dの影響を受ける。そのため、予測元画像での参照画素の範囲は、注目画素(P2x)の位置に対して右に0.5画素、下に0.5画素ずれる。よって、図12の例では、色差成分の動きベクトルMVは[0.5,0.5]となる。   In the example of FIG. 12, P1 pixels are arranged at the upper left of the color array, and P2 pixels are arranged at the lower right of the color array. In the case of FIG. 12, the pixel P1a and the pixel P2x belong to the same sample point, but the target pixel (P2x) is affected by the pixels P1b to P1d by interpolation. Therefore, the range of the reference pixel in the prediction source image is shifted by 0.5 pixel on the right and 0.5 pixel on the lower side with respect to the position of the target pixel (P2x). Therefore, in the example of FIG. 12, the motion vector MV of the color difference component is [0.5, 0.5].

#306での予測情報生成部30は、上述の動きベクトルMVを相殺するように、色差成分の動きベクトルを補正すればよい。   The prediction information generation unit 30 in # 306 may correct the motion vector of the color difference component so as to cancel the motion vector MV.

ステップ#307:予測情報生成部30は、上述の予測情報に基づいて、マクロブロックの色差成分について動き補償予測を行う。その後、図9の#206に処理が復帰する。以上で、図11の説明を終了する。   Step # 307: The prediction information generation unit 30 performs motion compensation prediction for the color difference component of the macroblock based on the above-described prediction information. Thereafter, the process returns to # 206 of FIG. This is the end of the description of FIG.

(動画像の復号動作例)
以下、第1実施形態での動画像の復号動作例を説明する。
(Example of video decoding operation)
Hereinafter, an example of a moving image decoding operation according to the first embodiment will be described.

第1実施形態での電子カメラ100が圧縮処理部112で圧縮された圧縮動画像情報の再生指示を受け付けると、画像処理エンジン104は記録I/F107に接続された記憶媒体110から圧縮動画像情報を取得する。そして、復号処理部113は圧縮動画像情報を復号する。そして、復号された動画像は、画像処理エンジン104の制御により、例えばモニタ108で再生表示される。   When the electronic camera 100 according to the first embodiment receives an instruction to reproduce the compressed moving image information compressed by the compression processing unit 112, the image processing engine 104 reads the compressed moving image information from the storage medium 110 connected to the recording I / F 107. To get. Then, the decoding processing unit 113 decodes the compressed moving image information. The decoded moving image is reproduced and displayed, for example, on the monitor 108 under the control of the image processing engine 104.

図13は、復号処理部113での動画像の復号動作例を示す流れ図である。   FIG. 13 is a flowchart illustrating an example of a moving image decoding operation in the decoding processing unit 113.

ステップ#401:復号処理部113は、記憶媒体110から圧縮動画像情報を取得する。そして、復号部41は、符号化情報から1フレーム分の間引き画像を復号する。   Step # 401: The decoding processing unit 113 acquires compressed video information from the storage medium 110. Then, the decoding unit 41 decodes the thinned image for one frame from the encoded information.

ステップ#402:補間部42は、復号されたYUV4:2:0形式の間引き画像に色差補間処理を施し、YUV4:4:4形式のカラー画像を出力する。   Step # 402: The interpolation unit 42 performs color difference interpolation processing on the decoded YUV 4: 2: 0 format thinned image, and outputs a YUV 4: 4: 4 format color image.

ステップ#403:復号制御部43は、取得した圧縮動画像情報の復号が終了したか否かを判定する。上述の要件を満たす場合(YES側)、復号制御部43は復号動作を終了する。一方、上述の要件を満たさない場合(NO側)、#401に戻って次のフレームの復号が行われる。以上で、図13の説明を終了する。   Step # 403: The decoding control unit 43 determines whether or not decoding of the acquired compressed video information has been completed. When the above requirements are satisfied (YES side), the decoding control unit 43 ends the decoding operation. On the other hand, when the above requirement is not satisfied (NO side), the process returns to # 401 to decode the next frame. Above, description of FIG. 13 is complete | finished.

また、図14は、図13の#401での復号処理の例を示す流れ図である。   FIG. 14 is a flowchart showing an example of the decoding process in # 401 of FIG.

ステップ#501:符号復号部51は、符号化された画像のヘッダ領域の情報を復号する。これにより、復号制御部43は、ピクチャコーディングエクステンションに続くユーザデータの領域から、上述の付帯情報や補正情報をそれぞれ取得する。   Step # 501: The encoding / decoding unit 51 decodes the information of the header area of the encoded image. As a result, the decoding control unit 43 acquires the above-described incidental information and correction information from the user data area following the picture coding extension.

ステップ#502:復号制御部43は、上述の補正情報に基づいて、復号時の動き補償予測での色差成分の動きベクトルについて補正の要否を決定する。例えば、圧縮時に色差成分の動きベクトルを補正している場合、復号制御部43は、復号時の動き補償予測でも色差成分の動きベクトルを補正する。   Step # 502: The decoding control unit 43 determines whether or not correction is required for the motion vector of the chrominance component in the motion compensation prediction at the time of decoding based on the above correction information. For example, when the motion vector of the color difference component is corrected at the time of compression, the decoding control unit 43 corrects the motion vector of the color difference component even in motion compensation prediction at the time of decoding.

ステップ#503:符号復号部51は、或るマクロブロックの可変長符号を復号し、動きベクトルや参照画像等を示す予測情報や、量子化係数を取得する。   Step # 503: The code decoding unit 51 decodes a variable length code of a certain macroblock, and acquires prediction information indicating a motion vector, a reference image, and the like, and a quantization coefficient.

ステップ#504:逆量子化部52は、マクロブロックの量子化係数(#503)を逆量子化する。   Step # 504: The inverse quantization unit 52 inversely quantizes the quantization coefficient (# 503) of the macroblock.

ステップ#505:逆直交変換部53は、逆量子化(#504)で求めた直交変換係数を逆直交変換して予測誤差を復号する。   Step # 505: The inverse orthogonal transform unit 53 performs inverse orthogonal transform on the orthogonal transform coefficient obtained by inverse quantization (# 504) to decode a prediction error.

ステップ#506:予測部57は、PピクチャまたはBピクチャを復号する場合、予測情報を用いてマクロブロックを動き補償予測し、マクロブロックの予測値を出力する。また、予測部57は、Iピクチャを復号する場合には、予測値としてゼロ値を出力する。   Step # 506: When decoding a P picture or a B picture, the prediction unit 57 performs motion compensation prediction on the macroblock using the prediction information, and outputs a prediction value of the macroblock. Further, the prediction unit 57 outputs a zero value as a prediction value when decoding an I picture.

ステップ#507:加算部54は、復号された予測誤差にマクロブロックの予測値を加算して、ピクチャの局部復号値を生成する。これにより、1つのマクロブロックの画像が復号された状態となる。なお、上述の局部復号値は第2蓄積部56に蓄積される。   Step # 507: The adding unit 54 adds the predicted value of the macroblock to the decoded prediction error to generate a local decoded value of the picture. As a result, one macroblock image is decoded. The above-described local decoded value is stored in the second storage unit 56.

ステップ#508:復号制御部43は、1フレームの復号が完了したか否かを判定する。上述の要件を満たす場合(YES側)には、#402に処理が復帰する。一方、上述の要件を満たさない場合(NO側)には、#503に戻って復号部41は上述の動作を繰り返す。上述のループにより、符号化された画像がブロック単位で復号されることとなる。以上で、図14の説明を終了する。   Step # 508: The decoding control unit 43 determines whether or not decoding of one frame has been completed. If the above requirement is satisfied (YES side), the process returns to # 402. On the other hand, when the above requirement is not satisfied (NO side), the process returns to # 503 and the decoding unit 41 repeats the above operation. According to the above loop, the encoded image is decoded in units of blocks. Above, description of FIG. 14 is complete | finished.

また、図15は、図14の#507での動き補償予測の処理例を示す流れ図である。   FIG. 15 is a flowchart showing an example of motion compensation prediction processing in # 507 of FIG.

ステップ#601:予測部57は、復号された予測情報(#503)に基づいて、マクロブロックの動きベクトル、予測モード、参照画像等を設定する。   Step # 601: The prediction unit 57 sets a macroblock motion vector, a prediction mode, a reference image, and the like based on the decoded prediction information (# 503).

ステップ#602:予測部57は、ヘッダ領域の情報(#501)および予測情報(#503)に基づいて、復号対象の画像と参照画像の色差間引きのパターン(第1間引き画像、第2間引き画像)をそれぞれ識別する。   Step # 602: Based on the header area information (# 501) and the prediction information (# 503), the prediction unit 57 performs the color difference thinning pattern (first thinned image, second thinned image) of the image to be decoded and the reference image. ) To identify each.

ステップ#603:予測部57は、上述の予測情報に基づいて、マクロブロックの輝度成分について動き補償予測を行う。   Step # 603: The prediction unit 57 performs motion compensation prediction on the luminance component of the macroblock based on the above prediction information.

ステップ#604:予測部57は、図14の#502の処理に基づいて、色差成分の動きベクトルを補正する設定であるか否かを判定する。上述の要件を満たす場合(YES側)には、#605に処理が移行する。一方、上述の要件を満たさない場合(NO側)には、#607に処理が移行する。なお、#604のNO側の場合、色差成分の動きベクトルを補正することなく、色差成分について動き補償予測が行われる。   Step # 604: The prediction unit 57 determines whether or not the setting is to correct the motion vector of the color difference component based on the process of # 502 in FIG. If the above requirement is satisfied (YES side), the process proceeds to # 605. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to # 607. In the case of # 604 on the NO side, motion compensation prediction is performed for the color difference component without correcting the motion vector of the color difference component.

ステップ#605:予測部57は、復号対象の画像と参照画像との色差間引きのパターンが異なるか否かを判定する。上述の要件を満たす場合(YES側)には、#606に処理が移行する。一方、上述の要件を満たさない場合(NO側)には、#607に処理が移行する。なお、#605のNO側の場合、色差成分の動きベクトルを補正することなく、色差成分について動き補償予測が行われる。   Step # 605: The prediction unit 57 determines whether or not the color difference thinning pattern is different between the decoding target image and the reference image. If the above requirement is satisfied (YES side), the process proceeds to # 606. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to # 607. In the case of # 605 on the NO side, motion compensation prediction is performed for the color difference component without correcting the motion vector of the color difference component.

ステップ#606:予測部57は、参照画像との色差間引きのパターンの違いに応じて、色差成分の動きベクトルを補正する。なお、#606での色差成分の動きベクトルの補正は、図11の#306の逆処理であるので重複説明を省略する。   Step # 606: The prediction unit 57 corrects the motion vector of the color difference component according to the difference in the color difference thinning pattern from the reference image. The correction of the motion vector of the color difference component in # 606 is the reverse process of # 306 in FIG.

ステップ#607:予測部57は、上述の予測情報に基づいて、マクロブロックの色差成分について動き補償予測を行う。その後、図14の#506に処理が復帰する。以上で、図15の説明を終了する。   Step # 607: The prediction unit 57 performs motion compensation prediction on the color difference component of the macroblock based on the above-described prediction information. Thereafter, the processing returns to # 506 in FIG. This is the end of the description of FIG.

また、図16は、図13の#402での色差補間処理の例を示す流れ図である。   FIG. 16 is a flowchart showing an example of the color difference interpolation process in # 402 of FIG.

ステップ#701:第1色差補間部62は、異なるフレームの色差成分の情報を用いずに、色差補間の基準となる画像で間引きされた分の色差成分をフレーム内で補間する。   Step # 701: The first chrominance interpolation unit 62 interpolates the chrominance components corresponding to the thinned out images in the image serving as the chrominance interpolation reference within the frame without using the chrominance component information of different frames.

図17は、第1色差補間部62で補間される色差成分の標本点を示す図である。一例として、図17に示す間引き画像で標本点C34、C43、C44の色差成分を補間する場合を考える。なお、標本点C33は、nフレーム目の間引き画像に含まれる色差の標本点である。このとき、第1色差補間部62は、式(1)〜式(4)の演算により補間すべき標本点の色差成分を求めればよい。   FIG. 17 is a diagram illustrating sample points of color difference components that are interpolated by the first color difference interpolation unit 62. As an example, consider a case where the color difference components of the sample points C34, C43, and C44 are interpolated in the thinned image shown in FIG. The sample point C33 is a color difference sample point included in the nth frame thinned image. At this time, the first color difference interpolation unit 62 may obtain the color difference component of the sample point to be interpolated by the calculation of the equations (1) to (4).

Figure 2017200199
Figure 2017200199

ここで、本明細書の記載において、「p」はフレーム内補間で求めた色差の値を示す。また、「Cγ[n]」は、nフレーム目の標本点γでの色差の値を示す。   Here, in the description of this specification, “p” indicates a color difference value obtained by intra-frame interpolation. “Cγ [n]” indicates the value of the color difference at the sample point γ of the nth frame.

なお、例えば、図3(b)に示す第1間引き画像を第1色差補間部62で色差補間した場合、色差補間後の画像は図18のようにYUV4:4:4形式となる。   For example, when the first thinned image shown in FIG. 3B is subjected to color difference interpolation by the first color difference interpolation unit 62, the image after color difference interpolation is in the YUV 4: 4: 4 format as shown in FIG.

ステップ#702:色差合成部63は、色差間引きのパターンがそれぞれ異なり、時間軸方向で隣り合う2画像の色差成分を合成する。色差合成部63から出力される画像では、色差成分の標本点が市松状に配列された状態となる(図3(d)参照)。   Step # 702: The color difference synthesizing unit 63 synthesizes the color difference components of two images that have different color difference thinning patterns and are adjacent in the time axis direction. In the image output from the color difference synthesis unit 63, the sample points of the color difference components are arranged in a checkered pattern (see FIG. 3D).

ステップ#703:第2色差補間部64は、色差合成部63から出力される画像(図3(d))の色差成分を補間する。   Step # 703: The second color difference interpolation unit 64 interpolates the color difference components of the image (FIG. 3D) output from the color difference synthesis unit 63.

図19は、第2色差補間部64で補間される色差成分の標本点を示す図である。一例として、図19に示す標本点C34、C43の色差成分を補間する場合を考える。なお、標本点C33は、nフレーム目の間引き画像に含まれる色差の標本点であり、標本点C44は、n−1フレーム目の間引き画像から補充した色差の標本点である。このとき、第2色差補間部64は、式(5)〜式(8)の演算により補間すべき標本点の色差成分を求めればよい。   FIG. 19 is a diagram illustrating sample points of color difference components that are interpolated by the second color difference interpolation unit 64. As an example, consider the case of interpolating the color difference components of sample points C34 and C43 shown in FIG. The sample point C33 is a color difference sample point included in the nth frame thinned image, and the sample point C44 is a color difference sample point supplemented from the n−1th frame thinned image. At this time, the second color difference interpolation unit 64 may obtain the color difference component of the sample point to be interpolated by the calculation of Expressions (5) to (8).

Figure 2017200199
Figure 2017200199

ここで、本明細書の記載において、「q」はフレーム間補間で求めた色差の値を示す。また、「Sγ[n]h」は、nフレーム目の標本点γでの水平方向の相関を示し、「Sγ[n]v」は、nフレーム目の標本点γでの垂直方向の相関を示す。また、「Kγ[n]h」は、nフレーム目の標本点γでの水平方向の重み付け値を示し、「Kγ[n]v」は、nフレーム目の標本点γでの垂直方向の重み付け値を示す。   Here, in the description of the present specification, “q” indicates a color difference value obtained by inter-frame interpolation. “Sγ [n] h” indicates the horizontal correlation at the sampling point γ of the nth frame, and “Sγ [n] v” indicates the correlation in the vertical direction at the sampling point γ of the nth frame. Show. “Kγ [n] h” represents a horizontal weighting value at the sampling point γ in the nth frame, and “Kγ [n] v” represents a weighting in the vertical direction at the sampling point γ in the nth frame. Indicates the value.

なお、例えば、図3(d)に示す色差の標本点を合成した画像を第2色差補間部64で色差補間した場合、色差補間後の画像は図20のようにYUV4:4:4形式となる。   For example, when an image obtained by synthesizing the color difference sample points shown in FIG. 3D is interpolated by the second color difference interpolation unit 64, the image after the color difference interpolation is in the YUV 4: 4: 4 format as shown in FIG. Become.

ステップ#704:重み付け調整部65は、標本点に対応した局所領域の輝度成分に応じて、上述の重み付け係数α,1−αを標本点ごとに求める。   Step # 704: The weighting adjustment unit 65 obtains the above-described weighting coefficients α, 1-α for each sample point according to the luminance component of the local region corresponding to the sample point.

例えば、重み付け調整部65は、重み付け係数を求める標本点を中心として3×3画素の局所領域を設定する。そして、重み付け調整部65は、上述の局所領域内で、前後2フレーム分の輝度成分の差分総和値から重み付け係数を求める。なお、図21は、後述する標本点C34を求めるときの局所領域の例を示す図である。図21では、標本点C34に対応する局所領域を破線で示す。   For example, the weight adjustment unit 65 sets a 3 × 3 pixel local region centered on a sample point for which a weighting coefficient is obtained. Then, the weighting adjustment unit 65 obtains a weighting coefficient from the difference sum value of the luminance components for two frames before and after within the above-described local region. FIG. 21 is a diagram showing an example of a local region when obtaining a sample point C34 described later. In FIG. 21, the local region corresponding to the sample point C34 is indicated by a broken line.

例えば、第2色差補間部64は、標本点C33、C34、C43、C44の重み付け係数を求めるときには、式(9)〜式(12)の演算を行えばよい。なお、標本点C33は、nフレーム目の間引き画像に含まれる色差の標本点である。   For example, the second color difference interpolation unit 64 may perform the calculations of Expressions (9) to (12) when obtaining the weighting coefficients of the sample points C33, C34, C43, and C44. The sample point C33 is a color difference sample point included in the nth frame thinned image.

Figure 2017200199
Figure 2017200199

ここで、本明細書の記載において、「eγ」は標本点γでの輝度のフレーム間誤差を示す。また、「Yγ[n]」はnフレーム目の標本点γの輝度成分を示す。また、「MIN(δ)」は(δ)に含まれる最小値を返す関数である。なお、「Cγout」は、標本点γでの重み付け加算後の色差の出力値を示している。   Here, in the description of the present specification, “eγ” indicates an inter-frame error in luminance at the sample point γ. “Yγ [n]” indicates the luminance component of the sample point γ of the nth frame. “MIN (δ)” is a function that returns the minimum value included in (δ). “Cγout” indicates the output value of the color difference after the weighted addition at the sample point γ.

ステップ#705:加算部68は、係数αで重み付けされた第1乗算部66の色差成分と、係数1−αで重み付けされた第2乗算部67の色差成分を標本点ごとに加算する。例えば、標本点C33、C34、C43、C44については、#705の加算部68は、上述の式(9)〜式(12)でC33out、C34out、C43out、C44outを求めればよい。そして、加算部68は、色差補間されたYUV4:4:4形式の画像を外部に出力する。なお、加算部68の出力画像における色差チャネルの例を図22に示す。以上で、図16の説明を終了する。   Step # 705: The adder 68 adds the color difference component of the first multiplier 66 weighted with the coefficient α and the color difference component of the second multiplier 67 weighted with the coefficient 1−α for each sample point. For example, for the sample points C33, C34, C43, and C44, the adding unit 68 of # 705 may obtain C33out, C34out, C43out, and C44out by the above-described equations (9) to (12). Then, the adding unit 68 outputs an image in YUV 4: 4: 4 format subjected to color difference interpolation to the outside. An example of the color difference channel in the output image of the adder 68 is shown in FIG. This is the end of the description of FIG.

(第1実施形態の作用効果)
以下、第1実施形態における作用効果を述べる。第1実施形態の電子カメラ100は、動画像の圧縮時において、YUV4:4:4形式のYUV画像からそれぞれ色差間引きのパターンが異なるYUV4:2:0形式の第1間引き画像と第2間引き画像とを生成する。そして、電子カメラ100は、上述の第1間引き画像および第2間引き画像を時系列に沿って符号化する。符号化後の圧縮動画像情報はYUV4:2:0形式であるので、色差間引きをせずに符号化する場合と比べて情報量を大きく削減できる。
(Operational effects of the first embodiment)
Hereinafter, the operational effects of the first embodiment will be described. The electronic camera 100 according to the first embodiment has a YUV4: 2: 0 format first thinned image and a second thinned image having different color difference thinning patterns from a YUV4: 4: 4 format YUV image when compressing a moving image. And generate Then, the electronic camera 100 encodes the first thinned image and the second thinned image described above in time series. Since the compressed moving image information after encoding is in the YUV 4: 2: 0 format, the amount of information can be greatly reduced as compared with the case of encoding without performing color difference thinning.

また、第1実施形態の電子カメラ100は、上述の圧縮動画像情報を復号するときに、色差間引きのパターンが異なる画像の色差成分の情報を用いて色差補間処理を行い、YUV4:4:4形式のカラー画像を復元する。これにより、YUV4:4:4形式の画像符号化を用いずに、色差間引きを伴う圧縮のときに生じる復号画像のエッジ部分での色にじみを抑制できる。なお、画像の色差間引きのパターンは、例えば、フレーム毎に色差間引きのパターンを表す付帯情報を動画像圧縮装置がユーザデータ領域に付加することで、動画像復号装置に対して明示的に告知できる。   In addition, when decoding the above-described compressed moving image information, the electronic camera 100 according to the first embodiment performs color difference interpolation processing using information on color difference components of images having different color difference thinning patterns, and YUV 4: 4: 4. Restore color image in format. Accordingly, it is possible to suppress color bleeding at the edge portion of the decoded image that occurs during compression with color difference thinning without using YUV 4: 4: 4 format image coding. Note that the color difference thinning pattern of the image can be explicitly notified to the video decoding device, for example, by adding accompanying information representing the color difference thinning pattern for each frame to the user data area. .

また、第1実施形態で生成される圧縮動画像情報は、YUV4:2:0形式に準拠しているため、上述の色差補間処理に対応していない装置でも、YUV4:2:0形式の動画像としてそのまま復号できる。   In addition, since the compressed moving image information generated in the first embodiment conforms to the YUV 4: 2: 0 format, even in an apparatus that does not support the above-described color difference interpolation processing, a moving image in the YUV 4: 2: 0 format It can be decoded as an image as it is.

また、第1実施形態において、動き補償予測において符号化対象のフレームと参照フレームの色差間引きのパターンが異なるときに、色差の動きベクトルを補正して動き補償予測することで符号化効率を向上させることができる。このとき、上述の色差の動きベクトルについて補正の有無を表す補正情報を動画像圧縮装置が付与することで、映像復号装置側で復号時に色差の動きベクトルを適切に補正させることができる。   Also, in the first embodiment, when the color difference thinning pattern between the encoding target frame and the reference frame is different in the motion compensation prediction, the motion efficiency prediction is performed by correcting the motion vector of the color difference to improve the encoding efficiency. be able to. At this time, the moving image compression apparatus gives correction information indicating the presence or absence of correction of the above-described color difference motion vector, whereby the color difference motion vector can be appropriately corrected on the video decoding apparatus side.

<第2実施形態の説明>
図23は、第2実施形態での装置構成例を示す図である。第2実施形態の装置は、上述の動画像圧縮装置、動画像復号装置として機能するコンピュータである。
<Description of Second Embodiment>
FIG. 23 is a diagram illustrating an apparatus configuration example according to the second embodiment. The device of the second embodiment is a computer that functions as the above-described moving image compression device and moving image decoding device.

図23に示すコンピュータ201は、データ読込部202、記憶装置203、CPU204、メモリ205および入出力I/F206、バス207を有している。データ読込部202、記憶装置203、CPU204、メモリ205および入出力I/F206は、バス207を介して相互に接続されている。さらに、コンピュータ201には、入出力I/F206を介して、入力デバイス208(キーボード、ポインティングデバイスなど)とモニタ209とがそれぞれ接続されている。なお、入出力I/F206は、入力デバイス208からの各種入力を受け付けるとともに、モニタ209に対して表示用のデータを出力する。   A computer 201 illustrated in FIG. 23 includes a data reading unit 202, a storage device 203, a CPU 204, a memory 205, an input / output I / F 206, and a bus 207. The data reading unit 202, the storage device 203, the CPU 204, the memory 205 and the input / output I / F 206 are connected to each other via a bus 207. Furthermore, an input device 208 (a keyboard, a pointing device, etc.) and a monitor 209 are connected to the computer 201 via an input / output I / F 206. The input / output I / F 206 receives various inputs from the input device 208 and outputs display data to the monitor 209.

データ読込部202は、未圧縮の動画像情報や、上述の圧縮動画像情報や、プログラムを外部から読み込むときに用いられる。データ読込部202は、例えば、着脱可能な記憶媒体からデータを取得する読込デバイス(光ディスク、磁気ディスク、光磁気ディスクの読込装置など)や、公知の通信規格に準拠して外部の装置と通信を行う通信デバイス(USBインターフェース、LANモジュール、無線LANモジュールなど)である。   The data reading unit 202 is used when reading uncompressed moving image information, the above-described compressed moving image information, and a program from the outside. For example, the data reading unit 202 communicates with a reading device (such as an optical disk, a magnetic disk, or a magneto-optical disk reading device) that acquires data from a removable storage medium, or an external device in accordance with a known communication standard. A communication device to perform (USB interface, LAN module, wireless LAN module, etc.).

記憶装置203は、例えば、ハードディスクや、不揮発性の半導体メモリなどの記憶媒体である。この記憶装置203には、上述のプログラムや、プログラムの実行に必要となる各種データが記憶されている。なお、記憶装置203には、データ読込部202から読み込んだ圧縮動画像情報などを記憶しておくこともできる。   The storage device 203 is a storage medium such as a hard disk or a non-volatile semiconductor memory. The storage device 203 stores the above-described program and various data necessary for executing the program. The storage device 203 can also store compressed moving image information read from the data reading unit 202.

CPU204は、コンピュータ201の各部を統括的に制御するプロセッサである。このCPU204は、プログラムの実行によって、第1実施形態の画像処理部111、圧縮処理部112、復号処理部113として機能する。   The CPU 204 is a processor that comprehensively controls each unit of the computer 201. The CPU 204 functions as the image processing unit 111, the compression processing unit 112, and the decoding processing unit 113 of the first embodiment by executing the program.

メモリ205は、プログラムでの各種演算結果を一時的に記憶する。このメモリ205は、例えば揮発性のSDRAMである。   The memory 205 temporarily stores various calculation results in the program. The memory 205 is, for example, a volatile SDRAM.

ここで、第2実施形態では、データ読込部202または記憶装置203から未圧縮の動画像情報を取得し、CPU204が図8に示す圧縮動作を実施する。あるいは、データ読込部202または記憶装置203から上述の圧縮動画像情報を取得し、CPU204が図13に示す復号動作を実施する。かかる第2実施形態においても、第1実施形態とほぼ同様の効果を得ることができる。   Here, in the second embodiment, uncompressed moving image information is acquired from the data reading unit 202 or the storage device 203, and the CPU 204 performs the compression operation shown in FIG. Alternatively, the above-described compressed moving image information is acquired from the data reading unit 202 or the storage device 203, and the CPU 204 performs the decoding operation shown in FIG. In the second embodiment, substantially the same effect as that of the first embodiment can be obtained.

<実施形態の補足事項>
(補足1):上述の実施形態では、2×2画素の左下と右上の色差の標本点を間引く色差間引きの例を説明したが、2×2画素の左上と右下の色差の標本点を間引くようにしてもよい。
<Supplementary items of the embodiment>
(Supplement 1): In the above-described embodiment, an example of the color difference thinning is performed in which the sample points of the lower left and upper right color differences of 2 × 2 pixels are thinned out. However, the sample points of the upper left and lower right color differences of 2 × 2 pixels are used. It may be thinned out.

(補足2):上述の実施形態では、MPEG−2ビデオのメインプロファイルに基づく圧縮符号化の例を説明した。しかし、本発明ではJPEG、AVC、その他のYUV4:2:0形式によるその他の圧縮符号化を適用しても良いし、非圧縮符号化を適用しても良い。   (Supplement 2): In the above-described embodiment, an example of compression encoding based on the main profile of MPEG-2 video has been described. However, in the present invention, other compression coding in JPEG, AVC, other YUV 4: 2: 0 format may be applied, or non-compression coding may be applied.

(補足3):画像の色差間引きのパターンを示す付帯情報の付与は、上述の実施形態の例に限定されない。例えば、MPEG−2ビデオのテンポラルリファレンス情報から判断可能な色差間引きのパターンを示すフレーム運用規則を予め規定しておくことで、復号処理装置に対して画像の色差間引きのパターンを暗示的に告知することもできる。   (Supplement 3): The addition of the auxiliary information indicating the pattern of color difference thinning of the image is not limited to the example of the above-described embodiment. For example, by predefining a frame operation rule indicating a color difference thinning pattern that can be determined from temporal reference information of MPEG-2 video, the image color difference thinning pattern is implicitly notified to the decoding processing apparatus. You can also.

(補足4):上述の実施形態では、第1間引き画像と第2間引き画像とが交互に生成される例を説明した。しかし、本発明において、第1間引き画像と第2間引き画像とは必ずしも交互に生成されなくともよい。   (Supplement 4): In the above-described embodiment, the example in which the first thinned image and the second thinned image are alternately generated has been described. However, in the present invention, the first thinned image and the second thinned image are not necessarily generated alternately.

図24は、動画像の符号化形式の別例を示す図である。図24は、第2間引き画像が2フレーム生成されるごとに、第1間引き画像が生成される例を示している。なお、図24の場合、第1間引き画像はIピクチャまたはPピクチャであり、第2間引き画像はBピクチャである。   FIG. 24 is a diagram illustrating another example of the encoding format of the moving image. FIG. 24 illustrates an example in which the first thinned image is generated every time two frames of the second thinned image are generated. In the case of FIG. 24, the first thinned image is an I picture or P picture, and the second thinned image is a B picture.

(補足5):上述の実施形態では、補間部42が符号化対象の画像よりも1フレーム過去の画像を用いて色差補間処理を行う例を説明した。しかし、補間部42は、色差間引きのパターンが異なる画像であれば、上述の例に限定されずに参照画像を設定することができる。例えば、補間部42は、符号化対象の画像よりも数フレーム過去の画像や、符号化対象の画像よりも未来の画像を用いて色差補間処理を行ってもよい。   (Supplement 5): In the above-described embodiment, the example in which the interpolation unit 42 performs the color difference interpolation process using an image that is one frame older than the image to be encoded has been described. However, the interpolation unit 42 can set a reference image without being limited to the above example as long as the image has a different color difference thinning pattern. For example, the interpolation unit 42 may perform the color difference interpolation process using an image that is several frames past the image to be encoded or an image that is future than the image to be encoded.

また、補間部42は、符号化対象の画像と時間軸方向に隣接し、それぞれ色差間引きのパターンが異なる複数の画像を用いて色差補間を行うようにしてもよい(図25参照)。   In addition, the interpolation unit 42 may perform color difference interpolation using a plurality of images that are adjacent to the encoding target image in the time axis direction and have different color difference thinning patterns (see FIG. 25).

図25は、補間部42の別例を示す図である。図25の例では、図7に示す各部に加え、色差合成部69、第3色差補間部70、第3乗算部71、第4乗算部72をさらに有している。色差合成部69は、色差補間の基準となる画像に対して1フレーム未来の画像から色差成分を補充する点を除いて、色差合成部63と同様に機能する。また、第3色差補間部70は、色差合成部69から出力される画像の色差成分を補間し、YUV4:4:4形式の画像を出力する。   FIG. 25 is a diagram illustrating another example of the interpolation unit 42. The example of FIG. 25 further includes a color difference synthesis unit 69, a third color difference interpolation unit 70, a third multiplication unit 71, and a fourth multiplication unit 72 in addition to the units shown in FIG. The color difference synthesizing unit 69 functions in the same manner as the color difference synthesizing unit 63 except that a color difference component is supplemented from an image one frame in the future with respect to an image serving as a reference for color difference interpolation. In addition, the third color difference interpolation unit 70 interpolates the color difference components of the image output from the color difference synthesis unit 69, and outputs a YUV 4: 4: 4 format image.

また、図25の重み付け調整部65は、第1色差補間部62の色差成分と第2色差補間部64の色差成分とを加算するときの重み付け係数α/2,(1−α)/2を標本点ごとに求める(但し、0≦α≦1)。また、重み付け調整部65は、第1色差補間部62の色差成分と第3色差補間部70の色差成分とを加算するときの重み付け係数β/2,(1−β)/2を標本点ごとに求める(但し、0≦β≦1)。そして、第3乗算部71は、第1色差補間部62の色差成分に対して係数β/2を乗じる。また、第4乗算部72は、第3色差補間部64の色差成分に対して係数(1−β)/2を乗じる。また、加算部68は、第1乗算部66から第4乗算部72までの各出力を加算する。   Also, the weighting adjustment unit 65 in FIG. 25 uses the weighting coefficients α / 2 and (1−α) / 2 when adding the color difference component of the first color difference interpolation unit 62 and the color difference component of the second color difference interpolation unit 64. Obtained for each sample point (however, 0 ≦ α ≦ 1). Also, the weighting adjustment unit 65 adds the weighting coefficients β / 2 and (1-β) / 2 for each sampling point when adding the color difference component of the first color difference interpolation unit 62 and the color difference component of the third color difference interpolation unit 70. (Where 0 ≦ β ≦ 1). The third multiplication unit 71 multiplies the color difference component of the first color difference interpolation unit 62 by a coefficient β / 2. The fourth multiplication unit 72 multiplies the color difference component of the third color difference interpolation unit 64 by a coefficient (1-β) / 2. The adder 68 adds the outputs from the first multiplier 66 to the fourth multiplier 72.

(補足6):本発明において、例えば、特開2008−109375に開示された複数フレームによる超解像処理を適用して色差補間を行い、色差間引き画像をYUV4:4:4形式に変換しても良い。この場合、色差の標本点の位置が異なる近隣フレームを用いることで、より効果的に色差を補間できる。   (Supplement 6): In the present invention, for example, color difference interpolation is performed by applying the super-resolution processing by a plurality of frames disclosed in Japanese Patent Application Laid-Open No. 2008-109375, and the color difference thinned image is converted into the YUV 4: 4: 4 format. Also good. In this case, the color difference can be interpolated more effectively by using neighboring frames having different color difference sample point positions.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

11…フィルタ処理部、12…第1スイッチ、13…第1間引き部、14…第2間引き部、15…第2スイッチ、16…符号化部、17…圧縮制御部、41…復号部、42…補間部、43…復号制御部、100…電子カメラ、101…撮像光学系、102…撮像素子、103…信号処理部、104…画像処理エンジン、105…第1メモリ、106…第2メモリ、107…記録I/F、108…モニタ、109…操作部、110…記憶媒体、111…画像処理部、112…圧縮処理部、113…復号処理部、201…コンピュータ、202…データ読込部、203…記憶装置、204…CPU、205…メモリ、206…入出力I/F、207…バス、208…入力デバイス、209…モニタ DESCRIPTION OF SYMBOLS 11 ... Filter process part, 12 ... 1st switch, 13 ... 1st thinning-out part, 14 ... 2nd thinning-out part, 15 ... 2nd switch, 16 ... Encoding part, 17 ... Compression control part, 41 ... Decoding part, 42 DESCRIPTION OF SYMBOLS ... Interpolation part 43 ... Decoding control part 100 ... Electronic camera 101 ... Imaging optical system 102 ... Image pick-up element 103 ... Signal processing part 104 ... Image processing engine 105 ... 1st memory 106 ... 2nd memory, DESCRIPTION OF SYMBOLS 107 ... Recording I / F, 108 ... Monitor, 109 ... Operation part, 110 ... Storage medium, 111 ... Image processing part, 112 ... Compression processing part, 113 ... Decoding processing part, 201 ... Computer, 202 ... Data reading part, 203 ... Storage device 204 ... CPU 205 ... Memory 206 ... Input / output I / F, 207 ... Bus, 208 ... Input device, 209 ... Monitor

Claims (1)

第1形式のカラー画像から第1のパターンで色差成分を間引き、前記第1形式とは異なる第2形式のカラー画像を生成する第1間引き部と、
前記第1形式のカラー画像から前記第1のパターンとは異なる第2のパターンで色差成分を間引き、前記第2形式のカラー画像を生成する第2間引き部と、
時系列に入力される複数の第1形式のカラー画像を、前記第1間引き部または前記第2間引き部に振り分ける選択部と、
前記第1間引き部または前記第2間引き部で生成された、複数の前記第2形式のカラー画像を前記時系列に沿って符号化する符号化部と、
を備えることを特徴とする動画像圧縮装置。
A first decimation unit that decimates color difference components in a first pattern from a color image in a first format and generates a color image in a second format different from the first format;
A second thinning unit that thins out the color difference component from the color image of the first format with a second pattern different from the first pattern, and generates a color image of the second format;
A selection unit that distributes a plurality of first-format color images input in time series to the first thinning unit or the second thinning unit;
An encoding unit that encodes a plurality of color images of the second format generated in the first decimation unit or the second decimation unit along the time series;
A moving image compression apparatus comprising:
JP2017109374A 2017-06-01 2017-06-01 Video compression device, video decoding device, and program Pending JP2017200199A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017109374A JP2017200199A (en) 2017-06-01 2017-06-01 Video compression device, video decoding device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017109374A JP2017200199A (en) 2017-06-01 2017-06-01 Video compression device, video decoding device, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012287064A Division JP6152642B2 (en) 2012-12-28 2012-12-28 Moving picture compression apparatus, moving picture decoding apparatus, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018205373A Division JP2019036992A (en) 2018-10-31 2018-10-31 Compressor, decoder, and program

Publications (1)

Publication Number Publication Date
JP2017200199A true JP2017200199A (en) 2017-11-02

Family

ID=60239660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017109374A Pending JP2017200199A (en) 2017-06-01 2017-06-01 Video compression device, video decoding device, and program

Country Status (1)

Country Link
JP (1) JP2017200199A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019142821A1 (en) * 2018-01-16 2019-07-25 株式会社ニコン Encoder, decoder, encoding method, decoding method, encoding program, and decoding program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245687A (en) * 1988-03-25 1989-09-29 Matsushita Electric Ind Co Ltd Moving image encoding device and method for arranging picture element
JP2012161020A (en) * 2011-02-02 2012-08-23 Fujitsu Ltd Image processing device, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245687A (en) * 1988-03-25 1989-09-29 Matsushita Electric Ind Co Ltd Moving image encoding device and method for arranging picture element
JP2012161020A (en) * 2011-02-02 2012-08-23 Fujitsu Ltd Image processing device, and image processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山岸秀一: "知っておきたいキーワード", [ONLINE], JPN7018002564, 2008 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019142821A1 (en) * 2018-01-16 2019-07-25 株式会社ニコン Encoder, decoder, encoding method, decoding method, encoding program, and decoding program

Similar Documents

Publication Publication Date Title
JP4720859B2 (en) Image processing apparatus, image processing method, and program
US9854247B2 (en) Moving image compression device, moving image decoding device, image compression device, image decoding device, imaging device, and non-transitory medium storing program
WO2019142821A1 (en) Encoder, decoder, encoding method, decoding method, encoding program, and decoding program
WO2009139123A1 (en) Image processor and imaging device using the same
US10674110B2 (en) Image encoding apparatus, and control method thereof
WO2009125673A1 (en) Dynamic image processing device, dynamic image processing method, and dynamic image processing program
JP4742813B2 (en) Image processing apparatus and image processing method
JPWO2010050089A1 (en) Encoding processing method and encoding processing apparatus in moving image compression encoding
US8457420B2 (en) Image decoding apparatus for decoding image data encoded by a method designating whether to perform distortion suppression processing and control method for the same
JP5130245B2 (en) Imaging resolution prediction type moving picture encoding apparatus and decoding apparatus
WO2016171006A1 (en) Encoding device and encoding method, and decoding device and decoding method
JP6152642B2 (en) Moving picture compression apparatus, moving picture decoding apparatus, and program
JP2017200199A (en) Video compression device, video decoding device, and program
JP2019022225A (en) Image compression apparatus and program
JP5974691B2 (en) MOVING IMAGE COMPRESSION DEVICE, IMAGING DEVICE, AND PROGRAM
JP2019036992A (en) Compressor, decoder, and program
JP2018032909A (en) Image coding device, control method therefor, imaging apparatus and program
JP5482428B2 (en) Imaging apparatus, camera shake correction method, and program
WO2019142836A1 (en) Coding device, decoding device, coding method, decoding method, coding program, and decoding program
JP2014143488A (en) Image compression apparatus, image decoder and program
JP2009278473A (en) Image processing device, imaging apparatus mounting the same, and image reproducing device
KR100771138B1 (en) Imaging device and image correcting method
WO2016047250A1 (en) Signal processing apparatus, imaging apparatus and signal processing method
JP7289642B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
US9554108B2 (en) Image processing device and storage medium storing image processing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180731